JP6399487B2 - Information processing apparatus, method executed by information processing apparatus, and computer program - Google Patents
Information processing apparatus, method executed by information processing apparatus, and computer program Download PDFInfo
- Publication number
- JP6399487B2 JP6399487B2 JP2014201890A JP2014201890A JP6399487B2 JP 6399487 B2 JP6399487 B2 JP 6399487B2 JP 2014201890 A JP2014201890 A JP 2014201890A JP 2014201890 A JP2014201890 A JP 2014201890A JP 6399487 B2 JP6399487 B2 JP 6399487B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- brain
- subject
- mask image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000000034 method Methods 0.000 title claims description 33
- 238000004590 computer program Methods 0.000 title claims description 23
- 210000004556 brain Anatomy 0.000 claims description 261
- 210000004885 white matter Anatomy 0.000 claims description 101
- 206010072731 White matter lesion Diseases 0.000 claims description 68
- 238000006243 chemical reaction Methods 0.000 claims description 67
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 claims description 63
- 238000000605 extraction Methods 0.000 claims description 54
- 238000002603 single-photon emission computed tomography Methods 0.000 claims description 36
- 210000004884 grey matter Anatomy 0.000 claims description 29
- 230000003902 lesion Effects 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 2
- 238000013500 data storage Methods 0.000 description 62
- 238000002595 magnetic resonance imaging Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 24
- 230000017531 blood circulation Effects 0.000 description 15
- 239000000284 extract Substances 0.000 description 14
- 230000007423 decrease Effects 0.000 description 13
- 208000024827 Alzheimer disease Diseases 0.000 description 11
- 201000004810 Vascular dementia Diseases 0.000 description 11
- 230000009537 cortical lesion Effects 0.000 description 11
- 208000010877 cognitive disease Diseases 0.000 description 10
- 208000027061 mild cognitive impairment Diseases 0.000 description 10
- 238000000926 separation method Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000003727 cerebral blood flow Effects 0.000 description 8
- 201000010099 disease Diseases 0.000 description 8
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 8
- 201000002832 Lewy body dementia Diseases 0.000 description 6
- 230000002861 ventricular Effects 0.000 description 5
- 230000001054 cortical effect Effects 0.000 description 4
- 230000002739 subcortical effect Effects 0.000 description 4
- 206010012289 Dementia Diseases 0.000 description 3
- 208000002339 Frontotemporal Lobar Degeneration Diseases 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 206010003694 Atrophy Diseases 0.000 description 2
- 230000037444 atrophy Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 201000006417 multiple sclerosis Diseases 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 210000004761 scalp Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 208000009829 Lewy Body Disease Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 208000037976 chronic inflammation Diseases 0.000 description 1
- 230000006020 chronic inflammation Effects 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000003412 degenerative effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002075 inversion recovery Methods 0.000 description 1
- 210000003140 lateral ventricle Anatomy 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000007658 neurological function Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000869 occipital lobe Anatomy 0.000 description 1
- 230000001936 parietal effect Effects 0.000 description 1
- 238000010827 pathological analysis Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Nuclear Medicine (AREA)
Description
本発明は、MRI装置により撮影されたFLAIR画像から白質病変部位を抽出する技術に関する。 The present invention relates to a technique for extracting a white matter lesion site from a FLAIR image photographed by an MRI apparatus.
MRI画像の解析ソフトとして、汎用ソフトであるSPM(Statistical Parametric Mapping)が広く使用されている。 As analysis software for MRI images, SPM (Statistical Parametric Mapping), which is general-purpose software, is widely used.
ところで、近年、白質病変とアルツハイマー病との関連性が指摘されているが、MRI画像から白質病変を精度よく抽出することは実施されていない。 Incidentally, in recent years, the relationship between white matter lesions and Alzheimer's disease has been pointed out, but white matter lesions have not been accurately extracted from MRI images.
本発明の目的は、FLAIR画像から白質病変部位を容易に精度よく抽出することである。 An object of the present invention is to easily and accurately extract a white matter lesion site from a FLAIR image.
本発明の一つの実施態様に従うコンピュータプログラムは、被験者の頭部のMRI画像と、標準脳において脳室を除外するためのマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、前記被験者のMRI画像から脳室と白質とを含む第1の領域を分離するステップと、前記被験者のMRI画像を標準脳へ変換するための変換関数を求めるステップと、前記変換関数の逆関数を用いて、前記標準脳において脳室を除外するためのマスク画像を、前記被験者の個人脳において脳室を除外するためのマスク画像に変換するステップと、前記第1の領域および前記被験者のマスク画像に基づき、前記被験者のFLAIR画像から、前記脳室を除外した白質を含む第2の領域を抽出するステップと、前記第2の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させる。 A computer program according to an embodiment of the present invention is a computer for causing an information processing apparatus having a storage unit to store an MRI image of a subject's head and a mask image for excluding a ventricle in a standard brain to be executed. A program comprising: separating a first region including a ventricle and white matter from the MRI image of the subject; obtaining a conversion function for converting the MRI image of the subject into a standard brain; Converting a mask image for excluding a ventricle in the standard brain into a mask image for excluding a ventricle in the individual brain of the subject using an inverse function of the function; and the first region and Extracting a second region including white matter excluding the ventricle from the FLAIR image of the subject based on the mask image of the subject; From said second region, to execute the steps of extracting a feature region, to the information processing apparatus.
本発明の他の実施態様に従うコンピュータプログラムは、被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、前記第1の画像を標準脳へ変換するための変換関数を求めるステップと、前記変換関数の逆関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、前記第2の領域から、特徴領域を抽出するステップと、前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させる。 A computer program according to another embodiment of the present invention includes an MRI image of a subject's head, a first mask image indicating an entire brain region in a standard brain, and an edge of the entire brain region in the standard brain that is substantially circular. A computer program for causing an information processing apparatus having a storage unit to store a second mask image corresponding to an area to execute the first area including white matter from the first image that is an MRI image of the subject A first mask image showing an entire brain region in the standard brain using an inverse function of the conversion function, a step of obtaining a conversion function for converting the first image into a standard brain And a second mask image corresponding to an edge region of the whole brain region in the standard brain, a first mask image indicating the whole brain region in the individual brain of the subject, and the front The MRI image of the subject based on the step of converting into a second mask image corresponding to an edge region of the whole brain region in the subject's individual brain, and the first region and the first mask image of the subject. Extracting a second region containing white matter from the second image; extracting a feature region from the second region; and a brain of the first mask image of the subject from the second image. Extracting a region that overlaps the entire region, and extracting a region inside the second image of the subject from the overlapping region of the second image as a third region containing white matter; and And extracting the feature region from the third region.
本発明によれば、FLAIR画像から白質病変部位を容易に精度よく抽出することができる。 According to the present invention, a white matter lesion site can be easily and accurately extracted from a FLAIR image.
以下、本発明の第1実施形態に係る情報処理装置および情報処理装置に実行させるコンピュータプログラムについて、図面を参照して説明する。 Hereinafter, an information processing apparatus and a computer program executed by the information processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings.
本実施形態に係る情報処理装置は、MRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。 The information processing apparatus according to the present embodiment performs processing for extracting a feature region from a FLAIR image photographed by the MRI apparatus.
図1は、本実施形態に係る情報処理装置1の全体構成を示す。同図に示すように、情報処理装置1は、情報処理装置本体10に入力装置2、出力装置3及び入出力装置4の一つ以上が接続されている。情報処理装置本体10は、例えば、プロセッサ及びメモリを備えた汎用的なコンピュータシステムにより構成され、以下に説明する情報処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に格納することができる。入力装置2は、例えば、キーボード、ポインティングデバイスなどでよい。出力装置3は、例えば、ディスプレイ装置、プリンタなどでよい。入出力装置4は、例えば、大容量記憶装置あるいはネットワークインタフェース装置などで良い。
FIG. 1 shows an overall configuration of an information processing apparatus 1 according to the present embodiment. As shown in the figure, in the information processing apparatus 1, one or more of an
情報処理装置本体10は、MRI(Magnetic Resonance Imaging)データ記憶部11と、SPECT(Single Photon Emission Computed Tomography)データ記憶部13と、位置合わせ部15と、位置合わせ後画像データ記憶部17と、分離処理部19と、第1の領域データ記憶部21と、標準脳データ記憶部23と、変換パラメータ算出部25と、変換パラメータ記憶部27と、マスク画像変換部29と、個人脳マスク画像データ記憶部31と、白質抽出部33と、第2の領域データ記憶部35と、特徴領域抽出部37と、特徴領域データ記憶部39と、体積算出部41と、体積データ記憶部43と、表示処理部45とを有する。
The information processing apparatus
MRIデータ記憶部11は、MRIデータとして、同一被験者の頭部を異なる手法で撮影した複数種類のMRI画像の画像データを記憶する。例えば、T1画像、T2画像、FLAIR画像のそれぞれの画像データ(T1画像データ、T2画像データ、FLAIR画像データ)を記憶する。T1画像は、脂肪を高信号(白)で抽出し、水を低信号(黒)で抽出した画像である。T2画像は、水を高信号(白)で抽出し、脂肪を低信号(黒)で抽出した画像であり、病変の抽出に有用である。FLAIR画像は、水の信号を抑制したT2画像であり、脳室と隣接した病変の抽出に有用である。また、MRIデータ記憶部11には、1人以上の被験者のMRIデータが記憶される。 The MRI data storage unit 11 stores, as MRI data, image data of a plurality of types of MRI images obtained by photographing the head of the same subject using different methods. For example, each image data (T1 image data, T2 image data, FLAIR image data) of a T1 image, a T2 image, and a FLAIR image is stored. The T1 image is an image in which fat is extracted with a high signal (white) and water is extracted with a low signal (black). The T2 image is an image in which water is extracted with a high signal (white) and fat is extracted with a low signal (black), and is useful for extracting lesions. The FLAIR image is a T2 image in which a water signal is suppressed, and is useful for extracting a lesion adjacent to the ventricle. The MRI data storage unit 11 stores MRI data of one or more subjects.
T1画像データ、T2画像データ、およびFLAIR画像データは、それぞれ複数の断層画像データにより構成される3次元データである。本実施の形態において、T1画像データおよびT2画像データにおけるマトリクスサイズ(ボクセル数)は720×720×22(720×720画素の断層画像が22枚)、画素サイズは0.31×0.31×6.00mmであり、FLAIR画像データにおけるマトリクスサイズは384×384×155(384×384画素の断層画像が155枚)、画素サイズは0.55×0.55×1.00mmである。なお、T1画像データ、T2画像データ、およびFLAIR画像データの画素値は、絶対値ではなく相対値であり、その数値はMRIの画像取得条件、カメラの種類に依存する。 T1 image data, T2 image data, and FLAIR image data are three-dimensional data each composed of a plurality of tomographic image data. In the present embodiment, the matrix size (number of voxels) in T1 image data and T2 image data is 720 × 720 × 22 (22 tomographic images of 720 × 720 pixels), and the pixel size is 0.31 × 0.31 ×. The matrix size in the FLAIR image data is 384 × 384 × 155 (155 tomographic images of 384 × 384 pixels), and the pixel size is 0.55 × 0.55 × 1.00 mm. The pixel values of T1 image data, T2 image data, and FLAIR image data are not absolute values but relative values, and the numerical values depend on MRI image acquisition conditions and the type of camera.
SPECTデータ記憶部13は、SPECTデータとして、MRIデータ記憶部11に記憶されているMRIデータと同一の被験者の頭部をSPECT撮影装置により撮影したSPECT画像のデータを記憶する。SPECT画像データは、複数の断層画像データにより構成される3次元データである。また、MRIデータおよびSPECTデータは、例えば、入力装置2または入出力装置4を介して取得しても良いし、MRI装置およびSPECT撮影装置から直接取得しても良い。
The SPECT
位置合わせ部15は、MRIデータ記憶部11に記憶されている同一人のFLAIR画像データとT2画像データとを取得し、FLAIR画像データとT2画像データとの位置合わせを行う。例えば、FLAIR画像データとT2画像データとのマトリクスサイズ、画素サイズ、および位置情報を線形変換により合わせる。例えば、T2画像データのマトリクスサイズ、画素サイズ、および位置情報を、FLAIR画像データのマトリクスサイズ、画素サイズ、および位置情報に一致させる。その結果、T2画像データのマトリクスサイズが384×384×155に、画素サイズが0.55×0.55×1.00mmに変換される。これにより、FLAIR画像データおよびT2画像データを同じ座標で扱うことが可能となる。なお、T2画像データにかえてT1画像データを取得し、T1画像データのマトリクスサイズおよび画素サイズを、FLAIR画像データのマトリクスサイズおよび画素サイズに一致させても良い。また、位置合わせ処理は、MRI画像解析の汎用ソフトであるSPM(Statistical Parametric Mapping)のco−registration機能により実行可能である。
The
また、位置合わせ部15は、SPECTデータ記憶部13に記憶されているSPECT画像データについても、上述のSPMにより、T2画像データと同様に、FLAIR画像データとの位置合わせを行う。その結果、SPECT画像のマトリクスサイズが、384×384×155に、画素サイズが0.55×0.55×1.00mmに変換される。
The
位置合わせ後画像データ記憶部17は、位置合わせ部15で変換された位置合わせ後のT2画像データおよびSPECT画像データを記憶する。
The post-alignment image
分離処理部19は、位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データを分離する。例えば、図2に示すように、位置合わせ後のT2画像50から、脳室と白質とを含む第1の領域51を分離する。この分離処理は、上述したSPMのsegmentation機能により実行可能である。なお、上述したSPMのsegmentation機能では、位置合わせ後のT2画像データから、白質のみを分離することはできず、分離したデータには脳室の一部の領域も含まれる。よって、分離処理部19により、位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データが分離されることになる。
The
また、SPMにより位置合わせ後のT2画像50から白質を分離した場合、白質として分離した領域には灰白質が含まれる。よって、分離した領域を完全に白質のみにする処理を行っても良い。例えば、白質と灰白質との境界の画素値を設定し、設定した画素値に基づき第1の領域データの画素値を2値化することにより、白質として分離した領域から灰白質を除外する。図2に示した第1の領域51は、2値化後の灰白質を除外した白質の画像である。
Further, when white matter is separated from the aligned
図1に戻ると、第1の領域データ記憶部21は、分離処理部19で分離された第1の領域51に対応する第1の領域データを記憶する。
Returning to FIG. 1, the first area
標準脳データ記憶部23は、標準脳テンプレートデータと、標準脳上に設定され脳室を除外するためのマスク画像データとを記憶する。標準脳テンプレートデータおよびマスク画像データは、例えば、入力装置2または入出力装置4を介して取得する。
The standard brain
変換パラメータ算出部25は、図3に示すように、標準脳テンプレート60に基づき、位置合わせ後のT2画像50を解剖学的標準化後のT2画像61へ変換するための変換パラメータ(変換関数)を算出する。詳細には、位置合わせ後のT2画像データの座標(個人脳座標)を標準脳座標に変換するための変換パラメータを、線形変換および非線形変換により算出する。この変換パラメータ算出は、上述したSPMのnormalization機能により実行可能である。
As shown in FIG. 3, the conversion
変換パラメータ記憶部27は、変換パラメータ算出部25で算出された変換パラメータを記憶する。
The conversion
図4に示すように、マスク画像データに基づく標準脳のマスク画像70は、複数(5つ)の脳室領域71と、脳室以外の脳領域72とを有する。なお、図4に示したマスク画像70では、脳室の数は5つであるが、別の断面では脳室の数は増減する。
As shown in FIG. 4, the standard
マスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳のマスク画像データを、被験者の個人脳の形状に対応するマスク画像データに変換する。すなわち、標準脳において脳室を除外するためのマスク画像70を、被験者の個人脳において脳室を除外するためのマスク画像80に変換する。これにより、図4に示すような、個人脳座標に基づくマスク画像80が作成される。個人脳のマスク画像80は、複数(5つ)の脳室領域81と、脳室以外の脳領域82とを有する。
The mask
図1に戻ると、個人脳マスク画像データ記憶部31は、マスク画像変換部29で変換された個人脳のマスク画像データを記憶する。
Returning to FIG. 1, the personal brain mask image
白質抽出部33は、第1の領域データおよび個人脳のマスク画像データを用いて、FLAIR画像データから白質を含む第2の領域データを抽出する。図5に示すように、FLAIR画像90のうち、T2画像の第1の領域51および個人脳のマスク画像80の脳室以外の脳領域82の両方と重なる部分が、白質を含む第2の領域91として抽出される。よって、抽出された第2の領域91では、脳室領域81が除外されている。
The white
第2の領域データ記憶部35は、白質抽出部33において抽出された第2の領域データを記憶する。
The second area
特徴領域抽出部37は、抽出された第2の領域91から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。例えば、画素値が所定の閾値よりも大きい画素を特徴領域とする。FLAIR画像では、白質病変領域は、正常な白質領域よりも画素値が大きくなる。従って、適切な閾値を設定することにより、特徴領域として白質病変領域を抽出することが可能である。
The feature
図6は、第2の領域91から特徴領域を抽出し、特徴領域の体積を算出するための説明図である。図6(b)のウィンドウW1において、抽出する画素値の基準値を1600、許容値を700(基準値を中心に±350)として、1250〜1950の画素値を特徴領域として抽出している。図6(a)では矢印で示した白い箇所が特徴領域として抽出される。
FIG. 6 is an explanatory diagram for extracting a feature region from the
特徴領域データ記憶部39は、特徴領域抽出部37において抽出された特徴領域(座標および画素値)を特徴領域データとして記憶する。
The feature region
なお、上記の位置合わせ部15、分離処理部19、変換パラメータ算出部25、マスク画像変換部29、白質抽出部33、および特徴領域抽出部37における処理は、処理対象の画像データの全ての断層画像データについて実行され、各記憶部17、21、27、23、35、39は、断層画像データ毎の処理結果を記憶する。
Note that the above processing in the
体積算出部41は、特徴領域の体積を算出する。例えば、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、全画素数に画素サイズを掛けて特徴領域の体積を算出する。図6(b)のウィンドウW1のResult欄の下線部に示すように、全断層画像データにおける特徴領域(WM(D))の画素数(Pixel)が2291であった場合、これに画素サイズ:0.55×0.55×1.00mmを掛けることにより、特徴領域の体積(0.7cc)が算出される。なお、算出した特徴領域の体積に基づき、頭部全体又は全白質領域に対する特徴領域の割合を算出しても良い。
The
体積データ記憶部43は、体積算出部41で算出された特徴領域の体積を記憶する。
The volume
図7は、第2の領域データに基づく画像100およびFLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせた画像101をウィンドウW2に表示した状態を示している。
FIG. 7 shows a state in which an
表示処理部45は、図7のウィンドウW2に示すように、第2の領域データに基づく画像100をディスプレイ装置(出力装置3)に表示させ、第2の領域データのうち特徴領域の色を他の領域と異なる表示態様で表示させる。図7では、矢印で示すように、特徴領域をより強調するために全て白色で表示している。更に、表示処理部45は、図7に示すように、FLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせた画像101をディスプレイ装置(出力装置3)に表示させても良い。この時、SPECT画像に重ねて表示した第2の領域データに基づく画像において、特徴領域を他の領域と異なる表示態様で表示させても良い。
The
以上のような構成を備える本実施形態の情報処理装置1は、以下に説明する手順でMRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。 The information processing apparatus 1 according to the present embodiment having the above-described configuration performs a process of extracting a feature region from a FLAIR image photographed by the MRI apparatus according to the procedure described below.
図8は、MRIにより撮影されたFLAIR画像から特徴領域を抽出する手順を示すフローチャートである。 FIG. 8 is a flowchart showing a procedure for extracting a feature region from a FLAIR image photographed by MRI.
まず、MRIデータ(FLAIR画像データ、T1画像データ、T2画像データ)をMRIデータ記憶部11に保存し(S10)、保存したMRIデータと同一被験者のSPECTデータをSPECTデータ記憶部13に保存する(S12)。MRIデータおよびSPECTデータは、入出力装置4を介して外部から取得しても良い。既に当該データが準備されているときには、当該ステップを省略しても良い。 First, MRI data (FLAIR image data, T1 image data, T2 image data) is stored in the MRI data storage unit 11 (S10), and SPECT data of the same subject as the stored MRI data is stored in the SPECT data storage unit 13 ( S12). The MRI data and SPECT data may be acquired from the outside via the input / output device 4. When the data is already prepared, this step may be omitted.
位置合わせ部15は、ステップS10において保存したFLAIR画像データとT2画像データとの位置合わせを行い、位置合わせ後のT2画像データを位置合わせ後画像データ記憶部17に保存する(S14)。同様に、位置合わせ部15は、ステップS12において保存したSPECT画像データとFLAIR画像データとの位置合わせを行い、位置合わせ後のSPECT画像データを位置合わせ後画像データ記憶部17に保存する(S14)。
The
分離処理部19は、ステップS14で位置合わせを行った位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データを分離し、第1の領域データを第1の領域データ記憶部21に保存する(S16)。
The
次に、標準脳テンプレートデータとマスク画像データとを含む標準脳データを標準脳データ記憶部23に保存する(S18)。標準脳データは、入出力装置4を介して外部から取得しても良い。既に標準脳データが準備されているときには、当該ステップを省略しても良いし、当該ステップは、次のステップS20が実行される前であればいつ実行されても良い。 Next, standard brain data including standard brain template data and mask image data is stored in the standard brain data storage unit 23 (S18). The standard brain data may be acquired from the outside via the input / output device 4. When the standard brain data has already been prepared, this step may be omitted, and this step may be executed any time before the next step S20 is executed.
変換パラメータ算出部25は、ステップS16で位置合わせを行った位置合わせ後のT2画像データを、標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、求めた変換パラメータを変換パラメータ記憶部27に保存する(S20)。
The conversion
マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS18で保存された標準脳のマスク画像の座標を、個人脳座標に変換し、個人脳の形状に対応するマスク画像データを個人脳マスク画像データ記憶部31に保存する(S22)。
The mask
白質抽出部33は、ステップS16で分離された第1の領域データおよびステップS22で作成された個人脳のマスク画像データに基づき、S10で保存されたFLAIR画像データから、白質を含む第2の領域データを抽出し、抽出した第2の領域データを第2の領域データ記憶部35に保存する(S24)。
Based on the first region data separated in step S16 and the personal brain mask image data created in step S22, the white
特徴領域抽出部37は、ステップS24で抽出された第2の領域データから特徴領域データを抽出し、特徴領域データ記憶部39に保存する(S26)。これにより、特徴領域を抽出する処理が終了する。
The feature
次に、情報処理装置1における被験者の頭部全体における特徴領域の体積を算出する処理について説明する。この特徴領域の体積を算出する処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図9は、特徴領域の体積を算出する処理を示すフローチャートである。 Next, processing for calculating the volume of the feature region in the entire subject's head in the information processing apparatus 1 will be described. The processing for calculating the volume of the feature region is executed after the processing for extracting the feature region is executed. FIG. 9 is a flowchart illustrating processing for calculating the volume of the feature region.
まず、体積算出部41は、特徴領域データを特徴領域データ記憶部39から取得する(S30)。
First, the
体積算出部41は、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、求めた全画素数に画素サイズを掛けて特徴領域の体積を算出し、体積データ記憶部に保存する(S32)。これにより特徴領域の体積を算出する処理が終了する。なお、算出した特徴領域の体積を出力装置3により出力しても良い。
The
次に、情報処理装置1における表示処理について説明する。この表示処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図10は、表示処理を示すフローチャートである。 Next, display processing in the information processing apparatus 1 will be described. This display process is executed after executing the process of extracting the feature region. FIG. 10 is a flowchart showing the display process.
まず、表示処理部45は、位置合わせ後のSPECT画像データを位置合わせ後画像データ記憶部21から、第2の領域データを第2の領域データ記憶部35から、特徴領域データを特徴領域データ記憶部39からそれぞれ取得する(S40)。
First, the
表示処理部45は、図7に示すように、S40で取得された、第2の領域データに基づく画像をディスプレイ装置(出力装置3)に表示させる。この時、第2の領域データのうち特徴領域の色を他の領域と異なる表示態様で表示させる。更に、表示処理部45は、図7に示すように、FLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせてディスプレイ装置(出力装置3)に表示させる(S41)。
As shown in FIG. 7, the
本実施の形態によれば、被験者のT2画像から脳室と白質とを含む第1の領域を分離し、T2画像を標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、変換パラメータの逆数(逆関数)を用いて、標準脳において脳室領域が規定されたマスク画像データを、被験者の個人脳において脳室領域が規定されたマスク画像データに変換し、第1の領域および被験者のマスク画像に基づき、被験者のFLAIR画像から脳室を除外した白質を含む第2の領域を抽出し、第2の領域から特徴領域である白質病変を抽出する。これにより、FLAIR画像から特徴領域(白質病変)を容易に精度よく抽出することができる。また、脳室を除外した白質を含む第2の領域を抽出するので、脳室に隣接する特徴領域(白質病変)を明瞭に抽出することができる。 According to the present embodiment, the first region including the ventricle and white matter is separated from the T2 image of the subject, the conversion parameter (conversion function) for converting the T2 image into the standard brain template is obtained, and the conversion parameter is obtained. The mask image data in which the ventricular region is defined in the standard brain is converted into mask image data in which the ventricular region is defined in the subject's individual brain using the inverse (inverse function) of the first region and the subject. Based on the mask image, a second region including white matter excluding the ventricle is extracted from the subject FLAIR image, and a white matter lesion that is a feature region is extracted from the second region. Thereby, a feature region (white matter lesion) can be easily and accurately extracted from the FLAIR image. Further, since the second region including the white matter excluding the ventricle is extracted, the feature region (white matter lesion) adjacent to the ventricle can be extracted clearly.
また、被験者の頭部全体の特徴領域(白質病変)の体積を算出するので、頭部全体又は白質に対する特徴領域(白質病変)の体積を把握することができる。 Further, since the volume of the feature region (white matter lesion) of the entire head of the subject is calculated, the volume of the feature region (white matter lesion) with respect to the entire head or white matter can be grasped.
また、MRI装置では、T2画像の方がFLAIR画像よりも空間分解能を高くして撮影することができる。そして、T2画像の第1の領域に基づき、FLAIR画像から白質を含む第2の領域を抽出し、第2の領域から特徴領域を抽出している。よって、特徴領域の抽出精度を向上させることができる。 Further, with the MRI apparatus, the T2 image can be taken with a higher spatial resolution than the FLAIR image. Then, based on the first region of the T2 image, a second region including white matter is extracted from the FLAIR image, and a feature region is extracted from the second region. Therefore, it is possible to improve the feature region extraction accuracy.
また、特徴領域である白質病変と被験者のSPECT画像とを重ね合わせて表示させるので、白質病変部位と血流低下の位置とを比較することができる。 In addition, since the white matter lesion as the feature region and the SPECT image of the subject are displayed in a superimposed manner, the white matter lesion site and the position of the blood flow reduction can be compared.
本発明の第2実施形態に係る情報処理装置および情報処理装置に実行させるコンピュータプログラムについて、図面を参照して説明する。なお、第1実施形態と同一の部材および処理については同一の番号を付して説明を省略し、異なる部分についてのみ説明を行う。 An information processing apparatus according to a second embodiment of the present invention and a computer program executed by the information processing apparatus will be described with reference to the drawings. In addition, about the same member and process as 1st Embodiment, the same number is attached | subjected and description is abbreviate | omitted and only a different part is demonstrated.
本実施形態に係る情報処理装置は、第1実施形態に係る情報処理装置と同様に、MRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。 Similar to the information processing apparatus according to the first embodiment, the information processing apparatus according to the present embodiment performs a process of extracting a feature region from a FLAIR image photographed by the MRI apparatus.
図11は、本実施形態に係る情報処理装置102の全体構成を示す。同図に示すように、情報処理装置102は、情報処理装置本体110に入力装置2、出力装置3及び入出力装置4の一つ以上が接続されている。情報処理装置本体110は、例えば、プロセッサ及びメモリを備えた汎用的なコンピュータシステムにより構成され、以下に説明する情報処理装置本体110内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に格納することができる。
FIG. 11 shows the overall configuration of the
情報処理装置本体110は、第1実施形態の情報処理装置10の構成に加え、標準脳z−scoreデータ記憶部12、個人脳z−scoreデータ記憶部14、再抽出領域抽出部16、第3の領域データ記憶部18、特徴領域再抽出部20、z−score処理部22と、処理データ記憶部24とを有する。また、標準脳データ記憶部23には、標準脳上に設定され脳全体領域を表し頭皮および頭蓋骨を除外するための第1のマスク画像データと標準脳上に設定され白質病変が存在しない領域を除外するための第2のマスク画像データとを記憶する。第1のマスク画像データと第2のマスク画像データは、例えば、入力装置2または入出力装置4を介して取得する。
In addition to the configuration of the
図12(a)に示すように、第1のマスク画像データに基づく第1のマスク画像170は、脳全体領域により構成される。当該脳全体領域(第1のマスク画像170)は、図4における脳室領域71と脳領域72とを合わせた領域に相当する。また、図12(b)に示すように、第2のマスク画像データに基づく第2のマスク画像172は、略環状をなす環状領域により構成される。当該環状領域(第2のマスク画像172)は、図12(a)の脳全体領域である第1のマスク画像170の縁部領域に相当する。なお、当該第2のマスク画像172は、例えば、数十人の被験者の平均画像に基づき設定される白質病変が存在しない領域である。
As shown in FIG. 12A, the
標準脳z−scoreデータ記憶部12は、標準脳z−scoreデータとして、SPECTデータ記憶部13に記憶されているSPECT画像のデータに基づき求められ標準脳へ変換されたz−score画像のデータを記憶する。z−score画像のデータは、例えば、SPM等により、被験者の脳血流を正常群と比較して脳血流の低下具合を数値化することにより求められ、入力装置2または入出力装置4を介して取得する。なお、z−scoreは、(正常群の平均血流量−被験者の血流量)/正常標準偏差に基づき算出される値である。
The standard brain z-score
図12(c)に示すように、z−score画像174は、脳血流の低下具合の数値データに基づく画像であり、白い領域は、正常群に対して相対的に血流が低下している領域を示し、黒い領域は、相対的に血流が高い領域を示している。
As shown in FIG. 12 (c), the z-
図11に戻ると、本実施形態におけるマスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳上に設定された第1のマスク画像データおよび第2のマスク画像データを、被験者の個人脳の形状に対応する個人脳の第1のマスク画像データおよび第2のマスク画像データに変換する。すなわち、標準脳における脳全体領域に相当する第1のマスク画像170を、被験者の個人脳における脳全体領域に相当する第1のマスク画像180に変換し、標準脳における第2のマスク画像172を、被験者の個人脳における第2のマスク画像182に変換する。これにより、図12(a)に示すような個人脳座標に基づく第1のマスク画像180および図12(b)に示すような個人脳座標に基づく第2のマスク画像182が作成される。
Returning to FIG. 11, the mask
さらに、マスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳へ変換されたz−score画像データを、被験者の個人脳の形状に対応する個人脳のz−score画像データに変換する。すなわち、標準脳座標に基づくz−score画像174を個人脳座標に基づくz−score画像184に変換する。これにより、図12(c)に示すような、個人脳座標に基づくz−score画像184が作成される。
Furthermore, the mask
図11に戻ると、個人脳マスク画像データ記憶部31は、マスク画像変換部29で変換された個人脳の第1のマスク画像データおよび第2のマスク画像データを記憶する。
Returning to FIG. 11, the personal brain mask image
また、個人脳z−score画像データ記憶部14は、マスク画像変換部29で変換された個人脳のz−score画像データを記憶する。
The personal brain z-score image
本実施形態における白質抽出部33は、第1の領域データおよび個人脳の第1のマスク画像データを用いて、FLAIR画像データから白質を含む第2の領域データを抽出する。図13に示すように、FLAIR画像90のうち、T2画像の第1の領域51および個人脳の脳全体領域に相当する第1のマスク画像180の両方と重なる部分が、白質を含む第2の領域92として抽出される。そして、特徴領域抽出部37において、第1の実施形態と同様に、抽出した第2の領域92から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。
The white
再抽出領域抽出部16は、個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、FLAIR画像データから白質を含む第3の領域データを抽出する。図14に示すように、FLAIR画像90のうち、個人脳の脳全体領域に相当する第1のマスク画像180に重なる領域93を抽出して、FLAIR画像90から頭皮および頭蓋骨を除去する。そして、当該重なる領域93のうち、第2のマスク画像182と重ならない領域が第3の領域94として抽出される。すなわち、重なる領域93のうち、略環状をなす第2のマスク画像182の内部の領域が第3の領域94として抽出される
The re-extraction
第3の領域データ記憶部18は、再抽出領域抽出部16において抽出された第3の領域データを記憶する。
The third area
特徴領域再抽出部20では、特徴領域抽出部37と同様に、抽出された第3の領域94から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。ここで抽出される特徴領域には、特徴領域抽出部37により既に抽出された特徴領域と、それ以外の特徴領域が含まれる。すなわち、分離処理部19において、T2画像50から分離された白質を含む第1の領域51には、T2画像50の全ての白質領域が含まれない傾向にあり、分離しきれていない白質領域がわずかに存在する可能性がある。そこで、FLAIR画像90から個人脳の脳全体領域に相当する第1のマスク画像180を用いて第3の領域94を抽出し、第3の領域94から特徴領域を再抽出することにより、全ての白質領域から特徴領域(白質病変領域)を確実に抽出するようにしている。
Similar to the feature
特徴領域再抽出部20により抽出された特徴領域(座標および画素値)のうち、特徴領域抽出部37により抽出された特徴領域に対する差分が、特徴領域データ記憶部39に特徴領域データとして記憶される。
Of the feature regions (coordinates and pixel values) extracted by the feature
体積算出部41は、第1実施形態で説明した特徴領域(図15(a)では矢印で示した白い箇所)の体積(cc)の算出に加え、図15(a)に示すように、ユーザが設定した境界(本実施形態では中心を通る鉛直面)を基準として、図15(b)のウィンドウW3のResult欄に示すように、前角側および後角側の特徴領域(WMD)の体積(cc)を算出する。なお、境界はこれに限らず、頭頂側と脳底側の2点を指定し、これを基準として前角と後角とに分けて良いし、第1のマスク画像180上に予め設定しておいた境界(座標)を基準として前角と後角とに分けて良い。予め設定しておいた境界としては、中心溝であっても良いし、シルビウス溝(外側溝)であっても良い。また、前後ではなく左右で分けても良い。また、脳室周囲病変(PVH:periventricular hyperintensity)と深部皮質下白質病変(DSWMH:deep and subcortical white matter hyperintensity)との境界を標準脳上に設定しておき、これを個人脳に変換して、変換した境界を基準として、脳室周囲病変と深部皮質下白質病変とに分けて特徴領域の体積を算出しても良い。
In addition to calculating the volume (cc) of the feature region (the white part indicated by the arrow in FIG. 15A) described in the first embodiment, the
また、体積算出部41は、全白質領域の体積に対する特徴領域(白質病変領域)の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出する。さらに、体積算出部41は、個人脳の脳全体領域に相当する第1のマスク画像データに基づき、脳全体領域の体積を算出し、脳全体領域に対する全白質領域の割合を算出する。なお、全白質領域の体積は、第1の領域51示す第1の領域データおよび特徴領域再抽出部20により抽出され特徴領域データ記憶部39に記憶された特徴領域データに基づき算出される。
The
体積算出部41により算出された結果は、体積データ記憶部43に記憶される。
The result calculated by the
図11に戻ると、z−score処理部22は、個人脳のz−score画像データと特徴領域データとに基づき、特徴領域内におけるz−score値がz>0である画素のz−scoreの平均値、特徴領域内におけるz−score値が2以上のボクセルの割合、および、全脳における血流低下領域(z−score値が2以上)の割合と特徴領域における血流低下領域(z−score値が2以上)の割合との比を算出する。なお、z−score値の閾値は、「0」および「2」に限られず、他の値であっても良い。
Returning to FIG. 11, the z-
処理データ記憶部24は、z−score処理部22で算出された処理結果を記憶する。
The processing
以上のような構成を備える本実施形態の情報処理装置102は、以下に説明する手順でMRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。
The
図16は、本実施形態におけるMRIにより撮影されたFLAIR画像から特徴領域を抽出する手順を示すフローチャートである。なお、図8に示した処理と同一の処理については同一の番号を付して説明を省略し、異なる処理についてのみ説明を行う。 FIG. 16 is a flowchart showing a procedure for extracting a feature region from a FLAIR image taken by MRI in the present embodiment. Note that the same processes as those shown in FIG. 8 are denoted by the same reference numerals, description thereof is omitted, and only different processes are described.
本実施形態におけるステップS18では、標準脳テンプレートデータと第1のマスク画像データと第2のマスク画像データとを含む標準脳データが、標準脳データ記憶部23に保存される。
In step S18 in the present embodiment, standard brain data including standard brain template data, first mask image data, and second mask image data is stored in the standard brain
次に、標準脳へ変換されたz−score画像データを標準脳z−scoreデータ記憶部12に保存する(S19)。標準脳へ変換されたz−score画像データは、入出力装置4を介して外部から取得しても良い。既に標準脳へ変換されたz−score画像データが準備されているときには、当該ステップを省略しても良いし、当該ステップは、ステップS22が実行される前であればいつ実行されても良い。 Next, the z-score image data converted into the standard brain is stored in the standard brain z-score data storage unit 12 (S19). The z-score image data converted into the standard brain may be acquired from the outside via the input / output device 4. When z-score image data converted into the standard brain has already been prepared, this step may be omitted, and this step may be executed any time before step S22 is executed.
本実施形態におけるステップS22では、マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS18で保存された標準脳の第1および第2のマスク画像データの座標を、個人脳座標に変換し、個人脳の形状に対応する第1および第2のマスク画像データを個人脳マスク画像データ記憶部31に保存する。さらに、マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS19で保存された標準脳へ変換されたz−score画像データを、被験者の個人脳の形状に対応する個人脳のz−score画像データに変換し、個人脳z−score画像データ記憶部14に記憶する。
In step S22 in the present embodiment, the mask
本実施形態におけるステップS24では、白質抽出部33は、ステップS16で分離された第1の領域データおよびステップS22で作成された個人脳の第1のマスク画像データに基づき、ステップS10で保存されたFLAIR画像データから、白質を含む第2の領域データを抽出し、抽出した第2の領域データを第2の領域データ記憶部35に保存する。
In step S24 in the present embodiment, the white
再抽出領域抽出部16は、ステップS22で作成された個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、ステップS10で保存されたFLAIR画像データから白質を含む第3の領域データを抽出し、抽出した第3の領域データを第3の領域データ記憶部18に保存する(S27)。
The re-extraction
特徴領域再抽出部20では、ステップS27で抽出された第3の領域データから特徴領域データを抽出し、ステップS26で抽出された特徴領域データに対する差分に相当する特徴領域データを特徴領域データ記憶部39に記憶する(S28)。
The feature
次に、情報処理装置102における被験者の頭部全体における特徴領域の体積を算出する処理について説明する。この特徴領域の体積を算出する処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図17は、特徴領域の体積を算出する処理を示すフローチャートである。なお、図9に示した処理と同一の処理については同一の番号を付して説明を省略し、異なる処理についてのみ説明を行う。
Next, processing for calculating the volume of the feature region in the entire head of the subject in the
本実施形態におけるステップS32では、体積算出部41は、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、求めた全画素数に画素サイズを掛けて特徴領域の体積を算出し、体積データ記憶部43に保存する。また、体積算出部41は、ユーザが設定した境界または所定の境界に基づき、前角側および後角側の特徴領域の体積を算出し、体積データ記憶部43に保存する。さらに、体積算出部41は、全白質領域の体積に対する特徴領域の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出し、脳全体領域に対する全白質領域の割合を算出し、体積データ記憶部43に保存する。なお、算出した結果を出力装置3により出力しても良い。
In step S32 in the present embodiment, the
また、本実施形態の情報処理装置102においても、第1実施形態の情報処理装置1における表示処理(図10)と同様に表示処理を行う。また、当該表示処理において、上記の処理において算出した特徴領域の体積、前角側および後角側の特徴領域の体積、全白質領域の体積に対する特徴領域の体積の割合、特徴領域の後部の体積に対する特徴領域の前部の体積の割合、脳全体領域に対する全白質領域の割合を表示しても良い。
In the
次に、情報処理装置102におけるz−score画像データに基づき種々のz−score指標を算出する処理について説明する。当該処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図18は、z−score指標を算出する処理を示すフローチャートである。
Next, processing for calculating various z-score indices based on z-score image data in the
z−score処理部22は、特徴領域データを特徴領域データ記憶部39から、個人脳のz−score画像データを個人脳z−score画像データ記憶部14から取得する(S43)。
The z-
z−score処理部22は、個人脳のz−score画像データと特徴領域データとに基づき、特徴領域内におけるz−score値がz>0である画素のz−scoreの平均値、特徴領域内におけるz−score値が2以上のボクセルの割合、および、全脳における血流低下領域(z−score値が2以上)の割合と特徴領域における血流低下領域(z−score値が2以上)の割合との比を算出し、処理データ記憶部24に記憶する(S44)。これによりz−score指標を算出する処理が終了する。なお、算出したz−score指標を出力装置3により出力しても良い。なお、上記のようにz−score値の閾値は、「0」および「2」に限られず、他の値であっても良い。
The z-
本実施の形態によれば、被験者のT2画像50から白質を含む第1の領域51を分離する。T2画像50を標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、変換パラメータの逆数(逆関数)を用いて、標準脳における脳全体領域を示す第1のマスク画像170および標準脳における脳全体領域の縁部領域に相当する第2のマスク画像172を、被験者の個人脳における脳全体領域を示す第1のマスク画像180および被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像182に変換する。そして、第1の領域51および被験者の第1のマスク画像180に基づき、被験者のFLAIR画像90から白質を含む第2の領域92を抽出し、第2の領域から特徴領域である白質病変を抽出する。さらに、被験者のFLAIR画像90から被験者の第1のマスク画像180の脳全体領域と重なる領域93を抽出し、当該重なる領域93のうち、被験者の第2のマスク画像182に対する内部の領域を、白質を含む第3の領域94として抽出し、第3の領域94から特徴領域である白質病変を抽出する。
According to the present embodiment, the
T2画像50から分離された白質を含む第1の領域51には、T2画像50の全ての白質領域が含まれない傾向にあり、分離しきれていない白質領域がわずかに存在する可能性がある。しかし、FLAIR画像90から個人脳の脳全体領域に相当する第1のマスク画像180および第2のマスク画像182を用いて第3の領域94を抽出し、第3の領域94から特徴領域を再抽出することにより、全ての白質領域から特徴領域(白質病変領域)を確実に抽出することができる。よって、FLAIR画像から特徴領域(白質病変)を容易に精度よく抽出することができる。また、被験者の第2のマスク画像182により、重なる領域93から白質病変が存在しない領域を削除し、第3の領域94から特徴領域を再抽出するので、再抽出を短時間で実行させることができる。
The
次に、上記の実施形態において得られる特徴領域(白質病変領域)の体積等に基づき疾患の病態解析を行った結果について説明する。 Next, the results of a disease state analysis of the disease based on the volume of the feature region (white matter lesion region) obtained in the above embodiment will be described.
物忘れ外来を受診した新患患者と認知症の精査で入院した患者との計54名(男性22名, 女性32名, 平均年齢73.6歳±84)を対象として、脳コンパートメントと脳血流の定量解析から疾患の違いを後ろ向きに比較検討した。その結果、患者54名のうち、アルツハイマー型認知症(AD:Alzheimer‘s disease)は19名、血管性認知症(VaD:Vascular dementia)は4名、レヴィ小体型認知症(DLB:Dementia with Lewy bodies)は7名、軽度認知障害(MCI:Mild Cognitive Impairment)は12名であった。 Brain compartment and cerebral blood flow for 54 patients (22 males, 32 females, average age 73.6 years ± 84), including new patients who visited a forgetfulness outpatient clinic and those who were admitted for dementia Based on the quantitative analysis, the difference of the disease was compared retrospectively. As a result, among 54 patients, Alzheimer's disease (AD) was 19 patients, Vascular dementia (VaD) was 4 patients, and Lewy Body Dementia (DLB: Dementia with Lewy). (Bodies) was 7 and mild cognitive impairment (MCI) was 12 people.
そして、全白質領域の体積に対する特徴領域の体積の割合(白質病変領域/全白質領域)を疾患別に求めた。その結果、ADは4.7%、VaDは9.5%、DLBは2.4%、MCIは1.8%であった。VaDの割合は他の疾患に比べて有意に高く、白質病変領域/全白質領域を求めることでVaDと他の疾患を鑑別できる可能性が示唆された。 Then, the ratio of the volume of the feature area to the volume of the entire white matter area (white matter lesion area / total white matter area) was determined for each disease. As a result, AD was 4.7%, VaD was 9.5%, DLB was 2.4%, and MCI was 1.8%. The ratio of VaD was significantly higher than other diseases, suggesting the possibility of distinguishing VaD from other diseases by determining the white matter lesion area / total white matter area.
また、中心溝を境界として、特徴領域の後部の体積に対する特徴領域の前部の体積の割合(白質病変領域の前部/白質病変領域の後部)を求めた。その結果、ADは0.84、VaDは1.03、DLBは1.03、MCIは0.77であった。ADやMCIは側脳室の後角を中心とする後部の白質病変が多く、一方でVaDやDLBは側脳室の前角を中心とする前部の白質病変が多い傾向が示された。白質病変の前後比を求めることで、ADとVaDを鑑別できる可能性が示唆された。 Further, the ratio of the front volume of the feature area to the rear volume of the feature area (the front of the white matter lesion area / the rear part of the white matter lesion area) was obtained with the central groove as a boundary. As a result, AD was 0.84, VaD was 1.03, DLB was 1.03, and MCI was 0.77. AD and MCI showed many posterior white matter lesions centered on the posterior corner of the lateral ventricle, while VaD and DLB showed a tendency to have many anterior white matter lesions centered on the anterior horn of the side ventricle. It was suggested that AD and VaD could be differentiated by determining the front-to-back ratio of white matter lesions.
また、被験者のSPECT画像からは脳血流量に関し表1に示すような血流低下が見られる傾向にある。
FLAIR画像データの第3の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせ、特徴領域を他の領域と異なる表示態様で表示させた画像により、白質病変と脳血流の関係性から疾患の病態解析を短時間で行うことができる可能性がある。例えば、表示された画像に基づき、後角の白質病変が多く、帯状回後部、楔前部を中心に血流低下が見られた場合はAD、前角を中心に全体的に白質病変が多く帯状回後部、楔前部を中心とした血流低下が見られない場合はVaD、白質病変がそれほど多くなく後頭葉内側部に血流低下が見られた場合はDLB、MCIは白質病変がほとんどなく血流低下もほとんど見られない場合はMCIであるという画像診断ができる可能性がある。なお、FTLDについては、画像診断について記載していないが、FTLDの特徴領域の後部の体積に対する特徴領域の前部の体積の割合(白質病変領域の前部/白質病変領域の後部)を求めることにより画像診断ができる可能性がある。 The relationship between white matter lesions and cerebral blood flow is obtained by superimposing the image based on the third region data of FLAIR image data and the SPECT image based on SPECT image data, and displaying the characteristic region in a display mode different from other regions. Therefore, there is a possibility that pathological analysis of diseases can be performed in a short time. For example, on the basis of the displayed image, there are many white matter lesions in the posterior horn, and when blood flow decrease is observed mainly in the posterior zonal gyrus and the front of the wedge, there are many white matter lesions mainly in the anterior horn and the front horn. VaD when there is no decrease in blood flow centered on the posterior gyrus and the front of the wedge, and there is not much white matter lesions, and when there is a decrease in blood flow inside the occipital lobe, DLB and MCI are mostly white matter lesions. If there is no decrease in blood flow and there is almost no decrease in blood flow, there is a possibility that image diagnosis of MCI can be performed. Although FTLD does not describe image diagnosis, the ratio of the front volume of the feature area to the rear volume of the feature area of FTLD (the front of the white matter lesion area / the rear of the white matter lesion area) is obtained. May cause image diagnosis.
また、1名ずつのデータではあるが、MCIの被験者で約半年後にADにコンバートした被験者の白質病変領域/全白質領域は2%、ADにコンバートしなかった被験者のは0.3%であり、前者の白質病変領域の前部/白質病変領域の後部は0.47、後者は1.15であった。症例を増やして検討する必要はあるが、この結果は白質病変の容積とその前後比からADにコンバートする確率を求めることができる可能性を示唆するものである。 Moreover, although it is the data of 1 person, the white matter lesion area / whole white matter area | region of the subject who converted to AD about half a year in the subject of MCI is 2%, and the subject who did not convert to AD is 0.3%. The former part of the white matter lesion area / the rear part of the white matter lesion area was 0.47, and the latter was 1.15. Although it is necessary to study with increasing cases, this result suggests the possibility of obtaining the probability of conversion to AD from the volume of white matter lesions and the ratio before and after.
また、上記の実施形態では、FLAIR画像90から特徴領域として白質病変を抽出したが、灰白質(皮質)病変も同時に抽出するようにしても良い。すなわち、T2画像50から灰白質を含む領域(第4の領域)を分離し、分離した領域、および、マスク画像80または第1のマスク画像180に基づきFLAIR画像90から灰白質を含む領域(第5の領域)を抽出し、抽出した灰白質を含む領域から特徴領域として灰白質病変も抽出するようにしても良い。なお、灰白質病変の抽出において、第2実施形態で説明した再抽出(図16のS27およびS28)は行わない。
In the above embodiment, the white matter lesion is extracted as the feature region from the
また、体積算出部41により、全灰白質領域の体積に対する特徴領域(灰白質病変領域)の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出しても良い。さらに、体積算出部41により、脳全体領域の体積に対する全灰白質(皮質)領域の体積の割合を算出しても良い。
Further, the
そして、皮質(灰白質)・白質病変を有する多発性硬化症患者20名(男性9名、女性11名、平均年齢42.2±9.2歳)を対象として、脳コンパートメントの定量解析を試みた。多発性硬化症の皮質病変は、DIR(double inversion recovery)画像で評価した。病型はNelsonらの分類に従って、皮質病変限局型、混合型(皮質病変+皮質下白質病変が同程度)、傍皮質型(皮質下白質病変が主体)に分類した。 Then, we attempted quantitative analysis of brain compartment in 20 patients with multiple sclerosis (9 males, 11 females, mean age 42.2 ± 9.2 years old) with cortical (gray matter) / white matter lesions. It was. The cortical lesions of multiple sclerosis were evaluated with DIR (double inversion recovery) images. According to the classification of Nelson et al., The disease type was classified into a cortical lesion limited type, a mixed type (cortical lesion + subcortical white matter lesions are similar), and a paracortical type (mainly subcortical white matter lesions).
病巣はそれぞれ皮質病変限局型7、混合型6、傍皮質型16個観察され、全体で29個であった。脳全体領域の体積に対する全皮質領域の体積の割合(%)は、皮質病変あり群(皮質病変限局型+混合型)では43.67±7.06%、皮質病変なし群(傍皮質型)では44.02±4.87%と皮質萎縮の程度に両群で差を認めなかった。 The lesions were found to be cortical lesion-limited type 7, mixed type 6, and paracortical type, 29 in total. The ratio (%) of the volume of the entire cortical area to the volume of the entire brain area is 43.67 ± 7.06% in the cortical lesion group (cortical lesion limited type + mixed type), and no cortical lesion group (paracortical type). In 44.02 ± 4.87%, there was no difference between the two groups in the degree of cortical atrophy.
一方、脳全体領域の体積に対する全白質領域の体積の割合(%)は、皮質病変あり群で29.74±2.99%、皮質病変なし群では32.82±3.09%と皮質病変あり群で白質萎縮が進行している結果であった。今回の解析対象となった患者群で、神経機能の評価尺度であるEDSS(Expanded Disability Status Scale)スコアは皮質病変あり群はなし群に比べて有意に高く、皮質病変あり群は機能障害の進行期にあることが推測される。皮質病変あり群の白質容積が小さいことから、白質の慢性炎症の進行が皮質病変形成と神経機能に影響していることが示唆された。EDSSによる患者の評価は、評価者が患者の行動を見て評価を行うため評価者の主観が入り、患者のモチベーション等の精神状態に大きく依存するため、上記のように評価することにより客観的な評価の可能性が示唆される。 On the other hand, the ratio (%) of the volume of the entire white matter region to the volume of the entire brain region was 29.74 ± 2.99% in the group with cortical lesions and 32.82 ± 3.09% in the group without cortical lesions. This was the result of progressing white matter atrophy in a certain group. The EDSS (Expanded Disability Status Scale) score, which is a measure of neurological function, was significantly higher in the group of patients analyzed this time than in the group with and without cortical lesions. It is speculated that The white matter volume of the group with cortical lesions was small, suggesting that the progression of white matter chronic inflammation affects cortical lesion formation and nerve function. Evaluation of patients by EDSS is objective by evaluating as described above because the evaluator evaluates the patient's behavior and evaluates the subject because the evaluator's subjectivity is included and depends greatly on the mental state such as the patient's motivation. This suggests the possibility of proper evaluation.
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.
例えば、上記の実施形態では、位置合わせ部15、分離処理部19、および変換パラメータ算出部25における処理において、T2画像データを用いたが、T1画像データを用いて処理を行っても良い。
For example, in the above-described embodiment, T2 image data is used in the processing in the
また、上記の実施形態では、位置合わせ後のT2画像50を標準脳テンプレート60に位置合わせをすることにより変換パラメータを算出し、算出した変換パラメータに基づき、標準脳のマスク画像70を個人脳のマスク画像80に変換した。しかし、標準脳テンプレート60を位置合わせ後のT2画像50に位置合わせをすることにより変換パラメータを算出し、当該変換パラメータに基づき、標準脳のマスク画像70を個人脳のマスク画像80に変換しても良い。
In the above embodiment, the
また、上記の実施形態では、特徴領域抽出部37および特徴領域再抽出部20において、特徴領域の体積の算出時に用いる画素値の基準値および許容値をユーザが任意に設定して、対象画素を抽出したが、画素値および度数からなるヒストグラムを作成して、画素値が大きい側の上位の5%を対象画素として抽出しても良いし、画素値の最大値に対して80%以上の値を有する画素を対象画素として抽出しても良い。すなわち、予め設定した抽出条件に基づき自動的に抽出されるようにしても良い。
In the above-described embodiment, the feature
白質抽出部33および特徴領域再抽出部20では、FLAIR画像90から白質を抽出したが、T1画像またはT2画像50から白質を抽出するようにしても良い。
Although the white
脳血流量に関する画像としてSPECT画像を用いたが、PET(Positrom Emission Tomograpy)検査により得られた脳血流量に関するPET画像を用いても良い。 Although the SPECT image is used as an image related to cerebral blood flow, a PET image related to cerebral blood flow obtained by a PET (Positive Emission Tomography) examination may be used.
また、再抽出領域抽出部16では、個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、FLAIR画像データから白質を含む第3の領域データを抽出し、特徴領域再抽出部20では、抽出された第3の領域94から特徴領域として白質病変を抽出した。しかし、再抽出領域抽出部16において、個人脳の第1のマスク画像データのみを用いて、FLAIR画像データから重なる領域93を抽出し、特徴領域再抽出部20において、重なる領域93から特徴領域として白質病変を抽出するようにしても良い。かかる構成によっても、全ての特徴領域(白質病変領域)を確実に抽出することができる。
In addition, the re-extraction
また、体積算出部41では、第1の領域データ、第2の領域データ、第3の領域データ、第4の領域データ、第5の領域データ、および特徴領域データに基づいて、被験者の全白質領域、白質病変の領域、前記第4の領域に基づく前記被験者の全灰白質領域、灰白質病変の領域、所定の境界を基準として、前角側に位置する白質領域、後角側に位置する白質領域、前角側に位置する白質病変領域、後角側に位置する白質病変領域、前角側に位置する灰白質病変領域、後角側に位置する灰白質病変領域、前角側に位置する灰白質領域、後角側に位置する灰白質領域、および、被験者の脳全体領域、のうちの少なくとも2つの領域の画素数(体積)を算出し、画素数(体積)を算出した領域から2つの領域を選択して、算出した画素数(体積)に基づき選択した2つの領域の比率を算出しても良い。
Further, the
1、102 情報処理装置、11 MRIデータ記憶部、16 再抽出領域抽出部、19 分離処理部、20 特徴領域再抽出部、23 標準脳データ記憶部、25 変換パラメータ算出部、29 マスク画像変換部、33 白質抽出部、白質病変抽出部、41 体積算出部、45 重ね合わせ部、 50 T2画像、51 第1の領域、60 標準脳テンプレート、61 解剖学的標準化後のT2画像、71 脳室領域、80 個人脳のマスク画像、90 FLAIR画像、91、92 第2の領域、93 重なる領域、94 第3の領域 170 標準脳上に設定された第1のマスク画像、172 標準脳上に設定された第2のマスク画像、180 個人脳の第1のマスク画像、182 個人脳の第2のマスク画像
DESCRIPTION OF SYMBOLS 1,102 Information processing apparatus, 11 MRI data storage part, 16 Reextraction area extraction part, 19 Separation processing part, 20 Feature area reextraction part, 23 Standard brain data storage part, 25 Conversion parameter calculation part, 29 Mask image conversion part , 33 White matter extraction unit, white matter lesion extraction unit, 41 volume calculation unit, 45 superposition unit, 50 T2 image, 51 first region, 60 standard brain template, 61 anatomical standardized T2 image, 71
Claims (16)
前記被験者のMRI画像である第1の画像から脳室と白質とを含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳において脳室を除外するためのマスク画像を、前記被験者の個人脳において脳室を除外するためのマスク画像に変換するステップと、
前記第1の領域および前記被験者のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、前記脳室を除外した白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。 A computer program for causing an information processing apparatus having a storage unit to store an MRI image of a head of a subject and a mask image for excluding a ventricle in a standard brain,
Separating a first region including a ventricle and white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function to convert a mask image for excluding the ventricle in the standard brain into a mask image for excluding the ventricle in the subject's individual brain;
Extracting a second region containing white matter excluding the ventricle from a second image that is an MRI image of the subject based on the first region and the mask image of the subject;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the second region.
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当するに相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。 An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain A computer program for causing an information processing apparatus having a storage unit to store
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain, A first mask image showing an entire brain region in the subject's individual brain and a second mask image corresponding to a region including an edge region of the entire brain region in the standard brain in the subject's individual brain;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the third region.
前記第4の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、灰白質を含む第5の領域を抽出するステップと、
前記第5の領域から、特徴領域を抽出するステップと、を更に有する請求項2に記載のコンピュータプログラム。 Separating a fourth region containing gray matter from a first image that is an MRI image of the subject;
Extracting a fifth region containing gray matter from a second image that is an MRI image of the subject based on the fourth region and the first mask image of the subject;
The computer program according to claim 2, further comprising: extracting a feature region from the fifth region.
前記第3の領域から抽出する特徴領域は、白質病変の領域であり、
前記第5の領域から抽出する特徴領域は、灰白質病変の領域であり、
前記第1の領域に基づく前記被験者の全白質領域、前記第2の領域および前記第3の領域に基づく白質病変の領域、前記第4の領域に基づく前記被験者の全灰白質領域、前記第5の領域に基づく灰白質病変の領域、所定の境界を基準として、前角側に位置する白質領域、後角側に位置する白質領域、前角側に位置する白質病変領域、後角側に位置する白質病変領域、前角側に位置する灰白質病変領域、後角側に位置する灰白質病変領域、前角側に位置する灰白質領域、後角側に位置する灰白質領域、および、被験者の脳全体領域、のうちの少なくとも2つの領域の画素数を算出し、画素数を算出した領域から2つの領域を選択して、算出した画素数に基づき選択した2つの領域の比率を算出するステップを更に有する請求項5に記載のコンピュータプログラム。 The feature region extracted from the second region is a white matter lesion region;
The feature region extracted from the third region is a white matter lesion region;
The feature region extracted from the fifth region is a gray matter lesion region;
The subject's white matter region based on the first region, the white matter lesion region based on the second region and the third region, the subject's whole gray matter region based on the fourth region, the fifth region The gray matter lesion area based on the area of the white matter, the white matter area located on the anterior horn side, the white matter area located on the posterior corner side, the white matter lesion area located on the anterior horn side, and the posterior corner side based on a predetermined boundary White matter lesion area, gray matter lesion area located on the anterior horn side, gray matter lesion area located on the posterior horn side, gray matter area located on the anterior horn side, gray matter area located on the posterior corner side, and subject The number of pixels of at least two of the whole brain regions is calculated, two regions are selected from the regions for which the number of pixels is calculated, and the ratio of the two selected regions is calculated based on the calculated number of pixels The compilation of claim 5 further comprising a step. Over data program.
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離する分離手段と、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求める算出手段と、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換する変換手段と、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出する第1抽出手段と、
前記第2の領域から、特徴領域を抽出する第1抽出手段と、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる部分を抽出し、前記第2の画像の前記重なる部分のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出する第3抽出手段と、
前記第3の領域から、特徴領域を抽出する第4抽出手段と、を備える情報処理装置。 An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain A storage unit for storing
Separating means for separating a first region containing white matter from a first image that is an MRI image of the subject;
Calculating means for obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain A first mask image showing an entire brain area in the brain, and a conversion means for converting into a second mask image corresponding to an area including an edge area of the entire brain area in the individual brain of the subject;
First extraction means for extracting a second region containing white matter from a second image that is an MRI image of the subject based on the first region and the first mask image of the subject;
First extraction means for extracting a feature region from the second region;
A portion that overlaps the entire brain region of the first mask image of the subject is extracted from the second image, and a region inside the overlapping portion of the second image with respect to the second mask image of the subject A third extraction means for extracting a third region containing white matter;
An information processing apparatus comprising: fourth extraction means for extracting a feature region from the third region.
前記情報処理装置が、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を実行する方法。 An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain An information processing apparatus having a storage unit for storing
The information processing apparatus is
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain Converting to a first mask image indicating the entire brain region in the brain and a second mask image corresponding to a region including an edge region of the entire brain region in the individual brain of the subject;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
Extracting a feature region from the third region.
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当するに相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。 An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A computer program for causing an information processing apparatus having a storage unit to be executed,
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the transformation function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to the edge region of the whole brain region in the standard brain Converting to a first mask image representing the entire brain region in the brain and a second mask image corresponding to an edge region of the entire brain region in the standard brain in the subject's individual brain;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the third region.
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離する分離手段と、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求める算出手段と、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換する変換手段と、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出する第1抽出手段と、
前記第2の領域から、特徴領域を抽出する第1抽出手段と、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる部分を抽出し、前記第2の画像の前記重なる部分のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出する第3抽出手段と、
前記第3の領域から、特徴領域を抽出する第4抽出手段と、を備える情報処理装置。 An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A storage unit to
Separating means for separating a first region containing white matter from a first image that is an MRI image of the subject;
Calculating means for obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to an edge region of the whole brain region in the standard brain are converted into a brain in the individual brain of the subject. A first mask image showing an entire area, and a conversion means for converting into a second mask image corresponding to an edge area of the entire brain area in the subject's individual brain;
First extraction means for extracting a second region containing white matter from a second image that is an MRI image of the subject based on the first region and the first mask image of the subject;
First extraction means for extracting a feature region from the second region;
A portion that overlaps the entire brain region of the first mask image of the subject is extracted from the second image, and a region inside the overlapping portion of the second image with respect to the second mask image of the subject A third extraction means for extracting a third region containing white matter;
An information processing apparatus comprising: fourth extraction means for extracting a feature region from the third region.
前記情報処理装置が、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を実行する方法。 An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A method executed by an information processing apparatus having a storage unit
The information processing apparatus is
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to an edge region of the whole brain region in the standard brain are converted into a brain in the individual brain of the subject. Converting to a first mask image indicating an entire area and a second mask image corresponding to an edge area of the entire brain area in the individual brain of the subject;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
Extracting a feature region from the third region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014201890A JP6399487B2 (en) | 2013-09-30 | 2014-09-30 | Information processing apparatus, method executed by information processing apparatus, and computer program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013203740 | 2013-09-30 | ||
JP2013203740 | 2013-09-30 | ||
JP2014201890A JP6399487B2 (en) | 2013-09-30 | 2014-09-30 | Information processing apparatus, method executed by information processing apparatus, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015091308A JP2015091308A (en) | 2015-05-14 |
JP6399487B2 true JP6399487B2 (en) | 2018-10-03 |
Family
ID=53194919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014201890A Active JP6399487B2 (en) | 2013-09-30 | 2014-09-30 | Information processing apparatus, method executed by information processing apparatus, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6399487B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111223563B (en) * | 2018-11-23 | 2023-11-03 | 佳能医疗系统株式会社 | Medical image diagnosis device and medical image diagnosis system |
JP7572187B2 (en) * | 2020-08-31 | 2024-10-23 | 富士フイルム株式会社 | Magnetic resonance imaging equipment |
JP7338902B2 (en) | 2020-12-30 | 2023-09-05 | ニューロフェット インコーポレイテッド | : Method for providing auxiliary diagnostic information and apparatus for executing it |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4022587B2 (en) * | 2004-02-23 | 2007-12-19 | 国立精神・神経センター総長 | Diagnosis support method and apparatus for brain disease |
JP4721693B2 (en) * | 2004-12-09 | 2011-07-13 | 富士フイルムRiファーマ株式会社 | Intracranial volume and local brain structure analysis program, recording medium, and intracranial volume and local brain structure analysis method |
JP4948985B2 (en) * | 2006-11-17 | 2012-06-06 | 富士フイルムRiファーマ株式会社 | Medical image processing apparatus and method |
JP4685078B2 (en) * | 2007-10-25 | 2011-05-18 | 富士フイルムRiファーマ株式会社 | Diagnostic imaging support system |
JP5524458B2 (en) * | 2008-07-18 | 2014-06-18 | 富士フイルムRiファーマ株式会社 | Organ surface image display apparatus and method |
JP5061131B2 (en) * | 2009-01-29 | 2012-10-31 | 富士フイルムRiファーマ株式会社 | Organ surface image display apparatus and method |
EP2221627A1 (en) * | 2009-02-20 | 2010-08-25 | IBBT vzw | Method and assembly for correcting a relaxation map for medical imaging applications |
WO2011040473A1 (en) * | 2009-09-29 | 2011-04-07 | 大日本印刷株式会社 | Method, device and program for medical image processing |
JP5286395B2 (en) * | 2011-09-12 | 2013-09-11 | 富士フイルムRiファーマ株式会社 | Receptor binding ability imaging program, recording medium and method |
-
2014
- 2014-09-30 JP JP2014201890A patent/JP6399487B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015091308A (en) | 2015-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106659424B (en) | Medical image display processing method, medical image display processing device, and program | |
JP4025823B2 (en) | Diagnosis support method and apparatus for brain disease | |
JP5970766B2 (en) | Medical image processing apparatus, medical image processing method, and program | |
JP5243865B2 (en) | Brain disease diagnosis system | |
JP5601378B2 (en) | Medical image processing device | |
US20110046451A1 (en) | Method and automated system for assisting in the prognosis of alzheimer's disease, and method for training such a system | |
JP6036009B2 (en) | Medical image processing apparatus and program | |
US11151717B2 (en) | Computer aided diagnosis system for mild cognitive impairment | |
Sun et al. | Automated template-based PET region of interest analyses in the aging brain | |
EP3190542B1 (en) | Method and system for generating multiparametric nosological images | |
CN104168820B (en) | Image processing apparatus and method | |
JP4022587B2 (en) | Diagnosis support method and apparatus for brain disease | |
JP6399487B2 (en) | Information processing apparatus, method executed by information processing apparatus, and computer program | |
JP4824321B2 (en) | Image data analysis system, method and computer program | |
JPWO2019044077A1 (en) | Medical image processing apparatus, method and program | |
JP6705528B2 (en) | Medical image display processing method, medical image display processing apparatus and program | |
US20200176120A1 (en) | Information output apparatus, information output method, and information output program | |
JP4721693B2 (en) | Intracranial volume and local brain structure analysis program, recording medium, and intracranial volume and local brain structure analysis method | |
JP5469739B2 (en) | Diagnostic imaging support system | |
Alattas et al. | A comparative study of brain volume changes in Alzheimer's disease using MRI scans | |
Chansuparp et al. | The automated skull stripping of brain magnetic resonance images using the integrated method | |
JP5172429B2 (en) | Diagnostic imaging support system | |
JP6998760B2 (en) | Brain image analysis device, brain image analysis method, and brain image analysis program | |
JP6117865B2 (en) | Computer program | |
US12033366B2 (en) | Matching apparatus, matching method, and matching program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170905 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170927 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6399487 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |