[go: up one dir, main page]

JP6399487B2 - Information processing apparatus, method executed by information processing apparatus, and computer program - Google Patents

Information processing apparatus, method executed by information processing apparatus, and computer program Download PDF

Info

Publication number
JP6399487B2
JP6399487B2 JP2014201890A JP2014201890A JP6399487B2 JP 6399487 B2 JP6399487 B2 JP 6399487B2 JP 2014201890 A JP2014201890 A JP 2014201890A JP 2014201890 A JP2014201890 A JP 2014201890A JP 6399487 B2 JP6399487 B2 JP 6399487B2
Authority
JP
Japan
Prior art keywords
region
image
brain
subject
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014201890A
Other languages
Japanese (ja)
Other versions
JP2015091308A (en
Inventor
秀和 冨本
秀和 冨本
正之 佐藤
正之 佐藤
博隆 木田
博隆 木田
賢一 田部井
賢一 田部井
徹夫 細谷
徹夫 細谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm RI Pharma Co Ltd
Mie University NUC
Original Assignee
Fujifilm RI Pharma Co Ltd
Mie University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm RI Pharma Co Ltd, Mie University NUC filed Critical Fujifilm RI Pharma Co Ltd
Priority to JP2014201890A priority Critical patent/JP6399487B2/en
Publication of JP2015091308A publication Critical patent/JP2015091308A/en
Application granted granted Critical
Publication of JP6399487B2 publication Critical patent/JP6399487B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Description

本発明は、MRI装置により撮影されたFLAIR画像から白質病変部位を抽出する技術に関する。   The present invention relates to a technique for extracting a white matter lesion site from a FLAIR image photographed by an MRI apparatus.

MRI画像の解析ソフトとして、汎用ソフトであるSPM(Statistical Parametric Mapping)が広く使用されている。   As analysis software for MRI images, SPM (Statistical Parametric Mapping), which is general-purpose software, is widely used.

SPM(Statistical Parametric Mapping)、ロンドン大学、http://www.fil.ion.ucl.ac.uk/spm/SPM (Statistical Parametric Mapping), University of London, http://www.fil.ion.ucl.ac.uk/spm/

ところで、近年、白質病変とアルツハイマー病との関連性が指摘されているが、MRI画像から白質病変を精度よく抽出することは実施されていない。   Incidentally, in recent years, the relationship between white matter lesions and Alzheimer's disease has been pointed out, but white matter lesions have not been accurately extracted from MRI images.

本発明の目的は、FLAIR画像から白質病変部位を容易に精度よく抽出することである。   An object of the present invention is to easily and accurately extract a white matter lesion site from a FLAIR image.

本発明の一つの実施態様に従うコンピュータプログラムは、被験者の頭部のMRI画像と、標準脳において脳室を除外するためのマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、前記被験者のMRI画像から脳室と白質とを含む第1の領域を分離するステップと、前記被験者のMRI画像を標準脳へ変換するための変換関数を求めるステップと、前記変換関数の逆関数を用いて、前記標準脳において脳室を除外するためのマスク画像を、前記被験者の個人脳において脳室を除外するためのマスク画像に変換するステップと、前記第1の領域および前記被験者のマスク画像に基づき、前記被験者のFLAIR画像から、前記脳室を除外した白質を含む第2の領域を抽出するステップと、前記第2の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させる。   A computer program according to an embodiment of the present invention is a computer for causing an information processing apparatus having a storage unit to store an MRI image of a subject's head and a mask image for excluding a ventricle in a standard brain to be executed. A program comprising: separating a first region including a ventricle and white matter from the MRI image of the subject; obtaining a conversion function for converting the MRI image of the subject into a standard brain; Converting a mask image for excluding a ventricle in the standard brain into a mask image for excluding a ventricle in the individual brain of the subject using an inverse function of the function; and the first region and Extracting a second region including white matter excluding the ventricle from the FLAIR image of the subject based on the mask image of the subject; From said second region, to execute the steps of extracting a feature region, to the information processing apparatus.

本発明の他の実施態様に従うコンピュータプログラムは、被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、前記第1の画像を標準脳へ変換するための変換関数を求めるステップと、前記変換関数の逆関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、前記第2の領域から、特徴領域を抽出するステップと、前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させる。   A computer program according to another embodiment of the present invention includes an MRI image of a subject's head, a first mask image indicating an entire brain region in a standard brain, and an edge of the entire brain region in the standard brain that is substantially circular. A computer program for causing an information processing apparatus having a storage unit to store a second mask image corresponding to an area to execute the first area including white matter from the first image that is an MRI image of the subject A first mask image showing an entire brain region in the standard brain using an inverse function of the conversion function, a step of obtaining a conversion function for converting the first image into a standard brain And a second mask image corresponding to an edge region of the whole brain region in the standard brain, a first mask image indicating the whole brain region in the individual brain of the subject, and the front The MRI image of the subject based on the step of converting into a second mask image corresponding to an edge region of the whole brain region in the subject's individual brain, and the first region and the first mask image of the subject. Extracting a second region containing white matter from the second image; extracting a feature region from the second region; and a brain of the first mask image of the subject from the second image. Extracting a region that overlaps the entire region, and extracting a region inside the second image of the subject from the overlapping region of the second image as a third region containing white matter; and And extracting the feature region from the third region.

本発明によれば、FLAIR画像から白質病変部位を容易に精度よく抽出することができる。   According to the present invention, a white matter lesion site can be easily and accurately extracted from a FLAIR image.

本発明の第1実施形態に係る情報処理装置1の全体構成を示す。1 shows an overall configuration of an information processing apparatus 1 according to a first embodiment of the present invention. 位置合わせ後のT2画像50から脳室と白質とを含む第1の領域51を分離した状態を示す。The state which isolate | separated the 1st area | region 51 containing a ventricle and white matter from the T2 image 50 after alignment is shown. 標準脳テンプレート60に基づき、位置合わせ後のT2画像50を解剖学的標準化後のT2画像61へ変換した状態を示す。Based on the standard brain template 60, the T2 image 50 after alignment is converted into a T2 image 61 after anatomical standardization. 標準脳上に設定されたマスク画像70を個人脳のマスク画像80に変換した状態を示す。A state in which a mask image 70 set on the standard brain is converted into a mask image 80 of an individual brain is shown. FLAIR画像90から白質を含む第2の領域91を抽出した状態を示す。The state which extracted the 2nd area | region 91 containing white matter from the FLAIR image 90 is shown. 第2の領域91から特徴領域を抽出し、特徴領域の体積を算出する説明図を示す。An explanatory diagram for extracting a feature region from the second region 91 and calculating the volume of the feature region is shown. 第2の領域データに基づく画像100およびFLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせた画像101をウィンドウW2に表示した状態を示す。An image 100 based on the second region data and the image 101 obtained by superimposing the image based on the second region data of the FLAIR image data and the SPECT image based on the SPECT image data are displayed on the window W2. FLAIR画像から特徴領域を抽出する処理を示すフローチャートである。It is a flowchart which shows the process which extracts the characteristic area | region from a FLAIR image. 特徴領域の体積を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates the volume of a characteristic area. 表示処理を示すフローチャートである。It is a flowchart which shows a display process. 本発明の第2実施形態に係る情報処理装置102の全体構成を示す。2 shows an overall configuration of an information processing apparatus 102 according to a second embodiment of the present invention. (a)標準脳上に設定された第1のマスク画像170を個人脳の第1のマスク画像180に変換した状態、(b)標準脳上に設定された第2のマスク画像172を個人脳の第2のマスク画像182に変換した状態、(c)標準脳上に設定されたz−score画像174を個人脳のz−score画像184に変換した状態を示す。(A) A state in which the first mask image 170 set on the standard brain is converted into a first mask image 180 of the personal brain, (b) a second mask image 172 set on the standard brain is converted into the personal brain. (C) shows a state in which the z-score image 174 set on the standard brain is converted into a z-score image 184 of the individual brain. FLAIR画像90から白質を含む第2の領域92を抽出した状態を示す。The state which extracted the 2nd area | region 92 containing white matter from the FLAIR image 90 is shown. FLAIR画像90から白質を含む第3の領域94を抽出した状態を示す。The state which extracted the 3rd area | region 94 containing white matter from the FLAIR image 90 is shown. 境界を設定し、前角側および後角側の特徴領域の体積を算出する説明図を示す。An explanatory view for setting the boundary and calculating the volume of the feature region on the front corner side and the rear corner side is shown. FLAIR画像から特徴領域を抽出する処理を示すフローチャートである。It is a flowchart which shows the process which extracts the characteristic area | region from a FLAIR image. 特徴領域の体積を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates the volume of a characteristic area. z−score指標を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates a z-score parameter | index.

以下、本発明の第1実施形態に係る情報処理装置および情報処理装置に実行させるコンピュータプログラムについて、図面を参照して説明する。   Hereinafter, an information processing apparatus and a computer program executed by the information processing apparatus according to the first embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る情報処理装置は、MRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。   The information processing apparatus according to the present embodiment performs processing for extracting a feature region from a FLAIR image photographed by the MRI apparatus.

図1は、本実施形態に係る情報処理装置1の全体構成を示す。同図に示すように、情報処理装置1は、情報処理装置本体10に入力装置2、出力装置3及び入出力装置4の一つ以上が接続されている。情報処理装置本体10は、例えば、プロセッサ及びメモリを備えた汎用的なコンピュータシステムにより構成され、以下に説明する情報処理装置本体10内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に格納することができる。入力装置2は、例えば、キーボード、ポインティングデバイスなどでよい。出力装置3は、例えば、ディスプレイ装置、プリンタなどでよい。入出力装置4は、例えば、大容量記憶装置あるいはネットワークインタフェース装置などで良い。   FIG. 1 shows an overall configuration of an information processing apparatus 1 according to the present embodiment. As shown in the figure, in the information processing apparatus 1, one or more of an input device 2, an output device 3, and an input / output device 4 are connected to the information processing apparatus main body 10. The information processing apparatus body 10 is configured by, for example, a general-purpose computer system including a processor and a memory, and each component or function in the information processing apparatus body 10 described below executes, for example, a computer program Is realized. This computer program can be stored in a computer-readable recording medium. The input device 2 may be, for example, a keyboard or a pointing device. The output device 3 may be, for example, a display device or a printer. The input / output device 4 may be, for example, a mass storage device or a network interface device.

情報処理装置本体10は、MRI(Magnetic Resonance Imaging)データ記憶部11と、SPECT(Single Photon Emission Computed Tomography)データ記憶部13と、位置合わせ部15と、位置合わせ後画像データ記憶部17と、分離処理部19と、第1の領域データ記憶部21と、標準脳データ記憶部23と、変換パラメータ算出部25と、変換パラメータ記憶部27と、マスク画像変換部29と、個人脳マスク画像データ記憶部31と、白質抽出部33と、第2の領域データ記憶部35と、特徴領域抽出部37と、特徴領域データ記憶部39と、体積算出部41と、体積データ記憶部43と、表示処理部45とを有する。   The information processing apparatus main body 10 includes an MRI (Magnetic Resonance Imaging) data storage unit 11, a SPECT (Single Photon Emission Computed Tomography) data storage unit 13, a registration unit 15, a post-positioning image data storage unit 17, and a separation unit. Processing unit 19, first region data storage unit 21, standard brain data storage unit 23, conversion parameter calculation unit 25, conversion parameter storage unit 27, mask image conversion unit 29, and personal brain mask image data storage Unit 31, white matter extraction unit 33, second region data storage unit 35, feature region extraction unit 37, feature region data storage unit 39, volume calculation unit 41, volume data storage unit 43, and display processing Part 45.

MRIデータ記憶部11は、MRIデータとして、同一被験者の頭部を異なる手法で撮影した複数種類のMRI画像の画像データを記憶する。例えば、T1画像、T2画像、FLAIR画像のそれぞれの画像データ(T1画像データ、T2画像データ、FLAIR画像データ)を記憶する。T1画像は、脂肪を高信号(白)で抽出し、水を低信号(黒)で抽出した画像である。T2画像は、水を高信号(白)で抽出し、脂肪を低信号(黒)で抽出した画像であり、病変の抽出に有用である。FLAIR画像は、水の信号を抑制したT2画像であり、脳室と隣接した病変の抽出に有用である。また、MRIデータ記憶部11には、1人以上の被験者のMRIデータが記憶される。   The MRI data storage unit 11 stores, as MRI data, image data of a plurality of types of MRI images obtained by photographing the head of the same subject using different methods. For example, each image data (T1 image data, T2 image data, FLAIR image data) of a T1 image, a T2 image, and a FLAIR image is stored. The T1 image is an image in which fat is extracted with a high signal (white) and water is extracted with a low signal (black). The T2 image is an image in which water is extracted with a high signal (white) and fat is extracted with a low signal (black), and is useful for extracting lesions. The FLAIR image is a T2 image in which a water signal is suppressed, and is useful for extracting a lesion adjacent to the ventricle. The MRI data storage unit 11 stores MRI data of one or more subjects.

T1画像データ、T2画像データ、およびFLAIR画像データは、それぞれ複数の断層画像データにより構成される3次元データである。本実施の形態において、T1画像データおよびT2画像データにおけるマトリクスサイズ(ボクセル数)は720×720×22(720×720画素の断層画像が22枚)、画素サイズは0.31×0.31×6.00mmであり、FLAIR画像データにおけるマトリクスサイズは384×384×155(384×384画素の断層画像が155枚)、画素サイズは0.55×0.55×1.00mmである。なお、T1画像データ、T2画像データ、およびFLAIR画像データの画素値は、絶対値ではなく相対値であり、その数値はMRIの画像取得条件、カメラの種類に依存する。   T1 image data, T2 image data, and FLAIR image data are three-dimensional data each composed of a plurality of tomographic image data. In the present embodiment, the matrix size (number of voxels) in T1 image data and T2 image data is 720 × 720 × 22 (22 tomographic images of 720 × 720 pixels), and the pixel size is 0.31 × 0.31 ×. The matrix size in the FLAIR image data is 384 × 384 × 155 (155 tomographic images of 384 × 384 pixels), and the pixel size is 0.55 × 0.55 × 1.00 mm. The pixel values of T1 image data, T2 image data, and FLAIR image data are not absolute values but relative values, and the numerical values depend on MRI image acquisition conditions and the type of camera.

SPECTデータ記憶部13は、SPECTデータとして、MRIデータ記憶部11に記憶されているMRIデータと同一の被験者の頭部をSPECT撮影装置により撮影したSPECT画像のデータを記憶する。SPECT画像データは、複数の断層画像データにより構成される3次元データである。また、MRIデータおよびSPECTデータは、例えば、入力装置2または入出力装置4を介して取得しても良いし、MRI装置およびSPECT撮影装置から直接取得しても良い。   The SPECT data storage unit 13 stores, as SPECT data, SPECT image data obtained by imaging the same subject's head as the MRI data stored in the MRI data storage unit 11 with a SPECT imaging apparatus. The SPECT image data is three-dimensional data composed of a plurality of tomographic image data. Further, the MRI data and SPECT data may be acquired, for example, via the input device 2 or the input / output device 4, or may be directly acquired from the MRI device and the SPECT imaging device.

位置合わせ部15は、MRIデータ記憶部11に記憶されている同一人のFLAIR画像データとT2画像データとを取得し、FLAIR画像データとT2画像データとの位置合わせを行う。例えば、FLAIR画像データとT2画像データとのマトリクスサイズ、画素サイズ、および位置情報を線形変換により合わせる。例えば、T2画像データのマトリクスサイズ、画素サイズ、および位置情報を、FLAIR画像データのマトリクスサイズ、画素サイズ、および位置情報に一致させる。その結果、T2画像データのマトリクスサイズが384×384×155に、画素サイズが0.55×0.55×1.00mmに変換される。これにより、FLAIR画像データおよびT2画像データを同じ座標で扱うことが可能となる。なお、T2画像データにかえてT1画像データを取得し、T1画像データのマトリクスサイズおよび画素サイズを、FLAIR画像データのマトリクスサイズおよび画素サイズに一致させても良い。また、位置合わせ処理は、MRI画像解析の汎用ソフトであるSPM(Statistical Parametric Mapping)のco−registration機能により実行可能である。   The alignment unit 15 acquires FLAIR image data and T2 image data of the same person stored in the MRI data storage unit 11, and performs alignment between the FLAIR image data and the T2 image data. For example, the matrix size, pixel size, and position information of FLAIR image data and T2 image data are matched by linear transformation. For example, the matrix size, pixel size, and position information of T2 image data are matched with the matrix size, pixel size, and position information of FLAIR image data. As a result, the matrix size of the T2 image data is converted to 384 × 384 × 155 and the pixel size is converted to 0.55 × 0.55 × 1.00 mm. Thereby, FLAIR image data and T2 image data can be handled with the same coordinates. Note that T1 image data may be obtained instead of T2 image data, and the matrix size and pixel size of T1 image data may be made to match the matrix size and pixel size of FLAIR image data. The alignment process can be executed by a co-registration function of SPM (Statistical Parametric Mapping), which is general-purpose software for MRI image analysis.

また、位置合わせ部15は、SPECTデータ記憶部13に記憶されているSPECT画像データについても、上述のSPMにより、T2画像データと同様に、FLAIR画像データとの位置合わせを行う。その結果、SPECT画像のマトリクスサイズが、384×384×155に、画素サイズが0.55×0.55×1.00mmに変換される。   The alignment unit 15 also aligns the SPECT image data stored in the SPECT data storage unit 13 with the FLAIR image data in the same manner as the T2 image data by the above SPM. As a result, the matrix size of the SPECT image is converted to 384 × 384 × 155 and the pixel size is converted to 0.55 × 0.55 × 1.00 mm.

位置合わせ後画像データ記憶部17は、位置合わせ部15で変換された位置合わせ後のT2画像データおよびSPECT画像データを記憶する。   The post-alignment image data storage unit 17 stores the post-positioning T2 image data and SPECT image data converted by the alignment unit 15.

分離処理部19は、位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データを分離する。例えば、図2に示すように、位置合わせ後のT2画像50から、脳室と白質とを含む第1の領域51を分離する。この分離処理は、上述したSPMのsegmentation機能により実行可能である。なお、上述したSPMのsegmentation機能では、位置合わせ後のT2画像データから、白質のみを分離することはできず、分離したデータには脳室の一部の領域も含まれる。よって、分離処理部19により、位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データが分離されることになる。   The separation processing unit 19 separates first region data including the ventricle and white matter from the T2 image data after alignment. For example, as shown in FIG. 2, the first region 51 including the ventricle and white matter is separated from the T2 image 50 after alignment. This separation process can be executed by the SPM segmentation function described above. Note that with the SPM segmentation function described above, it is not possible to separate only the white matter from the T2 image data after alignment, and the separated data includes a partial region of the ventricle. Therefore, the separation processing unit 19 separates the first region data including the ventricle and the white matter from the T2 image data after the alignment.

また、SPMにより位置合わせ後のT2画像50から白質を分離した場合、白質として分離した領域には灰白質が含まれる。よって、分離した領域を完全に白質のみにする処理を行っても良い。例えば、白質と灰白質との境界の画素値を設定し、設定した画素値に基づき第1の領域データの画素値を2値化することにより、白質として分離した領域から灰白質を除外する。図2に示した第1の領域51は、2値化後の灰白質を除外した白質の画像である。   Further, when white matter is separated from the aligned T2 image 50 by SPM, gray matter is included in the region separated as white matter. Therefore, the process of making the separated area completely white matter may be performed. For example, the pixel value of the boundary between white matter and gray matter is set, and the pixel value of the first region data is binarized based on the set pixel value, thereby removing the gray matter from the region separated as the white matter. The first area 51 shown in FIG. 2 is a white matter image excluding the binarized gray matter.

図1に戻ると、第1の領域データ記憶部21は、分離処理部19で分離された第1の領域51に対応する第1の領域データを記憶する。   Returning to FIG. 1, the first area data storage unit 21 stores first area data corresponding to the first area 51 separated by the separation processing unit 19.

標準脳データ記憶部23は、標準脳テンプレートデータと、標準脳上に設定され脳室を除外するためのマスク画像データとを記憶する。標準脳テンプレートデータおよびマスク画像データは、例えば、入力装置2または入出力装置4を介して取得する。   The standard brain data storage unit 23 stores standard brain template data and mask image data that is set on the standard brain and excludes the ventricle. Standard brain template data and mask image data are acquired via the input device 2 or the input / output device 4, for example.

変換パラメータ算出部25は、図3に示すように、標準脳テンプレート60に基づき、位置合わせ後のT2画像50を解剖学的標準化後のT2画像61へ変換するための変換パラメータ(変換関数)を算出する。詳細には、位置合わせ後のT2画像データの座標(個人脳座標)を標準脳座標に変換するための変換パラメータを、線形変換および非線形変換により算出する。この変換パラメータ算出は、上述したSPMのnormalization機能により実行可能である。   As shown in FIG. 3, the conversion parameter calculation unit 25 converts conversion parameters (conversion functions) for converting the T2 image 50 after alignment into the T2 image 61 after anatomical standardization based on the standard brain template 60. calculate. Specifically, the conversion parameters for converting the coordinates (individual brain coordinates) of the T2 image data after alignment into standard brain coordinates are calculated by linear conversion and non-linear conversion. This conversion parameter calculation can be performed by the above-described SPM normalization function.

変換パラメータ記憶部27は、変換パラメータ算出部25で算出された変換パラメータを記憶する。   The conversion parameter storage unit 27 stores the conversion parameter calculated by the conversion parameter calculation unit 25.

図4に示すように、マスク画像データに基づく標準脳のマスク画像70は、複数(5つ)の脳室領域71と、脳室以外の脳領域72とを有する。なお、図4に示したマスク画像70では、脳室の数は5つであるが、別の断面では脳室の数は増減する。   As shown in FIG. 4, the standard brain mask image 70 based on the mask image data has a plurality (five) of ventricular regions 71 and brain regions 72 other than the ventricles. In the mask image 70 shown in FIG. 4, the number of ventricles is five, but the number of ventricles increases or decreases in another cross section.

マスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳のマスク画像データを、被験者の個人脳の形状に対応するマスク画像データに変換する。すなわち、標準脳において脳室を除外するためのマスク画像70を、被験者の個人脳において脳室を除外するためのマスク画像80に変換する。これにより、図4に示すような、個人脳座標に基づくマスク画像80が作成される。個人脳のマスク画像80は、複数(5つ)の脳室領域81と、脳室以外の脳領域82とを有する。   The mask image conversion unit 29 converts the mask image data of the standard brain into mask image data corresponding to the shape of the individual brain of the subject using the reciprocal (inverse function) of the calculated conversion parameter. That is, the mask image 70 for excluding the ventricle in the standard brain is converted into the mask image 80 for excluding the ventricle in the subject's individual brain. Thereby, a mask image 80 based on the personal brain coordinates as shown in FIG. 4 is created. The personal brain mask image 80 has a plurality (five) of ventricular regions 81 and a brain region 82 other than the ventricles.

図1に戻ると、個人脳マスク画像データ記憶部31は、マスク画像変換部29で変換された個人脳のマスク画像データを記憶する。   Returning to FIG. 1, the personal brain mask image data storage unit 31 stores the mask image data of the personal brain converted by the mask image conversion unit 29.

白質抽出部33は、第1の領域データおよび個人脳のマスク画像データを用いて、FLAIR画像データから白質を含む第2の領域データを抽出する。図5に示すように、FLAIR画像90のうち、T2画像の第1の領域51および個人脳のマスク画像80の脳室以外の脳領域82の両方と重なる部分が、白質を含む第2の領域91として抽出される。よって、抽出された第2の領域91では、脳室領域81が除外されている。   The white matter extraction unit 33 uses the first region data and the personal brain mask image data to extract second region data including white matter from the FLAIR image data. As shown in FIG. 5, in the FLAIR image 90, a portion where both the first region 51 of the T2 image and the brain region 82 other than the ventricle of the mask image 80 of the personal brain overlap with the white matter. 91 is extracted. Therefore, in the extracted second region 91, the ventricle region 81 is excluded.

第2の領域データ記憶部35は、白質抽出部33において抽出された第2の領域データを記憶する。   The second area data storage unit 35 stores the second area data extracted by the white matter extraction unit 33.

特徴領域抽出部37は、抽出された第2の領域91から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。例えば、画素値が所定の閾値よりも大きい画素を特徴領域とする。FLAIR画像では、白質病変領域は、正常な白質領域よりも画素値が大きくなる。従って、適切な閾値を設定することにより、特徴領域として白質病変領域を抽出することが可能である。   The feature region extraction unit 37 extracts pixels having pixel values whose pixel values belong to a predetermined value range from the extracted second region 91 as a feature region. For example, a pixel having a pixel value larger than a predetermined threshold is set as the feature region. In the FLAIR image, the white matter lesion area has a larger pixel value than the normal white matter area. Therefore, it is possible to extract a white matter lesion area as a feature area by setting an appropriate threshold.

図6は、第2の領域91から特徴領域を抽出し、特徴領域の体積を算出するための説明図である。図6(b)のウィンドウW1において、抽出する画素値の基準値を1600、許容値を700(基準値を中心に±350)として、1250〜1950の画素値を特徴領域として抽出している。図6(a)では矢印で示した白い箇所が特徴領域として抽出される。   FIG. 6 is an explanatory diagram for extracting a feature region from the second region 91 and calculating the volume of the feature region. In the window W1 in FIG. 6B, the pixel value to be extracted is 1600, the allowable value is 700 (± 350 centering on the reference value), and pixel values of 1250 to 1950 are extracted as feature regions. In FIG. 6A, a white portion indicated by an arrow is extracted as a feature region.

特徴領域データ記憶部39は、特徴領域抽出部37において抽出された特徴領域(座標および画素値)を特徴領域データとして記憶する。   The feature region data storage unit 39 stores the feature region (coordinates and pixel values) extracted by the feature region extraction unit 37 as feature region data.

なお、上記の位置合わせ部15、分離処理部19、変換パラメータ算出部25、マスク画像変換部29、白質抽出部33、および特徴領域抽出部37における処理は、処理対象の画像データの全ての断層画像データについて実行され、各記憶部17、21、27、23、35、39は、断層画像データ毎の処理結果を記憶する。   Note that the above processing in the alignment unit 15, the separation processing unit 19, the conversion parameter calculation unit 25, the mask image conversion unit 29, the white matter extraction unit 33, and the feature region extraction unit 37 is performed on all the tomographic images of the processing target image data. The processing is executed for image data, and each of the storage units 17, 21, 27, 23, 35, and 39 stores a processing result for each tomographic image data.

体積算出部41は、特徴領域の体積を算出する。例えば、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、全画素数に画素サイズを掛けて特徴領域の体積を算出する。図6(b)のウィンドウW1のResult欄の下線部に示すように、全断層画像データにおける特徴領域(WM(D))の画素数(Pixel)が2291であった場合、これに画素サイズ:0.55×0.55×1.00mmを掛けることにより、特徴領域の体積(0.7cc)が算出される。なお、算出した特徴領域の体積に基づき、頭部全体又は全白質領域に対する特徴領域の割合を算出しても良い。   The volume calculation unit 41 calculates the volume of the feature region. For example, the number of pixels constituting the feature area data is obtained for each tomographic image data, and the volume of the feature area is calculated by multiplying the total number of pixels by the pixel size. As shown in the underlined portion of the Result column of the window W1 in FIG. 6B, when the number of pixels (Pixel) of the feature region (WM (D)) in all tomographic image data is 2291, the pixel size: By multiplying by 0.55 × 0.55 × 1.00 mm, the volume (0.7 cc) of the feature region is calculated. Note that the ratio of the feature region to the entire head or the entire white matter region may be calculated based on the calculated volume of the feature region.

体積データ記憶部43は、体積算出部41で算出された特徴領域の体積を記憶する。   The volume data storage unit 43 stores the volume of the feature area calculated by the volume calculation unit 41.

図7は、第2の領域データに基づく画像100およびFLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせた画像101をウィンドウW2に表示した状態を示している。   FIG. 7 shows a state in which an image 100 based on the second region data and an image 101 on which the image based on the second region data of FLAIR image data and the SPECT image based on the SPECT image data are superimposed are displayed in the window W2. ing.

表示処理部45は、図7のウィンドウW2に示すように、第2の領域データに基づく画像100をディスプレイ装置(出力装置3)に表示させ、第2の領域データのうち特徴領域の色を他の領域と異なる表示態様で表示させる。図7では、矢印で示すように、特徴領域をより強調するために全て白色で表示している。更に、表示処理部45は、図7に示すように、FLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせた画像101をディスプレイ装置(出力装置3)に表示させても良い。この時、SPECT画像に重ねて表示した第2の領域データに基づく画像において、特徴領域を他の領域と異なる表示態様で表示させても良い。   The display processing unit 45 displays the image 100 based on the second region data on the display device (output device 3) as shown in the window W2 in FIG. 7, and changes the color of the feature region in the second region data. The display mode is different from that of the area. In FIG. 7, as indicated by the arrows, the feature regions are all displayed in white in order to emphasize more. Further, as shown in FIG. 7, the display processing unit 45 displays an image 101 in which an image based on the second area data of FLAIR image data and a SPECT image based on the SPECT image data are overlaid on the display device (output device 3). May be displayed. At this time, in the image based on the second region data displayed superimposed on the SPECT image, the feature region may be displayed in a display mode different from other regions.

以上のような構成を備える本実施形態の情報処理装置1は、以下に説明する手順でMRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。   The information processing apparatus 1 according to the present embodiment having the above-described configuration performs a process of extracting a feature region from a FLAIR image photographed by the MRI apparatus according to the procedure described below.

図8は、MRIにより撮影されたFLAIR画像から特徴領域を抽出する手順を示すフローチャートである。   FIG. 8 is a flowchart showing a procedure for extracting a feature region from a FLAIR image photographed by MRI.

まず、MRIデータ(FLAIR画像データ、T1画像データ、T2画像データ)をMRIデータ記憶部11に保存し(S10)、保存したMRIデータと同一被験者のSPECTデータをSPECTデータ記憶部13に保存する(S12)。MRIデータおよびSPECTデータは、入出力装置4を介して外部から取得しても良い。既に当該データが準備されているときには、当該ステップを省略しても良い。   First, MRI data (FLAIR image data, T1 image data, T2 image data) is stored in the MRI data storage unit 11 (S10), and SPECT data of the same subject as the stored MRI data is stored in the SPECT data storage unit 13 ( S12). The MRI data and SPECT data may be acquired from the outside via the input / output device 4. When the data is already prepared, this step may be omitted.

位置合わせ部15は、ステップS10において保存したFLAIR画像データとT2画像データとの位置合わせを行い、位置合わせ後のT2画像データを位置合わせ後画像データ記憶部17に保存する(S14)。同様に、位置合わせ部15は、ステップS12において保存したSPECT画像データとFLAIR画像データとの位置合わせを行い、位置合わせ後のSPECT画像データを位置合わせ後画像データ記憶部17に保存する(S14)。   The alignment unit 15 performs alignment between the FLAIR image data stored in step S10 and the T2 image data, and stores the aligned T2 image data in the post-alignment image data storage unit 17 (S14). Similarly, the registration unit 15 performs registration between the SPECT image data stored in step S12 and the FLAIR image data, and stores the SPECT image data after registration in the post-alignment image data storage unit 17 (S14). .

分離処理部19は、ステップS14で位置合わせを行った位置合わせ後のT2画像データから、脳室と白質とを含む第1の領域データを分離し、第1の領域データを第1の領域データ記憶部21に保存する(S16)。   The separation processing unit 19 separates the first region data including the ventricle and the white matter from the T2 image data after the alignment performed in step S14, and the first region data is converted into the first region data. It preserve | saves at the memory | storage part 21 (S16).

次に、標準脳テンプレートデータとマスク画像データとを含む標準脳データを標準脳データ記憶部23に保存する(S18)。標準脳データは、入出力装置4を介して外部から取得しても良い。既に標準脳データが準備されているときには、当該ステップを省略しても良いし、当該ステップは、次のステップS20が実行される前であればいつ実行されても良い。   Next, standard brain data including standard brain template data and mask image data is stored in the standard brain data storage unit 23 (S18). The standard brain data may be acquired from the outside via the input / output device 4. When the standard brain data has already been prepared, this step may be omitted, and this step may be executed any time before the next step S20 is executed.

変換パラメータ算出部25は、ステップS16で位置合わせを行った位置合わせ後のT2画像データを、標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、求めた変換パラメータを変換パラメータ記憶部27に保存する(S20)。   The conversion parameter calculation unit 25 obtains a conversion parameter (conversion function) for converting the T2 image data after the alignment performed in step S16 into a standard brain template, and the obtained conversion parameter is converted into a conversion parameter storage unit. 27 (S20).

マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS18で保存された標準脳のマスク画像の座標を、個人脳座標に変換し、個人脳の形状に対応するマスク画像データを個人脳マスク画像データ記憶部31に保存する(S22)。   The mask image conversion unit 29 converts the coordinates of the mask image of the standard brain stored in step S18 into the personal brain coordinates using the reciprocal number (inverse function) of the conversion parameter calculated in step S20. Mask image data corresponding to the shape is stored in the personal brain mask image data storage unit 31 (S22).

白質抽出部33は、ステップS16で分離された第1の領域データおよびステップS22で作成された個人脳のマスク画像データに基づき、S10で保存されたFLAIR画像データから、白質を含む第2の領域データを抽出し、抽出した第2の領域データを第2の領域データ記憶部35に保存する(S24)。   Based on the first region data separated in step S16 and the personal brain mask image data created in step S22, the white matter extraction unit 33 generates a second region containing white matter from the FLAIR image data stored in S10. Data is extracted, and the extracted second region data is stored in the second region data storage unit 35 (S24).

特徴領域抽出部37は、ステップS24で抽出された第2の領域データから特徴領域データを抽出し、特徴領域データ記憶部39に保存する(S26)。これにより、特徴領域を抽出する処理が終了する。   The feature region extraction unit 37 extracts feature region data from the second region data extracted in step S24 and stores it in the feature region data storage unit 39 (S26). Thereby, the process of extracting the feature region is completed.

次に、情報処理装置1における被験者の頭部全体における特徴領域の体積を算出する処理について説明する。この特徴領域の体積を算出する処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図9は、特徴領域の体積を算出する処理を示すフローチャートである。   Next, processing for calculating the volume of the feature region in the entire subject's head in the information processing apparatus 1 will be described. The processing for calculating the volume of the feature region is executed after the processing for extracting the feature region is executed. FIG. 9 is a flowchart illustrating processing for calculating the volume of the feature region.

まず、体積算出部41は、特徴領域データを特徴領域データ記憶部39から取得する(S30)。   First, the volume calculation unit 41 acquires feature region data from the feature region data storage unit 39 (S30).

体積算出部41は、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、求めた全画素数に画素サイズを掛けて特徴領域の体積を算出し、体積データ記憶部に保存する(S32)。これにより特徴領域の体積を算出する処理が終了する。なお、算出した特徴領域の体積を出力装置3により出力しても良い。   The volume calculation unit 41 obtains the number of pixels constituting the feature region data for each tomographic image data, calculates the volume of the feature region by multiplying the obtained total number of pixels by the pixel size, and stores it in the volume data storage unit. (S32). Thereby, the process of calculating the volume of the feature region is completed. Note that the volume of the calculated feature region may be output by the output device 3.

次に、情報処理装置1における表示処理について説明する。この表示処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図10は、表示処理を示すフローチャートである。   Next, display processing in the information processing apparatus 1 will be described. This display process is executed after executing the process of extracting the feature region. FIG. 10 is a flowchart showing the display process.

まず、表示処理部45は、位置合わせ後のSPECT画像データを位置合わせ後画像データ記憶部21から、第2の領域データを第2の領域データ記憶部35から、特徴領域データを特徴領域データ記憶部39からそれぞれ取得する(S40)。   First, the display processing unit 45 stores the SPECT image data after alignment from the post-alignment image data storage unit 21, the second region data from the second region data storage unit 35, and the feature region data as feature region data. Each is acquired from the unit 39 (S40).

表示処理部45は、図7に示すように、S40で取得された、第2の領域データに基づく画像をディスプレイ装置(出力装置3)に表示させる。この時、第2の領域データのうち特徴領域の色を他の領域と異なる表示態様で表示させる。更に、表示処理部45は、図7に示すように、FLAIR画像データの第2の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせてディスプレイ装置(出力装置3)に表示させる(S41)。   As shown in FIG. 7, the display processing unit 45 causes the display device (output device 3) to display an image based on the second region data acquired in S40. At this time, the color of the characteristic area in the second area data is displayed in a display mode different from the other areas. Further, as shown in FIG. 7, the display processing unit 45 superimposes the image based on the second area data of the FLAIR image data and the SPECT image based on the SPECT image data, and displays them on the display device (output device 3). (S41).

本実施の形態によれば、被験者のT2画像から脳室と白質とを含む第1の領域を分離し、T2画像を標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、変換パラメータの逆数(逆関数)を用いて、標準脳において脳室領域が規定されたマスク画像データを、被験者の個人脳において脳室領域が規定されたマスク画像データに変換し、第1の領域および被験者のマスク画像に基づき、被験者のFLAIR画像から脳室を除外した白質を含む第2の領域を抽出し、第2の領域から特徴領域である白質病変を抽出する。これにより、FLAIR画像から特徴領域(白質病変)を容易に精度よく抽出することができる。また、脳室を除外した白質を含む第2の領域を抽出するので、脳室に隣接する特徴領域(白質病変)を明瞭に抽出することができる。   According to the present embodiment, the first region including the ventricle and white matter is separated from the T2 image of the subject, the conversion parameter (conversion function) for converting the T2 image into the standard brain template is obtained, and the conversion parameter is obtained. The mask image data in which the ventricular region is defined in the standard brain is converted into mask image data in which the ventricular region is defined in the subject's individual brain using the inverse (inverse function) of the first region and the subject. Based on the mask image, a second region including white matter excluding the ventricle is extracted from the subject FLAIR image, and a white matter lesion that is a feature region is extracted from the second region. Thereby, a feature region (white matter lesion) can be easily and accurately extracted from the FLAIR image. Further, since the second region including the white matter excluding the ventricle is extracted, the feature region (white matter lesion) adjacent to the ventricle can be extracted clearly.

また、被験者の頭部全体の特徴領域(白質病変)の体積を算出するので、頭部全体又は白質に対する特徴領域(白質病変)の体積を把握することができる。   Further, since the volume of the feature region (white matter lesion) of the entire head of the subject is calculated, the volume of the feature region (white matter lesion) with respect to the entire head or white matter can be grasped.

また、MRI装置では、T2画像の方がFLAIR画像よりも空間分解能を高くして撮影することができる。そして、T2画像の第1の領域に基づき、FLAIR画像から白質を含む第2の領域を抽出し、第2の領域から特徴領域を抽出している。よって、特徴領域の抽出精度を向上させることができる。   Further, with the MRI apparatus, the T2 image can be taken with a higher spatial resolution than the FLAIR image. Then, based on the first region of the T2 image, a second region including white matter is extracted from the FLAIR image, and a feature region is extracted from the second region. Therefore, it is possible to improve the feature region extraction accuracy.

また、特徴領域である白質病変と被験者のSPECT画像とを重ね合わせて表示させるので、白質病変部位と血流低下の位置とを比較することができる。   In addition, since the white matter lesion as the feature region and the SPECT image of the subject are displayed in a superimposed manner, the white matter lesion site and the position of the blood flow reduction can be compared.

本発明の第2実施形態に係る情報処理装置および情報処理装置に実行させるコンピュータプログラムについて、図面を参照して説明する。なお、第1実施形態と同一の部材および処理については同一の番号を付して説明を省略し、異なる部分についてのみ説明を行う。   An information processing apparatus according to a second embodiment of the present invention and a computer program executed by the information processing apparatus will be described with reference to the drawings. In addition, about the same member and process as 1st Embodiment, the same number is attached | subjected and description is abbreviate | omitted and only a different part is demonstrated.

本実施形態に係る情報処理装置は、第1実施形態に係る情報処理装置と同様に、MRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。   Similar to the information processing apparatus according to the first embodiment, the information processing apparatus according to the present embodiment performs a process of extracting a feature region from a FLAIR image photographed by the MRI apparatus.

図11は、本実施形態に係る情報処理装置102の全体構成を示す。同図に示すように、情報処理装置102は、情報処理装置本体110に入力装置2、出力装置3及び入出力装置4の一つ以上が接続されている。情報処理装置本体110は、例えば、プロセッサ及びメモリを備えた汎用的なコンピュータシステムにより構成され、以下に説明する情報処理装置本体110内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。このコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に格納することができる。   FIG. 11 shows the overall configuration of the information processing apparatus 102 according to the present embodiment. As shown in the figure, in the information processing apparatus 102, one or more of an input device 2, an output device 3, and an input / output device 4 are connected to the information processing apparatus main body 110. The information processing apparatus main body 110 is configured by, for example, a general-purpose computer system including a processor and a memory. Individual components or functions in the information processing apparatus main body 110 described below execute, for example, a computer program. Is realized. This computer program can be stored in a computer-readable recording medium.

情報処理装置本体110は、第1実施形態の情報処理装置10の構成に加え、標準脳z−scoreデータ記憶部12、個人脳z−scoreデータ記憶部14、再抽出領域抽出部16、第3の領域データ記憶部18、特徴領域再抽出部20、z−score処理部22と、処理データ記憶部24とを有する。また、標準脳データ記憶部23には、標準脳上に設定され脳全体領域を表し頭皮および頭蓋骨を除外するための第1のマスク画像データと標準脳上に設定され白質病変が存在しない領域を除外するための第2のマスク画像データとを記憶する。第1のマスク画像データと第2のマスク画像データは、例えば、入力装置2または入出力装置4を介して取得する。   In addition to the configuration of the information processing apparatus 10 of the first embodiment, the information processing apparatus main body 110 includes a standard brain z-score data storage unit 12, a personal brain z-score data storage unit 14, a re-extraction region extraction unit 16, a third Region data storage unit 18, feature region re-extraction unit 20, z-score processing unit 22, and processing data storage unit 24. The standard brain data storage unit 23 includes a first mask image data set on the standard brain that represents the entire brain region and excludes the scalp and the skull, and a region that is set on the standard brain and has no white matter lesions. Second mask image data to be excluded is stored. The first mask image data and the second mask image data are obtained via the input device 2 or the input / output device 4, for example.

図12(a)に示すように、第1のマスク画像データに基づく第1のマスク画像170は、脳全体領域により構成される。当該脳全体領域(第1のマスク画像170)は、図4における脳室領域71と脳領域72とを合わせた領域に相当する。また、図12(b)に示すように、第2のマスク画像データに基づく第2のマスク画像172は、略環状をなす環状領域により構成される。当該環状領域(第2のマスク画像172)は、図12(a)の脳全体領域である第1のマスク画像170の縁部領域に相当する。なお、当該第2のマスク画像172は、例えば、数十人の被験者の平均画像に基づき設定される白質病変が存在しない領域である。   As shown in FIG. 12A, the first mask image 170 based on the first mask image data is composed of the entire brain region. The entire brain region (first mask image 170) corresponds to a region obtained by combining the ventricle region 71 and the brain region 72 in FIG. Further, as shown in FIG. 12B, the second mask image 172 based on the second mask image data is constituted by an annular region having a substantially annular shape. The annular region (second mask image 172) corresponds to the edge region of the first mask image 170, which is the entire brain region of FIG. The second mask image 172 is, for example, an area where there is no white matter lesion set based on an average image of several tens of subjects.

標準脳z−scoreデータ記憶部12は、標準脳z−scoreデータとして、SPECTデータ記憶部13に記憶されているSPECT画像のデータに基づき求められ標準脳へ変換されたz−score画像のデータを記憶する。z−score画像のデータは、例えば、SPM等により、被験者の脳血流を正常群と比較して脳血流の低下具合を数値化することにより求められ、入力装置2または入出力装置4を介して取得する。なお、z−scoreは、(正常群の平均血流量−被験者の血流量)/正常標準偏差に基づき算出される値である。   The standard brain z-score data storage unit 12 obtains, as standard brain z-score data, z-score image data obtained based on the SPECT image data stored in the SPECT data storage unit 13 and converted into the standard brain. Remember. The z-score image data is obtained by, for example, comparing the cerebral blood flow of the subject with the normal group and quantifying the decrease in cerebral blood flow using SPM or the like. To get through. Note that z-score is a value calculated based on (average blood flow of normal group−blood flow of subject) / normal standard deviation.

図12(c)に示すように、z−score画像174は、脳血流の低下具合の数値データに基づく画像であり、白い領域は、正常群に対して相対的に血流が低下している領域を示し、黒い領域は、相対的に血流が高い領域を示している。   As shown in FIG. 12 (c), the z-score image 174 is an image based on numerical data of the degree of decrease in cerebral blood flow, and the white area shows a decrease in blood flow relative to the normal group. The black area indicates a relatively high blood flow area.

図11に戻ると、本実施形態におけるマスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳上に設定された第1のマスク画像データおよび第2のマスク画像データを、被験者の個人脳の形状に対応する個人脳の第1のマスク画像データおよび第2のマスク画像データに変換する。すなわち、標準脳における脳全体領域に相当する第1のマスク画像170を、被験者の個人脳における脳全体領域に相当する第1のマスク画像180に変換し、標準脳における第2のマスク画像172を、被験者の個人脳における第2のマスク画像182に変換する。これにより、図12(a)に示すような個人脳座標に基づく第1のマスク画像180および図12(b)に示すような個人脳座標に基づく第2のマスク画像182が作成される。   Returning to FIG. 11, the mask image conversion unit 29 according to the present embodiment uses the reciprocal (inverse function) of the calculated conversion parameter to set the first mask image data and the second mask set on the standard brain. The image data is converted into first mask image data and second mask image data of the personal brain corresponding to the shape of the subject's personal brain. That is, the first mask image 170 corresponding to the entire brain region in the standard brain is converted into the first mask image 180 corresponding to the entire brain region in the individual brain of the subject, and the second mask image 172 in the standard brain is converted. The second mask image 182 in the subject's individual brain is converted. Thus, a first mask image 180 based on the personal brain coordinates as shown in FIG. 12A and a second mask image 182 based on the personal brain coordinates as shown in FIG. 12B are created.

さらに、マスク画像変換部29は、算出された変換パラメータの逆数(逆関数)を用いて、標準脳へ変換されたz−score画像データを、被験者の個人脳の形状に対応する個人脳のz−score画像データに変換する。すなわち、標準脳座標に基づくz−score画像174を個人脳座標に基づくz−score画像184に変換する。これにより、図12(c)に示すような、個人脳座標に基づくz−score画像184が作成される。   Furthermore, the mask image conversion unit 29 uses the inverse number (inverse function) of the calculated conversion parameter to convert the z-score image data converted into the standard brain into a z-score of the personal brain corresponding to the shape of the subject's personal brain. -Convert to score image data. That is, the z-score image 174 based on the standard brain coordinates is converted into a z-score image 184 based on the personal brain coordinates. As a result, a z-score image 184 based on the personal brain coordinates as shown in FIG.

図11に戻ると、個人脳マスク画像データ記憶部31は、マスク画像変換部29で変換された個人脳の第1のマスク画像データおよび第2のマスク画像データを記憶する。   Returning to FIG. 11, the personal brain mask image data storage unit 31 stores the first mask image data and the second mask image data of the personal brain converted by the mask image conversion unit 29.

また、個人脳z−score画像データ記憶部14は、マスク画像変換部29で変換された個人脳のz−score画像データを記憶する。   The personal brain z-score image data storage unit 14 stores the z-score image data of the personal brain converted by the mask image conversion unit 29.

本実施形態における白質抽出部33は、第1の領域データおよび個人脳の第1のマスク画像データを用いて、FLAIR画像データから白質を含む第2の領域データを抽出する。図13に示すように、FLAIR画像90のうち、T2画像の第1の領域51および個人脳の脳全体領域に相当する第1のマスク画像180の両方と重なる部分が、白質を含む第2の領域92として抽出される。そして、特徴領域抽出部37において、第1の実施形態と同様に、抽出した第2の領域92から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。   The white matter extraction unit 33 in the present embodiment extracts second region data including white matter from the FLAIR image data using the first region data and the first mask image data of the personal brain. As shown in FIG. 13, a portion of the FLAIR image 90 that overlaps both the first region 51 of the T2 image and the first mask image 180 corresponding to the entire brain region of the individual brain includes the second matter containing white matter. An area 92 is extracted. Then, in the feature region extraction unit 37, as in the first embodiment, pixels having pixel values whose pixel values belong to a predetermined value range are extracted as feature regions from the extracted second region 92.

再抽出領域抽出部16は、個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、FLAIR画像データから白質を含む第3の領域データを抽出する。図14に示すように、FLAIR画像90のうち、個人脳の脳全体領域に相当する第1のマスク画像180に重なる領域93を抽出して、FLAIR画像90から頭皮および頭蓋骨を除去する。そして、当該重なる領域93のうち、第2のマスク画像182と重ならない領域が第3の領域94として抽出される。すなわち、重なる領域93のうち、略環状をなす第2のマスク画像182の内部の領域が第3の領域94として抽出される   The re-extraction region extraction unit 16 extracts third region data including white matter from the FLAIR image data using the first mask image data and the second mask image data of the personal brain. As shown in FIG. 14, a region 93 that overlaps the first mask image 180 corresponding to the entire brain region of the individual brain is extracted from the FLAIR image 90, and the scalp and skull are removed from the FLAIR image 90. Then, of the overlapping region 93, a region that does not overlap with the second mask image 182 is extracted as the third region 94. That is, in the overlapping area 93, the area inside the second mask image 182 having a substantially annular shape is extracted as the third area 94.

第3の領域データ記憶部18は、再抽出領域抽出部16において抽出された第3の領域データを記憶する。   The third area data storage unit 18 stores the third area data extracted by the re-extraction area extraction unit 16.

特徴領域再抽出部20では、特徴領域抽出部37と同様に、抽出された第3の領域94から画素値が所定の値の範囲に属する画素値を有する画素を特徴領域として抽出する。ここで抽出される特徴領域には、特徴領域抽出部37により既に抽出された特徴領域と、それ以外の特徴領域が含まれる。すなわち、分離処理部19において、T2画像50から分離された白質を含む第1の領域51には、T2画像50の全ての白質領域が含まれない傾向にあり、分離しきれていない白質領域がわずかに存在する可能性がある。そこで、FLAIR画像90から個人脳の脳全体領域に相当する第1のマスク画像180を用いて第3の領域94を抽出し、第3の領域94から特徴領域を再抽出することにより、全ての白質領域から特徴領域(白質病変領域)を確実に抽出するようにしている。   Similar to the feature region extraction unit 37, the feature region re-extraction unit 20 extracts pixels having pixel values whose pixel values belong to a predetermined value range from the extracted third region 94 as the feature region. The feature regions extracted here include feature regions already extracted by the feature region extraction unit 37 and other feature regions. That is, in the separation processing unit 19, the first region 51 including the white matter separated from the T2 image 50 tends not to include all the white matter regions of the T2 image 50. There may be a slight presence. Therefore, by extracting the third region 94 from the FLAIR image 90 using the first mask image 180 corresponding to the entire brain region of the individual brain, and reextracting the feature region from the third region 94, all the regions are extracted. A feature region (white matter lesion region) is reliably extracted from the white matter region.

特徴領域再抽出部20により抽出された特徴領域(座標および画素値)のうち、特徴領域抽出部37により抽出された特徴領域に対する差分が、特徴領域データ記憶部39に特徴領域データとして記憶される。   Of the feature regions (coordinates and pixel values) extracted by the feature region re-extraction unit 20, a difference with respect to the feature region extracted by the feature region extraction unit 37 is stored as feature region data in the feature region data storage unit 39. .

体積算出部41は、第1実施形態で説明した特徴領域(図15(a)では矢印で示した白い箇所)の体積(cc)の算出に加え、図15(a)に示すように、ユーザが設定した境界(本実施形態では中心を通る鉛直面)を基準として、図15(b)のウィンドウW3のResult欄に示すように、前角側および後角側の特徴領域(WMD)の体積(cc)を算出する。なお、境界はこれに限らず、頭頂側と脳底側の2点を指定し、これを基準として前角と後角とに分けて良いし、第1のマスク画像180上に予め設定しておいた境界(座標)を基準として前角と後角とに分けて良い。予め設定しておいた境界としては、中心溝であっても良いし、シルビウス溝(外側溝)であっても良い。また、前後ではなく左右で分けても良い。また、脳室周囲病変(PVH:periventricular hyperintensity)と深部皮質下白質病変(DSWMH:deep and subcortical white matter hyperintensity)との境界を標準脳上に設定しておき、これを個人脳に変換して、変換した境界を基準として、脳室周囲病変と深部皮質下白質病変とに分けて特徴領域の体積を算出しても良い。   In addition to calculating the volume (cc) of the feature region (the white part indicated by the arrow in FIG. 15A) described in the first embodiment, the volume calculation unit 41, as shown in FIG. As shown in the Result column of the window W3 in FIG. 15B, the volume of the feature region (WMD) on the front corner side and the rear corner side is set with reference to the boundary set in FIG. 15B (vertical plane passing through the center in this embodiment). (Cc) is calculated. Note that the boundary is not limited to this, and two points on the parietal side and the basilar side may be designated and divided into an anterior angle and a posterior angle based on this, or set in advance on the first mask image 180. The front and rear corners may be divided based on the border (coordinates) placed. The boundary set in advance may be a central groove or a Sylvian groove (outer groove). Moreover, you may divide into right and left instead of front and back. In addition, a boundary between periventricular lesion (PVH) and deep subcortical white matter lesion (DSWMH) is set on the standard brain and converted into a personal brain. Based on the converted boundary, the volume of the feature region may be calculated separately for the periventricular lesion and the deep subcortical white matter lesion.

また、体積算出部41は、全白質領域の体積に対する特徴領域(白質病変領域)の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出する。さらに、体積算出部41は、個人脳の脳全体領域に相当する第1のマスク画像データに基づき、脳全体領域の体積を算出し、脳全体領域に対する全白質領域の割合を算出する。なお、全白質領域の体積は、第1の領域51示す第1の領域データおよび特徴領域再抽出部20により抽出され特徴領域データ記憶部39に記憶された特徴領域データに基づき算出される。   The volume calculation unit 41 calculates the ratio of the volume of the feature region (white matter lesion area) to the volume of the entire white matter region, and calculates the ratio of the volume of the front part of the feature region to the volume of the rear part of the feature region. Further, the volume calculation unit 41 calculates the volume of the entire brain region based on the first mask image data corresponding to the entire brain region of the individual brain, and calculates the ratio of the entire white matter region to the entire brain region. The volume of the entire white matter region is calculated based on the first region data shown in the first region 51 and the feature region data extracted by the feature region re-extraction unit 20 and stored in the feature region data storage unit 39.

体積算出部41により算出された結果は、体積データ記憶部43に記憶される。   The result calculated by the volume calculation unit 41 is stored in the volume data storage unit 43.

図11に戻ると、z−score処理部22は、個人脳のz−score画像データと特徴領域データとに基づき、特徴領域内におけるz−score値がz>0である画素のz−scoreの平均値、特徴領域内におけるz−score値が2以上のボクセルの割合、および、全脳における血流低下領域(z−score値が2以上)の割合と特徴領域における血流低下領域(z−score値が2以上)の割合との比を算出する。なお、z−score値の閾値は、「0」および「2」に限られず、他の値であっても良い。   Returning to FIG. 11, the z-score processing unit 22 determines the z-score of a pixel whose z-score value in the feature region is z> 0 based on the z-score image data of the individual brain and the feature region data. The average value, the ratio of voxels having a z-score value of 2 or more in the feature region, the ratio of the blood flow reduction region (z-score value of 2 or more) in the whole brain, and the blood flow reduction region (z− The ratio of the score value is 2 or more) is calculated. Note that the threshold value of the z-score value is not limited to “0” and “2”, and may be other values.

処理データ記憶部24は、z−score処理部22で算出された処理結果を記憶する。   The processing data storage unit 24 stores the processing result calculated by the z-score processing unit 22.

以上のような構成を備える本実施形態の情報処理装置102は、以下に説明する手順でMRI装置により撮影されたFLAIR画像から特徴領域を抽出する処理を行う。   The information processing apparatus 102 according to the present embodiment having the above-described configuration performs processing for extracting a feature region from a FLAIR image photographed by the MRI apparatus according to the procedure described below.

図16は、本実施形態におけるMRIにより撮影されたFLAIR画像から特徴領域を抽出する手順を示すフローチャートである。なお、図8に示した処理と同一の処理については同一の番号を付して説明を省略し、異なる処理についてのみ説明を行う。   FIG. 16 is a flowchart showing a procedure for extracting a feature region from a FLAIR image taken by MRI in the present embodiment. Note that the same processes as those shown in FIG. 8 are denoted by the same reference numerals, description thereof is omitted, and only different processes are described.

本実施形態におけるステップS18では、標準脳テンプレートデータと第1のマスク画像データと第2のマスク画像データとを含む標準脳データが、標準脳データ記憶部23に保存される。   In step S18 in the present embodiment, standard brain data including standard brain template data, first mask image data, and second mask image data is stored in the standard brain data storage unit 23.

次に、標準脳へ変換されたz−score画像データを標準脳z−scoreデータ記憶部12に保存する(S19)。標準脳へ変換されたz−score画像データは、入出力装置4を介して外部から取得しても良い。既に標準脳へ変換されたz−score画像データが準備されているときには、当該ステップを省略しても良いし、当該ステップは、ステップS22が実行される前であればいつ実行されても良い。   Next, the z-score image data converted into the standard brain is stored in the standard brain z-score data storage unit 12 (S19). The z-score image data converted into the standard brain may be acquired from the outside via the input / output device 4. When z-score image data converted into the standard brain has already been prepared, this step may be omitted, and this step may be executed any time before step S22 is executed.

本実施形態におけるステップS22では、マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS18で保存された標準脳の第1および第2のマスク画像データの座標を、個人脳座標に変換し、個人脳の形状に対応する第1および第2のマスク画像データを個人脳マスク画像データ記憶部31に保存する。さらに、マスク画像変換部29は、ステップS20で算出された変換パラメータの逆数(逆関数)を用いて、ステップS19で保存された標準脳へ変換されたz−score画像データを、被験者の個人脳の形状に対応する個人脳のz−score画像データに変換し、個人脳z−score画像データ記憶部14に記憶する。   In step S22 in the present embodiment, the mask image conversion unit 29 uses the reciprocal number (inverse function) of the conversion parameter calculated in step S20, and the first and second mask images of the standard brain stored in step S18. The data coordinates are converted into personal brain coordinates, and the first and second mask image data corresponding to the shape of the personal brain are stored in the personal brain mask image data storage unit 31. Further, the mask image conversion unit 29 uses the reciprocal number (inverse function) of the conversion parameter calculated in step S20 to convert the z-score image data converted into the standard brain stored in step S19 into the subject's individual brain. Is converted into z-score image data of the personal brain corresponding to the shape of the human brain and stored in the personal brain z-score image data storage unit 14.

本実施形態におけるステップS24では、白質抽出部33は、ステップS16で分離された第1の領域データおよびステップS22で作成された個人脳の第1のマスク画像データに基づき、ステップS10で保存されたFLAIR画像データから、白質を含む第2の領域データを抽出し、抽出した第2の領域データを第2の領域データ記憶部35に保存する。   In step S24 in the present embodiment, the white matter extraction unit 33 is stored in step S10 based on the first region data separated in step S16 and the first mask image data of the personal brain created in step S22. Second area data including white matter is extracted from the FLAIR image data, and the extracted second area data is stored in the second area data storage unit 35.

再抽出領域抽出部16は、ステップS22で作成された個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、ステップS10で保存されたFLAIR画像データから白質を含む第3の領域データを抽出し、抽出した第3の領域データを第3の領域データ記憶部18に保存する(S27)。   The re-extraction region extraction unit 16 uses the first mask image data and the second mask image data of the personal brain created in step S22, and uses the FLAIR image data stored in step S10 to include a third matter including white matter. The area data is extracted, and the extracted third area data is stored in the third area data storage unit 18 (S27).

特徴領域再抽出部20では、ステップS27で抽出された第3の領域データから特徴領域データを抽出し、ステップS26で抽出された特徴領域データに対する差分に相当する特徴領域データを特徴領域データ記憶部39に記憶する(S28)。   The feature region re-extraction unit 20 extracts feature region data from the third region data extracted in step S27, and stores feature region data corresponding to the difference with respect to the feature region data extracted in step S26. 39 (S28).

次に、情報処理装置102における被験者の頭部全体における特徴領域の体積を算出する処理について説明する。この特徴領域の体積を算出する処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図17は、特徴領域の体積を算出する処理を示すフローチャートである。なお、図9に示した処理と同一の処理については同一の番号を付して説明を省略し、異なる処理についてのみ説明を行う。   Next, processing for calculating the volume of the feature region in the entire head of the subject in the information processing apparatus 102 will be described. The processing for calculating the volume of the feature region is executed after the processing for extracting the feature region is executed. FIG. 17 is a flowchart illustrating processing for calculating the volume of the feature region. Note that the same processes as those shown in FIG. 9 are denoted by the same reference numerals, description thereof is omitted, and only different processes are described.

本実施形態におけるステップS32では、体積算出部41は、特徴領域データを構成する画素の画素数を断層画像データ毎に求め、求めた全画素数に画素サイズを掛けて特徴領域の体積を算出し、体積データ記憶部43に保存する。また、体積算出部41は、ユーザが設定した境界または所定の境界に基づき、前角側および後角側の特徴領域の体積を算出し、体積データ記憶部43に保存する。さらに、体積算出部41は、全白質領域の体積に対する特徴領域の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出し、脳全体領域に対する全白質領域の割合を算出し、体積データ記憶部43に保存する。なお、算出した結果を出力装置3により出力しても良い。   In step S32 in the present embodiment, the volume calculation unit 41 calculates the number of pixels constituting the feature area data for each tomographic image data, and calculates the volume of the feature area by multiplying the obtained total number of pixels by the pixel size. And stored in the volume data storage unit 43. The volume calculation unit 41 calculates the volume of the feature region on the front corner side and the rear corner side based on the boundary set by the user or a predetermined boundary, and stores the volume in the volume data storage unit 43. Further, the volume calculation unit 41 calculates the ratio of the volume of the feature region to the volume of the entire white matter region, calculates the ratio of the volume of the front portion of the feature region to the volume of the rear portion of the feature region, and calculates the total white matter with respect to the entire brain region. The ratio of the area is calculated and stored in the volume data storage unit 43. The calculated result may be output by the output device 3.

また、本実施形態の情報処理装置102においても、第1実施形態の情報処理装置1における表示処理(図10)と同様に表示処理を行う。また、当該表示処理において、上記の処理において算出した特徴領域の体積、前角側および後角側の特徴領域の体積、全白質領域の体積に対する特徴領域の体積の割合、特徴領域の後部の体積に対する特徴領域の前部の体積の割合、脳全体領域に対する全白質領域の割合を表示しても良い。   In the information processing apparatus 102 of the present embodiment, the display process is performed in the same manner as the display process (FIG. 10) in the information processing apparatus 1 of the first embodiment. In the display process, the volume of the feature area calculated in the above process, the volume of the feature area on the front and rear corners, the ratio of the volume of the feature area to the volume of the entire white matter area, and the volume of the rear part of the feature area The ratio of the volume of the front part of the feature region to the ratio of the whole white matter region to the whole brain region may be displayed.

次に、情報処理装置102におけるz−score画像データに基づき種々のz−score指標を算出する処理について説明する。当該処理は、上記の特徴領域を抽出する処理を実行した後に実行される。図18は、z−score指標を算出する処理を示すフローチャートである。   Next, processing for calculating various z-score indices based on z-score image data in the information processing apparatus 102 will be described. This processing is executed after executing the processing for extracting the feature region. FIG. 18 is a flowchart illustrating processing for calculating a z-score index.

z−score処理部22は、特徴領域データを特徴領域データ記憶部39から、個人脳のz−score画像データを個人脳z−score画像データ記憶部14から取得する(S43)。   The z-score processing unit 22 acquires the feature region data from the feature region data storage unit 39 and the z-score image data of the personal brain from the personal brain z-score image data storage unit 14 (S43).

z−score処理部22は、個人脳のz−score画像データと特徴領域データとに基づき、特徴領域内におけるz−score値がz>0である画素のz−scoreの平均値、特徴領域内におけるz−score値が2以上のボクセルの割合、および、全脳における血流低下領域(z−score値が2以上)の割合と特徴領域における血流低下領域(z−score値が2以上)の割合との比を算出し、処理データ記憶部24に記憶する(S44)。これによりz−score指標を算出する処理が終了する。なお、算出したz−score指標を出力装置3により出力しても良い。なお、上記のようにz−score値の閾値は、「0」および「2」に限られず、他の値であっても良い。   The z-score processing unit 22 is based on the z-score image data of the individual brain and the feature region data, and the z-score average value of the pixels whose z-score value in the feature region is z> 0, The ratio of voxels with a z-score value of 2 or more in the region, the ratio of the blood flow reduction region (z-score value of 2 or more) in the whole brain, and the blood flow reduction region in the feature region (z-score value of 2 or more) The ratio is calculated and stored in the processing data storage unit 24 (S44). Thereby, the process of calculating the z-score index is completed. The calculated z-score index may be output by the output device 3. As described above, the threshold value of the z-score value is not limited to “0” and “2”, and may be another value.

本実施の形態によれば、被験者のT2画像50から白質を含む第1の領域51を分離する。T2画像50を標準脳テンプレートへ変換するための変換パラメータ(変換関数)を求め、変換パラメータの逆数(逆関数)を用いて、標準脳における脳全体領域を示す第1のマスク画像170および標準脳における脳全体領域の縁部領域に相当する第2のマスク画像172を、被験者の個人脳における脳全体領域を示す第1のマスク画像180および被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像182に変換する。そして、第1の領域51および被験者の第1のマスク画像180に基づき、被験者のFLAIR画像90から白質を含む第2の領域92を抽出し、第2の領域から特徴領域である白質病変を抽出する。さらに、被験者のFLAIR画像90から被験者の第1のマスク画像180の脳全体領域と重なる領域93を抽出し、当該重なる領域93のうち、被験者の第2のマスク画像182に対する内部の領域を、白質を含む第3の領域94として抽出し、第3の領域94から特徴領域である白質病変を抽出する。   According to the present embodiment, the first region 51 including white matter is separated from the T2 image 50 of the subject. A conversion parameter (conversion function) for converting the T2 image 50 into a standard brain template is obtained, and the first mask image 170 indicating the entire brain region in the standard brain and the standard brain are obtained using an inverse number (inverse function) of the conversion parameter. The second mask image 172 corresponding to the edge region of the whole brain region in FIG. 5 corresponds to the first mask image 180 showing the whole brain region in the subject's individual brain and the edge region of the whole brain region in the subject's individual brain. The second mask image 182 is converted. Then, based on the first region 51 and the first mask image 180 of the subject, a second region 92 including white matter is extracted from the FLAIR image 90 of the subject, and a white matter lesion that is a feature region is extracted from the second region. To do. Further, a region 93 that overlaps the entire brain region of the subject's first mask image 180 is extracted from the subject's FLAIR image 90, and the region inside the subject's second mask image 182 in the overlapping region 93 is white matter. And a white matter lesion which is a feature region is extracted from the third region 94.

T2画像50から分離された白質を含む第1の領域51には、T2画像50の全ての白質領域が含まれない傾向にあり、分離しきれていない白質領域がわずかに存在する可能性がある。しかし、FLAIR画像90から個人脳の脳全体領域に相当する第1のマスク画像180および第2のマスク画像182を用いて第3の領域94を抽出し、第3の領域94から特徴領域を再抽出することにより、全ての白質領域から特徴領域(白質病変領域)を確実に抽出することができる。よって、FLAIR画像から特徴領域(白質病変)を容易に精度よく抽出することができる。また、被験者の第2のマスク画像182により、重なる領域93から白質病変が存在しない領域を削除し、第3の領域94から特徴領域を再抽出するので、再抽出を短時間で実行させることができる。   The first region 51 including the white matter separated from the T2 image 50 tends not to include all the white matter regions of the T2 image 50, and there may be a slight white matter region that is not completely separated. . However, the third region 94 is extracted from the FLAIR image 90 using the first mask image 180 and the second mask image 182 corresponding to the entire brain region of the individual brain, and the feature region is re-created from the third region 94. By extracting, a feature region (white matter lesion region) can be reliably extracted from all white matter regions. Therefore, a feature region (white matter lesion) can be easily and accurately extracted from the FLAIR image. In addition, since the region where no white matter lesion is present is deleted from the overlapping region 93 and the feature region is re-extracted from the third region 94 by the second mask image 182 of the subject, the re-extraction can be executed in a short time. it can.

次に、上記の実施形態において得られる特徴領域(白質病変領域)の体積等に基づき疾患の病態解析を行った結果について説明する。   Next, the results of a disease state analysis of the disease based on the volume of the feature region (white matter lesion region) obtained in the above embodiment will be described.

物忘れ外来を受診した新患患者と認知症の精査で入院した患者との計54名(男性22名, 女性32名, 平均年齢73.6歳±84)を対象として、脳コンパートメントと脳血流の定量解析から疾患の違いを後ろ向きに比較検討した。その結果、患者54名のうち、アルツハイマー型認知症(AD:Alzheimer‘s disease)は19名、血管性認知症(VaD:Vascular dementia)は4名、レヴィ小体型認知症(DLB:Dementia with Lewy bodies)は7名、軽度認知障害(MCI:Mild Cognitive Impairment)は12名であった。   Brain compartment and cerebral blood flow for 54 patients (22 males, 32 females, average age 73.6 years ± 84), including new patients who visited a forgetfulness outpatient clinic and those who were admitted for dementia Based on the quantitative analysis, the difference of the disease was compared retrospectively. As a result, among 54 patients, Alzheimer's disease (AD) was 19 patients, Vascular dementia (VaD) was 4 patients, and Lewy Body Dementia (DLB: Dementia with Lewy). (Bodies) was 7 and mild cognitive impairment (MCI) was 12 people.

そして、全白質領域の体積に対する特徴領域の体積の割合(白質病変領域/全白質領域)を疾患別に求めた。その結果、ADは4.7%、VaDは9.5%、DLBは2.4%、MCIは1.8%であった。VaDの割合は他の疾患に比べて有意に高く、白質病変領域/全白質領域を求めることでVaDと他の疾患を鑑別できる可能性が示唆された。   Then, the ratio of the volume of the feature area to the volume of the entire white matter area (white matter lesion area / total white matter area) was determined for each disease. As a result, AD was 4.7%, VaD was 9.5%, DLB was 2.4%, and MCI was 1.8%. The ratio of VaD was significantly higher than other diseases, suggesting the possibility of distinguishing VaD from other diseases by determining the white matter lesion area / total white matter area.

また、中心溝を境界として、特徴領域の後部の体積に対する特徴領域の前部の体積の割合(白質病変領域の前部/白質病変領域の後部)を求めた。その結果、ADは0.84、VaDは1.03、DLBは1.03、MCIは0.77であった。ADやMCIは側脳室の後角を中心とする後部の白質病変が多く、一方でVaDやDLBは側脳室の前角を中心とする前部の白質病変が多い傾向が示された。白質病変の前後比を求めることで、ADとVaDを鑑別できる可能性が示唆された。   Further, the ratio of the front volume of the feature area to the rear volume of the feature area (the front of the white matter lesion area / the rear part of the white matter lesion area) was obtained with the central groove as a boundary. As a result, AD was 0.84, VaD was 1.03, DLB was 1.03, and MCI was 0.77. AD and MCI showed many posterior white matter lesions centered on the posterior corner of the lateral ventricle, while VaD and DLB showed a tendency to have many anterior white matter lesions centered on the anterior horn of the side ventricle. It was suggested that AD and VaD could be differentiated by determining the front-to-back ratio of white matter lesions.

また、被験者のSPECT画像からは脳血流量に関し表1に示すような血流低下が見られる傾向にある。

Figure 0006399487
ここで、表中の「↓」は低下の程度を表しており、「↓」が多くなるほど、低下の程度が大きいことを示している。また、「−」は、血流低下がほとんどないことを示している。また、表1において、VaDは、その50%をしめる皮質下血管性認知症に限り、MCIは、将来ADにコンバートする確率が高い傾向にあるamnestic MCIに限っている。また、FTLD(Frontotemporal Lobar Degeneration)は、前頭側頭葉変性性認知症である。 In addition, from the SPECT image of the subject, there is a tendency that a decrease in blood flow as shown in Table 1 regarding the cerebral blood flow is observed.
Figure 0006399487
Here, “↓” in the table represents the degree of decrease, and the more “↓”, the greater the degree of decrease. Further, “−” indicates that there is almost no decrease in blood flow. In Table 1, VaD is limited to subcortical vascular dementia, which accounts for 50%, and MCI is limited to amnestic MCI that tends to be converted to AD in the future. Further, FTLD (Frontotemporal Robot Degeneration) is frontotemporal lobar degenerative dementia.

FLAIR画像データの第3の領域データに基づく画像とSPECT画像データに基づくSPECT画像とを重ね合わせ、特徴領域を他の領域と異なる表示態様で表示させた画像により、白質病変と脳血流の関係性から疾患の病態解析を短時間で行うことができる可能性がある。例えば、表示された画像に基づき、後角の白質病変が多く、帯状回後部、楔前部を中心に血流低下が見られた場合はAD、前角を中心に全体的に白質病変が多く帯状回後部、楔前部を中心とした血流低下が見られない場合はVaD、白質病変がそれほど多くなく後頭葉内側部に血流低下が見られた場合はDLB、MCIは白質病変がほとんどなく血流低下もほとんど見られない場合はMCIであるという画像診断ができる可能性がある。なお、FTLDについては、画像診断について記載していないが、FTLDの特徴領域の後部の体積に対する特徴領域の前部の体積の割合(白質病変領域の前部/白質病変領域の後部)を求めることにより画像診断ができる可能性がある。   The relationship between white matter lesions and cerebral blood flow is obtained by superimposing the image based on the third region data of FLAIR image data and the SPECT image based on SPECT image data, and displaying the characteristic region in a display mode different from other regions. Therefore, there is a possibility that pathological analysis of diseases can be performed in a short time. For example, on the basis of the displayed image, there are many white matter lesions in the posterior horn, and when blood flow decrease is observed mainly in the posterior zonal gyrus and the front of the wedge, there are many white matter lesions mainly in the anterior horn and the front horn. VaD when there is no decrease in blood flow centered on the posterior gyrus and the front of the wedge, and there is not much white matter lesions, and when there is a decrease in blood flow inside the occipital lobe, DLB and MCI are mostly white matter lesions. If there is no decrease in blood flow and there is almost no decrease in blood flow, there is a possibility that image diagnosis of MCI can be performed. Although FTLD does not describe image diagnosis, the ratio of the front volume of the feature area to the rear volume of the feature area of FTLD (the front of the white matter lesion area / the rear of the white matter lesion area) is obtained. May cause image diagnosis.

また、1名ずつのデータではあるが、MCIの被験者で約半年後にADにコンバートした被験者の白質病変領域/全白質領域は2%、ADにコンバートしなかった被験者のは0.3%であり、前者の白質病変領域の前部/白質病変領域の後部は0.47、後者は1.15であった。症例を増やして検討する必要はあるが、この結果は白質病変の容積とその前後比からADにコンバートする確率を求めることができる可能性を示唆するものである。   Moreover, although it is the data of 1 person, the white matter lesion area / whole white matter area | region of the subject who converted to AD about half a year in the subject of MCI is 2%, and the subject who did not convert to AD is 0.3%. The former part of the white matter lesion area / the rear part of the white matter lesion area was 0.47, and the latter was 1.15. Although it is necessary to study with increasing cases, this result suggests the possibility of obtaining the probability of conversion to AD from the volume of white matter lesions and the ratio before and after.

また、上記の実施形態では、FLAIR画像90から特徴領域として白質病変を抽出したが、灰白質(皮質)病変も同時に抽出するようにしても良い。すなわち、T2画像50から灰白質を含む領域(第4の領域)を分離し、分離した領域、および、マスク画像80または第1のマスク画像180に基づきFLAIR画像90から灰白質を含む領域(第5の領域)を抽出し、抽出した灰白質を含む領域から特徴領域として灰白質病変も抽出するようにしても良い。なお、灰白質病変の抽出において、第2実施形態で説明した再抽出(図16のS27およびS28)は行わない。   In the above embodiment, the white matter lesion is extracted as the feature region from the FLAIR image 90. Alternatively, the gray matter (cortex) lesion may be extracted at the same time. That is, a region containing the gray matter (fourth region) is separated from the T2 image 50, and the region containing the gray matter from the FLAIR image 90 based on the separated region and the mask image 80 or the first mask image 180 (first region). 5 region) may be extracted, and a gray matter lesion may be extracted as a feature region from the region including the extracted gray matter. Note that the re-extraction described in the second embodiment (S27 and S28 in FIG. 16) is not performed in the gray matter lesion extraction.

また、体積算出部41により、全灰白質領域の体積に対する特徴領域(灰白質病変領域)の体積の割合を算出し、特徴領域の後部の体積に対する特徴領域の前部の体積の割合を算出しても良い。さらに、体積算出部41により、脳全体領域の体積に対する全灰白質(皮質)領域の体積の割合を算出しても良い。   Further, the volume calculation unit 41 calculates the ratio of the volume of the feature area (gray matter lesion area) to the volume of the entire gray matter area, and calculates the ratio of the front volume of the feature area to the rear volume of the feature area. May be. Further, the volume calculation unit 41 may calculate the ratio of the volume of the entire gray matter (cortex) area to the volume of the entire brain area.

そして、皮質(灰白質)・白質病変を有する多発性硬化症患者20名(男性9名、女性11名、平均年齢42.2±9.2歳)を対象として、脳コンパートメントの定量解析を試みた。多発性硬化症の皮質病変は、DIR(double inversion recovery)画像で評価した。病型はNelsonらの分類に従って、皮質病変限局型、混合型(皮質病変+皮質下白質病変が同程度)、傍皮質型(皮質下白質病変が主体)に分類した。   Then, we attempted quantitative analysis of brain compartment in 20 patients with multiple sclerosis (9 males, 11 females, mean age 42.2 ± 9.2 years old) with cortical (gray matter) / white matter lesions. It was. The cortical lesions of multiple sclerosis were evaluated with DIR (double inversion recovery) images. According to the classification of Nelson et al., The disease type was classified into a cortical lesion limited type, a mixed type (cortical lesion + subcortical white matter lesions are similar), and a paracortical type (mainly subcortical white matter lesions).

病巣はそれぞれ皮質病変限局型7、混合型6、傍皮質型16個観察され、全体で29個であった。脳全体領域の体積に対する全皮質領域の体積の割合(%)は、皮質病変あり群(皮質病変限局型+混合型)では43.67±7.06%、皮質病変なし群(傍皮質型)では44.02±4.87%と皮質萎縮の程度に両群で差を認めなかった。   The lesions were found to be cortical lesion-limited type 7, mixed type 6, and paracortical type, 29 in total. The ratio (%) of the volume of the entire cortical area to the volume of the entire brain area is 43.67 ± 7.06% in the cortical lesion group (cortical lesion limited type + mixed type), and no cortical lesion group (paracortical type). In 44.02 ± 4.87%, there was no difference between the two groups in the degree of cortical atrophy.

一方、脳全体領域の体積に対する全白質領域の体積の割合(%)は、皮質病変あり群で29.74±2.99%、皮質病変なし群では32.82±3.09%と皮質病変あり群で白質萎縮が進行している結果であった。今回の解析対象となった患者群で、神経機能の評価尺度であるEDSS(Expanded Disability Status Scale)スコアは皮質病変あり群はなし群に比べて有意に高く、皮質病変あり群は機能障害の進行期にあることが推測される。皮質病変あり群の白質容積が小さいことから、白質の慢性炎症の進行が皮質病変形成と神経機能に影響していることが示唆された。EDSSによる患者の評価は、評価者が患者の行動を見て評価を行うため評価者の主観が入り、患者のモチベーション等の精神状態に大きく依存するため、上記のように評価することにより客観的な評価の可能性が示唆される。   On the other hand, the ratio (%) of the volume of the entire white matter region to the volume of the entire brain region was 29.74 ± 2.99% in the group with cortical lesions and 32.82 ± 3.09% in the group without cortical lesions. This was the result of progressing white matter atrophy in a certain group. The EDSS (Expanded Disability Status Scale) score, which is a measure of neurological function, was significantly higher in the group of patients analyzed this time than in the group with and without cortical lesions. It is speculated that The white matter volume of the group with cortical lesions was small, suggesting that the progression of white matter chronic inflammation affects cortical lesion formation and nerve function. Evaluation of patients by EDSS is objective by evaluating as described above because the evaluator evaluates the patient's behavior and evaluates the subject because the evaluator's subjectivity is included and depends greatly on the mental state such as the patient's motivation. This suggests the possibility of proper evaluation.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

例えば、上記の実施形態では、位置合わせ部15、分離処理部19、および変換パラメータ算出部25における処理において、T2画像データを用いたが、T1画像データを用いて処理を行っても良い。   For example, in the above-described embodiment, T2 image data is used in the processing in the alignment unit 15, the separation processing unit 19, and the conversion parameter calculation unit 25. However, processing may be performed using T1 image data.

また、上記の実施形態では、位置合わせ後のT2画像50を標準脳テンプレート60に位置合わせをすることにより変換パラメータを算出し、算出した変換パラメータに基づき、標準脳のマスク画像70を個人脳のマスク画像80に変換した。しかし、標準脳テンプレート60を位置合わせ後のT2画像50に位置合わせをすることにより変換パラメータを算出し、当該変換パラメータに基づき、標準脳のマスク画像70を個人脳のマスク画像80に変換しても良い。   In the above embodiment, the T2 image 50 after alignment is aligned with the standard brain template 60 to calculate a conversion parameter, and based on the calculated conversion parameter, the mask image 70 of the standard brain is converted to that of the individual brain. The mask image 80 was converted. However, a conversion parameter is calculated by aligning the standard brain template 60 with the aligned T2 image 50, and the standard brain mask image 70 is converted into a personal brain mask image 80 based on the conversion parameter. Also good.

また、上記の実施形態では、特徴領域抽出部37および特徴領域再抽出部20において、特徴領域の体積の算出時に用いる画素値の基準値および許容値をユーザが任意に設定して、対象画素を抽出したが、画素値および度数からなるヒストグラムを作成して、画素値が大きい側の上位の5%を対象画素として抽出しても良いし、画素値の最大値に対して80%以上の値を有する画素を対象画素として抽出しても良い。すなわち、予め設定した抽出条件に基づき自動的に抽出されるようにしても良い。   In the above-described embodiment, the feature region extraction unit 37 and the feature region re-extraction unit 20 arbitrarily set the reference value and the allowable value of the pixel value used when calculating the volume of the feature region, and set the target pixel. Although extracted, a histogram composed of the pixel value and the frequency may be created, and the upper 5% on the side with the larger pixel value may be extracted as the target pixel, or a value of 80% or more with respect to the maximum value of the pixel value May be extracted as a target pixel. That is, it may be automatically extracted based on preset extraction conditions.

白質抽出部33および特徴領域再抽出部20では、FLAIR画像90から白質を抽出したが、T1画像またはT2画像50から白質を抽出するようにしても良い。   Although the white matter extraction unit 33 and the feature region re-extraction unit 20 extract the white matter from the FLAIR image 90, the white matter may be extracted from the T1 image or the T2 image 50.

脳血流量に関する画像としてSPECT画像を用いたが、PET(Positrom Emission Tomograpy)検査により得られた脳血流量に関するPET画像を用いても良い。   Although the SPECT image is used as an image related to cerebral blood flow, a PET image related to cerebral blood flow obtained by a PET (Positive Emission Tomography) examination may be used.

また、再抽出領域抽出部16では、個人脳の第1のマスク画像データおよび第2のマスク画像データを用いて、FLAIR画像データから白質を含む第3の領域データを抽出し、特徴領域再抽出部20では、抽出された第3の領域94から特徴領域として白質病変を抽出した。しかし、再抽出領域抽出部16において、個人脳の第1のマスク画像データのみを用いて、FLAIR画像データから重なる領域93を抽出し、特徴領域再抽出部20において、重なる領域93から特徴領域として白質病変を抽出するようにしても良い。かかる構成によっても、全ての特徴領域(白質病変領域)を確実に抽出することができる。   In addition, the re-extraction region extraction unit 16 extracts third region data including white matter from the FLAIR image data using the first mask image data and the second mask image data of the personal brain, and re-extracts the feature region. The unit 20 extracts a white matter lesion as a feature region from the extracted third region 94. However, the re-extraction region extraction unit 16 extracts the overlapping region 93 from the FLAIR image data using only the first mask image data of the personal brain, and the feature region re-extraction unit 20 uses the overlapping region 93 as a feature region. A white matter lesion may be extracted. Even with such a configuration, all feature regions (white matter lesion regions) can be reliably extracted.

また、体積算出部41では、第1の領域データ、第2の領域データ、第3の領域データ、第4の領域データ、第5の領域データ、および特徴領域データに基づいて、被験者の全白質領域、白質病変の領域、前記第4の領域に基づく前記被験者の全灰白質領域、灰白質病変の領域、所定の境界を基準として、前角側に位置する白質領域、後角側に位置する白質領域、前角側に位置する白質病変領域、後角側に位置する白質病変領域、前角側に位置する灰白質病変領域、後角側に位置する灰白質病変領域、前角側に位置する灰白質領域、後角側に位置する灰白質領域、および、被験者の脳全体領域、のうちの少なくとも2つの領域の画素数(体積)を算出し、画素数(体積)を算出した領域から2つの領域を選択して、算出した画素数(体積)に基づき選択した2つの領域の比率を算出しても良い。   Further, the volume calculation unit 41 calculates the total white matter of the subject based on the first region data, the second region data, the third region data, the fourth region data, the fifth region data, and the feature region data. A region, a white matter lesion region, a total gray matter region of the subject based on the fourth region, a gray matter lesion region, a white matter region located on the anterior horn side, and a posterior corner side based on a predetermined boundary White matter area, white matter lesion area located on the anterior horn side, white matter lesion area located on the posterior corner side, gray matter lesion area located on the anterior horn side, gray matter lesion area located on the posterior corner side, located on the anterior horn side Calculating the number of pixels (volume) of at least two of the gray matter region, the gray matter region located on the back corner side, and the entire brain region of the subject, and calculating the number of pixels (volume) from the calculated region Select two areas and calculate the number of pixels (volume) Hazuki two selected areas ratio of may be calculated.

1、102 情報処理装置、11 MRIデータ記憶部、16 再抽出領域抽出部、19 分離処理部、20 特徴領域再抽出部、23 標準脳データ記憶部、25 変換パラメータ算出部、29 マスク画像変換部、33 白質抽出部、白質病変抽出部、41 体積算出部、45 重ね合わせ部、 50 T2画像、51 第1の領域、60 標準脳テンプレート、61 解剖学的標準化後のT2画像、71 脳室領域、80 個人脳のマスク画像、90 FLAIR画像、91、92 第2の領域、93 重なる領域、94 第3の領域 170 標準脳上に設定された第1のマスク画像、172 標準脳上に設定された第2のマスク画像、180 個人脳の第1のマスク画像、182 個人脳の第2のマスク画像 DESCRIPTION OF SYMBOLS 1,102 Information processing apparatus, 11 MRI data storage part, 16 Reextraction area extraction part, 19 Separation processing part, 20 Feature area reextraction part, 23 Standard brain data storage part, 25 Conversion parameter calculation part, 29 Mask image conversion part , 33 White matter extraction unit, white matter lesion extraction unit, 41 volume calculation unit, 45 superposition unit, 50 T2 image, 51 first region, 60 standard brain template, 61 anatomical standardized T2 image, 71 ventricular region 80, 80 brain images, 90 FLAIR images, 91, 92 second region, 93 overlapping region, 94 third region, 170 first mask image set on standard brain, 172 set on standard brain Second mask image, 180 first mask image of individual brain, 182 second mask image of individual brain

Claims (16)

被験者の頭部のMRI画像と、標準脳において脳室を除外するためのマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、
前記被験者のMRI画像である第1の画像から脳室と白質とを含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳において脳室を除外するためのマスク画像を、前記被験者の個人脳において脳室を除外するためのマスク画像に変換するステップと、
前記第1の領域および前記被験者のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、前記脳室を除外した白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。
A computer program for causing an information processing apparatus having a storage unit to store an MRI image of a head of a subject and a mask image for excluding a ventricle in a standard brain,
Separating a first region including a ventricle and white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function to convert a mask image for excluding the ventricle in the standard brain into a mask image for excluding the ventricle in the subject's individual brain;
Extracting a second region containing white matter excluding the ventricle from a second image that is an MRI image of the subject based on the first region and the mask image of the subject;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the second region.
被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当するに相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。
An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain A computer program for causing an information processing apparatus having a storage unit to store
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain, A first mask image showing an entire brain region in the subject's individual brain and a second mask image corresponding to a region including an edge region of the entire brain region in the standard brain in the subject's individual brain;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the third region.
前記特徴領域は、白質病変の領域である請求項2に記載のコンピュータプログラム。   The computer program product according to claim 2, wherein the feature region is a white matter lesion region. 前記特徴領域と前記被験者のSPECT画像とを重ね合わせて表示させるステップを更に有する請求項2に記載のコンピュータプログラム。   The computer program according to claim 2, further comprising a step of displaying the feature region and the SPECT image of the subject in a superimposed manner. 前記被験者のMRI画像である第1の画像から灰白質を含む第4の領域を分離するステップと、
前記第4の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、灰白質を含む第5の領域を抽出するステップと、
前記第5の領域から、特徴領域を抽出するステップと、を更に有する請求項2に記載のコンピュータプログラム。
Separating a fourth region containing gray matter from a first image that is an MRI image of the subject;
Extracting a fifth region containing gray matter from a second image that is an MRI image of the subject based on the fourth region and the first mask image of the subject;
The computer program according to claim 2, further comprising: extracting a feature region from the fifth region.
前記第2の領域から抽出する特徴領域は、白質病変の領域であり、
前記第3の領域から抽出する特徴領域は、白質病変の領域であり、
前記第5の領域から抽出する特徴領域は、灰白質病変の領域であり、
前記第1の領域に基づく前記被験者の全白質領域、前記第2の領域および前記第3の領域に基づく白質病変の領域、前記第4の領域に基づく前記被験者の全灰白質領域、前記第5の領域に基づく灰白質病変の領域、所定の境界を基準として、前角側に位置する白質領域、後角側に位置する白質領域、前角側に位置する白質病変領域、後角側に位置する白質病変領域、前角側に位置する灰白質病変領域、後角側に位置する灰白質病変領域、前角側に位置する灰白質領域、後角側に位置する灰白質領域、および、被験者の脳全体領域、のうちの少なくとも2つの領域の画素数を算出し、画素数を算出した領域から2つの領域を選択して、算出した画素数に基づき選択した2つの領域の比率を算出するステップを更に有する請求項5に記載のコンピュータプログラム。
The feature region extracted from the second region is a white matter lesion region;
The feature region extracted from the third region is a white matter lesion region;
The feature region extracted from the fifth region is a gray matter lesion region;
The subject's white matter region based on the first region, the white matter lesion region based on the second region and the third region, the subject's whole gray matter region based on the fourth region, the fifth region The gray matter lesion area based on the area of the white matter, the white matter area located on the anterior horn side, the white matter area located on the posterior corner side, the white matter lesion area located on the anterior horn side, and the posterior corner side based on a predetermined boundary White matter lesion area, gray matter lesion area located on the anterior horn side, gray matter lesion area located on the posterior horn side, gray matter area located on the anterior horn side, gray matter area located on the posterior corner side, and subject The number of pixels of at least two of the whole brain regions is calculated, two regions are selected from the regions for which the number of pixels is calculated, and the ratio of the two selected regions is calculated based on the calculated number of pixels The compilation of claim 5 further comprising a step. Over data program.
前記算出するステップでは、後角側に位置する白質病変領域および前角側に位置する白質病変領域の画素数を算出し、算出した画素数に基づき、後角側に位置する白質病変領域に対する前角側に位置する白質病変領域の割合を算出する請求項6に記載のコンピュータプログラム。 Wherein in the step of calculating calculates the number of pixels white matter lesion area located in white matter lesion area and the front corner side is located on the rear angle side, based on the number of pixels calculated before with respect to white matter lesion area located to the rear corner side The computer program according to claim 6, wherein a ratio of a white matter lesion area located on a corner side is calculated. 前記算出するステップでは、前記被験者の全白質領域および前記被験者の白質病変領域の画素数を算出し、前記被験者の全白質領域に対する前記被験者の白質病変領域の割合を算出するステップを更に有する請求項6に記載のコンピュータプログラム。 The step of calculating further comprises calculating the number of pixels of the subject's white matter region and the subject's white matter lesion region, and calculating the ratio of the subject's white matter lesion region to the subject's whole white matter region. 6. The computer program according to 6. 前記第2の画像は、T1画像、T2画像またはFLAIR画像である請求項2乃至請求項8のいずれか一項に記載のコンピュータプログラム。   The computer program according to any one of claims 2 to 8, wherein the second image is a T1 image, a T2 image, or a FLAIR image. 被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像とを記憶する記憶部と、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離する分離手段と、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求める算出手段と、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換する変換手段と、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出する第1抽出手段と、
前記第2の領域から、特徴領域を抽出する第1抽出手段と、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる部分を抽出し、前記第2の画像の前記重なる部分のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出する第3抽出手段と、
前記第3の領域から、特徴領域を抽出する第4抽出手段と、を備える情報処理装置。
An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain A storage unit for storing
Separating means for separating a first region containing white matter from a first image that is an MRI image of the subject;
Calculating means for obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain A first mask image showing an entire brain area in the brain, and a conversion means for converting into a second mask image corresponding to an area including an edge area of the entire brain area in the individual brain of the subject;
First extraction means for extracting a second region containing white matter from a second image that is an MRI image of the subject based on the first region and the first mask image of the subject;
First extraction means for extracting a feature region from the second region;
A portion that overlaps the entire brain region of the first mask image of the subject is extracted from the second image, and a region inside the overlapping portion of the second image with respect to the second mask image of the subject A third extraction means for extracting a third region containing white matter;
An information processing apparatus comprising: fourth extraction means for extracting a feature region from the third region.
前記特徴領域は、白質病変の領域である請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the feature region is a white matter lesion region. 被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置が実行する方法であって、
前記情報処理装置が、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域を含む領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を実行する方法。
An MRI image of the head of the subject, a first mask image showing the whole brain region in the standard brain, and a second mask image corresponding to a region that is substantially ring-shaped and includes an edge region of the whole brain region in the standard brain An information processing apparatus having a storage unit for storing
The information processing apparatus is
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to a region including an edge region of the whole brain region in the standard brain Converting to a first mask image indicating the entire brain region in the brain and a second mask image corresponding to a region including an edge region of the entire brain region in the individual brain of the subject;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
Extracting a feature region from the third region.
被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置に実行させるためのコンピュータプログラムであって、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当するに相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を前記情報処理装置に実行させるためのコンピュータプログラム。
An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A computer program for causing an information processing apparatus having a storage unit to be executed,
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the transformation function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to the edge region of the whole brain region in the standard brain Converting to a first mask image representing the entire brain region in the brain and a second mask image corresponding to an edge region of the entire brain region in the standard brain in the subject's individual brain;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
A computer program for causing the information processing apparatus to execute a step of extracting a feature region from the third region.
被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像とを記憶する記憶部と、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離する分離手段と、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求める算出手段と、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換する変換手段と、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出する第1抽出手段と、
前記第2の領域から、特徴領域を抽出する第1抽出手段と、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる部分を抽出し、前記第2の画像の前記重なる部分のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出する第3抽出手段と、
前記第3の領域から、特徴領域を抽出する第4抽出手段と、を備える情報処理装置。
An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A storage unit to
Separating means for separating a first region containing white matter from a first image that is an MRI image of the subject;
Calculating means for obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to an edge region of the whole brain region in the standard brain are converted into a brain in the individual brain of the subject. A first mask image showing an entire area, and a conversion means for converting into a second mask image corresponding to an edge area of the entire brain area in the subject's individual brain;
First extraction means for extracting a second region containing white matter from a second image that is an MRI image of the subject based on the first region and the first mask image of the subject;
First extraction means for extracting a feature region from the second region;
A portion that overlaps the entire brain region of the first mask image of the subject is extracted from the second image, and a region inside the overlapping portion of the second image with respect to the second mask image of the subject A third extraction means for extracting a third region containing white matter;
An information processing apparatus comprising: fourth extraction means for extracting a feature region from the third region.
請求項2から請求項9および請求項13のいずれか一項に記載のコンピュータプログラムを記憶したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium storing the computer program according to any one of claims 2 to 9 and claim 13. 被験者の頭部のMRI画像と、標準脳における脳全体領域を示す第1のマスク画像と、 略環状をなし前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像とを記憶する記憶部を有する情報処理装置が実行する方法であって、
前記情報処理装置が、
前記被験者のMRI画像である第1の画像から白質を含む第1の領域を分離するステップと、
前記第1の画像および標準脳の一方から他方へ変換するための変換関数を求めるステップと、
前記変換関数を用いて、前記標準脳における脳全体領域を示す第1のマスク画像および前記標準脳における脳全体領域の縁部領域に相当する第2のマスク画像を、前記被験者の個人脳における脳全体領域を示す第1のマスク画像および前記被験者の個人脳における脳全体領域の縁部領域に相当する第2のマスク画像に変換するステップと、
前記第1の領域および前記被験者の第1のマスク画像に基づき、前記被験者のMRI画像である第2の画像から、白質を含む第2の領域を抽出するステップと、
前記第2の領域から、特徴領域を抽出するステップと、
前記第2の画像から前記被験者の第1のマスク画像の脳全体領域と重なる領域を抽出し、前記第2の画像の前記重なる領域のうち、前記被験者の前記第2のマスク画像に対する内部の領域を、白質を含む第3の領域として抽出するステップと、
前記第3の領域から、特徴領域を抽出するステップと、を実行する方法。
An MRI image of the subject's head, a first mask image indicating the entire brain region in the standard brain, and a second mask image that is substantially ring-shaped and corresponds to an edge region of the entire brain region in the standard brain are stored. A method executed by an information processing apparatus having a storage unit
The information processing apparatus is
Separating a first region containing white matter from a first image that is an MRI image of the subject;
Obtaining a conversion function for converting from one of the first image and the standard brain to the other;
Using the conversion function, a first mask image indicating the whole brain region in the standard brain and a second mask image corresponding to an edge region of the whole brain region in the standard brain are converted into a brain in the individual brain of the subject. Converting to a first mask image indicating an entire area and a second mask image corresponding to an edge area of the entire brain area in the individual brain of the subject;
Extracting a second region containing white matter from a second image, which is an MRI image of the subject, based on the first region and the first mask image of the subject;
Extracting a feature region from the second region;
An area that overlaps the entire brain area of the first mask image of the subject is extracted from the second image, and an area inside the overlapping area of the second image with respect to the second mask image of the subject is extracted. Extracting as a third region containing white matter;
Extracting a feature region from the third region.
JP2014201890A 2013-09-30 2014-09-30 Information processing apparatus, method executed by information processing apparatus, and computer program Active JP6399487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014201890A JP6399487B2 (en) 2013-09-30 2014-09-30 Information processing apparatus, method executed by information processing apparatus, and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013203740 2013-09-30
JP2013203740 2013-09-30
JP2014201890A JP6399487B2 (en) 2013-09-30 2014-09-30 Information processing apparatus, method executed by information processing apparatus, and computer program

Publications (2)

Publication Number Publication Date
JP2015091308A JP2015091308A (en) 2015-05-14
JP6399487B2 true JP6399487B2 (en) 2018-10-03

Family

ID=53194919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201890A Active JP6399487B2 (en) 2013-09-30 2014-09-30 Information processing apparatus, method executed by information processing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP6399487B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223563B (en) * 2018-11-23 2023-11-03 佳能医疗系统株式会社 Medical image diagnosis device and medical image diagnosis system
JP7572187B2 (en) * 2020-08-31 2024-10-23 富士フイルム株式会社 Magnetic resonance imaging equipment
JP7338902B2 (en) 2020-12-30 2023-09-05 ニューロフェット インコーポレイテッド : Method for providing auxiliary diagnostic information and apparatus for executing it

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4022587B2 (en) * 2004-02-23 2007-12-19 国立精神・神経センター総長 Diagnosis support method and apparatus for brain disease
JP4721693B2 (en) * 2004-12-09 2011-07-13 富士フイルムRiファーマ株式会社 Intracranial volume and local brain structure analysis program, recording medium, and intracranial volume and local brain structure analysis method
JP4948985B2 (en) * 2006-11-17 2012-06-06 富士フイルムRiファーマ株式会社 Medical image processing apparatus and method
JP4685078B2 (en) * 2007-10-25 2011-05-18 富士フイルムRiファーマ株式会社 Diagnostic imaging support system
JP5524458B2 (en) * 2008-07-18 2014-06-18 富士フイルムRiファーマ株式会社 Organ surface image display apparatus and method
JP5061131B2 (en) * 2009-01-29 2012-10-31 富士フイルムRiファーマ株式会社 Organ surface image display apparatus and method
EP2221627A1 (en) * 2009-02-20 2010-08-25 IBBT vzw Method and assembly for correcting a relaxation map for medical imaging applications
WO2011040473A1 (en) * 2009-09-29 2011-04-07 大日本印刷株式会社 Method, device and program for medical image processing
JP5286395B2 (en) * 2011-09-12 2013-09-11 富士フイルムRiファーマ株式会社 Receptor binding ability imaging program, recording medium and method

Also Published As

Publication number Publication date
JP2015091308A (en) 2015-05-14

Similar Documents

Publication Publication Date Title
CN106659424B (en) Medical image display processing method, medical image display processing device, and program
JP4025823B2 (en) Diagnosis support method and apparatus for brain disease
JP5970766B2 (en) Medical image processing apparatus, medical image processing method, and program
JP5243865B2 (en) Brain disease diagnosis system
JP5601378B2 (en) Medical image processing device
US20110046451A1 (en) Method and automated system for assisting in the prognosis of alzheimer's disease, and method for training such a system
JP6036009B2 (en) Medical image processing apparatus and program
US11151717B2 (en) Computer aided diagnosis system for mild cognitive impairment
Sun et al. Automated template-based PET region of interest analyses in the aging brain
EP3190542B1 (en) Method and system for generating multiparametric nosological images
CN104168820B (en) Image processing apparatus and method
JP4022587B2 (en) Diagnosis support method and apparatus for brain disease
JP6399487B2 (en) Information processing apparatus, method executed by information processing apparatus, and computer program
JP4824321B2 (en) Image data analysis system, method and computer program
JPWO2019044077A1 (en) Medical image processing apparatus, method and program
JP6705528B2 (en) Medical image display processing method, medical image display processing apparatus and program
US20200176120A1 (en) Information output apparatus, information output method, and information output program
JP4721693B2 (en) Intracranial volume and local brain structure analysis program, recording medium, and intracranial volume and local brain structure analysis method
JP5469739B2 (en) Diagnostic imaging support system
Alattas et al. A comparative study of brain volume changes in Alzheimer's disease using MRI scans
Chansuparp et al. The automated skull stripping of brain magnetic resonance images using the integrated method
JP5172429B2 (en) Diagnostic imaging support system
JP6998760B2 (en) Brain image analysis device, brain image analysis method, and brain image analysis program
JP6117865B2 (en) Computer program
US12033366B2 (en) Matching apparatus, matching method, and matching program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170905

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170927

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R150 Certificate of patent or registration of utility model

Ref document number: 6399487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250