[go: up one dir, main page]

JP2011514822A - Ctスキャンデータをセグメント化する方法とシステム - Google Patents

Ctスキャンデータをセグメント化する方法とシステム Download PDF

Info

Publication number
JP2011514822A
JP2011514822A JP2010549615A JP2010549615A JP2011514822A JP 2011514822 A JP2011514822 A JP 2011514822A JP 2010549615 A JP2010549615 A JP 2010549615A JP 2010549615 A JP2010549615 A JP 2010549615A JP 2011514822 A JP2011514822 A JP 2011514822A
Authority
JP
Japan
Prior art keywords
slice
scan
data
segmenting
scan data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010549615A
Other languages
English (en)
Inventor
バーヌ・ケイ・エヌ・プラカシュ
ヴェスラフ・ルチヤン・ノヴィンスキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agency for Science Technology and Research Singapore
Original Assignee
Agency for Science Technology and Research Singapore
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency for Science Technology and Research Singapore filed Critical Agency for Science Technology and Research Singapore
Publication of JP2011514822A publication Critical patent/JP2011514822A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

CTスキャンデータをセグメント化する方法は、輝度データを変換データ値に変換することを含む。第1のオプションにおいて、本方法は、CTスキャンデータをマスクで畳み込んでエネルギーデータを取得することであって、マスクは帯域通過フィルタ特性を有することと、前記エネルギーデータのヒストグラムを生成することと、生成されるヒストグラムにおけるエネルギー値を基礎としてCTスキャンデータをセグメント化することとを含む。第2のオプションにおいて、本方法は、輝度データをハウンズフィールド尺度データに変換することと、予め規定されたハウンズフィールド尺度値を基礎として画像をセグメント化することとを含む。

Description

本発明は、CTスキャンデータをセグメント化する方法とシステムとに関する。本方法及びシステムは、CTスキャンデータにおける頭蓋領域を除去し、出血性のスライスを識別しかつ出血性スライスにおける出血領域をセグメント化するために使用され得る。
多くの国において、脳卒中は死亡及び罹患の主たる原因の1つである。迅速な評価及び処置は、脳卒中に冒された患者が卒中の急性期の間に失われた幾つかの神経機能を回復することに役立つ可能性がある。
コンピュータ断層撮影法(CT)は、脳卒中の診断において重要な役割を果たし得る。CTは、患者の組織と骨との対比、並びに組織と血液との対比を極めて良好に提示する。さらに、CTは大部分の病院において、及び救急サービスにおいて利用可能である。またCTは、虚血性脳卒中と出血性脳卒中とを区別するためにも使用され得る。出血性とは、頭蓋内に血液が溜まることとして定義される。出血性には多くの異なるタイプがあり、その幾つかを挙げると、脳室内出血(IVH)、脳内出血(ICH)、くも膜下出血、硬膜下血腫及び硬膜外血腫がある。
セグメント化は、CT画像を含む多くの医学画像の分析における重要なステップである。多くの分類プロセスにおいて、セグメント化は最初のステップとなる。セグメント化は、疾患の診断、定量的評価及び治療において有用である可能性がある。例えば、出血部位及び血腫部位の正確なセグメント化は、臨床医が構造的情報及び定量化を取得しかつ治療を計画する手助けをすることができる[1、2及び3]。また、正確なセグメント化の技術は、臨床医が異なるタイプの出血を分類する手助けもすることができ、よって、臨床医に血栓溶解のコンテキストまたは治療計画における迅速かつ適切な臨床判断をさせることができる[4]。
手動のセグメント化は時間がかかり、単調かつ主観的なものである(観察者間変動は約1.7−4.2%)ことから、様々な医学画像モダリティにより取得される画像から健康な組織及び器官と病的な組織及び器官とを自動的に分類しかつ定量化する試みが行われてきた。しかしながら、画像の複雑さ、及び各構造内で変形である可能性のあるものを完全に捕捉し得る解剖モデルが存在しないことに起因して、医学画像のセグメント化は難しいタスクである。これは、比較的低い信号対雑音比及び医学画像内に一般的に存在する固有アーティファクトによってさらに困難にされる。これらの問題点に起因して、セグメント化のアルゴリズムは多数報告されているものの、これらのアルゴリズムの大部分は結果が矛盾しかつ/または用途が限定的である。従って、臨床診療では、数種のコンピュータ支援検出(CAD)アルゴリズムしか使用されていない。
従って、CT画像の解釈及び形態学的測定及び意志決定において臨床医を支援する、CTデータの正確でロバストかつ迅速なセグメント化が必要とされている。
[1]DA Graeb、WD Robertson、SJ Lapointe、RA Nugent、PB Harrison共著「脳室内出血のコンピュータ断層撮影診断」Radiology 143:91−96、1982年4月 [2]KK Vereecken、TV Havenbergh、WD Beuckelaar、PM Parizel、PG Jorens共著「組換え組織プラスミノゲンアクチベータの脳室内投与による脳室内出血の治療、18症例の臨床研究」Clinical Neurology and Neurosurgery、第108巻、第5号、2006年7月、451−455ページ [3]RD Zimmerman、JA Maldjian、NC Brun、B Horvath、BE Skolnick共著「CTスキャンによる脳内出血トライアルにおける血腫ボリュームの放射線学的推定」AJNR27、2006年3月、666−670 [4]P Trouillas、R von Kummer共著「虚血性脳卒中における血栓溶解後脳出血の分類と病原論」Stroke、2006年、37、556 [5]K.Laws著「テクスチャ画像のセグメント化」博士学位論文、南カリフォルニア大学、1980年1月 [6]K.Laws著「高速テクスチャ識別」In SPIE、第238巻、ミサイル誘導用画像処理、376−380ページ、1980年
本発明の目的は、CTスキャンデータをセグメント化するための新規かつ有用なセグメント化システムを提供することにある。
一般的に言えば、本発明は、輝度データで構成されるスキャン画像が入力データを変換することによって処理され、かつ変換されたデータが関心度の低い画像部分を除去するしきい値を使用してウィンドウ処理されることを提案する。
ある例では、ウィンドウ処理されたデータはマスクを生成するためにセグメント化されてもよく、マスクは、マスクをスキャン画像または変換データで乗算することによりデータをセグメント化するために使用される。
本発明の第1の態様においては、変換データは、変換データ値(Laws用語では「エネルギー値」と呼ばれる)を生じさせるLawテクスチャマスクに従って生成される。Lawテクスチャマスクは、空間周波数ドメインにおける帯域通過フィルタを表すマトリクスで畳み込むことによって実装される。
本発明の第2の態様においては、変換データはハウンズフィールド尺度に従って変換され、しきい値は予め規定されたハウンズフィールド尺度値に従って選択される。
本発明は、方法に関連して、或いはこのような方法を実行するためのコンピュータシステムとして表現されてもよい。本コンピュータシステムは、CTスキャンデータを取得するためのデバイスと統合されてもよい。また本発明は、コンピュータシステムによって本方法の諸ステップを実行するように動作可能であるプログラム命令を含む、有形のコンピュータ媒体上に記録されるもの等のコンピュータプログラムプロダクトとして表現されてもよい。
図1は、CTスキャンボリュームのスライスに関して後頭蓋窩に近くない頭蓋に対応するCTスキャンデータ部分を取り除く方法100である、本発明の第1の実施形態のフロー図を示す。 図2(a)−(e)は、原CTスキャン画像及びこの原CTスキャン画像へ方法100を適用した結果を示す。 図3は、CTスキャンボリュームのスライスに関して後頭蓋窩に近くない頭蓋に対応するCTスキャンデータ部分を取り除く、本発明の第2の実施形態のフロー図を示す。 図4(a)−(c)は、原CTスキャン画像及びこの原CTスキャン画像へ方法300のステップ302及びステップ304を適用した結果を示す。 図5(a)−(d)は、方法300におけるステップ302から取得されたウィンドウ処理された輝度画像と、方法300におけるステップ304から取得されたエネルギー画像とをこれらの個々のフーリエ強度スペクトルと共に示す。 図6は、方法300におけるステップ306から取得された滑らかなヒストグラムの一例を示す。 図7(a)−(f)は、原CTスキャン画像及びこの原CTスキャン画像へ方法300を適用した結果を示す。 図8は、CTスキャンボリュームのスライスに関して後頭蓋窩に近い頭蓋に対応するCTスキャンデータ部分を取り除く、かつ図1及び図3の実施形態において有用である方法800の一例のフロー図を示す。 図9(a)−(e)は、CTスキャンボリュームの後頭蓋窩に近い2つのスライスのウィンドウ処理された輝度画像と、これらのスライスへ方法800を適用した結果を示す。 図10は、CTスキャンボリュームにおける出血性スライスを識別しかつセグメント化する方法1000である本発明のさらなる実施形態のフロー図を示す。 図11は、異なる組織タイプのCT値のハウンズフィールド尺度を示す。 図12は、CTスキャンボリュームにおける出血性スライスを識別しかつセグメント化する方法1200である本発明のさらなる実施形態のフロー図を示す。 図13は、方法1200におけるステップ1208から取得された滑らかなヒストグラムの一例を示す。 図14(a)−(e)は、原CTスキャン画像及びこの原CTスキャン画像に方法1200を適用した結果を示す。 図15は、CTスキャンボリュームにおける出血性スライスをセグメント化する方法1500である本発明のさらなる実施形態のフロー図を示す。 図16(a)−(f)は、CTスキャンボリュームの第1の出血性スライスに方法1500を適用した結果を示す。 図17(a)−(f)は、CTスキャンボリュームの第2の出血性スライスに方法1500を適用した結果を示す。 図18は、実施形態のうちの所定のものにおいて使用され得、カテーテル領域をセグメント化する方法1800のフロー図を示す。 図19(a)−(g)は、原CTスキャン画像及びこの原CTスキャン画像に方法1800を適用した結果を示す。 図20(a)−(e)は、CTスキャンボリュームの1つのスライスの輝度画像と、この輝度画像のヒストグラムとを示す。 図21(a)−(e)は、CTスキャンボリュームの1つのスライスのエネルギー画像と、このエネルギー画像のヒストグラムとを示す。
次に、添付図面を参照して、本発明の一実施形態を単に例示を目的として説明する。
方法100:後頭蓋窩に近くないスライスに関する頭蓋除去方法の第1の例
図1を参照すると、本発明の第1の実施形態である方法100の諸ステップが示されている。本方法は、CTスキャンボリュームのスライスに関して頭蓋に対応するCTスキャンデータ部分を取り除く。
方法100への入力は、CTスキャンボリューム(即ち、CTスキャン画像)の複数のスライスである。ある例では、各CTスキャン画像はDICOMフォーマットである。よって、ステップ102からステップ110までのセットは、各スライスに対して個々に実行される。或いは、CTスキャンボリュームに対してステップ102からステップ110までを直接実行することもできる。
方法100において、ステップ102からステップ110までは、後頭蓋窩に近くないスライスのみに対して実行される。本明細書では、後頭蓋窩に近いスライスを後頭蓋窩に最も近い2つから3つのスライスとして定義する。
ある例では、CTスキャンは、それが放射線学的従来技法に従った一般的事例であるという理由で、後頭蓋窩を起点にして頭頂部まで実行されることが想定されている。従って、スキャンの最初の2つから3つのスライスは後頭蓋窩に近いスライスであるものとして理解される。別の例では、後頭蓋窩に近いスライスは、図9(a)に示すような組織面積の形状とスライス番号との関係のグラフを基礎として決定されるが、これは、頂部における脳の形状または断面積が後頭蓋窩における脳の形状または断面積とは異なるからである。或いは、後頭蓋窩は脳内に松果体を位置づけることによって、またはそのタライラッハ座標によって位置づけられ、後頭蓋窩に最も近い2つから3つのスライスが後頭蓋窩に近いスライスであるものとして理解される。
ステップ102において、輝度画像内の輝度値は、DICOMファイルからインポートされる2つの変数「傾き」及び「切片」の値を使用して方程式(1)によりハウンズフィールド値に変換される。ある例では、これらの「傾き」及び「切片」の値は、方程式(1)における変換が最終的に、ハウンズフィールド値が(μ−μH2O)/(μ−μH2O1000に従って計算される典型的なハウンズフィールド変換となる類のものである。但し、μ、μH2O及びμairは各々、ターゲット物質、水分及び空気の線減弱係数である。
ハウンズフィールド値=輝度値傾き+切片 (1)
ステップ104では、輝度画像をスレッショルドすることによって、即ち、上限(即ちしきい値)と下限との間の値を除く全てを削除することによって中間マスク画像が取得される。ある例において、上限及び下限は各々400HU及び90HUに設定される。これらの上限及び下限は、骨のハウンズフィールド値の典型的範囲に関する知識を使用して選択される。結果は、中間マスク画像と称される。
ステップ106では、中間マスク画像に対し、適切な構造化エレメントを使用して第1の形態学的オペレーション(開放)が実行され、頭蓋と脳組織との間の望ましくない接続が除去される。実施形態例において、これらの構造化エレメントは任意の形状、例えば円形、正方形、長方形、菱形または円板形であり得る。
ステップ108では、次に頭蓋内部の組織領域を復元するためにさらなる形態学的オペレーション(拡張及び画像充填)が実行され、最終的なマスク画像が取得される。
ステップ110では、この最終的なマスク画像がステップ104において生成されたウィンドウ処理された輝度画像で乗算され、頭蓋が取り除かれた状態の画像(即ち、頭蓋除去画像)が取得される。これは、最終的なマスク画像とウィンドウ処理された輝度画像との間の論理AND演算と同等のものである。
最後に、ステップ112では、後頭蓋窩に近いスライスが、後に図8を参照して説明するプロセスによって処理される。
図2(a)から図2(e)までは、原CTスキャン画像、及びこの原CTスキャン画像へ方法100を適用した結果を示す。図2(a)は、DICOMフォーマットにおける原CTスキャン画像を示す。図2(b)は、ステップ104の実行後に図2(a)におけるCTスキャン画像から取得されたウィンドウ処理された輝度画像を示す。図2(c)は、開放(ステップ106)実行後の中間マスク画像を示す。図2(d)は、ステップ108においてさらなる形態学的オペレーションが実行された後に取得された最終的なマスク画像を示す。図2(e)は、図2(d)における最終的なマスク画像と図2(b)におけるウィンドウ処理された輝度画像との間で論理AND演算を実行した(ステップ110)後の、頭蓋が除去されているCTスキャン画像を示す。
方法300:後頭蓋窩に近くないスライスに関する頭蓋除去方法の第2の例
図3を参照すると、本発明方法の第2の実施形態である方法(方法300)の諸ステップが示されている。方法300は、CTスキャンボリュームのスライスに関して頭蓋に対応するCTスキャンデータ部分を取り除くための1つの代替方法である。
方法300への入力は、CTスキャン画像である。ある例では、このCTスキャン画像はDICOMフォーマットである。
ステップ302において、CTスキャン画像はまずウィンドウ処理され、DICOMヘッダからのウィンドウ情報(ウィンドウの幅及びウィンドウのレベル)を使用してウィンドウ処理された輝度画像が取得される。ウィンドウ情報は通常CTスキャナ内に予め設定されていて、放射線科医はこれを調節することができる。
ステップ304では、ウィンドウ処理された輝度画像がテクスチャマスクで畳み込まれ、正規化されて「エネルギー画像」が取得される。帯域通過フィルタの効果を有する任意のテクスチャマスクを使用できるが、これは、ウィンドウ処理された輝度画像をマスクで畳み込むことの主たる目的が望ましくない周波数を除去してフィルタリングされた領域をマップし、ピーク及び/またはバレー間の描出をより高度にしてスレッショルディングを促進するヒストグラムを生成することにある点に起因する。
ある例において、マスクは、Mod_S5E5で表示される5x5行列である修正されたLawテクスチャマスクである。但し、上付き文字TはS5E5行列の転置を表し、S5E5行列はS5及びE5で表示される2つのベクトルから取得される5x5行列である[5、6]。LawテクスチャマスクS5E5及び修正されたLawテクスチャマスクMod_S5E5の方程式は、後に各々方程式(2)及び(3)として記す。実施形態例において、方程式(3)における修正されたLawテクスチャマスクは完全な対称性ではなく、故に、マスクの垂直及び水平方向に沿ったカットオフ周波数は類似しているが、マスクの垂直及び水平方向に沿った帯域幅は異なる。さらに、マスクにおける係数は、マスクが画像内の点を平均化して高周波数(雑音を表す)のうちの幾分かを除去しかつ画像内の縁及びスポットを強調するように変更される。
図4(a)から図4(c)までは、原CTスキャン画像及びこの原CTスキャン画像へ方法300のステップ302及びステップ304を適用した結果を示す。図4(a)は、DICOMフォーマットにおける原CTスキャン画像を示し、図4(b)は、図4(a)におけるDICOM画像にウィンドウ処理(即ち、ステップ302)が実行された後のウィンドウ処理された輝度画像を示す。図4(c)は、図4(b)におけるウィンドウ処理された輝度画像を方程式(3)に示す修正されたlawマスクMod_S5E5で畳み込んだ(即ち、ステップ304)後に取得されたエネルギー画像を示す。
図5(a)は、ステップ302から取得されたウィンドウ処理されたDICOM輝度画像を示し、図5(c)は、ステップ304から取得されたエネルギー画像を示す。これらのフーリエ強度スペクトルは各々、図5(b)及び図5(d)に示されている。図5に示すように、ウィンドウ処理された輝度画像及びエネルギー画像の双方のフーリエ強度スペクトルは類似するものであるが、図5(d)では望ましくない周波数がフィルタリングされて除かれている。この非線形的なフィルタリングオペレーションは、ヒストグラムにおけるピーク及び/またはバレーをより良く描出することができ、よって後続ステップにおいてセグメント化に適するしきい値を識別することに役立つ。
図3のステップ306では、エネルギー画像内の値の滑らかなヒストグラムが、まずエネルギー画像のヒストグラムを計算し、次いで滑らかなヒストグラムを取得すべくこの計算されたヒストグラムをフィルタリングすることによって取得される。実施形態例では、滑らかなヒストグラムを取得するために、ヒストグラムデータを前方向及び逆方向の双方で処理することによってゼロ位相デジタルフィルタリングが実行される。第1のフィルタリングラウンドはヒストグラムデータに対して実行され、次に、フィルタリングされたデータのデータシーケンスが逆転される。次に、逆転されたデータは再度フィルタリングされ、滑らかなヒストグラムが取得される。このようにして取得されるヒストグラムは正確にゼロ位相歪を有し、かつフィルタの振幅応答の二乗である振幅を有する。
次に、ステップ306において、ヒストグラムにおけるピーク及びバレーが識別される。
図6は、方法300におけるステップ306から取得された滑らかなヒストグラムの一例を示す。図6において、最も高い正規化されたエネルギー値を有するピーク(ヒストグラムの右側)はバックグラウンドのピークであり、最も低い正規化されたエネルギー値を有するピーク(ヒストグラムの左側)は頭蓋のピークであるのに対して、正規化された最高及び最低エネルギー値間に存在する正規化されたエネルギー値を有するピークは組織のピークである。図6におけるヒストグラムには、バレーポイント(頭蓋のバレー、バックグラウンドのバレー及び組織のバレー)も示されている。
ステップ308では、エネルギー画像に対し、ヒストグラムのバックグラウンドバレー及び頭蓋バレーにおける正規化されたエネルギー値をしきい値として使用してスレッショルディングが実行され、非ゼロ値を有する組織領域のみによる中間マスク画像が取得される。
ステップ310では、マスク画像に対して形態学的オペレーションが実行される。まず、マスク画像に対し、適切な構造化エレメントを使用して形態学的オペレーション(開放)が実行され、頭蓋と脳組織との間の望ましくない接続が除去される。次に、頭蓋内部の組織領域を復元するために拡張及び画像充填の形態学的オペレーションが実行され、最終的なマスク画像が取得される。
ステップ312では、最終的なマスク画像が続いてエネルギー画像で乗算され、頭蓋が取り除かれた状態の画像(頭蓋除去画像)が取得される。
実施形態例では、方法300がCTスキャンボリュームの各スライスに対して実行される。或いは、方法300は、CTスキャンボリュームに直に実行され得る。
図7(a)から図7(f)までは、原CTスキャン画像及びこの原CTスキャン画像へ方法300を適用した結果を示す。図7(a)は、DICOMフォーマットにおける原CTスキャン画像を示している。図7(b)は、ステップ302が実行された後に図7(a)におけるCTスキャン画像から取得されたウィンドウ処理された輝度画像を示している。図7(c)は、ステップ304が実行された後に図7(b)における輝度画像から取得されたエネルギー画像を示している。図7(d)は、ステップ308におけるスレッショルディングが実行された後の初期マスクを示し、図7(e)は、ステップ310において形態学的オペレーションが実行された後の最終マスクを示している。図7(f)は、ステップ312において最終マスク画像をエネルギー画像で乗算した後の頭蓋が取り除かれた画像を示している。
方法100におけるステップ112及び方法300におけるステップ314
図8を参照すると、方法100におけるステップ112及び方法300におけるステップ314であるプロセス800の諸ステップが示されている。このプロセスは、CTスキャンボリュームのスライスに関して先に画定したような後頭蓋窩に近い頭蓋に対応するCTスキャンデータ部分を取り除く。
プロセス800は、CTスキャンボリュームと、このCTスキャンボリュームの後頭蓋窩に近くないスライスにおける組織領域とを使用する。ある例において、組織領域は方法100を使用して取得され、図2(d)はこのような組織領域の一例を示している。或いは、組織領域は方法300を使用して取得され得、図7(e)はこのような組織領域の一例を示している。
ステップ802では、CTスキャンボリュームの各スライス(後頭蓋窩に近いスライスを除く)における組織領域の面積が計算される。ステップ804では、次に、最大組織面積を含むスライス(即ち、最大組織面積スライス)が位置づけられ、この最大組織面積スライスのマスク画像が基準マスクとして示される。ステップ806では、最大組織面積スライスから後頭蓋窩まで延びる諸スライスの連続するスライス間の組織面積の差が計算される。ステップ808では、プロセスは、連続するスライス間の組織面積の差が予め決められたしきい値より(例えば10%)大きいスライスペアを発見し、最大組織面積スライスからさらに遠位のスライスが選択される。この最大組織面積スライスからさらに遠位のスライスは、基準スライスと称される。
ステップ810では、基準スライスから開始して(かつ基準スライスを含んで)、後頭蓋窩からさらに遠位のスライスが後頭蓋窩に近くないスライスと同じ方法で処理される。言い替えれば、これらのスライスの各々に対して、方法100のステップ102からステップ110まで、または方法300のステップ302からステップ312までが実行される。これらのスライスの各々について、方法100のステップ102からステップ110まで、または方法300のステップ302からステップ312までから取得されたCTスキャン画像における接続された最大の構成要素が組織領域であるとして選択される。
一方で、ステップ812では、基準スライスよりも後頭蓋窩に近いスライスの各々について、予め決められた下限より低い値を有する点がゼロに設定され、中間マスク画像が形成される。ある例では、下限はバックグラウンドの輝度値(スライス内の点の単位が輝度値である場合)またはハウンズフィールド値(スライス内の点の単位がハウンズフィールド値である場合)である。ウィンドウ処理は、CTスキャンボリュームの全てのスライスに対して実行されることに留意されたい。
続いて、ステップ814では、中間マスク画像に頭蓋と脳組織との間の望ましくない接続を除去する形態学的オペレーションが実行され、最終的なマスク画像が取得される。ある例では、ステップ814において、開放、拡張及び画像充填の形態学的オペレーションが実行される。
最後に、ステップ816では、最終的なマスク画像がウィンドウ処理された輝度画像またはエネルギー画像で乗算され、頭蓋が取り除かれた状態の画像(即ち、頭蓋除去画像)が取得される。これは、最終的なマスク画像と、ウィンドウ処理された輝度画像またはエネルギー画像との間の論理AND演算と同等である。CTスキャンボリュームにおける後頭蓋窩に近い各スライスのウィンドウ処理された輝度画像またはエネルギー画像は、ステップ104またはステップ302及びステップ304において説明したものと同じ方法で取得され得る。基準スライスより後頭蓋窩に近いこれらのスライスの各々については、頭蓋除去画像内の全ての領域が組織領域であるものとして理解される。
図9(a)から図9(e)までは、CTスキャンボリュームの後頭蓋窩に近い2つのスライスのウィンドウ処理された輝度画像、及びこれらのスライスへ方法800を適用した結果を示す。図9(a)は、CTスキャンボリュームにおける(後頭蓋窩に近いスライスを除く)各スライスの組織面積とスライス番号との関係を示す曲線902によるプロットを図解している。図9(a)に示すこのプロットは、ステップ804に使用され得る。図9(a)において、最大組織面積を有するスライスはスライス番号10である。図9(b)及び図9(d)は、後頭蓋窩に近い2つのスライスのウィンドウ処理された輝度画像を示している。図9(c)及び図9(e)は各々図9(b)及び図9(d)に対応し、方法800のステップ816における図9(c)及び図9(e)内の最終的なマスク画像及びウィンドウ処理された輝度画像の論理AND演算の後に取得された画像(頭蓋は取り除かれている)を示している。
方法1000:CTスキャンボリュームにおける出血性スライスを識別してセグメント化する方法の第1の例
図10を参照すると、CTスキャンボリュームにおける出血性スライスを識別しかつセグメント化する方法の第1の例(方法1000)である本発明のさらなる実施形態の諸ステップが示されている。
方法1000への入力は、CTスキャンボリュームである。ある例では、CTスキャンボリュームはDICOMファイルから読み取られる。或いは、CTスキャンボリュームはRAWファイルから読み取られることも可能である。さらに、CTスキャンボリュームは頭蓋領域を含む可能性も、除外する可能性もある。
ステップ1002において、CTスキャンボリューム内のボクセルの値の単位が輝度値であれば、これらの輝度値に対応するハウンズフィールド値がDICOMヘッダから取得される傾き及び切片を使用して計算される。ハウンズフィールド値の計算は、先に示した方程式(1)に従って実行される。
ステップ1004では、骨、軟組織及び血液のハウンズフィールド値をしきい値として使用してCTスキャンボリュームがスレッショルドされ、組織領域及び血液領域のみが取得される。図11及び表1(http://www.kevinboone.com/biodathounsfld.html)は、骨、軟組織及び血液のハウンズフィールド値を含む異なる組織タイプのCT番号のハウンズフィールド尺度を示す。概して、血液のハウンズフィールド値の範囲は50−100である。通常、出血領域のハウンズフィールド値範囲は60−90であり、急性血液(24時間以下の血液)のそれは50−90である。また、古い血液のハウンズフィールド値は約40である。実施形態例では、血液のハウンズフィールド値範囲は50−100であるものとして理解される。
ステップ1006では、CTスキャンボリュームが頭蓋領域を含んでいれば、この頭蓋領域が取り除かれる。ある例では、頭蓋領域は方法100及び方法800の組合せによって除去され得る。或いは、頭蓋領域は方法300及び方法800または他の任意の方法の組合せによって除去され得る。
ステップ1008では、次に、ステップ1006の結果としてのCTスキャンボリュームが、血液に対応するハウンズフィールド値の範囲(即ち、血液ウィンドウ)を使用して2値化される。これは、血液ウィンドウの外側のハウンズフィールド値を有するボクセルをゼロに設定することによって実行される。実施形態例では、血液ウィンドウは50−100である。ステップ1008では、CTスキャンボリュームを2値化することにより、出血性スライスのセグメント化が達成される。
ステップ1010では、2値化されたCTスキャンボリュームにおけるアーティファクトが取り除かれる。アーティファクトを除去する諸ステップについては、後にさらに詳述する。最後に、ステップ1012において、非ゼロ成分を有するスライスが出血性スライスとして識別される。
方法1200:CTスキャンボリュームにおける出血性スライスを識別してセグメント化する方法の第2の例
図12を参照すると、CTスキャンボリュームにおける出血性スライスを識別しかつセグメント化する方法の第2の例(方法1200)である本発明のさらなる実施形態の諸ステップが示されている。
方法1200への入力は、CTスキャンボリュームである。ある例では、CTスキャンボリュームはDICOMファイルから読み取られる。或いは、CTスキャンボリュームはRAWファイルから読み取られ得る。さらに、CTスキャンボリュームは頭蓋領域を含む可能性も、除外する可能性もある。
ステップ1202において、CTスキャンボリューム内のボクセルの値の単位がハウンズフィールド値であれば、これらのハウンズフィールド値に対応する輝度値がDICOMヘッダから取得される傾き及び切片を使用して計算され、輝度ボリュームが取得される。輝度値は、方程式(4)を使用して計算され得る。
輝度値=(ハウンズフィールド値−切片)/傾き (4)
ステップ1204では、CTスキャンボリュームが頭蓋領域を含んでいれば、この頭蓋領域が取り除かれる。ある例では、頭蓋領域は方法100及び方法800の組合せによって除去され得る。或いは、頭蓋領域は方法300及び方法800または他の任意の方法の組合せによって除去され得る。
ステップ1206では、輝度ボリュームにおける各スライスが方程式(3)に示す修正されたLaw[5、6]テクスチャマスク(Mod_S5E5)で畳み込まれ、次に正規化されてCTスキャンボリュームにおける各スライスについてエネルギー画像が取得される。
ステップ1208では、CTスキャンボリュームにおける各スライスに関するエネルギー画像の滑らかなヒストグラムが、ステップ306において先に述べた方法と同様に、まずエネルギー画像のヒストグラムを計算し、次に計算されたヒストグラムに対して滑らかなヒストグラムを取得すべくフィルタリングを実行することによって取得される。次に、ステップ1208において、CTスキャンボリュームの各スライスについて取得された滑らかなヒストグラムにおけるピーク及びバレーが識別される。
図13は、方法1200におけるステップ1208から取得された滑らかなヒストグラムの一例を示す。図13において、より高いエネルギー値を有するピーク(ヒストグラムの右側)はバックグラウンドのピークであるのに対し、より低いエネルギー値を有するピーク(ヒストグラムの左側)は組織のピークである。図13には、組織のバレー及びバックグラウンドのバレーも示されている。
ステップ1210では、CTスキャンボリュームの各スライス内の出血領域が識別され、出血領域として識別されない領域内の点がゼロに設定される。これは結果的に、識別された出血性スライス内の出血領域のセグメント化となる。
組織バレーにおけるエネルギー値が、組織ピークにおけるエネルギー値を変数αで乗算したものより少ないか等しければ、ステップ1208において次のステップが実行される。ある例では、αの値は0.4であり、よってステップ1210は少量及び多量の出血の双方を検出するために使用され得る。しかしながら、αの値は検出されるべきものが少量の出血であるか多量の出血であるかに依存して変わる可能性がある。出血の程度は、組織面積に対する出血面積の比率として定義される。0からバックグラウンドバレーにおけるエネルギー値までの範囲内の全値のデータベクトルが形成され、次に、クラスタリング方法を使用してクラスタ化される。クラスタリング方法は、kmeans法、Fuzzy C−means法、ニューラルネットワークまたはスレッショルディングであってもよい。より高いエネルギー値を有するクラスタ内の点は各スライス内の非出血領域に対応し、これらの領域における値はゼロに設定される。
一方で、組織バレーにおけるエネルギー値が、組織ピークにおけるエネルギー値を変数αで乗算したものより大きければ、ステップ1208において次のステップが実行される。エネルギー画像は、まず、組織バレーのエネルギー値より低いエネルギー値を有するエネルギー画像の領域が出血領域として識別されるように、組織バレーにおけるエネルギー値をしきい値として使用してスレッショルドされる。次に、出血領域として識別されない各スライス内の領域の値がゼロに設定される。
ステップ1212では、CTスキャンボリュームの各スライス内のアーティファクトが取り除かれる。アーティファクトを除去する諸ステップについては、後にさらに詳述する。最後に、ステップ1214において、CTスキャンボリュームにおける非ゼロ成分を有するスライスが出血性スライスとして識別される。
図14(a)から図14(e)までは、原CTスキャン画像(CTスキャンボリュームの単一のスライス)及びこの原CTスキャン画像に方法1200を適用した結果を示す。図14(a)は、出血領域を有する原CTスキャン画像を示しているのに対して、図14(b)は、図14(a)の画像にステップ1202からステップ1206までが実行された後に取得された頭蓋除去エネルギー画像を示している。図14(c)は、図14(b)の画像にステップ1208からステップ1210までが実行された後の結果的な画像を示している。図14(d)は、図14(c)における画像にアーティファクト除去の第1のラウンドが実行された後の結果を示し、図14(e)は、図14(d)における画像にアーティファクト除去の第2のラウンドが実行された後の結果的な画像を示している。
方法1500:CTスキャンボリュームにおける出血領域をセグメント化する方法の一例
図15を参照すると、CTスキャンボリュームにおける出血性スライスをセグメント化する方法の一例(方法1500)である、本発明のさらなる実施形態の諸ステップが示されている。
方法1500への入力は、CTスキャンボリュームである。ある例では、CTスキャンボリュームはDICOMファイルから読み取られる。或いは、CTスキャンボリュームはRAWファイルから読み取られ得る。さらに、CTスキャンボリュームは頭蓋領域を含む可能性も、除外する可能性もある。
ステップ1502において、出血性スライスは識別されて抽出される。ある例では、出血性スライスは方法1000を使用して識別される。或いは、出血性スライスは方法1200または他の任意の方法を使用して識別され得る。
ステップ1504では、各出血性スライスの輝度画像が方程式(3)に示す修正されたLaw[5、6]テクスチャマスク(Mod_S5E5)で畳み込まれ、かつ正規化されて各出血性スライスのエネルギー画像が取得される。ある例では、各出血性スライスの輝度画像は、畳み込みプロセスに先行してウィンドウ情報(ウィンドウ幅及びDICOMヘッダからのウィンドウレベル)を使用してウィンドウ処理され、ウィンドウ処理された輝度画像が取得される。
ステップ1506では、各出血性スライスに対応するエネルギー画像の滑らかなヒストグラムが、まず各エネルギー画像のヒストグラムを計算し、続いてこの計算されたヒストグラムをフィルタリングすることによって取得される。次に、ステップ1506において、ヒストグラムのピーク及びバレーが識別される。CTスキャンボリューム内に頭蓋領域が存在していれば、取得されるヒストグラムは図6に示すようなものになり、そうでなければ、取得されるヒストグラムは図13に示すようなものになる。
方法1200では、識別された各出血性スライスについて既にエネルギー画像及びエネルギー画像のヒストグラムが取得されていることから、方法1200を使用して出血性スライスが識別されるのであれば、ステップ1502及びステップ1504を省くことができる。
ステップ1508では、バックグラウンド領域及び頭蓋領域が、バックグラウンド、組織または頭蓋ピーク及び/またはバレーにおけるエネルギー値をしきい値として使用してエネルギー画像をスレッショルドすることにより、エネルギー画像から取り除かれる。これは、バックグラウンドバレーと頭蓋バレーとの間のエネルギー値(CTスキャンボリューム内に頭蓋領域が存在している場合)、またはバックグラウンドバレーとより低いエネルギー値を有する組織バレーとの間のエネルギー値(CTスキャンボリューム内に頭蓋領域が存在しない場合)を有するエネルギー画像内の点を保持することによって行われる。
ステップ1512では、各出血性スライス内の出血領域をフォアグラウンド領域とバックグラウンド領域とにセグメント化することに適するしきい値が選択される。組織ピーク(T)が発見され、かつTを起点として下位のエネルギー値へ向かう組織バレー点Tが発見される。
≦(S+0.5(T−S))、但しSは頭蓋バレーを表す、であれば、kmeans法、Fuzzy Cmeans法、ガウス混合モデリング法またはOtsu法であってもよいしきい値法であることが可能なクラスタリング方法を使用してSとバックグラウンドバレーとの間のデータのしきい値が発見される。次に、このしきい値を使用して、エネルギー画像がフォアグラウンドエリア及びバックグラウンドエリアにセグメント化される。実施形態例では、CTスキャンボリュームが頭蓋領域を含まなければ、Sはゼロとして設定される。これは、概して、エネルギー画像内では、骨のハウンズフィールド値または輝度値は血液のそれより高いことに起因する。従って、頭蓋領域は血液領域よりも暗く現出し、エネルギー画像内の領域を如何にしてフォアグラウンド領域及びバックグラウンド領域に分割するかを判断するためにTが(S+0.5(T−S))と比較される。CTスキャンボリューム内の頭蓋領域が取り除かれれば、より暗い領域は血液領域である可能性が最も高く、Tは単に(0.5(T))と比較されてもよい。言い替えれば、Sはゼロとして設定され得る。
一方で、T>(S+0.5(T−S))であれば、エネルギー画像におけるSとTとの間のエネルギー値を有する領域はフォアグラウンドエリアとして分類され、残りの領域はバックグラウンドエリアとして分類される。
ステップ1512では、セグメント化されたエネルギー画像のフォアグラウンドエリアの空間情報が輝度画像(ウィンドウ処理されていてもよい)へマップされ、各出血性スライス内の出血領域がセグメント化される。
ステップ1514では、出血領域の最小サイズを画定するしきい値が決定され、このしきい値より低いエリアを有するセグメント化された出血領域が取り除かれる。
ステップ1516では、アーティファクトが取り除かれる。アーティファクトを取り除く諸ステップについては、後にさらに詳述する。
「グラウンドトルース」(例えば、専門家から入手されるセグメント化された正しい画像)が存在すれば、この時点で比較を行って上記方法の信頼度が検証されてもよい。
実施形態例では、ステップ1504からステップ1516までは各出血性スライスに対して実行される。或いは、ステップ1504からステップ1516までは直にCTスキャンボリュームに対して実行され得る。
図16及び図17は、CTスキャンボリュームの2つの異なる出血性スライスに方法1500を適用した結果を示す。図16(a)及び図17(a)は出血性スライスの輝度画像を示し、図16(b)及び図17(b)は対応するエネルギー画像を示す。図16(c)から図16(f)までは、各々ガウス混合モデル法、Fuzzy C−means法、K−means法及びOtsu法を使用する第1のスライスのセグメント化された輝度画像を示し、図17(c)から図17(f)までは、各々ガウス混合モデル法、Fuzzy C−means法、K−means法及びOtsu法を使用する第2のスライスのセグメント化された輝度画像を示している。
ステップ1010、ステップ1212及びステップ1514におけるアーティファクトの除去
CTスキャン画像内に存在する場合がある、かつ頭蓋の除去、スライスの識別及びセグメント化プロセス(例えば、方法100、方法300、方法800、方法1000、方法1200及び方法1500)に影響する場合のあるアーティファクトの幾つかの例は、大脳鎌(出血領域の一部として現出することがある)、部分容積効果及びビームハードニング効果である。大脳鎌は通常、正中矢状面に近接し、概して軸方向スライスの半球間裂内に現出する。
実施形態例では、大脳鎌が形状分析を使用して取り除かれるのに対して、ビームハードニング及び部分容積のアーティファクトは統計分析、形状分析及び形態学的オペレーションを使用して除去される。
実施形態例では、形状分析は固有値を計算することによって行われる。或いは、形状分析は、組織領域または出血領域の境界を辿ることによって、または他の任意の方法によって行われる可能性もある。実施形態例では、統計分析は、様々な一次統計量を抽出することと、分類を実行することによって行われる。実施形態例では、アーティファクトを除去するために、画像特徴も使用してアーティファクトと出血領域とが区別化される。
方法1800:カテーテル領域をセグメント化する方法の一例
図18を参照すると、カテーテル領域をセグメント化する方法の一例(方法1800)の諸ステップが示されている。この方法は、本発明の実施形態であるこれまでに述べた諸方法を改善するために使用され得る。
方法1800への入力は、CTスキャンボリュームにおける各スライスの組織領域を抽出するために使用されるマスク画像(即ち、組織マスク)である。ある例では、組織マスクは方法100及び方法800の組合せを使用して取得される。或いは、組織マスクは、方法300及び方法800または他の任意の方法の組合せを使用して取得されることも可能である。
ステップ1802では、各組織マスクの組織領域内に存在する穴が塞がれ、ステップ1804では、CTスキャンボリュームの各スライス毎に組織マスクと輝度画像との間で論理AND演算を実行することにより、輝度画像内の組織領域が取得される。
次にステップ1806では、輝度画像またはエネルギー画像内の組織領域のヒストグラムが取得される。CTスキャンボリュームのエネルギーデータがまだ利用可能でなければ、これは、先に述べた、例えば方法300のステップ302及びステップ304において述べたものと同じ方法で取得され得る。
ステップ1808では、輝度画像またはエネルギー画像にスレッショルディングが実行され、カテーテル領域と組織領域とが分離された2値画像が取得される。但し、カテーテル領域はフォアグラウンドであり、組織領域はバックグラウンドである。
ステップ1810では、フォアグラウンド領域内に存在する任意の石灰化が形状分析を使用して取り除かれる。
ステップ1812では、フォアグラウンド領域(即ち、カテーテル領域)に形態学的オペレーション及び領域拡張が実行され、最終的なカテーテルマスクが取得される。
最後に、ステップ1814では、最終的なカテーテルマスクを使用し、最終的なカテーテルマスクに輝度画像またはエネルギー画像を乗算することによってカテーテルがセグメント化される。
図19(a)から図19(g)までは、原CTスキャン画像及びこの原CTスキャン画像に方法1800を適用した結果を示す。図19(a)は原CTスキャン画像を示しているのに対して、図19(b)は頭蓋が剥離されたエネルギー画像を示している。図19(c)は、エネルギー画像から取得されたマスク画像を示している。図19(a)から図19(c)までの画像は、方法300及び方法800または他の任意の方法の組合せを使用して取得され得る。図19(d)は、ステップ1802において穴が塞がれた後のマスク画像を示している。図19(e)は、ステップ1804後のカテーテル領域1902を有する頭蓋が除去された組織画像を示している。図19(f)は、カテーテルをセグメント化するための最終的なマスク画像を示している。図19(f)における最終的なマスク画像は、図19(e)における画像にステップ1806からステップ1812までを実行することによって取得される。図19(g)は、ステップ1814後に取得されたセグメント化されたカテーテル領域を示す。
実験結果
出血性脳卒中患者の22件のCTスキャンボリュームを取得した。これらの22件のCTスキャンボリュームにおいて、93件のスライスが出血領域を含んでいた。この実験では、CTスキャンの面内分解能を0.45mmx0.45mmまたは0.47mmx0.47mmの何れかに設定し、CTスキャンのマトリクスサイズを512x512に設定し、CTスキャンの各スライスの厚さを4.5mm、5mm、6mmまたは7mmに設定した。CTスキャン内のスライスの数は、17個から33個までの範囲であった。
これらの実施形態例における頭蓋除去アルゴリズム(方法100及び方法800の組合せ、及び方法300及び方法800の組合せ)の感度及び特異性は、各々98%及び70%であることが分かった。僅かな不正確さは、頭蓋内の硬膜及び眼球領域の存在に起因するものと思われた。さらに、これらの実施形態例における出血性スライス識別アルゴリズム(方法1000及び方法1200)の平均感度及び特異性は、各々96%及び74%であることが分かり、一方で、これらの実施形態例における出血セグメント化アルゴリズム(方法1000及び方法1500)の感度及び特異性は、各々94%及び98%であることが分かった。さらに、これらの実施形態例における出血セグメント化アルゴリズムのダイス統計指標(DSI)は、約80%であることが分かっている。さらに、これらの実施形態例を使用して頭蓋領域を取り除き、出血性スライスを識別しかつセグメント化する全体プロセスの所要時間は、Matlab計算環境において約1分であることが分かった。
これらの実施形態例における方法は、先行技術方法に比較して、出血領域をローカライズしかつセグメント化するために要する時間量を短縮させるという優位点を有する。ある例では、この時間量はMatlab計算環境において1分であることが分かった。実際に、ローカライゼーション及びセグメント化の速度は、VC++計算環境における方法を実装することによってさらに上昇が可能である。
実施形態の中には、スレッショルディングまたは形態学的オペレーションを実行する前に輝度値をハウンズフィールド値に変換するものがある。ハウンズフィールド値の範囲の方が短いことから、ピクセルのそのハウンズフィールド値としての格納は占有するメモリが少ないことに起因して、これは効果的である。さらに、輝度値からハウンズフィールド値への変換及びその逆の変換は、傾き及び切片の値がDICOMヘッダから既知である限り容易に実行可能である。
さらに、実施形態の中には、輝度画像のヒストグラムではなくエネルギー画像のヒストグラムを使用するものがある。
図20(a)から図20(e)までは、CTスキャンボリュームの1つのスライスの輝度画像と、この輝度画像のヒストグラムとを示す。図20(a)から図20(c)までには、選択された関心領域(ROI)を異にする輝度画像が示されている。図20(a)では、正常な組織領域2002が選択され、図20(b)では、正常組織及び出血性組織の双方を含む領域2004が選択され、図20(c)では、出血領域2006が選択されている。図20(d)は、これらの選択されたROI2002、2004及び2006を示しているのに対して、図20(e)は、曲線2008、2010及び2012が各々ROI2002(正常な組織領域)、2004(正常組織及び出血性組織の双方を有する領域)及び2006(出血領域)に対応する輝度画像のヒストグラムを示している。
図21(a)から図21(e)までは、CTスキャンボリュームの1つのスライスのエネルギー画像と、このエネルギー画像のヒストグラムとを示す。図21(a)から図21(c)までには、選択された関心領域(ROI)を異にする輝度画像が示されている。図21(a)では、正常な組織領域2102が選択され、図21(b)では、正常組織及び出血性組織の双方を含む領域2104が選択され、図21(c)では、出血領域2106が選択されている。図21(d)は、これらの選択されたROI2102、2104及び2106を示しているのに対して、図21(e)は、曲線2108、2110及び2112が各々ROI2102(正常な組織領域)、2104(正常組織及び出血性組織の双方を有する領域)及び2106(出血領域)に対応する輝度画像のヒストグラムを示している。
図20(e)及び図21(e)に示すように、正常な組織領域及び出血領域に対応する2つのピークは、エネルギー画像のヒストグラムでは十分に分離されているのに対して、輝度画像のヒストグラムでは重なり合っている。これは、エネルギー画像のヒストグラムでは、出血領域と正常組織領域との間に輝度画像のヒストグラムより良好な描出が存在することを含意している。さらに、エネルギー画像のヒストグラムは、CTスキャンボリュームのノイズの多いスライスにおいても正常組織の滑らかな対称的性質を示している。従って、輝度画像のヒストグラムの代わりにエネルギー画像のヒストグラムを使用することにより、非補強CT画像における出血領域のより正確な検出を達成することができる。
また、本発明の実施形態は、脳内出血(ICH)、脳室内出血(IVH)またはくも膜下出血(SAH)等の多くの異なる出血形態に関して出血領域の識別及びセグメント化に使用できるという優位点も有する。

Claims (31)

  1. 個々のCTスキャン点の集合に輝度値を含むCTスキャンデータをセグメント化する方法であって、
    (a)前記CTスキャンデータを空間周波数ドメインにおける帯域通過フィルタを表すテクスチャマスクマトリクスで畳み込み、変換されたデータ値を取得するステップと、
    (b)前記変換されたデータ値のヒストグラムを生成するステップと、
    (c)前記ヒストグラムにおける少なくとも1つのピーク及び/または少なくとも1つのバレーを識別するステップと、
    (d)前記識別されたピーク及びトラフ値を基礎として前記変換されたデータ値をスレッショルドするステップと
    を含む方法。
  2. 前記ステップ(b)は、
    (i)前記変換されたデータ値の予備的なヒストグラムを計算するサブステップと、
    (ii)前記予備的なヒストグラムをフィルタリングして、前記変換されたデータ値のヒストグラムを生成するサブステップと
    を含む、請求項1記載の方法。
  3. ステップ(a)に先行して、前記CTスキャンデータを前記CTスキャンデータのDICOMヘッダからのウィンドウ情報を使用してウィンドウ処理するステップをさらに含む、請求項1または請求項2記載の方法。
  4. ステップ(c)は組織値及びバックグラウンドバレーを識別することを含み、かつステップ(d)は、
    (i)前記変換されたデータ値が前記組織バレーと前記バックグラウンドバレーとの間である点において非ゼロ値を有するマスクを取得するサブステップと、
    (ii)前記マスクを使用して頭蓋領域を除去するサブステップと、
    を含む、請求項1記載の方法。
  5. 前記サブステップ(ii)に先行して、前記マスクに形態学的オペレーションを実行するステップをさらに含む、請求項4記載の方法。
  6. 前記形態学的オペレーションは、開放オペレーション、拡張オペレーション及び画像充填オペレーションより成るグループのうちの1つまたはそれ以上を含む、請求項6記載の方法。
  7. 後頭蓋窩に近いCTスキャンスライスと前記後頭蓋窩に近くないCTスキャンスライスとを備えるCTスキャンデータから頭蓋領域を除去する方法であって、
    (i)前記後頭蓋窩に近くない前記CTスキャンスライスについて、請求項4から請求項6における任意の請求項記載の方法により、前記頭蓋領域を除去すべく前記CTスキャンデータをセグメント化するステップと、
    (ii)前記後頭蓋窩に近くない前記CTスキャンスライスの前記セグメント化されたCTスキャンデータを使用して、前記後頭蓋窩に近い前記CTスキャンスライスをセグメント化するステップと、
    を含む方法。
  8. CTスキャンデータにおける出血性スライスを識別しかつセグメント化する方法であって、
    (a)請求項1記載の方法によってCTスキャンデータをセグメント化するステップであって、前記ステップ(d)は、前記変換されたデータ値が規定された範囲内に存在しない点に対応するデータ値へ設定するサブステップを含むステップと、
    (b)出血を含む前記CTスキャンデータのスライスを、前記非ゼロのデータ値がしきい値より上であるスライスとして識別するステップと、
    を含む方法。
  9. 前記ステップ(d)は、
    (i)前記生成されたヒストグラム内の組織バレーにおける複数の変換されたデータ値が、変数αを対応する組織ピークにおける前記変換されたデータ値で乗算したものより低いかどうかを決定するサブステップと、
    低ければ、
    (ii)ゼロとバックグラウンドバレーにおける変換されたデータ値との間の範囲の変換されたデータ値を有する前記CTスキャンデータ内の点をクラスタ化するサブステップと、
    (iii)より高い変換されたデータ値を有する前記クラスタ内の前記CTスキャンデータの点をゼロに設定するサブステップと、
    を含む、請求項8記載の方法。
  10. 前記決定が否であれば、即ち、前記生成されたヒストグラム内の前記組織バレーにおける前記変換されたデータ値がマイナスであれば、
    (i)前記エネルギーデータを前記ヒストグラムの前記組織バレーにおける前記変換されたデータ値でスレッショルドすることと、
    (ii)前記組織バレーにおける前記変換されたデータ値より低い変換されたデータ値を有する前記CTスキャンデータの点をゼロに設定して前記CTスキャンデータをセグメント化することと、
    を含む、請求項9記載の方法。
  11. CTスキャンデータ内の出血領域をセグメント化する方法であって、前記方法は請求項1記載の方法によって前記CTスキャンデータをセグメント化するステップを含み、前記ステップ(d)は、
    (i)前記エネルギーデータをフォアグラウンドエリア及びバックグラウンドエリアにセグメント化するサブステップと、
    (ii)前記セグメント化されたエネルギーデータの前記フォアグラウンドエリアの空間情報を前記CTスキャンデータへマップして前記CTスキャンデータをセグメント化するサブステップと、
    を含む方法。
  12. 前記ステップ(i)は、T<(S+0.5(T−S))であれば、前記エネルギーデータをスレッショルドまたはクラスタ化して前記エネルギーデータをフォアグラウンドエリア及びバックグラウンドエリアにセグメント化するサブステップを含み、Tは組織バレーの変換されたデータ値でありかつSは頭蓋バレーの変換されたデータ値である、請求項11記載の方法。
  13. 前記ステップ(i)は、T>(S+0.5(T−S))であれば、SとTとの間の変換されたデータ値を有する前記エネルギーデータ内の点を前記フォアグラウンドエリアとして分類しかつ残りの点を前記バックグラウンドエリアとして分類するサブステップを含む、請求項12記載の方法。
  14. CTスキャンデータをセグメント化する方法であって、
    (a)前記CTスキャンデータをハウンズフィールド尺度に従って変換データに変換するステップと、
    (b)前記変換されたデータ値を、予め規定されたハウンズフィールド尺度値であるしきい値を使用してスレッショルドするステップと、
    を含む方法。
  15. CTスキャンデータから頭蓋領域を除去する方法であって、前記方法は請求項14記載の方法によって前記CTスキャンデータをセグメント化するステップを含み、前記ステップ(b)は、
    (i)90HUの下限と400HUの上限とを使用して前記CTスキャンデータをスレッショルドし、マスクを取得するサブステップと、
    (ii)前記マスクに前記変換されたデータ値を乗算することによってCT画像をセグメント化するサブステップと、
    を含む方法。
  16. 前記マスクに前記CTスキャンデータを乗算するステップに先行して、前記マスクに形態学的オペレーションを実行するステップをさらに含む、請求項15記載の方法。
  17. 前記形態学的オペレーションは、開放オペレーション、拡張オペレーション及び画像充填オペレーションより成るグループのうちの1つまたはそれ以上を含む、請求項16記載の方法。
  18. 後頭蓋窩に近いCTスキャンスライスと前記後頭蓋窩に近くないCTスキャンスライスとを備えるCTスキャンデータから頭蓋領域を除去する方法であって、
    (i)前記後頭蓋窩に近くない前記CTスキャンスライスに関して、請求項15から請求項17における任意の請求項記載の方法により前記CTスキャンデータをセグメント化して前記頭蓋領域を除去するステップと、
    (ii)前記後頭蓋窩に近くない前記CTスキャンスライスに関する前記頭蓋を除去されたCTスキャンデータを使用して、前記後頭蓋窩に近い前記CTスキャンスライスをセグメント化するステップと、
    を含む方法。
  19. CTスキャンデータにおける出血性スライスを識別しかつセグメント化する方法であって、
    (a)請求項15記載の方法によって前記CTスキャンデータをセグメント化するステップであって、前記ステップ(b)は、
    (i)骨、軟組織及び血液のハウンズフィールド値を使用して前記CTスキャンデータをスレッショルドし、前記CTスキャンデータにおける前記組織領域及び血液領域のみを取得するサブステップと、
    (ii)前記CTスキャンデータを2値化するサブステップであって、前記血液のハウンズフィールド値より低いハウンズフィールド値を有する点はゼロに設定され、かつ前記血液のハウンズフィールド値より高いハウンズフィールド値を有する点は1に設定されるサブステップと、
    を含むステップと、
    (b)非ゼロ成分を有する前記CTスキャンデータのスライスを出血性スライスとして識別するステップと、
    を含む方法。
  20. 前記ステップ(ii)は、
    (iii)前記後頭蓋窩に近くない、かつ最大組織面積を有する前記CTスキャンスライスを位置決めするサブステップであって、前記後頭蓋窩に近くない、かつ最大組織面積を有する前記CTスキャンスライスは最大組織面積スライスであるサブステップと、
    (iv)前記後頭蓋窩から前記最大組織面積スライスまで延びるスライスに関して、連続するスライス間の組織面積の差を計算するサブステップと、
    (v)前記組織面積の差が予め規定されたしきい値より大きい連続するスライスペアを位置決めするサブステップであって、前記連続するスライスペアは前記最大組織面積スライスから遙かに遠位である第1のスライスと、前記最大組織面積スライスの方へ近い第2のスライスとを備え、前記第1のスライスは基準スライスであるサブステップと、
    (vi)前記基準スライスと、前記基準スライスよりも前記後頭蓋窩からさらに遠位にある前記CTスキャンスライスとを請求項4から請求項6または請求項15から請求項17における任意の請求項記載の方法によってセグメント化し、最初のセグメント化されたCTスキャンスライスを生成するサブステップと、
    (vii)前記最初のセグメント化されたCTスキャンスライスの各々における最大接続成分をセグメント化し、前記基準スライス及び前記基準スライスよりも前記後頭蓋窩からさらに遠位にある前記CTスキャンスライスに関する最終的なセグメント化されたCTスキャンスライスを生成するサブステップと、
    (viii)前記基準スライスよりも前記後頭蓋窩の近くにあるCTスキャンスライスにおいて、予め規定された下限より低い値を有する点を除去し、各スライスについてマスク画像を形成するサブステップと、
    (ix)前記マスク画像を前記基準スライスよりも前記後頭蓋窩の近くにある前記CTスキャンスライスで乗算し、前記基準スライスよりも前記後頭蓋窩の近くにある前記CTスキャンスライスをセグメント化するサブステップと、
    を含む、請求項7または請求項18の何れかに記載の方法。
  21. 前記予め規定された下限は、対応するCTスキャンスライスのバックグラウンドの輝度値またはハウンズフィールド値である、請求項20記載の方法。
  22. 前記マスク画像を前記基準スライスよりも前記後頭蓋窩の近くにある前記CTスキャンスライスで乗算するステップに先行して、前記マスク画像に形態学的オペレーションを実行するステップをさらに含む、請求項20記載の方法。
  23. 前記形態学的オペレーションは、開放オペレーション、拡張オペレーション及び画像充填オペレーションより成るグループのうちの1つまたはそれ以上を含む、請求項22記載の方法。
  24. CTスキャンデータ内の出血領域をセグメント化する方法であって、
    (a)請求項4、請求項7、請求項15または請求項18の何れかに従って前記CTスキャンデータから頭蓋領域を除去するステップと、
    (b)請求項8または請求項19の何れかに従って前記CTスキャンデータにおける出血性スライスを識別しかつセグメント化するステップと、
    を含む方法。
  25. 前記識別された出血性スライス内の前記出血領域を請求項11に従ってセグメント化するステップをさらに含む、請求項24記載の方法。
  26. 前記CTスキャンデータにおける出血性スライスを識別しかつセグメント化するステップに先行して、前記CTスキャンデータにおけるカテーテル領域をセグメント化するステップをさらに含む、請求項24または請求項25記載の方法。
  27. 前記CTスキャンデータから前記カテーテル領域をセグメント化する前記ステップは、
    (i)前記CTスキャンデータの組織領域のヒストグラムを生成するサブステップと、
    (ii)前記ヒストグラムの値を使用して前記CTスキャンデータをフォアグラウンドエリア及びバックグラウンドエリアにスレッショルドし、前記バックグラウンドエリア内の値がゼロに設定されたマスクを生成するサブステップと、
    (iii)前記マスクを前記CTスキャンデータで乗算して前記CTスキャン画像内の前記カテーテル領域をセグメント化するサブステップと、
    を含む、請求項26記載の方法。
  28. 前記マスクを前記CTスキャンデータで乗算するステップに先行して、前記マスクの前記フォアグラウンドエリアに形態学的オペレーションを実行するステップをさらに含む、請求項27記載の方法。
  29. アーティファクト低減ステップをさらに含む、請求項24から請求項28における任意の請求項記載の方法。
  30. 請求項1から請求項29における任意の請求項記載の方法を実行するように配設されたプロセッサを有するコンピュータシステム。
  31. コンピュータによる読み取りが可能であり、かつ前記プロセッサに請求項1から請求項29における任意の請求項記載の方法を実行させるようにコンピュータシステムのプロセッサによって動作可能な命令を含むコンピュータプログラム製品。
JP2010549615A 2008-03-03 2009-03-03 Ctスキャンデータをセグメント化する方法とシステム Pending JP2011514822A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US3310508P 2008-03-03 2008-03-03
US61/033,105 2008-03-03
PCT/SG2009/000079 WO2009110850A1 (en) 2008-03-03 2009-03-03 A method and system of segmenting ct scan data

Publications (1)

Publication Number Publication Date
JP2011514822A true JP2011514822A (ja) 2011-05-12

Family

ID=41056260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010549615A Pending JP2011514822A (ja) 2008-03-03 2009-03-03 Ctスキャンデータをセグメント化する方法とシステム

Country Status (6)

Country Link
US (1) US20110002523A1 (ja)
EP (1) EP2260466A4 (ja)
JP (1) JP2011514822A (ja)
CN (1) CN102016911A (ja)
SG (1) SG188879A1 (ja)
WO (1) WO2009110850A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007152105A (ja) * 2005-12-01 2007-06-21 Ge Medical Systems Global Technology Co Llc 脳出血部位体積計算方法および装置
JP2017086770A (ja) * 2015-11-16 2017-05-25 東芝メディカルシステムズ株式会社 画像処理装置及び画像処理プログラム
JP2017527826A (ja) * 2014-08-16 2017-09-21 エフ・イ−・アイ・カンパニー マイクロトモグラフィにおける容器内で画像化された試料のビーム・ハードニング・アーチファクトの補正
JP2019500110A (ja) * 2015-12-18 2019-01-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
JP2019017993A (ja) * 2017-07-11 2019-02-07 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP2020529253A (ja) * 2017-08-02 2020-10-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. デジタルx線画像における低情報コンテンツを有する領域の検出
US11096643B2 (en) 2018-05-09 2021-08-24 Fujifilm Corporation Medical image processing apparatus, method, and program

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094063B1 (en) * 2009-06-03 2012-01-10 Lockheed Martin Corporation Image filtering and masking method and system for improving resolution of closely spaced objects in a range-doppler image
US8849000B2 (en) * 2009-12-04 2014-09-30 Shenzhen Institute Of Advanced Technology, Chinese Academy Of Sciences Method and device for detecting bright brain regions from computed tomography images
US9058665B2 (en) * 2009-12-30 2015-06-16 General Electric Company Systems and methods for identifying bone marrow in medical images
US8634626B2 (en) * 2010-06-29 2014-01-21 The Chinese University Of Hong Kong Registration of 3D tomography images
US9466116B2 (en) * 2011-04-15 2016-10-11 Siemens Aktiengesellschaft Method and system for separating tissue classes in magnetic resonance images
US8855394B2 (en) * 2011-07-01 2014-10-07 Carestream Health, Inc. Methods and apparatus for texture based filter fusion for CBCT system and cone-beam image reconstruction
US8934737B1 (en) * 2012-10-10 2015-01-13 General Electric Company System and method to de-identify an acquired file
GB201304798D0 (en) * 2013-03-15 2013-05-01 Univ Dundee Medical apparatus visualisation
JP6835813B2 (ja) 2015-07-23 2021-02-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. コンピュータ断層撮影視覚化調整
AU2015403475B2 (en) * 2015-07-29 2021-04-01 Perkinelmer Cellular Technologies Germany Gmbh Systems and methods for automated segmentation of individual skeletal bones in 3D anatomical images
EP3392804A1 (en) * 2017-04-18 2018-10-24 Koninklijke Philips N.V. Device and method for modelling a composition of an object of interest
CN106910193B (zh) * 2017-04-23 2020-04-07 河南明峰医疗科技有限公司 一种扫描图像处理方法
CN110530883B (zh) * 2019-09-30 2022-08-02 凌云光技术股份有限公司 一种缺陷检测方法
CN111862014A (zh) * 2020-07-08 2020-10-30 深圳市第二人民医院(深圳市转化医学研究院) 一种基于左右侧脑室分割的alvi自动测量方法及装置
EP3975120B1 (en) 2020-09-24 2023-01-11 Stryker European Operations Limited Technique for guiding acquisition of one or more registration points on a patient's body
CN114155232A (zh) * 2021-12-08 2022-03-08 中国科学院深圳先进技术研究院 颅内出血区域检测方法、装置、计算机设备及存储介质
CN115294110B (zh) * 2022-09-30 2023-01-06 杭州太美星程医药科技有限公司 扫描期的识别方法、装置、电子设备和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5881124A (en) * 1994-03-31 1999-03-09 Arch Development Corporation Automated method and system for the detection of lesions in medical computed tomographic scans
US6898303B2 (en) * 2000-01-18 2005-05-24 Arch Development Corporation Method, system and computer readable medium for the two-dimensional and three-dimensional detection of lesions in computed tomography scans
DE10229113A1 (de) * 2002-06-28 2004-01-22 Siemens Ag Verfahren zur Grauwert-basierten Bildfilterung in der Computer-Tomographie

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007152105A (ja) * 2005-12-01 2007-06-21 Ge Medical Systems Global Technology Co Llc 脳出血部位体積計算方法および装置
JP2017527826A (ja) * 2014-08-16 2017-09-21 エフ・イ−・アイ・カンパニー マイクロトモグラフィにおける容器内で画像化された試料のビーム・ハードニング・アーチファクトの補正
US10311606B2 (en) 2014-08-16 2019-06-04 Fei Company Correction of beam hardening artifacts in microtomography for samples imaged in containers
US10354418B2 (en) 2014-08-16 2019-07-16 Fei Company Tomographic reconstruction for material characterization
JP2017086770A (ja) * 2015-11-16 2017-05-25 東芝メディカルシステムズ株式会社 画像処理装置及び画像処理プログラム
JP2019500110A (ja) * 2015-12-18 2019-01-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
JP7110098B2 (ja) 2015-12-18 2022-08-01 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
JP2019017993A (ja) * 2017-07-11 2019-02-07 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP2020529253A (ja) * 2017-08-02 2020-10-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. デジタルx線画像における低情報コンテンツを有する領域の検出
US11096643B2 (en) 2018-05-09 2021-08-24 Fujifilm Corporation Medical image processing apparatus, method, and program

Also Published As

Publication number Publication date
EP2260466A1 (en) 2010-12-15
US20110002523A1 (en) 2011-01-06
WO2009110850A1 (en) 2009-09-11
SG188879A1 (en) 2013-04-30
CN102016911A (zh) 2011-04-13
WO2009110850A8 (en) 2010-09-23
EP2260466A4 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP2011514822A (ja) Ctスキャンデータをセグメント化する方法とシステム
Al-Najdawi et al. Mammogram image visual enhancement, mass segmentation and classification
EP2137672B1 (en) Method, apparatus and computer program for analysing medica image data
CN107527341B (zh) 血管造影图像的处理方法和系统
JPH10503961A (ja) 医療画像において腫瘤や実質組織変形をコンピュータを用いて検出する自動化した方法と装置
US8144953B2 (en) Multi-scale analysis of signal enhancement in breast MRI
Hu et al. Segmentation of brain from computed tomography head images
CN110610498A (zh) 乳腺钼靶图像处理方法、系统、存储介质及设备
CN105488781A (zh) 一种基于ct影像肝脏肿瘤病灶的分割方法
Malek et al. Seed point selection for seed-based region growing in segmenting microcalcifications
US20100049035A1 (en) Brain image segmentation from ct data
Tolouee et al. Image based diagnostic aid system for interstitial lung diseases
Rahmati et al. A new preprocessing filter for digital mammograms
Almi'ani et al. A modified region growing based algorithm to vessel segmentation in magnetic resonance angiography
Aarthy et al. An approach for detecting breast cancer using wavelet transforms
Georgieva et al. Multistage approach for simple kidney cysts segmentation in ct images
Li et al. A hybrid approach to detection of brain hemorrhage candidates from clinical head ct scans
Bellam et al. Adaptive multimodal image fusion with a deep pyramidal residual learning network
Napier et al. A CAD system for brain haemorrhage detection in head CT scans
Kubicek et al. Autonomous segmentation and modeling of brain pathological findings based on iterative segmentation from MR images
Ratan et al. Un-supervised segmentation and quantisation of malignancy from breast MRI images
Singh et al. Quantitative evaluation of denoising techniques of lung computed tomography images: an experimental investigation
Razanata et al. Evaluation and implementation of Otsu and active contour segmentation in contrast-enhanced cardiac CT Images
ALmaremi Mammogram Image Enhancement For Breast Cancer Detection
Yao et al. Head CT Analysis for Intracranial Hemorrhage Segmentation