JP2006246941A - Image processing apparatus and vessel tracking method - Google Patents
Image processing apparatus and vessel tracking method Download PDFInfo
- Publication number
- JP2006246941A JP2006246941A JP2005063902A JP2005063902A JP2006246941A JP 2006246941 A JP2006246941 A JP 2006246941A JP 2005063902 A JP2005063902 A JP 2005063902A JP 2005063902 A JP2005063902 A JP 2005063902A JP 2006246941 A JP2006246941 A JP 2006246941A
- Authority
- JP
- Japan
- Prior art keywords
- section
- image data
- image
- core line
- core
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims description 56
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 79
- 238000000605 extraction Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 21
- 238000009499 grossing Methods 0.000 claims description 16
- 238000013500 data storage Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 abstract description 9
- 239000013598 vector Substances 0.000 description 44
- 210000000056 organ Anatomy 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 239000000126 substance Substances 0.000 description 4
- 230000002792 vascular Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004445 quantitative analysis Methods 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000002872 contrast media Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005429 filling process Methods 0.000 description 2
- 150000002632 lipids Chemical class 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000004798 organs belonging to the digestive system Anatomy 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
本発明は、画像処理装置に係り、特に、X線CT装置や磁気共鳴診断装置(MRI装置)等の撮影装置から得られた被検体の3次元ボリュームデータを用いて、血管、気管支、腸管等の管腔臓器の内腔の形状表示や定量解析を行う機能を有した画像処理装置に関する。また、本発明は、斯かる画像処理装置において実行される管腔臓器の走行をトラッキングし、表示する方法に関する。 The present invention relates to an image processing apparatus, and in particular, a blood vessel, a bronchus, an intestinal tract, and the like using three-dimensional volume data of a subject obtained from an imaging apparatus such as an X-ray CT apparatus or a magnetic resonance diagnostic apparatus (MRI apparatus). The present invention relates to an image processing apparatus having a function of performing shape display and quantitative analysis of the lumen of a hollow organ. The present invention also relates to a method for tracking and displaying the travel of a luminal organ executed in such an image processing apparatus.
近年の医用診断において、被検体の血管などの管腔臓器に関しては、その形状を表示させたり、その走行状態を定量解析に付することが求められている。この形状表示や定量解析を行う場合、被検体の管腔臓器を含む部位の3次元ボリュームデータをX線CT装置MRI装置などの医用モダリティで取得し、この3次元ボリュームデータ(立体データ)が画像処理に付される。 In recent medical diagnosis, it is required to display the shape of a luminal organ such as a blood vessel of a subject or to subject the running state to quantitative analysis. When performing this shape display or quantitative analysis, three-dimensional volume data of a part including a luminal organ of a subject is acquired by a medical modality such as an X-ray CT apparatus MRI apparatus, and the three-dimensional volume data (stereoscopic data) is an image. It is attached to processing.
例えば、血管の狭窄等の疾患部を発見するには、血管の伸長方向に沿って多数枚の断面像を撮影し画面像を順次検索して、あたかも内視鏡が消化器官内等を進んでいくように断面像を順次画像表示しなければならない。 For example, in order to find a diseased part such as a stenosis of a blood vessel, a number of cross-sectional images are taken along the direction of blood vessel extension, and screen images are sequentially searched. As if the endoscope has advanced in the digestive organs, etc. The cross-sectional images must be sequentially displayed as the images go.
この画像処理においては、管腔臓器の3次元的な芯線(例えば中心線)の位置情報を知る必要がある。3次元ボリュームデータを用いて管腔臓器の芯線を3次元的に抽出する方法として、立体画像データ内の所望の管状構造物の領域を前記立体画像データから設定し、設定された管状構造物の芯線を立体画像データから設定するものが提案されている(例えば、特許文献1参照。)。 In this image processing, it is necessary to know position information of a three-dimensional core line (for example, a center line) of a hollow organ. As a method of three-dimensionally extracting the core line of a hollow organ using three-dimensional volume data, a region of a desired tubular structure in stereoscopic image data is set from the stereoscopic image data, and the set tubular structure There has been proposed one in which a core line is set from stereoscopic image data (see, for example, Patent Document 1).
この方法は、より具体的には、立体画像データ上で操作者が管腔臓器(例えば血管)の抽出対象範囲として指定した1点の始点と1点又は複数点の終点を指定し、指定された範囲内において所望の管腔臓器、例えば血管の領域をクラスタリング等により3次元的に抽出し、この領域内の管腔臓器の芯線の点群を、ユークリッド距離変換等の手法を用いて探索し、これら点群を滑らかに接続した後、先端におけるベクトルを確定して次ベクトルを算出するという処理を繰り返すことにより、始点から終点までの芯線を求めるものである。
しかしながら、上述した方法では、以下の問題点がある。まず、設定された始点と終点との間で上述した処理を繰り返した後にその血管走行短軸像が表示されるので、処理に時間がかかり、処理が終わらないと結果を見ることができないので、使用者には待ち時間が長く感じられる。すなわち、リアルタイムに評価することができなかいという問題である。また、このことから、検出された部分に誤りがあっても、全処理が完了するまで修正することもできなかった。 However, the above-described method has the following problems. First, since the blood vessel running short axis image is displayed after repeating the above processing between the set start point and end point, the processing takes time, and the result cannot be seen unless the processing ends. The user feels that waiting time is long. That is, it is a problem that it cannot be evaluated in real time. Further, from this, even if there is an error in the detected part, it cannot be corrected until the entire process is completed.
そして、この方法は、管方向のベクトルを決めるために、領域抽出した中の代表点(CT値)をサンプリング対象として見つけていく。そうすると、始点と終点との間にプラークの付着等による血管内腔の濃度変化の大きい箇所や造影剤濃度変化が大きい場合や、屈曲する部分があったり、或いは血管が急に細くなっていたりすると、領域抽出に失敗する可能性が高いという問題もある。 In this method, in order to determine a vector in the tube direction, a representative point (CT value) in the extracted region is found as a sampling target. Then, if there is a large change in the concentration of the blood vessel lumen due to adhesion of plaque between the start point and the end point, or if there is a large change in the concentration of the contrast agent, or if there is a bend or the blood vessel suddenly narrows There is also a problem that the region extraction is likely to fail.
本発明は、上述した事情を考慮してなされたもので、血管走行のトラッキングとともに血管断面を同時に、且つリアルタイムに評価でき、評価までに要する時間を短縮する画像処理装置を提供することを目的とするものである。 The present invention has been made in consideration of the above-described circumstances, and an object of the present invention is to provide an image processing apparatus that can simultaneously and in real time evaluate a blood vessel cross-section with tracking of blood vessel travel, and reduce the time required for the evaluation. To do.
本発明の他の目的は、このように血管走行とともに血管断面を同時に、かつ、リアルタイムに行なわれた血管走行の検出結果を同時並行に血管の視覚的評価ができるようにユーザの操作性が向上した画像処理装置を提供することにある。 Another object of the present invention is to improve the user operability so that the blood vessel cross-section and the blood vessel cross-section can be simultaneously evaluated in parallel with the blood vessel cross-sectional detection result in real time. Another object of the present invention is to provide an image processing apparatus.
本発明に係る画像処理装置は、上述した課題を解決するために、請求項1に記載したように、被検体の立体画像データを記憶する立体画像データ記憶手段と、該立体画像データ記憶手段により記憶された立体画像データ内の所望の管状構造体の領域を前記立体画像データから設定する領域設定手段と、該領域設定手段により設定された管状構造物の芯線を前記立体画像データから設定する芯線抽出手段と、該芯線抽出手段により抽出された芯線に基づく管状構造体に直交する直交断面画像を作成する直交断面作成手段と、上記芯線設定手段により抽出された芯線及び上記直交断面作成手段により作成された直交断面画像を表示する表示手段とを備えるものである。
In order to solve the above-described problem, an image processing apparatus according to the present invention includes a stereoscopic image data storage unit that stores stereoscopic image data of a subject, and the stereoscopic image data storage unit as described in
そして、前記芯線抽出手段は、好適には、請求項2に記載したように、前記直交断面作成手段により作成された直交断面上の芯線位置から次の芯線位置を順次求め両芯線位置を接続平滑化して芯線を抽出し、前記表示手段は、芯線が抽出されるに従って漸進的に芯線を表示する構成とすることができる。
Preferably, as described in
次に、前記直交断面作成手段は、好適には、請求項3に記載したように、作成された最後の二つの直交断面における芯線位置から次の直交断面を順次求め、前記表示手段は、前記芯線が新たに抽出されるに従って芯線先端に位置する直交断面を表示する構成とすることができる。
Next, the orthogonal cross-section creating means preferably obtains the next orthogonal cross-section sequentially from the core line positions in the last two orthogonal cross-sections created as described in
また、前記表示手段は、好適には、請求項4に記載したように、前記芯線抽出手段により抽出された芯線が重畳表示された1又は2以上のCurved MPR像と、前記直交断面作成手段により作成された所望の直交断面画像とを表示するようにすることが望ましい。 Preferably, the display means preferably includes one or two or more Curved MPR images in which the core lines extracted by the core line extraction means are superimposed and displayed, and the orthogonal cross section creation means. It is desirable to display the created desired cross-sectional image.
前記表示手段は、より好適には、請求項5に記載したように、前記Curved MPR像を、指定された幅で作成されたCurved Projection、MIP像、サジタル像、コロナル像、アキシャル像、及びrotate MPR像のいずれかに切り替え可能に構成されてもよい。
More preferably, the display means, as described in
さらに、前記画像処理装置は、好適には、請求項6に記載したように、前記断面の位置の変更を指示する入力手段を備え、前記表示手段に表示される断面の位置は、前記入力手段への指示に基づいて順次変更される構成とすることができる。 Furthermore, the image processing apparatus preferably includes input means for instructing change of the position of the cross section, as described in claim 6, and the position of the cross section displayed on the display means is the input means. It can be configured to be sequentially changed based on the instruction to
また、上述した課題を解決するために、請求項7に係る管走行トラッキング方法は、立体画像データ記憶手段により記憶された被検体の立体画像データ内の所望の管状構造体の領域を前記立体画像データから設定する第1のステップと、該領域設定ステップにより設定された管状構造物の芯線を前記立体画像データから設定する第2のステップと、該芯線抽出ステップにより抽出された芯線に基づく管状構造体に直交する直交断面画像を作成する第3のステップと、上記芯線設定ステップにより抽出された芯線及び上記直交断面作成ステップにより作成された直交断面画像を表示する第4のステップとを備え、上記第1のステップから第4のステップを繰り返して芯線を漸進させるとともに芯線先端に位置する直交断面を更新するものである。 In order to solve the above-described problem, in the tube travel tracking method according to claim 7, a region of a desired tubular structure in the stereoscopic image data of the subject stored by the stereoscopic image data storage unit is defined as the stereoscopic image. A first step of setting from the data; a second step of setting the core line of the tubular structure set by the region setting step from the stereoscopic image data; and a tubular structure based on the core line extracted by the core line extraction step A third step of creating an orthogonal cross-sectional image orthogonal to the body, and a fourth step of displaying the orthogonal cross-section image created by the core wire extracted by the core wire setting step and the orthogonal cross-section creation step, The first step to the fourth step are repeated to gradually advance the core wire and to update the orthogonal cross section located at the core wire tip.
他方、上述した課題を解決するために、請求項8に係る画像処理装置は、血管の走行方向に沿って、位置を変えながら血管断面の画像を表示する画像処理装置であって、前記血管の走行方向を求める手段として、被検体の立体画像データを記憶する立体画像データ記憶手段と、クラスタリング処理を行う対象領域を決める対象領域決定手段と、前記対象領域内の画像データから血管を抽出するクラスタリング処理手段と、クラスタリング処理の結果に基づいて得られた血管の情報に基づいて、探索方向を決める手段と、前記探索方向に基づいて、前記対象領域の位置を変更する手段とを備えるものである。 On the other hand, in order to solve the above-described problem, an image processing apparatus according to an eighth aspect of the present invention is an image processing apparatus that displays an image of a blood vessel cross-section while changing the position along the traveling direction of the blood vessel. As means for obtaining the traveling direction, stereoscopic image data storage means for storing stereoscopic image data of the subject, target area determination means for determining a target area for clustering processing, and clustering for extracting blood vessels from the image data in the target area Processing means; means for determining a search direction based on blood vessel information obtained based on a result of the clustering process; and means for changing the position of the target region based on the search direction. .
そして、上述した課題を解決するために、請求項9に係る管走行トラッキング方法は、血管の走行方向を求める管走行トラッキング方法において、クラスタリング処理を行う対象領域を決める第1のステップと、前記対象領域内の被検体の画像データから血管をクラスタリング処理を用いて抽出する第2のステップと、前記第2のステップで得られた血管の情報に基づいて、探索方向を決める第3のステップと、前記探索方向に基づいて、前記対象領域の位置を変更する第4のステップとを備えるものである。 In order to solve the above-described problem, a tube travel tracking method according to claim 9 is a tube travel tracking method for obtaining a travel direction of a blood vessel. A second step of extracting blood vessels from the image data of the subject in the region using clustering processing; a third step of determining a search direction based on the blood vessel information obtained in the second step; And a fourth step of changing the position of the target area based on the search direction.
本発明に係る画像処理装置によれば、血管走行のトラッキングとともに血管断面を同時に、且つリアルタイムに評価でき、評価までに要する時間を短縮することができる。 According to the image processing apparatus of the present invention, blood vessel cross-sections can be simultaneously evaluated in real time together with tracking of blood vessel running, and the time required for evaluation can be shortened.
また、本発明は、このように血管走行とともに血管断面を同時に、かつ、リアルタイムに行なわれた血管走行の検出結果を同時並行に血管の視覚的評価ができ、ユーザの操作性を向上させる効果が得られる。 In addition, the present invention can visually evaluate the blood vessel in parallel with the blood vessel cross-section as well as the blood vessel cross-section detection result performed in real time in this way, thereby improving the operability for the user. can get.
以下、本発明に係る画像処理装置の好ましい実施の形態について図面を参照しながら詳細に説明する。本実施形態に係る画像処理装置は、図1に示すように、医用モダリティと一体に組みこまれたコンピュータ装置として、医用モダリティに通信ラインを介してオンライン接続されたコンピュータ装置として、又は、医用モダリティとはオフラインのコンピュータ装置として提供される。 Hereinafter, preferred embodiments of an image processing apparatus according to the present invention will be described in detail with reference to the drawings. As shown in FIG. 1, the image processing apparatus according to this embodiment is a computer apparatus integrated with a medical modality, a computer apparatus connected online to a medical modality via a communication line, or a medical modality. Is provided as an off-line computer device.
このコンピュータ装置は、図1に示すように、CPU及びメモリを搭載した演算装置11、プログラムや処理データを記憶する記憶装置12、表示器13、及び入力器14を備える。上述したように、このコンピュータ装置は必要に応じて外部とのデータ通信を行うための機能をも有する。
As shown in FIG. 1, the computer device includes a
記憶装置12には、X線CT装置やMRI装置などの撮影装置(医用モダリティ)により収集された被検体の3次元(立体)画像データがオンライン又はオフラインで送られてくる。この3次元画像データは、この記憶装置に設けられた光磁気ディスク等の大容量の記録媒体に格納されている。
Three-dimensional (stereoscopic) image data of a subject collected by an imaging apparatus (medical modality) such as an X-ray CT apparatus or an MRI apparatus is sent to the
また、記憶装置12のハードディスクなどの記録媒体には、本実施形態に係る管走行トラッキング法を実施するためのプログラムが予め記録されている。これにより、演算装置11は、その起動時にこのプログラムを読み出して、プログラムに記載されている手順にしたがって管走行トラッキングのための処理を順次実行する。この実行途中において、管走行トラッキングに関わる画像を表示器13に表示するとともに、入力器14を介して操作者からの管走行トラッキング処理に関わる操作情報を受け付けるようになっている。このため、演算装置11、表示器13、及び入力器14は、操作者にとって管走行トラッキングの処理を実行するためのインターフェースとしても機能することができる。
In addition, a program for executing the pipe traveling tracking method according to the present embodiment is recorded in advance on a recording medium such as a hard disk of the
このようなハードウエア構成により、上述した管走行トラッキングのプログラムを実行することで、機能的には、図2に示すように、立体画像データ記憶部21、始点指定部22、領域抽出部23、芯線抽出部24(芯線探索部25及び芯線平滑部26を含む)、輪郭抽出部27(輪郭平滑化部30を含む)、直交断面作成部29、及び合成表示部30が実現される。以下、この機能部21〜30の処理内容を個別に説明する。
By executing the above-described pipe travel tracking program with such a hardware configuration, functionally, as shown in FIG. 2, a stereoscopic image
<立体画像データ記憶部21>
記憶装置12を主要部として実現される立体画像データ記憶部21には、上述したように、X線CT装置やMRI装置などの撮影装置から得られた3次元画像データが格納されている。
<Stereoscopic image
As described above, the stereoscopic image
<始点指定部22>
始点指定部22は、演算装置11、表示器13、及び入力器14を主要素して機能的に構成される。この始点指定部22では、立体画像データ上で操作者が管腔臓器(例えば血管)の抽出対象範囲として指定した1点の始点の座標が入力され、記憶される。
<Start
The start
<領域抽出部23>
領域抽出部23は、演算装置11の演算機能により実現される。なお、以下の機能部24〜30において、この領域抽出部23同様に演算装置11の演算機能により実現されものについては、この記載を省略する。
<Region
The
領域抽出部23は、立体画像データ記憶部21から送られた3次元画像データを入力データとして所望の管腔臓器、例えば血管の領域が3次元的に自動的に抽出する。
The
先ず、領域抽出部23は、クラスタリング処理を行なう対象領域の3次元画像データを抽出する。この対象領域は、始点指定部22で指定された始点位置及び探索方向を基準とした範囲とする。例えば、始点位置から数mm程度の半径をもつ球体の領域を処理対象領域とする。
First, the
次に、この対象領域内のCT値のデータをクラスタリング処理により類似物質毎に分類する。このクラスタリング処理により、管腔臓器の領域内と領域外とに分類し、2値化された3次元の画像データとして記憶装置12に記憶される。
Next, the CT value data in the target region is classified for each similar substance by clustering processing. By this clustering processing, the organs are classified into the inside and outside of the luminal organ, and are stored in the
次にクラスタリング処理の方法について詳述する。理想的な条件下では、脂質は−100から50のCT値、血管壁(筋肉)は50から129のCT値を示すことが知られている。しかしながら、実際の検査においては、被検体(患者)の体格、ビームハードニング、再構成関数、物質のサイズ、関心領域外の物質の状態、造影剤の濃度等の影響を受けて、CT値が変動している。このため、固定の閾値を用いた領域分けを行なう方法では、このようなCT値の変動に対応できず、良好に分類することができない。本実施の形態では、領域分けを行う閾値を画像のヒストグラムに基づくクラスタリング手法などによって自動的に決定する。 Next, the clustering method will be described in detail. Under ideal conditions, lipids are known to exhibit CT values of -100 to 50 and vessel walls (muscles) exhibit CT values of 50 to 129. However, in actual examinations, the CT value is affected by the body size of the subject (patient), beam hardening, reconstruction function, substance size, substance state outside the region of interest, contrast agent concentration, etc. It has fluctuated. For this reason, the method of segmentation using a fixed threshold cannot cope with such a variation in CT value and cannot be classified well. In the present embodiment, the threshold value for dividing the region is automatically determined by a clustering method based on the histogram of the image.
なお、以下の説明は、CT値に応じて3つの領域に分ける場合について説明するが、この領域の数は他の数でもよい。 In the following description, the case of dividing into three regions according to the CT value will be described, but the number of regions may be other numbers.
図3は、領域抽出部23の構成図である。領域抽出部23は、ヒストグラム生成部23a、領域決定部23b、CT値変換部23cを備えている。
FIG. 3 is a configuration diagram of the
ヒストグラム生成部23aは、入力された低コントラスト画像のヒストグラムを求める。ヒストグラムは、CT値ごとの頻度分布を表している。
The
領域決定部23bは、このヒストグラムを、K−mean法を用いて3つの領域に分類する。K−mean法により、各領域内のCT値の分散値が等しくなるように、各領域を決めるための閾値を求める。各領域内のCT値の分散値が等しくなるよう各領域を決めることにより、類似性の高い物質が同じ領域内に含まれやすくなる。
The
図4は、本実施の形態により領域分けされた例を表しており、−100から537のCT値が3つの領域に分類されている。領域Aの範囲のCT値を持つ画素は主に脂質の部分である。領域Bの範囲のCT値を持つ画素は主に血管壁の部分である。領域Cの範囲のCT値を持つ画素は主に血流の部分である。 FIG. 4 shows an example of area division according to the present embodiment, and CT values from −100 to 537 are classified into three areas. Pixels having CT values in the range of region A are mainly lipid portions. Pixels having CT values in the range of region B are mainly blood vessel wall portions. Pixels having CT values in the range of region C are mainly blood flow portions.
CT値変換部23cは、領域決定部23bで求めた閾値に基づいて、入力画像のCT値を各領域に対応する値に変換する。これにより、管腔臓器の領域内と領域外とに分類した3次元の画像データを得ることができる。
The CT
なお、この領域分類は、上述したK−mean法の外、PCNN(Pulse Coupled Neural Networks)法によることも可能である。しかし、本発明に係る管走行トラッキング法では、領域分類を行なう範囲が短いことからK−mean法とPCNN法とでは演算精度に大差がなく、であれば、演算速度の速いK−mean法を採用することが好ましい。 This region classification can be performed by the PCNN (Pulse Coupled Neural Networks) method in addition to the K-mean method described above. However, in the pipe tracking method according to the present invention, since the range for performing region classification is short, there is no large difference in calculation accuracy between the K-mean method and the PCNN method. It is preferable to adopt.
<芯線抽出部24>
芯線抽出部24は、機能的に、芯線探索部25及び芯線平滑部26を含み、この順に割り当てられた処理がそれぞれ実行される。
<
The core
芯線探索部25は、始点指定部22により指定された始点を出発点として、領域抽出部23により抽出された管腔臓器の領域としての血管領域の3次元ボリュームデータに対して後述する探索処理を行い、管腔臓器の芯線が抽出される。
The core
<芯線探索部25>
芯線探索部25により、出発点から順次管腔臓器の芯線の点群が探索される。具体的には、最初に探索する方向(初期探索方向ベクトル)が決定されると、反復探索処理により血管の抽出領域の内部が探索される。
<
The core
すなわち、図5に示すように、始点から、3次元の全角度(4π)方向に放射される単位ベクトルのうち、血管の抽出領域の境界位置まで伸ばしたときの長さが最大であるベクトルと、それと反対方向のベクトル2をそれぞれ初期探索ベクトル1及び初期探索ベクトル2とする。このとき、初期探索ベクトル1及び初期探索ベクトル2と直交する抽出領域内の断面が探索ベクトルに直交する断面Sである。
That is, as shown in FIG. 5, among the unit vectors radiated from the start point in the direction of all three-dimensional angles (4π), the vector having the maximum length when extended to the boundary position of the blood vessel extraction region The
次いで、芯線探索部25により、探索処理が反復して行われ、探索ベクトルに直交する断面における血管抽出領域A内のユークリッド距離が最大である位置が、血管の芯線位置Oとして求められる。具体的には、図6に示すように、探索ベクトルに直交し且つベクトル先端位置を含む領域抽出データの断面画像上において、ベクトル先端位置の画素と連結している1−画素領域が領域抽出され、抽出領域内に存在する穴(0−画素領域)が穴埋め処理に付された後に、ユークリッド距離変換が行なわれる。
Next, the search process is repeatedly performed by the core
このユークリッド距離変換は、抽出領域内の画素とその画素と最も近い抽出領域外の画素との距離(ユークリッド距離)をその画素の値とする変換であり、これにより抽出領域の最深部の画素の値が抽出領域内の最大値となる。この最大値の画素の位置が芯線の位置として求められる。ベクトル先端位置の画素が0−画素の場合は、ベクトル先端位置に最も近い位置の1−画素を含む領域が使用される。 This Euclidean distance conversion is a conversion in which the distance (Euclidean distance) between a pixel in the extraction region and a pixel outside the extraction region that is closest to the pixel is the value of the pixel. The value is the maximum value in the extraction area. The position of the pixel having the maximum value is obtained as the position of the core line. When the pixel at the vector tip position is 0-pixel, an area including 1-pixel at the position closest to the vector tip position is used.
芯線位置を求める他の手法として、探索ベクトルに直交する断面Sにおける血管抽出領域Aの重心位置を血管の芯線の位置として求める手法もある。すなわち、探索ベクトルに直交し且つベクトル先端位置を含む領域抽出データの断面画像上において、ベクトル先端位置の画素と連結している1−画素(値が1の画素)領域が抽出され、この抽出領域の重心位置が芯線位置として求められる。ベクトル先端位置の画素が0−画素の場合は、ベクトル先端位置に最も近い位置の1−画素を含む領域の重心位置が求められる。 As another method for obtaining the core line position, there is a technique for obtaining the position of the center of gravity of the blood vessel extraction region A in the cross section S orthogonal to the search vector as the position of the blood vessel core line. That is, a 1-pixel (pixel having a value of 1) region connected to the pixel at the vector tip position is extracted on the cross-sectional image of the region extraction data that is orthogonal to the search vector and includes the vector tip position. Is obtained as the core line position. If the pixel at the vector tip position is 0-pixel, the barycentric position of the region including 1-pixel at the position closest to the vector tip position is obtained.
また、これら以外の芯線探索法を実施することもできる。一例として、領域抽出部23により抽出された領域抽出データに対し、抽出領域内に存在する空洞(0−画素領域)に空洞埋め処理を施した後、3次元のユークリッド距離変換を行った、3次元ユークリッド距離変換の画像データを予め用意しておくようにしてもよい。すなわち、探索ベクトルに直交し且つベクトル先端位置を含む3次元ユークリッド距離変換された画像データによる断面画像上で、最大値をとる画素位置を芯線位置として求めるようにしてもよい。
Moreover, core line search methods other than these can also be implemented. As an example, the region extraction data extracted by the
このように芯線の探索が終わると、芯線探索部25は、次ベクトル(次の直交断面)を求める。これは、図7に示すように、次ベクトルbnewが現在の探索ベクトルbと最後の2点の芯線点を結ぶベクトルを用いて、次の演算式を実行して求める。
こうして次の直交断面が求まると、続いてこの直交断面における芯線の位置を、上述した3次元ユークリッド距離変換により求める。図8は、芯線が3次元ユークリッド距離変換により次々に決定される様子を模式的に示したものである。このように血管芯線の位置の演算と次ベクトルの演算とが反復して実行される。 When the next orthogonal cross section is obtained in this way, the position of the core line in this orthogonal cross section is subsequently obtained by the above-described three-dimensional Euclidean distance conversion. FIG. 8 schematically shows how the core lines are successively determined by the three-dimensional Euclidean distance conversion. In this way, the calculation of the position of the blood vessel core line and the calculation of the next vector are repeatedly executed.
なお、芯線の初期探索方向、例えば管腔臓器が血管の場合、始点から下流側へ探索を開始するのかそれとも上流側かは、表示器13上において、操作者が入力器14を介して指定することにより決定される。
The initial search direction of the core line, for example, when the luminal organ is a blood vessel, the operator specifies on the
<芯線平滑化部26>
芯線平滑化部26は、芯線探索部25により抽出された3次元の芯線に平滑化を施し、滑らかな曲線にする機能を有する。すなわち、抽出された3次元の芯線に適宜な平滑化処理を施し、滑らかな曲線に整形される。
<Core
The core
<輪郭抽出部27>
輪郭抽出部27には輪郭平滑化部30も含まれる。この輪郭抽出部27は、芯線抽出部24により抽出された芯線に直交する断面S上で、芯線の位置から放射方向に延びる直線上の輝度値の情報又は領域抽出部23により抽出された領域の境界に基づいて、血管の輪郭の位置を検出する。
<
The
輪郭抽出は、図9に示すように、芯線抽出部24で求められた芯線に直交する断面上で、芯線位置Oを中心として等角度間隔のl1〜lnの直線が設定され、この各直線に対する芯線位置Oから負方向及び正方向における血管の輪郭位置が検出される。
As shown in FIG. 9, the contour extraction is performed by setting straight lines l1 to ln at equiangular intervals around the core line position O on the cross section orthogonal to the core line obtained by the core
具体的には、芯線位置cから直線の放射方向に沿って以下の3条件が成立するか否かをチェックする。3条件とは、(1)輝度値(CT値)がある閾値の範囲外となる位置があるか否か、(2)輝度値の勾配の絶対値がある閾値以上となる位置があるか否か、及び、(3)抽出領域の境界位置に到達したか否かである。このうち、最初に成立した条件に対応した位置が血管の輪郭位置として検出される。これにより、明らかに外れた位置を血管の輪郭として誤検出するという状態を殆ど無くすることができる。 Specifically, it is checked whether or not the following three conditions are satisfied from the core line position c along the linear radiation direction. The three conditions are (1) whether or not there is a position where the luminance value (CT value) falls outside a certain threshold range, and (2) whether or not there is a position where the absolute value of the gradient of the luminance value exceeds a certain threshold value. And (3) whether the boundary position of the extraction area has been reached. Of these, the position corresponding to the first established condition is detected as the blood vessel contour position. As a result, it is possible to almost eliminate the state of erroneously detecting a position that is clearly off as a blood vessel contour.
<輪郭平滑化部28>
輪郭抽出部27により抽出された輪郭は、輪郭平滑化部30により平滑化され、滑らかな曲線を有する3次元の血管の輪郭に整形される。すなわち、芯線の平滑化と同様に、求めた輪郭点の一連の群に平滑化処理を施し、滑らかな曲線にする。
<Outline smoothing
The contour extracted by the
<直交断面作成部29>
直交断面作成部31は、管走行の先端におけるベクトルを決定し、この決定されたベクトルに対して直交する断面を作成する機能を有する。探索ベクトルに直交する断面は芯線抽出部24及び輪郭抽出部27においても算出されたが、管走行の先端におけるベクトルが決定して初めて芯線に直交する断面として画像として表示される断面が作成される。
<Orthogonal
The orthogonal cross section creation unit 31 has a function of determining a vector at the tip of pipe travel and creating a cross section orthogonal to the determined vector. The cross section orthogonal to the search vector was also calculated by the core
<合成表示部30>
合成表示部30は、表示器13と演算装置11の演算機能とにより実現される。この合成表示部30は、芯線抽出部24により抽出された芯線のデータと輪郭抽出部27により抽出された輪郭のデータとを、立体画像データ記憶部21に記憶されている3次元画像データ又はその3次元画像データを用いて計算された画像データに合成して表示する。
<
The
本実施形態に係る管走行トラッキング法は、以上の機能部21〜30により、その全体処理としては、図10に示すフローチャートに従って実行される。
The pipe traveling tracking method according to the present embodiment is executed by the
芯線設定に際し、表示記13には、図11に示すMPR像の画面が表示される。ここで操作者が書くMPR像の上下左右に表示されているスライスカーソル41を入力器14を介して動かすと、対応するMPR画面が切り替わり、MPR上の矢印ボタンのいずれかを押し続けるとスライスが切り替わる。操作者は、これにより、走行をトラッキングしたい管を探し出す。
At the time of setting the core line, the MPR image screen shown in FIG. When the operator moves the
操作者が表示器13上においてトラッキングを始めたい点を入力器14を介してクリック等すると、演算装置11は、所望の始点の指定を受け付ける(ステップS1)。
When the operator clicks a point on the
そうすると、指定された始点Pの下流側に赤色の線分43(同図では実線で表示)、上流側には緑色の線分44(同破線で表示)が表示されるとともに、芯線初期ベクトル(線分/プローブ)選択画面42画面がポップアップしていずれかを選択するよう要求する。ここで操作者が最初のパス(下流側か上流側か)を入力器14を介してクリックすると、探索方向が指定される(ステップS2)。
Then, a red line segment 43 (indicated by a solid line in the figure) is displayed downstream of the designated start point P, and a green line segment 44 (indicated by the broken line) is displayed on the upstream side, and a core initial vector ( The line /
そして、操作者が、図11に示した入力画面において、入力器14を介して「進む」ボタンを押すと、演算装置11は、クラスタリング処理の対象領域を決定し、その対象領域内の3次元画像データに対してK−means法等に基づくクラスタリング処理を行い、始点から一定範囲の短い血管領域を3次元的に抽出する(ステップS3)。
Then, when the operator presses the “forward” button via the
次いで、演算装置11は、血管の3次元の抽出領域に対して探索処理を施して3次元挙動の芯線を抽出し(ステップS4)、この芯線に平滑化処理を施す(ステップS5)。
Next, the
さらに、演算装置11は、抽出した芯線に直交する各点における断面に沿った処理に基づいて血管の輪郭を検出し、検出した輪郭を平滑化する(ステップS6)。ここで芯線に直交する断面が確定され、先端のベクトルに直交する断面が作成される(ステップS7)。
Furthermore, the
この滑らかで且つ精度良く求められた芯線及び輪郭の位置情報は、例えば演算装置11から表示器13に送られて、表示器13の画面上に出力される(ステップS8)。これにより、始点46から最初の断面までの間の芯線が表示される。
The smooth and accurately obtained position information of the core line and the contour is sent from the
ここで「進む」ボタン45を押し続ければ、処理を継続し(ステップS9:No)、続いて次ベクトル(次の直交断面)を求めるべく、近傍に血管の分岐等がなければ(ステップS10:No)次候補点が選定され(ステップS11)、この次候補点に関して、演算装置11は、上述した一連の処理を行なう(ステップS2〜S7)。このように繰り返し行なうことにより、探索方向に沿って断面をリアルタイムで移動した画像が表示される。
If the “forward”
図13は、この芯線抽出の様子を示す図である。画面左下のアキシャル像及び左上のコロナル像において、始点46から赤色等で表示された芯線47が断面が作成される毎に漸進し、その先端、すなわち、現在の芯点48は青色で識別される。それととともに、画面右上には、サジタル像に換わって現在の芯点48における血管垂直断面短軸像(以下「SA像」という。)が表示される。
FIG. 13 is a diagram showing how the core line is extracted. In the axial image at the lower left of the screen and the coronal image at the upper left, the
これにより、操作者は、走行トラッキングの様子をリアルタイムで観察することができ、進行する芯線と同時に、芯線先端の血管垂直断面も見ることができるので、血管走行の検出と同時並行で血管の視覚的評価が可能となる。 As a result, the operator can observe the running tracking in real time, and can view the blood vessel vertical section at the tip of the core wire simultaneously with the progressing core wire. Evaluation is possible.
管走行をトラッキングしようとする経路途中に、分岐等が存在する場合(ステップS10:Yes)、演算装置11は、操作者から指示がなければ(ステップS12:No)、太い方の経路に沿って処理を継続して、次候補点の選定を行なう(ステップS11)。
If there is a branch or the like in the course of tracking the pipe travel (step S10: Yes), the
このとき操作者が細い方の経路について走行トラッキングをさせるべく、図11に示した心線設定画面において、「戻る」ボタン49を押せば、演算装置11は、芯線が伸長してきた経路を逆行させて縮退させる(ステップS12:Yes)。そして、芯線が分分岐点より前まで戻ったところで、「戻る」ボタン49を押し続けることをやめて、細い方の経路内の分岐点近傍に次候補点をマニュアルで設定することにより、演算装置11は、次候補点の指定を受け付ける(ステップS13:Yes)。
At this time, if the operator presses the “return” button 49 on the core line setting screen shown in FIG. 11 in order to perform travel tracking on the narrower route, the
このように、管走行トラッキングは、特に指示がなければ自動的に行なわれるが、操作者の所望と異なる経路を辿るような場合は、これを修正することができる。 As described above, the pipe travel tracking is automatically performed unless otherwise specified, but this can be corrected when a route different from the operator's desire is followed.
最終的に、芯線46が所望の長さまで伸長して、操作者により「進む」ボタン45を押すことをやめられると、演算装置11は操作を終了する(ステップS9:Yes)。
Finally, when the
以上の処理を行なうことにより、演算装置11は、管走行の抽出及び先端のベクトルに垂直な断面を得ることができる。得られたデータは、記憶装置12に保存され、操作者はこのデータを記憶装置12から読み出して、種々の表示形態で表示させて、芯線が管中央を通過しているか否かを確認することができる。以下に、幾つかの確認形態について説明する。
By performing the above processing, the
図14は、curved MPR像(左上)、SA像(右上)及びアキシャル像(左下)が表示される例を示すものである。curved MPR像は、MPR像の芯線上の各点を通り、MPR像の平面に垂直な直線の集合として表される曲面で3次元画像を切断したグレースケール画像を2次元平面に引き伸ばした画像である。MPR像では、血管が3次元的に屈曲していると画像には血管の全範囲が表示されるとは限らないが、血管芯線が血管内部を通る線であるため、curved MPR像では芯線が定義されている全範囲にわたって血管が描画される。このため、curved MPR像を観察することで、血管の全範囲にわたって太さなどの情報を得ることができる。 FIG. 14 shows an example in which a curved MPR image (upper left), an SA image (upper right), and an axial image (lower left) are displayed. A curved MPR image is an image obtained by extending a grayscale image obtained by cutting a three-dimensional image along a curved surface represented as a set of straight lines perpendicular to the plane of the MPR image through each point on the core line of the MPR image to a two-dimensional plane. is there. In the MPR image, if the blood vessel is bent three-dimensionally, the entire range of the blood vessel is not always displayed in the image. However, since the blood vessel core line is a line passing through the inside of the blood vessel, the core line is not shown in the curved MPR image. Blood vessels are drawn over the entire defined range. Therefore, by observing the curved MPR image, information such as the thickness can be obtained over the entire range of the blood vessel.
操作者が、通過状態を確認したい断面の位置をcurved MPR像上の芯線47(例えば赤色で表示)上でクリックすると、クリックされた位置のSA像50aが表示される。curved MPR像上ではその位置は青色で表示される。SA像50a上の十字カーソルが芯線の通過点を示す。また、クリックされた位置のSA像50aとともに、その直前の断面のSA像50b及び直後の断面のSA像50cも表示される。
When the operator clicks the position of the cross section for which the passing state is to be confirmed on the core line 47 (for example, displayed in red) on the curved MPR image, the
なお、SA像は、これら3枚に限られず、例えば図15に示すように、連続した9枚のSA像を一度に表示することも可能である。この場合、表示されている先頭及び末尾のスライス位置がcurved MPR像上に表示される。 Note that the SA images are not limited to these three images. For example, as shown in FIG. 15, nine consecutive SA images can be displayed at a time. In this case, the displayed top and bottom slice positions are displayed on the curved MPR image.
これにより、操作者は、任意の断面において、芯線が管中央を通過しているか否かを確認することができる。通過点を修正する必要がある場合は、SA像上で円ROIが血管の輪郭を囲むように移動させ、十字カーソルが芯線の通過点になるように設定して修正を行なう。 Thereby, the operator can confirm whether the core wire has passed the pipe center in arbitrary cross sections. When the passing point needs to be corrected, the circle ROI is moved on the SA image so as to surround the outline of the blood vessel, and correction is performed by setting the cross cursor to be the passing point of the core line.
図16は、この管走行確認を、コロナル像(左上)、リファレンス像(右上)及びアキシャル像(左下)を組み合わせた画面上で行なう場合の例を示すものである。 FIG. 16 shows an example in which this pipe traveling confirmation is performed on a screen combining a coronal image (upper left), a reference image (upper right), and an axial image (lower left).
リファレンス像上では、血管内腔がワイヤフレームとして表示され、このリファレンス像を、マウス等を用いてドラッグすると、コロナル像及びアキシャル像がドラッグした方向に切り替わり、血管芯線が投影される。 On the reference image, the lumen of the blood vessel is displayed as a wire frame. When the reference image is dragged using a mouse or the like, the coronal image and the axial image are switched in the dragged direction, and the blood vessel core line is projected.
これにより、任意の方向から観察することが可能になる。通過点を修正する必要がある場合は、その箇所をマウス等を用いてグラグし、所望の位置までドラッグすることにより、表示されている芯線を直接編集する。 Thereby, it becomes possible to observe from arbitrary directions. When it is necessary to correct the passing point, the displayed core is directly edited by dragging it to a desired position using the mouse or the like.
こうして血管芯線が確定すると、続いて血管性状を評価する。この血管性状評価を行なう場合の表示画面の一例を、図17に示す。画面上段左側が水平長軸方向のcurved MPR像、同右側が垂直長軸方向のcurved MPR像である。また、画面下段には、向かって左から、SA像、評価結果及びリファレンス像が表示される。 When the blood vessel core line is thus determined, the blood vessel property is subsequently evaluated. FIG. 17 shows an example of a display screen when this vascular property evaluation is performed. The upper left side of the screen is a curved MPR image in the horizontal long axis direction, and the right side is a curved MPR image in the vertical long axis direction. In the lower part of the screen, the SA image, the evaluation result, and the reference image are displayed from the left.
各curved MPR像には、血管芯線が赤色等の実線で表示され、芯線には、始点を基点として一定間隔のマーカがつけられている。そして、表示されているSA像の位置は青色等の点で表示される。 In each curved MPR image, the blood vessel core line is displayed as a solid line such as red, and a marker is attached to the core line at regular intervals with the start point as a base point. The position of the displayed SA image is displayed as a point such as blue.
SA像のスライス位置を切り替えるには、SA像を表示したい位置をcurved MPR像の芯線上でクリックすると、その位置のSA像が表示される。また、SA像の下にあるスライドバーを左右に移動させてもSA像のスライスが切り替わる。或いは、curved MPR像上で、芯線の走行に沿うようにマウスをドラッグし、その動きに対応させて左下のSA像を切り替えることも可能である。一方、curved MPR像のスライスは、curved MPR像脇のスライドバーを上下に移動させて切り替える。 To switch the slice position of the SA image, clicking the position where the SA image is to be displayed on the core line of the curved MPR image, the SA image at that position is displayed. In addition, the slice of the SA image is switched even if the slide bar under the SA image is moved left and right. Alternatively, on the curved MPR image, the lower left SA image can be switched by dragging the mouse along the running of the core line and corresponding to the movement. On the other hand, the slice of the curved MPR image is switched by moving the slide bar beside the curved MPR image up and down.
また、画面下段には、図18に示すように、SA像と、このSA像上に赤色等で表示された直線におけるプロファイルを表示させてもよい。 Further, as shown in FIG. 18, an SA image and a profile in a straight line displayed in red or the like on the SA image may be displayed on the lower stage of the screen.
右側の垂直長軸のcurved MPR像は、画像の右上方にあるメニューボタンで他の表示モードに切り替えることも可能である。それらは、第3の長軸方向のcurved MPR像、空間上の曲線を視線方向に投影したCurved Projection、指定された幅で作成されたMIP像、サジタル像、コロナル像、アキシャル像、及び 任意断面MPR像等である。 The curved MPR image with the vertical long axis on the right side can be switched to another display mode with a menu button at the upper right of the image. They are the 3rd curved MPR image in the long axis direction, the Curved Projection that projects the curve in space in the line of sight, the MIP image created with the specified width, the sagittal image, the coronal image, the axial image, and the arbitrary cross section MPR image or the like.
これらの内、任意断面MPR像を表示した例を図19に示す。この画面上では、右下のリファレンス像(SA)上で緑色等で表示された法線をドラッグしながら回転し、MPRR面を設定する。SA像の回転中心は芯線、つまりROIの中心であり、中心を変更したいときは、角ROIを選択し、左下のSA像上に円RPIを描画して、そのROI中心を目的の位置に移動させて行なう。 Of these, an example in which an arbitrary cross-sectional MPR image is displayed is shown in FIG. On this screen, the MPRR plane is set by dragging and rotating the normal displayed in green or the like on the lower right reference image (SA). The rotation center of the SA image is the center line, that is, the center of the ROI. If you want to change the center, select the corner ROI, draw a circle RPI on the lower left SA image, and move the ROI center to the target position. To do.
以上のように、本実施形態に係る管走行トラッキング法を用いれば、被検体内に3次元的に存在する血管の芯線が自動的に抽出され、それと同時に、この芯線に基づいて血管の輪郭が自動的に抽出される。 As described above, if the tube running tracking method according to the present embodiment is used, the core line of a blood vessel that exists three-dimensionally in the subject is automatically extracted, and at the same time, the contour of the blood vessel is determined based on the core line. Automatically extracted.
本実施形態の方法では、血管の走行方向に沿って表示断面の位置を変えると共に、クラスタリング処理を行なう対象領域の位置を順次変えてクラスタリング処理を行なっている。例えば、広い範囲の画像データに対してクラスタリング処理を行なうと画像の濃度値のばらつきから血管領域の抽出が良好にできないことがあるが、本実施形態の方法では比較的小さな対象領域ごととにクラスタリング処理を行っているので良好に血管部分の抽出を行うことができる。また、これにより芯線の抽出精度を上げることができる。 In the method of the present embodiment, the position of the display cross section is changed along the traveling direction of the blood vessel, and the clustering process is performed by sequentially changing the position of the target region on which the clustering process is performed. For example, when clustering processing is performed on a wide range of image data, extraction of blood vessel regions may not be performed satisfactorily due to variations in image density values, but with the method of this embodiment, clustering is performed for each relatively small target region. Since the processing is performed, the blood vessel portion can be extracted satisfactorily. Further, this can increase the extraction accuracy of the core wire.
これにより、血管などのような管腔臓器の芯線及び直交断面の3次元的な位置情報を短い処理時間で精度良く抽出でき、診断に有用な情報を確実に提供することができる。 Thereby, the core line of a luminal organ such as a blood vessel and three-dimensional position information of an orthogonal cross section can be extracted with high accuracy in a short processing time, and information useful for diagnosis can be reliably provided.
以上に説明した実施態様は説明のためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素もしくは全要素をこれと均等なものによって置換した実施態様を採用することが可能であるが、これらの実施態様も本発明の範囲に含まれる。 The embodiments described above are for illustrative purposes and do not limit the scope of the invention. Accordingly, those skilled in the art can employ embodiments in which each or all of these elements are replaced by equivalents thereof, and these embodiments are also included in the scope of the present invention.
11 演算装置
12 記憶装置
13 表示器
14 入力器
21 立体画像データ記憶部
22 始点指定部
23 領域抽出部
23a ヒストグラム生成部
23b 領域決定部
23c CT値変換部
24 芯線抽出部
25 芯線探索部
26 芯線平滑部
27 輪郭抽出部
28 輪郭平滑部
29 直交断面作成部
30 合成表示部
41 スライスカーソル
42 芯線初期ベクトル(線分/プローブ)選択画面
43,44 線分
45 「進む」ボタン
46 始点
47 芯線
48 現在の芯点
49 「戻る」ボタン
50 SA像
A 血管抽出領域
B 抽出領域の境界
C 血管の輪郭
S 探索ベクトルに直交する断面
DESCRIPTION OF
Claims (9)
該立体画像データ記憶手段により記憶された立体画像データ内の所望の管状構造体の領域を前記立体画像データから設定する領域設定手段と、
該領域設定手段により設定された管状構造物の芯線を前記立体画像データから設定する芯線抽出手段と、
該芯線抽出手段により抽出された芯線に基づく管状構造体に直交する直交断面画像を作成する直交断面作成手段と、
上記芯線設定手段により抽出された芯線及び上記直交断面作成手段により作成された直交断面画像を表示する表示手段と、
を備えることを特徴とする画像処理装置。 Stereoscopic image data storage means for storing stereoscopic image data of the subject;
Region setting means for setting a region of a desired tubular structure in the stereoscopic image data stored by the stereoscopic image data storage means from the stereoscopic image data;
A core line extracting means for setting the core line of the tubular structure set by the region setting means from the stereoscopic image data;
Orthogonal cross section creating means for creating an orthogonal cross section image orthogonal to the tubular structure based on the core line extracted by the core line extracting means;
Display means for displaying the core wire extracted by the core wire setting means and the orthogonal cross-sectional image created by the orthogonal cross-section creating means;
An image processing apparatus comprising:
前記表示手段は、前記芯線が新たに抽出されるに従って芯線先端に位置する直交断面を作成と同時に表示することを特徴とする請求項1記載の画像処理装置。 The orthogonal cross section creating means sequentially obtains the next orthogonal cross section from the core line position in the last two orthogonal cross sections created,
The image processing apparatus according to claim 1, wherein the display unit displays an orthogonal cross section positioned at the tip of the core wire as the core wire is newly extracted at the same time as the creation.
前記表示手段に表示される断面の位置は、前記入力手段への指示に基づいて順次変更されることを特徴とする請求項1記載の画像処理装置。 Comprising input means for instructing a change in the position of the cross section;
The image processing apparatus according to claim 1, wherein the position of the cross section displayed on the display unit is sequentially changed based on an instruction to the input unit.
該領域設定ステップにより設定された管状構造物の芯線を前記立体画像データから設定する第2のステップと、
該芯線抽出ステップにより抽出された芯線に基づく管状構造体に直交する直交断面画像を作成する第3のステップと、
上記芯線設定ステップにより抽出された芯線及び上記直交断面作成ステップにより作成された直交断面画像を表示する第4のステップと、
を備え、上記第1のステップから第4のステップを繰り返して芯線を漸進させるとともに芯線先端に位置する直交断面を更新することを特徴とする管走行トラッキング方法。 A first step of setting a region of a desired tubular structure in the stereoscopic image data of the subject stored by the stereoscopic image data storage means from the stereoscopic image data;
A second step of setting the core line of the tubular structure set by the region setting step from the stereoscopic image data;
A third step of creating an orthogonal cross-sectional image orthogonal to the tubular structure based on the core line extracted by the core line extraction step;
A fourth step of displaying the core wire extracted in the core wire setting step and the orthogonal cross-section image created in the orthogonal cross-section creation step;
And a step of repeating the first to fourth steps to gradually advance the core wire and update the orthogonal cross section located at the tip of the core wire.
前記血管の走行方向を求める手段として、
被検体の立体画像データを記憶する立体画像データ記憶手段と、
クラスタリング処理を行う対象領域を決める対象領域決定手段と、
前記対象領域内の画像データから血管を抽出するクラスタリング処理手段と、
クラスタリング処理の結果に基づいて得られた血管の情報に基づいて、探索方向を決める手段と、
前記探索方向に基づいて、前記対象領域の位置を変更する手段とを備えることを特徴とする画像処理装置。 An image processing apparatus that displays an image of a blood vessel cross-section while changing the position along the traveling direction of the blood vessel,
As a means for obtaining the traveling direction of the blood vessel,
Stereoscopic image data storage means for storing stereoscopic image data of the subject;
A target area determining means for determining a target area for clustering processing;
Clustering processing means for extracting blood vessels from the image data in the target region;
Means for determining a search direction based on blood vessel information obtained based on the result of the clustering process;
An image processing apparatus comprising: means for changing a position of the target area based on the search direction.
クラスタリング処理を行う対象領域を決める第1のステップと、
前記対象領域内の被検体の画像データから血管をクラスタリング処理を用いて抽出する第2のステップと、
前記第2のステップで得られた血管の情報に基づいて、探索方向を決める第3のステップと、
前記探索方向に基づいて、前記対象領域の位置を変更する第4のステップとを備えることを特徴とする管走行トラッキング方法。 In the tube travel tracking method for determining the travel direction of the blood vessel,
A first step of determining a target area for clustering processing;
A second step of extracting blood vessels from the image data of the subject in the target region using a clustering process;
A third step of determining a search direction based on the blood vessel information obtained in the second step;
And a fourth step of changing the position of the target area based on the search direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005063902A JP2006246941A (en) | 2005-03-08 | 2005-03-08 | Image processing apparatus and vessel tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005063902A JP2006246941A (en) | 2005-03-08 | 2005-03-08 | Image processing apparatus and vessel tracking method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006246941A true JP2006246941A (en) | 2006-09-21 |
Family
ID=37088031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005063902A Pending JP2006246941A (en) | 2005-03-08 | 2005-03-08 | Image processing apparatus and vessel tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006246941A (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008126065A (en) * | 2006-11-17 | 2008-06-05 | General Electric Co <Ge> | Method and apparatus for contouring at least one vessel |
JP2008259702A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image display method, apparatus and program |
JP2008259703A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Target area display method, apparatus, and program |
JP2009018029A (en) * | 2007-07-12 | 2009-01-29 | Toshiba Corp | Medical image processing apparatus and medical image diagnosis apparatus |
JP2009195586A (en) * | 2008-02-25 | 2009-09-03 | Toshiba Corp | Medical image processor and medical image processing method |
JP2010088795A (en) * | 2008-10-10 | 2010-04-22 | Toshiba Corp | Medical image processor and medical image diagnosis device |
JP2010538729A (en) * | 2007-09-13 | 2010-12-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Path neighborhood rendering |
JP2011050621A (en) * | 2009-09-03 | 2011-03-17 | Hitachi Medical Corp | X-ray navigation apparatus |
JP2012511380A (en) * | 2008-12-10 | 2012-05-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Blood vessel analysis |
JP2013010005A (en) * | 2012-10-01 | 2013-01-17 | Toshiba Corp | Medical image processor and medical image processing program |
JP2013502263A (en) * | 2009-08-18 | 2013-01-24 | ベン‐グリオン ユニバーシティ オブ ザ ネゲヴ リサーチ アンド デベロップメント オーソリティ | System and method for analyzing imaging data |
JP2013111358A (en) * | 2011-11-30 | 2013-06-10 | Fujifilm Corp | Image processing device, method, and program |
US8626263B2 (en) | 2006-04-13 | 2014-01-07 | General Electric Company | Methods and apparatus for relative perfusion and/or viability |
JP2015128669A (en) * | 2015-03-13 | 2015-07-16 | 三菱プレシジョン株式会社 | Living body data model creation method and device, living body data model data structure, living body data model data storage device, three dimensional data model load distribution method, and device |
KR20150128405A (en) * | 2014-05-09 | 2015-11-18 | 삼성전자주식회사 | Method, apparatus and system for providing medical image |
JP2016165468A (en) * | 2016-03-29 | 2016-09-15 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
JP2016165467A (en) * | 2016-03-29 | 2016-09-15 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
JP2017143972A (en) * | 2016-02-16 | 2017-08-24 | 東芝メディカルシステムズ株式会社 | Medical image display device, medical image display system, and program |
US9788729B2 (en) | 2008-11-21 | 2017-10-17 | Toshiba Medical Systems Corporation | Image processing apparatus and image processing method |
JP2018175257A (en) * | 2017-04-10 | 2018-11-15 | 株式会社根本杏林堂 | Blood vessel image processing system |
JPWO2021141135A1 (en) * | 2020-01-09 | 2021-07-15 | ||
JP2022191354A (en) * | 2017-05-09 | 2022-12-27 | ハートフロー, インコーポレイテッド | System and method for anatomical structure segmentation in image analysis |
JP2023520481A (en) * | 2020-03-31 | 2023-05-17 | ▲蘇▼州▲潤▼▲邁▼▲徳▼医▲療▼科技有限公司 | METHOD, APPARATUS, ANALYSIS SYSTEM AND STORAGE MEDIUM FOR PRECISE EXTRACTION OF CENTERLINE OF VESSEL |
CN116363132A (en) * | 2023-06-01 | 2023-06-30 | 中南大学湘雅医院 | Method and system for ophthalmic image processing |
CN117078698A (en) * | 2023-08-22 | 2023-11-17 | 山东第一医科大学第二附属医院 | Peripheral blood vessel image auxiliary segmentation method and system based on deep learning |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0816813A (en) * | 1994-06-24 | 1996-01-19 | Hitachi Medical Corp | Image-forming method/device and display method/device |
JP2000163599A (en) * | 1998-11-30 | 2000-06-16 | Toshiba Iyo System Engineering Kk | Area-of-interest setting device and method and outline extractor |
JP2001014495A (en) * | 1999-06-29 | 2001-01-19 | Hitachi Medical Corp | Image display device |
JP2001175847A (en) * | 1999-12-20 | 2001-06-29 | Masahiko Hatanaka | Three-dimensional image display device |
JP2004201873A (en) * | 2002-12-25 | 2004-07-22 | Ge Medical Systems Global Technology Co Llc | Image processing method, image processing apparatus, and program |
JP2004230086A (en) * | 2003-01-31 | 2004-08-19 | Toshiba Corp | Image processor, image data processing method, and program |
JP2004283373A (en) * | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analyzer of luminal structure |
JP2004313736A (en) * | 2003-04-02 | 2004-11-11 | Ziosoft Inc | Apparatus, method and program for medical image processing |
-
2005
- 2005-03-08 JP JP2005063902A patent/JP2006246941A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0816813A (en) * | 1994-06-24 | 1996-01-19 | Hitachi Medical Corp | Image-forming method/device and display method/device |
JP2000163599A (en) * | 1998-11-30 | 2000-06-16 | Toshiba Iyo System Engineering Kk | Area-of-interest setting device and method and outline extractor |
JP2001014495A (en) * | 1999-06-29 | 2001-01-19 | Hitachi Medical Corp | Image display device |
JP2001175847A (en) * | 1999-12-20 | 2001-06-29 | Masahiko Hatanaka | Three-dimensional image display device |
JP2004201873A (en) * | 2002-12-25 | 2004-07-22 | Ge Medical Systems Global Technology Co Llc | Image processing method, image processing apparatus, and program |
JP2004230086A (en) * | 2003-01-31 | 2004-08-19 | Toshiba Corp | Image processor, image data processing method, and program |
JP2004283373A (en) * | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analyzer of luminal structure |
JP2004313736A (en) * | 2003-04-02 | 2004-11-11 | Ziosoft Inc | Apparatus, method and program for medical image processing |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8626263B2 (en) | 2006-04-13 | 2014-01-07 | General Electric Company | Methods and apparatus for relative perfusion and/or viability |
JP2008126065A (en) * | 2006-11-17 | 2008-06-05 | General Electric Co <Ge> | Method and apparatus for contouring at least one vessel |
NL1034681C2 (en) * | 2006-11-17 | 2009-03-04 | Gen Electric | Method and equipment for indicating contours of at least one blood vessel. |
JP2008259702A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image display method, apparatus and program |
JP2008259703A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Target area display method, apparatus, and program |
US8170328B2 (en) | 2007-04-12 | 2012-05-01 | Fujifilm Corporation | Image display method, apparatus, and program |
JP2009018029A (en) * | 2007-07-12 | 2009-01-29 | Toshiba Corp | Medical image processing apparatus and medical image diagnosis apparatus |
JP2010538729A (en) * | 2007-09-13 | 2010-12-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Path neighborhood rendering |
US9754411B2 (en) | 2007-09-13 | 2017-09-05 | Koninklijke Philips N.V. | Path proximity rendering |
JP2009195586A (en) * | 2008-02-25 | 2009-09-03 | Toshiba Corp | Medical image processor and medical image processing method |
JP2010088795A (en) * | 2008-10-10 | 2010-04-22 | Toshiba Corp | Medical image processor and medical image diagnosis device |
US9788729B2 (en) | 2008-11-21 | 2017-10-17 | Toshiba Medical Systems Corporation | Image processing apparatus and image processing method |
JP2012511380A (en) * | 2008-12-10 | 2012-05-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Blood vessel analysis |
JP2013502263A (en) * | 2009-08-18 | 2013-01-24 | ベン‐グリオン ユニバーシティ オブ ザ ネゲヴ リサーチ アンド デベロップメント オーソリティ | System and method for analyzing imaging data |
JP2011050621A (en) * | 2009-09-03 | 2011-03-17 | Hitachi Medical Corp | X-ray navigation apparatus |
JP2013111358A (en) * | 2011-11-30 | 2013-06-10 | Fujifilm Corp | Image processing device, method, and program |
JP2013010005A (en) * | 2012-10-01 | 2013-01-17 | Toshiba Corp | Medical image processor and medical image processing program |
KR20150128405A (en) * | 2014-05-09 | 2015-11-18 | 삼성전자주식회사 | Method, apparatus and system for providing medical image |
KR102266904B1 (en) * | 2014-05-09 | 2021-06-18 | 삼성전자주식회사 | Method, apparatus and system for providing medical image |
JP2015128669A (en) * | 2015-03-13 | 2015-07-16 | 三菱プレシジョン株式会社 | Living body data model creation method and device, living body data model data structure, living body data model data storage device, three dimensional data model load distribution method, and device |
JP2017143972A (en) * | 2016-02-16 | 2017-08-24 | 東芝メディカルシステムズ株式会社 | Medical image display device, medical image display system, and program |
JP2016165467A (en) * | 2016-03-29 | 2016-09-15 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
JP2016165468A (en) * | 2016-03-29 | 2016-09-15 | 三菱プレシジョン株式会社 | Biological data model creation method and apparatus |
JP2018175257A (en) * | 2017-04-10 | 2018-11-15 | 株式会社根本杏林堂 | Blood vessel image processing system |
JP2022191354A (en) * | 2017-05-09 | 2022-12-27 | ハートフロー, インコーポレイテッド | System and method for anatomical structure segmentation in image analysis |
JP7453309B2 (en) | 2017-05-09 | 2024-03-19 | ハートフロー, インコーポレイテッド | System and method for segmentation of anatomical structures in image analysis |
US12112483B2 (en) | 2017-05-09 | 2024-10-08 | Heartflow, Inc. | Systems and methods for anatomic structure segmentation in image analysis |
WO2021141135A1 (en) * | 2020-01-09 | 2021-07-15 | 学校法人東京女子医科大学 | Functional ischemia detection technique by coronary artery ct4d flow imaging |
JPWO2021141135A1 (en) * | 2020-01-09 | 2021-07-15 | ||
JP2023520481A (en) * | 2020-03-31 | 2023-05-17 | ▲蘇▼州▲潤▼▲邁▼▲徳▼医▲療▼科技有限公司 | METHOD, APPARATUS, ANALYSIS SYSTEM AND STORAGE MEDIUM FOR PRECISE EXTRACTION OF CENTERLINE OF VESSEL |
JP7481483B2 (en) | 2020-03-31 | 2024-05-10 | ▲蘇▼州▲潤▼▲邁▼▲徳▼医▲療▼科技有限公司 | Method, device, analysis system, and storage medium for accurately extracting the centerline of a blood vessel |
CN116363132A (en) * | 2023-06-01 | 2023-06-30 | 中南大学湘雅医院 | Method and system for ophthalmic image processing |
CN116363132B (en) * | 2023-06-01 | 2023-08-22 | 中南大学湘雅医院 | Ophthalmic image processing method and system |
CN117078698A (en) * | 2023-08-22 | 2023-11-17 | 山东第一医科大学第二附属医院 | Peripheral blood vessel image auxiliary segmentation method and system based on deep learning |
CN117078698B (en) * | 2023-08-22 | 2024-03-05 | 山东第一医科大学第二附属医院 | Peripheral blood vessel image auxiliary segmentation method and system based on deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006246941A (en) | Image processing apparatus and vessel tracking method | |
JP4388958B2 (en) | Method and system for endoscopic path planning | |
EP3659114B1 (en) | Evaluating cardiac motion using an angiography image | |
JP4822142B2 (en) | Endoscope insertion support system and endoscope insertion support method | |
JP6894896B2 (en) | X-ray image feature detection and alignment systems and methods | |
US9037215B2 (en) | Methods and apparatus for 3D route planning through hollow organs | |
CN101166470B (en) | Image display device and method for displaying image | |
JP5129480B2 (en) | System for performing three-dimensional reconstruction of tubular organ and method for operating blood vessel imaging device | |
JP4899068B2 (en) | Medical image observation support device | |
US8743118B2 (en) | Medical image display device and medical image display method | |
US5891030A (en) | System for two dimensional and three dimensional imaging of tubular structures in the human body | |
JP5263995B2 (en) | Network construction apparatus and method, and program | |
US9466117B2 (en) | Segmentation highlighter | |
CN102007515B (en) | Segmenting pulmonary arteries | |
JP2007144177A (en) | Method and apparatus for semi-automatic segmentation technique for low-contrast tubular shaped objects | |
US9619938B2 (en) | Virtual endoscopic image display apparatus, method and program | |
US9357981B2 (en) | Ultrasound diagnostic device for extracting organ contour in target ultrasound image based on manually corrected contour image in manual correction target ultrasound image, and method for same | |
JP2010528750A (en) | Inspection of tubular structures | |
JP4564233B2 (en) | Image processing apparatus, image data processing method, and program | |
JP2004313736A (en) | Apparatus, method and program for medical image processing | |
CN112669449B (en) | CAG and IVUS precise linkage analysis method and system based on 3D reconstruction technology | |
CN119454236A (en) | Airway navigation system and method based on bronchoscopic view | |
JP4503389B2 (en) | Medical image display device | |
JP2006068351A (en) | Medical image processing method, medical image processing program, and medical image processing device | |
JP4336083B2 (en) | Image diagnosis support apparatus and image diagnosis support method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100902 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110308 |