[go: up one dir, main page]

JP2007289569A - Medical image processor and medical image processing method - Google Patents

Medical image processor and medical image processing method Download PDF

Info

Publication number
JP2007289569A
JP2007289569A JP2006123445A JP2006123445A JP2007289569A JP 2007289569 A JP2007289569 A JP 2007289569A JP 2006123445 A JP2006123445 A JP 2006123445A JP 2006123445 A JP2006123445 A JP 2006123445A JP 2007289569 A JP2007289569 A JP 2007289569A
Authority
JP
Japan
Prior art keywords
image
distance information
region
interest
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006123445A
Other languages
Japanese (ja)
Other versions
JP4996128B2 (en
Inventor
Yoshikatsu Itada
吉勝 板田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2006123445A priority Critical patent/JP4996128B2/en
Publication of JP2007289569A publication Critical patent/JP2007289569A/en
Application granted granted Critical
Publication of JP4996128B2 publication Critical patent/JP4996128B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical image processor and a medical image processing method suitable for kinetics observation. <P>SOLUTION: This medical image processor includes: a first image generation part for extracting data on a region of interest from a volume data, and performing volume rendering using the extracted data on the region of interest to obtain a three-dimensional image of the region of interest seen from a predetermined line of sight direction on a two-dimensional projection plane; a distance information generating part for calculating a distance from the two-dimensional projection plane to the boundary surface of the region of interest along the direction of line of sight based on the volume data of time phase before and after in point of time, and generating distance information in every time phase; a differential value calculating part for acquiring the distance information of two time phases before and after in point of time and calculating a differential value of the respective distance information pieces; a second image generating part for generating an additional image changing in density according to the magnitude of the calculated differential value; and a composing part for composing an additional image with the three-dimensional image obtained in the first image generating part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、医用画像診断装置によって収集された医用画像データを用いて診断を行う際に、関心領域の動態観察を容易に行えるようした医用画像処理装置及び医用画像処理方法に関する。   The present invention relates to a medical image processing apparatus and a medical image processing method capable of easily observing dynamics of a region of interest when diagnosis is performed using medical image data collected by a medical image diagnostic apparatus.

従来、X線CT装置(X線コンピュータトモグラフィ装置)、MRI装置(磁気共鳴イメージング装置)、超音波診断装置等の医用画像診断装置を用いて被検体を撮影し、医用画像診断装置で作成した画像を利用して3次元的な画像を表示し、疾病等の診断を行う画像診断が多用されている。   Conventionally, a subject is imaged using a medical image diagnostic apparatus such as an X-ray CT apparatus (X-ray computer tomography apparatus), an MRI apparatus (magnetic resonance imaging apparatus), an ultrasonic diagnostic apparatus, and the like, and a medical image diagnostic apparatus is used. Image diagnosis is often used in which a three-dimensional image is displayed using an image to diagnose a disease or the like.

また被検体内部の病変部等を、体軸方向に切れ目のない連続データ(ボリュームデータ)を用いて画像を3次元表示するため、VR法(ボリュームレンダリング法)等の手法が用いられている。3次元計測で得たデータから再構成した画像はボリューム画像と言われ、各種の画像処理により、医用画像をユーザ(医師)に対してより分かりやすく提示することができる。   Also, a VR method (volume rendering method) or the like is used to display a three-dimensional image of a lesioned part or the like inside a subject using continuous data (volume data) that is continuous in the body axis direction. An image reconstructed from data obtained by three-dimensional measurement is called a volume image, and a medical image can be presented to a user (doctor) in an easy-to-understand manner by various image processing.

例えばX線撮影されたCT画像データは、ボクセルと呼ばれる画素群からなり、VR(ボリュームレンダリング)では、コンピュータ装置内で仮想の光源を設定して視線方向から1本の光線(レイ)を当て、ボクセル毎に光の吸収・反射の計算を行うことで2次元投影面に画像を生成し、オパシティ(不透明度)等を設定することで各種の画像を表示することができる。   For example, X-ray CT image data is composed of a group of pixels called voxels. In VR (volume rendering), a virtual light source is set in the computer device and a single ray (ray) is applied from the line-of-sight direction. An image is generated on the two-dimensional projection plane by calculating light absorption / reflection for each voxel, and various images can be displayed by setting an opacity (opacity) or the like.

また、SVR(Shaded Volume Rendering)は、関心のある対象の表面の閾値を選択し、ある範囲のCT値のみを抽出し、仮想の点光源から対象に光線を当てて投影し、光源からの距離に応じて輝度を設定し、対象に陰影をつけて立体的に表示するようにしている。SVR法は、動態観察に適しており、例えば心臓の壁運動の動画表示を行うことができる。   In addition, SVR (Shaded Volume Rendering) selects a threshold value of the surface of an object of interest, extracts only a certain range of CT values, projects light from a virtual point light source onto the object, and distances from the light source The brightness is set according to the display, and the object is shaded and displayed in three dimensions. The SVR method is suitable for dynamic observation, and can display a moving image of heart wall motion, for example.

ところで、SVR法は、3次元的な位置関係を把握するのに有効な表現手法であるが、関心領域の動きを把握するには横方向から観察しないと動きが分かりにくく、視野方向から見たときの動き、即ち、観察者から対象物を見たときの垂直方向の動きが把握しづらいという課題があった。   By the way, the SVR method is an effective expression method for grasping the three-dimensional positional relationship. However, in order to grasp the movement of the region of interest, it is difficult to understand the movement unless it is observed from the lateral direction. There is a problem that it is difficult to grasp the movement at the time, that is, the vertical movement when the object is viewed from the observer.

特許文献1には、対象組織の異常運動を診断可能にした3次元超音波装置について記載されており、時相毎に3次元超音波画像を形成する手段と、対象組織表面上の各部位毎に変位量を演算して変位顕在画像を形成する手段とを備えた例が示されている。この例の変位顕在画像形成手段は、時相毎の3次元超音波画像において、対象組織表面上の各部位と基準点との間の距離を演算し、距離についての時相間の変化に基いて変位量を演算するようにしており、変位顕在画像を2次元表示することで心臓部等の診断を行うものである。   Patent Document 1 describes a three-dimensional ultrasonic apparatus that can diagnose abnormal motion of a target tissue, and includes means for forming a three-dimensional ultrasonic image for each time phase, and each part on the target tissue surface. 2 shows an example provided with means for calculating a displacement amount and forming a displacement actual image. The displacement actual image forming means of this example calculates the distance between each part on the target tissue surface and the reference point in the three-dimensional ultrasonic image for each time phase, and based on the change between the time phases with respect to the distance. The amount of displacement is calculated, and the heart and the like are diagnosed by displaying the displacement actual image in two dimensions.

しかしながら、特許文献1の例では、組織表面上の変位を2次元的に表示するだけであり、対象物に動きがある場合に、時々刻々と変化する動きを表示することはできない。また、視野方向に対する動きを把握しにくいという難点があり、さらに回路構成も複雑であるという問題があった。
特開2004−195082号公報
However, in the example of Patent Document 1, the displacement on the tissue surface is only displayed two-dimensionally, and when the object is in motion, the motion that changes every moment cannot be displayed. In addition, there is a problem that it is difficult to grasp the movement in the viewing direction, and there is a problem that the circuit configuration is complicated.
JP 2004-195082 A

従来の医用画像処理装置及び特許文献1では、視野方向から対象物を見たときの動きが把握しづらいという課題があった。   In the conventional medical image processing apparatus and Patent Document 1, there is a problem that it is difficult to grasp the movement when the object is viewed from the visual field direction.

本発明は、上記事情に鑑みて成されたもので、動態観察に適した医用画像処理装置及び医用画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a medical image processing apparatus and a medical image processing method suitable for dynamic observation.

本発明の請求項1記載の医用画像処理装置は、複数のボクセルからなるボリュームデータを処理して観察対象の画像を生成する医用画像処理装置であって、前記ボリュームデータから関心領域のデータを抽出する関心領域抽出部と、前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な画像を得る第1の画像生成部と、時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面から前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を生成する距離情報生成部と、前記距離情報生成部から時間的に前後する2つの時相の前記距離情報を入手し、それぞれの距離情報の差分値を算出する差分値算出部と、前記差分値算出部によって算出した差分値の大きさに応じて濃淡が変化する付加画像を生成する第2の画像生成部と、前記第1の画像生成部で得られた3次元的な画像に前記付加画像を合成する合成処理部と、を具備したことを特徴とする。   The medical image processing apparatus according to claim 1 of the present invention is a medical image processing apparatus that processes volume data including a plurality of voxels to generate an image to be observed, and extracts data of a region of interest from the volume data. A region-of-interest extraction unit that performs volume rendering using the extracted data of the region of interest, and obtains a three-dimensional image of the region of interest viewed from a predetermined visual field direction on a two-dimensional projection plane Based on the image generation unit and temporal phase volume data around the time, the distance from the two-dimensional projection plane to the boundary surface of the region of interest along the line-of-sight direction is calculated, and for each time phase A distance information generation unit that generates distance information, and the distance information generation unit that obtains the distance information of two time phases preceding and following from the distance information generation unit and calculates a difference value of each distance information. A three-dimensional image obtained by the first image generation unit, a second image generation unit that generates an additional image whose density changes according to the magnitude of the difference value calculated by the difference value calculation unit, and the first image generation unit And a synthesis processing unit for synthesizing the additional image with a simple image.

また、本発明の請求項6記載の医用画像処理装置は、複数のボクセルからなるボリュームデータを用いて、観察対象の画像を生成する医用画像処理装置であって、前記ボリュームデータを生成する手段と、前記ボリュームデータから関心領域のデータを抽出する関心領域抽出部と、前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な画像を得る第1の画像生成部と、時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面の各ピクセルから前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を算出する距離算出部と、前記距離算出部によって算出され、時間的に先行する時相の距離情報を保存するメモリと、前記距離算出部からの距離情報と、前記メモリから読み出した距離情報からそれぞれの距離情報の差分値を算出する差分値算出部と、前記差分値算出部によって算出した差分値の大きさに応じて色の濃淡が変化する付加画像を生成する第2の画像生成部と、前記第1の画像生成部で得られた3次元的な画像に前記付加画像を合成する合成処理部と、前記合成処理した画像を表示する表示部とを具備したことを特徴とする。   The medical image processing apparatus according to claim 6 of the present invention is a medical image processing apparatus that generates an image to be observed using volume data composed of a plurality of voxels, and means for generating the volume data. A region-of-interest extracting unit that extracts region-of-interest data from the volume data, and performing the volume rendering process using the extracted region-of-interest data, and the region of interest viewed from a predetermined viewing direction on a two-dimensional projection plane A boundary of the region of interest from each pixel of the two-dimensional projection plane along the line-of-sight direction based on a first image generation unit that obtains a three-dimensional image and temporal volume data that is temporally mixed A distance calculation unit that calculates a distance to the surface and calculates distance information for each time phase; and distance information of a time phase that is calculated by the distance calculation unit and precedes in time An existing memory, distance information from the distance calculation unit, a difference value calculation unit that calculates a difference value of each distance information from the distance information read from the memory, and a difference value calculated by the difference value calculation unit A second image generation unit that generates an additional image whose color density changes according to the size; and a synthesis processing unit that combines the additional image with a three-dimensional image obtained by the first image generation unit; And a display unit for displaying the combined image.

さらに、本発明の請求項7記載の医用画像処理方法は、複数のボクセルからなるボリュームデータを処理して観察対象の画像を生成する医用画像処理方法であって、前記ボリュームデータから関心領域のデータを抽出し、前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な第1の画像を生成し、時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面から前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を生成し、前記生成された距離情報から時間的に前後する2つの時相の前記距離情報を入手し、それぞれの距離情報の差分値を算出し、前記差分値算出部によって算出した差分値の大きさに応じて濃淡が変化する第2の画像を生成し、前記第1の画像と前記第2の画像を合成することを特徴とする。   Furthermore, the medical image processing method according to claim 7 of the present invention is a medical image processing method for processing volume data composed of a plurality of voxels to generate an image to be observed, and data of a region of interest from the volume data. And performing volume rendering using the extracted region-of-interest data to generate a first three-dimensional image of the region of interest viewed from a predetermined viewing direction on a two-dimensional projection plane. Based on the volume data of the temporal phase that moves forward and backward, calculate the distance from the two-dimensional projection surface to the boundary surface of the region of interest along the line-of-sight direction, and generate distance information for each time phase, Obtaining the distance information of two time phases preceding and following from the generated distance information, calculating a difference value of each distance information, and the difference value calculated by the difference value calculation unit A second image whose density changes according to the height is generated, and the first image and the second image are synthesized.

本発明によれば、現時相と前時相の差分値を用いて動画表示することにより、視野方向から見て時系列的に変化の大きい部位を明確に表示することができ、関心領域の動態観察に適した医用画像処理装置及び医用画像処理方法を提供することができる。   According to the present invention, by displaying a moving image using a difference value between the current time phase and the previous time phase, it is possible to clearly display a portion having a large change in time series as viewed from the visual field direction, A medical image processing apparatus and a medical image processing method suitable for observation can be provided.

以下、この発明の一実施の形態について図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は本発明の医用画像処理装置の一実施形態の全体構成を示す構成図である。図1において、10は医用画像診断装置であり、例えばX線CT装置やMRI装置等で成る。X線CT装置を例に説明すると、ガントリ11を有し、このガントリ11内には回転リング12が設けられ、図示しない回転機構によって回転する。回転リング12内には、X線管13と、X線検出器14が対向して配置されており、回転リング12の中心部分は開口して、そこに寝台の天板15に載置された被検体Pが挿入される。  FIG. 1 is a block diagram showing the overall configuration of an embodiment of the medical image processing apparatus of the present invention. In FIG. 1, reference numeral 10 denotes a medical image diagnostic apparatus, which includes, for example, an X-ray CT apparatus or an MRI apparatus. The X-ray CT apparatus will be described as an example. A gantry 11 is provided. A rotating ring 12 is provided in the gantry 11 and is rotated by a rotating mechanism (not shown). An X-ray tube 13 and an X-ray detector 14 are disposed in the rotating ring 12 so as to face each other. The central portion of the rotating ring 12 is opened and placed on the couch top 15. A subject P is inserted.

被検体Pを透過したX線はX線検出器14で電気信号に変換され、データ収集部16で増幅され、デジタルデータに変換される。データ伝送装置17は、データ収集部16からのデジタルデータ(投影データ)をコンピュータシステム20へ伝送する。また、ガントリ11には、ガントリ駆動部18及びX線制御部19が設けられている。  X-rays that have passed through the subject P are converted into electrical signals by the X-ray detector 14, amplified by the data acquisition unit 16, and converted into digital data. The data transmission device 17 transmits digital data (projection data) from the data collection unit 16 to the computer system 20. The gantry 11 is provided with a gantry driving unit 18 and an X-ray control unit 19.

コンピュータシステム20は、データ伝送装置17からのデータが送られる前処理部21を有し、前処理部21では、信号強度の補正や信号欠落の補正等を行い、投影データをバスライン201上に出力する。バスライン201にはシステム制御部22、操作部23、データ保存部24、データ処理部25、表示部26等が接続されている。  The computer system 20 includes a pre-processing unit 21 to which data from the data transmission device 17 is sent. The pre-processing unit 21 corrects signal intensity, corrects signal loss, and the like, and sends projection data onto the bus line 201. Output. A system control unit 22, an operation unit 23, a data storage unit 24, a data processing unit 25, a display unit 26, and the like are connected to the bus line 201.

システム制御部22はコンピュータシステム20の各部の動作や、ガントリ駆動部18及びX線制御部19を制御するものである。データ保存部24は断層画像等のデータを記憶するものであり、データ処理部25はデータ保存部24に保存されたデータを用いてデータ処理を行い、表示部26はデータ処理によって得られた医用画像等を表示する。  The system control unit 22 controls the operation of each unit of the computer system 20 and the gantry driving unit 18 and the X-ray control unit 19. The data storage unit 24 stores data such as tomographic images, the data processing unit 25 performs data processing using the data stored in the data storage unit 24, and the display unit 26 uses the medical data obtained by the data processing. Display images and so on.

操作部23はキーボード、マウス等を有し、ユーザ(医師等)によって操作され、データ処理する上で各種の設定、例えば関心領域の設定や、視線方向の設定等を行う。また、患者の状態や検査方法等の各種情報を入力するものである。  The operation unit 23 includes a keyboard, a mouse, and the like. The operation unit 23 is operated by a user (physician or the like), and performs various settings such as a region of interest setting and a line-of-sight direction setting for data processing. In addition, various information such as a patient's condition and examination method is input.

図2は、本発明の主要部であるデータ処理部25の具体構成を示すブロック図である。図2において、31はデータ入力部であり、X線CT装置、MRI装置、超音波診断装置等で取得した医用画像データを入力するものである。例えば図1のデータ保存部24に保存された医用画像データが順次入力される。   FIG. 2 is a block diagram showing a specific configuration of the data processing unit 25 which is a main part of the present invention. In FIG. 2, 31 is a data input unit for inputting medical image data acquired by an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus or the like. For example, medical image data stored in the data storage unit 24 of FIG. 1 is sequentially input.

データ入力部31から入力された医用画像データは、ボリュームデータ生成部32に供給される。ボリュームデータ生成部32では、同じ時相の医用画像データを処理して、スライス位置や画像の向きの情報をもとにボリュームデータ(3次元データ)を生成する。   The medical image data input from the data input unit 31 is supplied to the volume data generation unit 32. The volume data generation unit 32 processes medical image data of the same time phase, and generates volume data (three-dimensional data) based on information on slice positions and image orientations.

ボリュームデータ生成部32からのボリュームデータは、関心領域抽出部33に供給される。関心領域抽出部33には、関心領域設定部34が結合しており、関心領域設定部34では、ユーザが操作部23を操作することで関心領域を指定することができる。関心領域抽出部33では、ボリュームデータからユーザが指定した関心領域のデータを抽出する。   Volume data from the volume data generation unit 32 is supplied to the region of interest extraction unit 33. A region of interest setting unit 34 is coupled to the region of interest extracting unit 33, and the region of interest setting unit 34 allows the user to designate a region of interest by operating the operation unit 23. The region of interest extraction unit 33 extracts the region of interest data designated by the user from the volume data.

関心領域抽出部33で抽出されたボリュームデータは、距離情報生成部35及びボリュームレンダリング画像生成部36(以下、VR画像生成部36と称す)に供給される。距離情報生成部35及びVR画像生成部36には、視線方向設定部37が結合しており、ユーザが操作部23を操作することで視線方向を設定することができる。視線方向設定部37は、例えばユーザがマウスを操作することで、3次元の関心領域に対する視線方向を設定することができる。   The volume data extracted by the region of interest extraction unit 33 is supplied to a distance information generation unit 35 and a volume rendering image generation unit 36 (hereinafter referred to as a VR image generation unit 36). A line-of-sight direction setting unit 37 is coupled to the distance information generation unit 35 and the VR image generation unit 36, and the user can set the line-of-sight direction by operating the operation unit 23. The line-of-sight direction setting unit 37 can set the line-of-sight direction with respect to the three-dimensional region of interest, for example, when the user operates the mouse.

3次元データから2次元投影面(スクリーン)に立体感のある画像を作り出すために、一般的にボリュームレンダリング処理が行われ、VR画像生成部36では、例えばレイキャスティング法によってボリュームレンダリング画像を生成する。   In order to create an image with a three-dimensional effect on the two-dimensional projection plane (screen) from the three-dimensional data, a volume rendering process is generally performed, and the VR image generation unit 36 generates a volume rendering image by, for example, a ray casting method. .

一方、距離情報生成部35は、視線方向設定部37で設定された視線方向から見た関心領域の境界面までの距離をスクリーンのピクセル毎に算出するもので、距離算出部38と、距離算出部38で計算した距離情報を一時的に保存するメモリ39を有する。   On the other hand, the distance information generation unit 35 calculates the distance from the line-of-sight direction set by the line-of-sight direction setting unit 37 to the boundary surface of the region of interest viewed from each pixel of the screen. The memory 39 temporarily stores the distance information calculated by the unit 38.

さらに、距離算出部38からの距離情報とメモリ39に保存された距離情報は、差分値算出部40に供給され、それぞれの距離情報の差分値を抽出する。差分値算出部40では、スクリーン上の各画像における、1つ前の時相における距離情報をメモリ39から読み出し、距離算出部38からの現時相の距離情報との差分値を算出する。また、1つ前だけでなく複数の時相前の距離情報を利用しても良い。   Further, the distance information from the distance calculation unit 38 and the distance information stored in the memory 39 are supplied to the difference value calculation unit 40, and the difference value of each distance information is extracted. The difference value calculation unit 40 reads the distance information in the previous time phase in each image on the screen from the memory 39 and calculates the difference value with the distance information in the current time phase from the distance calculation unit 38. Further, not only the previous one but also a plurality of distance information before the time phase may be used.

差分値算出部40の出力は付加画像生成部41に供給される。付加画像生成部41は差分値の大きさに応じて濃淡が変化する付加画像を生成する。付加画像生成部41には、カラーマップ設定部42が結合しており、ユーザが操作部23を操作することで任意の色で付加画像を表示するように設定できる。   The output of the difference value calculation unit 40 is supplied to the additional image generation unit 41. The additional image generation unit 41 generates an additional image whose density changes according to the difference value. A color map setting unit 42 is coupled to the additional image generating unit 41, and the user can set the additional image to be displayed in an arbitrary color by operating the operation unit 23.

付加画像生成部41の出力とVR画像生成部36の出力は、合成処理部43に供給され、合成処理部43では、VR画像(第1の画像)に、ユーザがカラーマップ設定部42により設定した色調で付加画像(第2の画像)を上書きして合成し、表示部26に表示する。   The output of the additional image generation unit 41 and the output of the VR image generation unit 36 are supplied to the synthesis processing unit 43, where the user sets the VR image (first image) by the color map setting unit 42. The additional image (second image) is overwritten with the color tone thus synthesized and displayed on the display unit 26.

次に図2のデータ処理部25の動作について、図3、図4を参照して説明する。   Next, the operation of the data processing unit 25 in FIG. 2 will be described with reference to FIGS.

図2において、データ入力部31から入力された医用画像データは、ボリュームデータ生成部32に供給され、3次元データの集まりであるボリュームデータが生成される。   In FIG. 2, the medical image data input from the data input unit 31 is supplied to the volume data generation unit 32, and volume data that is a collection of three-dimensional data is generated.

このボリュームデータは、関心領域抽出部33に供給され、関心領域設定部34によって設定された関心領域のボリュームデータを抽出する。関心領域抽出部33で抽出されたボリュームデータは、距離情報生成部35及びVR画像生成部36に供給される。   This volume data is supplied to the region of interest extraction unit 33, and volume data of the region of interest set by the region of interest setting unit 34 is extracted. The volume data extracted by the region of interest extraction unit 33 is supplied to the distance information generation unit 35 and the VR image generation unit 36.

VR画像生成部36では、例えばコンピュータ装置内で仮想の点光源を設定して、視線方向から1本の光線(レイ)をボクセルに当ててレイキャスティングを行い、ボクセル毎に反射光を演算することで2次元投影面(スクリーン)に3次元的な画像(ボリュームレンダリング画像)を生成する。また、オパシティ(不透明度)等を設定することで関心領域(例えば心臓部)のボリュームレンダリング画像を生成する。   In the VR image generation unit 36, for example, a virtual point light source is set in the computer device, and one ray (ray) is applied to the voxel from the viewing direction to perform ray casting, and the reflected light is calculated for each voxel. Thus, a three-dimensional image (volume rendering image) is generated on the two-dimensional projection surface (screen). In addition, a volume rendering image of a region of interest (for example, the heart) is generated by setting an opacity (opacity) or the like.

また、VR画像生成部36では、仮想の点光源から対象に光線を当てて投影し、光源からの距離に応じて輝度を設定し、対象に陰影をつけて立体的なSVR(Shaded Volume Rendering)画像を生成する。さらにVR画像生成部36は、視線方向設定部37で設定された任意の視線方向から見たときのボリュームレンダリング画像を生成する。   The VR image generation unit 36 projects light from a virtual point light source onto a target, sets brightness according to the distance from the light source, and shades the target to form a three-dimensional SVR (Shaded Volume Rendering). Generate an image. Further, the VR image generation unit 36 generates a volume rendering image when viewed from an arbitrary line-of-sight direction set by the line-of-sight direction setting unit 37.

尚、VR画像生成部36は、レイキャスティング法に限らず、レイトレーシング法により、任意の視点からボクセル追跡を行い、ボクセルにおける明るさを求め、この明るさに基く画像情報を投影面に投影するようにしても良い。   The VR image generation unit 36 performs voxel tracking from an arbitrary viewpoint by the ray tracing method as well as the ray casting method, obtains the brightness in the voxel, and projects image information based on the brightness on the projection plane. You may do it.

図3は距離情報生成部35と差分値算出部40の動作を説明する説明図である。図3は、関心領域の現時相の画像(b)と、1つ前の時相の画像(a)を説明するもので、視線方向をAで示し、スクリーンをBで示し、関心領域の対象物(オブジェクト)をCで示している。   FIG. 3 is an explanatory diagram for explaining the operations of the distance information generation unit 35 and the difference value calculation unit 40. FIG. 3 illustrates an image (b) of the current time phase of the region of interest and an image (a) of the previous time phase, the line-of-sight direction is indicated by A, the screen is indicated by B, and the object of the region of interest An object (object) is indicated by C.

上述したようにVR画像生成部36では、コンピュータ装置内で仮想の光源を設定して、視線方向(矢印A)から1本の光線(レイ)をボクセルに当ててレイキャスティングを行い、スクリーンBにオブジェクトC(例えば心臓部)の画像を生成するが、距離算出部38は、スクリーンBからオブジェクトCの境界面までの距離をスクリーンBのピクセル(画素)毎に求め、それぞれの距離データを差分値算出部40に供給する。   As described above, the VR image generation unit 36 sets a virtual light source in the computer device, applies a ray (ray) from the line-of-sight direction (arrow A) to the voxel, and performs ray casting. An image of the object C (for example, the heart) is generated. The distance calculation unit 38 obtains the distance from the screen B to the boundary surface of the object C for each pixel of the screen B, and calculates each distance data as a difference value. It supplies to the calculation part 40.

オブジェクトCの境界面とは、スクリーンBから見てレイが最初に当たる面を意味し、1つ前の時相(時刻T−1)の距離情報を(Dt−1)とし、現時相(時刻T)の距離情報を(Dt)とする。距離算出部38で算出したそれぞれの時相での距離情報は、一時的にメモリ39に保存される。   The boundary surface of the object C means a surface on which a ray first hits when viewed from the screen B. The distance information of the previous time phase (time T-1) is (Dt-1), and the current time phase (time T ) Is (Dt). The distance information in each time phase calculated by the distance calculation unit 38 is temporarily stored in the memory 39.

差分値算出部40では、スクリーンB上の各画像における、1つ前の時相の距離情報(Dt−1)をメモリ39から読み出し、距離算出部38からの現時相の距離情報(Dt)との差分値を計算する。この各時相の差分値を時間差分値Sとする。   The difference value calculation unit 40 reads the previous time phase distance information (Dt−1) in each image on the screen B from the memory 39, and the current time phase distance information (Dt) from the distance calculation unit 38. The difference value of is calculated. The difference value of each time phase is defined as a time difference value S.

また、1つ前だけでなく複数の時相前の距離データを利用しても良い。即ち、時間的に前後する同一領域の2つの時相の画像から、距離情報の差分を求めることで、ピクセル毎に視線方向に沿った変化量を算出することができる。   Further, not only the previous one but also a plurality of distance data before the time phase may be used. That is, the amount of change along the line-of-sight direction can be calculated for each pixel by obtaining the difference in distance information from two time-phase images of the same region that are temporally changed.

差分値算出部40からの時間差分値Sは、付加画像生成部41に供給され、カラーマップ設定部42によって設定されたカラーデータに変換され、任意の色で付加画像を生成する。例えば時間差分値Sが大きいピクセルは濃い色で表現した画像を生成し、時間差分値Sが小さいピクセルは淡い色で表現した画像を生成し、差分値がない(変化のない)ピクセルについては何もない画像を生成する。   The time difference value S from the difference value calculation unit 40 is supplied to the additional image generation unit 41, converted into color data set by the color map setting unit 42, and an additional image is generated with an arbitrary color. For example, a pixel with a large time difference value S generates an image expressed in a dark color, a pixel with a small time difference value S generates an image expressed in a light color, and what about a pixel with no difference value (no change)? No image is generated.

付加画像生成部41の出力は、合成処理部43に供給される。合成処理部43では、VR画像生成部36で生成したSVR画像上に、ユーザがカラーマップ設定部42により設定した色調で付加画像を上書きして合成し、表示部26に表示する。図4は、SVR画像に時間差分値Sに基く付加画像S1,S2がマッピングされた例を示している。   The output of the additional image generation unit 41 is supplied to the synthesis processing unit 43. In the composition processing unit 43, the additional image is overwritten with the color tone set by the user using the color map setting unit 42 on the SVR image generated by the VR image generation unit 36 and displayed on the display unit 26. FIG. 4 shows an example in which the additional images S1 and S2 based on the time difference value S are mapped to the SVR image.

合成処理部43には、順次にSVR画像が送られ、かつ時相の異なる画像から生成した付加画像が送られてくるため、立体画像上に時間的に変化する付加画像がマッピングされた4D画像が得られ、表示部26には医用画像を4Dで表示することができる。また、表示画像は視線方向設定部37により、任意の視線方向から見た画像を表示することができる。   Since the SVR image is sequentially sent to the composition processing unit 43 and the additional image generated from the images having different time phases is transmitted, the 4D image in which the additional image that changes with time is mapped onto the stereoscopic image. And a medical image can be displayed in 4D on the display unit 26. The display image can be displayed by the line-of-sight direction setting unit 37 as viewed from an arbitrary line-of-sight direction.

図4は、視線方向(紙面に垂直の方向)から見たオブジェクトCの画像を示しており、付加画像S1,S2がオブジェクトCの色と異なる色でマッピング表示された例である。図4の凡例Eに示すように、差分値が大きいピクセルは濃い色で表示され、差分値が小さいピクセルは淡い色で表示される。   FIG. 4 shows an image of the object C viewed from the line-of-sight direction (perpendicular to the paper surface), and is an example in which the additional images S1 and S2 are mapped and displayed in a color different from the color of the object C. As shown in the legend E in FIG. 4, pixels with a large difference value are displayed in a dark color, and pixels with a small difference value are displayed in a light color.

この図から分かるように、異なる時相の2つの画像の距離情報に差がある場合、その差分は視線方向の動きとして表示されるため、心臓等の動きのある部分を観察する際は、視線方向から見た動きを的確に把握することができる。また、視線方向から見たときの動きの大きい部分と小さい部分を色の濃淡で表示できるため、動態観察を行う上でより一層適している。   As can be seen from this figure, when there is a difference in the distance information of two images at different time phases, the difference is displayed as a movement in the line of sight direction. The movement seen from the direction can be accurately grasped. In addition, since a portion with a large movement and a small portion when viewed from the line-of-sight direction can be displayed with color shading, it is more suitable for performing dynamic observation.

このように本発明によれば、現時相と前時相の差分値を用いて動画表示することにより、視野方向から見て時系列的に変化の大きい部位を明確に表示することができ、関心領域の動態観察に適した医用画像処理装置、医用画像処理方法を提供することができる。また回路構成も複雑な構成を必要とせず、簡単な構成で実現することができる。   As described above, according to the present invention, by displaying a moving image using the difference value between the current time phase and the previous time phase, it is possible to clearly display a portion having a large time-series change as viewed from the viewing direction. A medical image processing apparatus and a medical image processing method suitable for region dynamic observation can be provided. Also, the circuit configuration does not require a complicated configuration and can be realized with a simple configuration.

尚、医用画像診断装置としてX線CT装置を例に説明したがMRIや超音波診断装置等を利用することも可能であり、特許請求の範囲を逸脱しない範囲内で種々の変形が可能である。   Although an X-ray CT apparatus has been described as an example of a medical image diagnostic apparatus, it is possible to use an MRI, an ultrasonic diagnostic apparatus, or the like, and various modifications can be made without departing from the scope of the claims. .

本発明の医用画像処理装置の一実施形態の構成を示すブロック図。1 is a block diagram showing a configuration of an embodiment of a medical image processing apparatus of the present invention. 同実施形態におけるデータ処理部の構成を示すブロック図。The block diagram which shows the structure of the data processing part in the embodiment. 同実施形態におけるデータ処理部の動作を説明する動作説明図。Operation | movement explanatory drawing explaining operation | movement of the data processing part in the embodiment. 同実施形態における医用画像の表示例を示す説明図。Explanatory drawing which shows the example of a display of the medical image in the embodiment.

符号の説明Explanation of symbols

10…医用画像診断装置(X線CT装置)
20…コンピュータシステム
21…前処理部
22…システムコントローラ
23…操作部
24…データ保存部
25…データ処理部
26…表示部
31…データ入力部
32…ボリュームデータ生成部
33…関心領域抽出部
34…関心領域設定部
35…距離情報生成部
36…VR画像生成部
37…視線方向設定部
38…距離算出部
39…メモリ
40…差分値算出部
41…付加画像生成部
42…カラーマップ設定部
43…合成処理部
10. Medical diagnostic imaging equipment (X-ray CT equipment)
DESCRIPTION OF SYMBOLS 20 ... Computer system 21 ... Pre-processing part 22 ... System controller 23 ... Operation part 24 ... Data storage part 25 ... Data processing part 26 ... Display part 31 ... Data input part 32 ... Volume data generation part 33 ... Region of interest extraction part 34 ... Region-of-interest setting unit 35 ... distance information generating unit 36 ... VR image generating unit 37 ... gaze direction setting unit 38 ... distance calculating unit 39 ... memory 40 ... difference value calculating unit 41 ... additional image generating unit 42 ... color map setting unit 43 ... Compositing processor

Claims (7)

複数のボクセルからなるボリュームデータを処理して観察対象の画像を生成する医用画像処理装置であって、
前記ボリュームデータから関心領域のデータを抽出する関心領域抽出部と、
前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な画像を得る第1の画像生成部と、
時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面から前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を生成する距離情報生成部と、
前記距離情報生成部から時間的に前後する2つの時相の前記距離情報を入手し、それぞれの距離情報の差分値を算出する差分値算出部と、
前記差分値算出部によって算出した差分値の大きさに応じて濃淡が変化する付加画像を生成する第2の画像生成部と、
前記第1の画像生成部で得られた3次元的な画像に前記付加画像を合成する合成処理部と、を具備したことを特徴とする医用画像処理装置。
A medical image processing apparatus that processes volume data composed of a plurality of voxels to generate an image to be observed,
A region of interest extraction unit for extracting data of a region of interest from the volume data;
A first image generating unit that performs volume rendering using the extracted region-of-interest data and obtains a three-dimensional image of the region of interest viewed from a predetermined viewing direction on a two-dimensional projection plane;
Based on volume data of temporal phases that move around in time, the distance from the two-dimensional projection plane to the boundary surface of the region of interest is calculated along the line-of-sight direction, and distance information is generated for each temporal phase A distance information generator;
A difference value calculation unit that obtains the distance information of two time phases preceding and following in time from the distance information generation unit, and calculates a difference value of each distance information;
A second image generation unit that generates an additional image whose density changes according to the magnitude of the difference value calculated by the difference value calculation unit;
A medical image processing apparatus comprising: a synthesis processing unit that synthesizes the additional image with a three-dimensional image obtained by the first image generation unit.
前記距離情報生成部は、前記2次元投影面から前記関心領域の境界面までの距離を、前記2次元投影面のピクセル毎に算出する距離算出部と、時間的に先行する時相の距離情報を保存するメモリとを含み、
前記差分値算出部は、前記距離算出部からの距離情報と、前記メモリから読み出した距離情報との差を算出することを特徴とする請求項1記載の医用画像処理装置。
The distance information generation unit includes a distance calculation unit that calculates a distance from the two-dimensional projection plane to the boundary surface of the region of interest for each pixel of the two-dimensional projection plane, and temporal distance information that precedes in time. And a memory for storing
The medical image processing apparatus according to claim 1, wherein the difference value calculation unit calculates a difference between distance information from the distance calculation unit and distance information read from the memory.
前記第1の画像生成部、及び前記距離情報生成部における前記視線方向を設定するため、ユーザ操作が可能な視線方向設定部を有することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, further comprising: a gaze direction setting unit that can be operated by a user in order to set the gaze direction in the first image generation unit and the distance information generation unit. 前記第2の画像生成部は、前記差分値算出部によって算出した差分値の大きさに応じて色の濃淡が変化する付加画像を生成することを特徴とする請求項1記載の医用画像処理装置。   2. The medical image processing apparatus according to claim 1, wherein the second image generation unit generates an additional image whose color shade changes according to the magnitude of the difference value calculated by the difference value calculation unit. . 前記色の濃淡を設定するため、ユーザ操作が可能なカラーマップ設定部を有することを特徴とする請求項4記載の医用画像処理装置。   The medical image processing apparatus according to claim 4, further comprising a color map setting unit that can be operated by a user in order to set the shade of the color. 複数のボクセルからなるボリュームデータを用いて、観察対象の画像を生成する医用画像処理装置であって、
前記ボリュームデータを生成する手段と、
前記ボリュームデータから関心領域のデータを抽出する関心領域抽出部と、
前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な画像を得る第1の画像生成部と、
時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面の各ピクセルから前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を算出する距離算出部と、
前記距離算出部によって算出され、時間的に先行する時相の距離情報を保存するメモリと、
前記距離算出部からの距離情報と、前記メモリから読み出した距離情報からそれぞれの距離情報の差分値を算出する差分値算出部と、
前記差分値算出部によって算出した差分値の大きさに応じて色の濃淡が変化する付加画像を生成する第2の画像生成部と、
前記第1の画像生成部で得られた3次元的な画像に前記付加画像を合成する合成処理部と、
前記合成処理した画像を表示する表示部と、を具備したことを特徴とする医用画像処理装置。
A medical image processing apparatus that generates an image to be observed using volume data composed of a plurality of voxels,
Means for generating the volume data;
A region of interest extraction unit for extracting data of a region of interest from the volume data;
A first image generating unit that performs volume rendering using the extracted region-of-interest data and obtains a three-dimensional image of the region of interest viewed from a predetermined viewing direction on a two-dimensional projection plane;
Based on time phase volume data that moves around in time, the distance from each pixel of the two-dimensional projection plane to the boundary surface of the region of interest is calculated along the line-of-sight direction, and distance information for each time phase A distance calculation unit for calculating
A memory that is calculated by the distance calculation unit and stores distance information of a temporal phase preceding in time;
A difference value calculation unit that calculates a difference value of each distance information from the distance information from the distance calculation unit and the distance information read from the memory;
A second image generation unit that generates an additional image in which the color density changes according to the magnitude of the difference value calculated by the difference value calculation unit;
A synthesis processing unit that synthesizes the additional image with the three-dimensional image obtained by the first image generation unit;
A medical image processing apparatus comprising: a display unit configured to display the combined image.
複数のボクセルからなるボリュームデータを処理して観察対象の画像を生成する医用画像処理方法であって、
前記ボリュームデータから関心領域のデータを抽出し、
前記抽出された関心領域のデータを用いてボリュームレンダリング処理を行い、2次元投影面に所定の視野方向から見た前記関心領域の3次元的な第1の画像を生成し、
時間的に前後する時相のボリュームデータを基に、前記視線方向に沿って前記2次元投影面から前記関心領域の境界面までの距離を算出し、それぞれの時相毎に距離情報を生成し、
前記生成された距離情報から時間的に前後する2つの時相の前記距離情報を入手し、それぞれの距離情報の差分値を算出し、
前記差分値算出部によって算出した差分値の大きさに応じて濃淡が変化する第2の画像を生成し、
前記第1の画像と前記第2の画像を合成することを特徴とする医用画像処理方法。
A medical image processing method for processing volume data composed of a plurality of voxels to generate an image to be observed,
Extracting data of the region of interest from the volume data;
Performing volume rendering using the extracted data of the region of interest, and generating a three-dimensional first image of the region of interest viewed from a predetermined viewing direction on a two-dimensional projection plane;
Based on the temporal volume data before and after, calculate the distance from the two-dimensional projection plane to the boundary surface of the region of interest along the line-of-sight direction, and generate distance information for each temporal phase ,
Obtain the distance information of the two time phases that come back and forth in time from the generated distance information, calculate the difference value of each distance information,
Generating a second image whose density changes according to the magnitude of the difference value calculated by the difference value calculation unit;
A medical image processing method comprising combining the first image and the second image.
JP2006123445A 2006-04-27 2006-04-27 Medical image processing apparatus and medical image processing method Expired - Fee Related JP4996128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006123445A JP4996128B2 (en) 2006-04-27 2006-04-27 Medical image processing apparatus and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006123445A JP4996128B2 (en) 2006-04-27 2006-04-27 Medical image processing apparatus and medical image processing method

Publications (2)

Publication Number Publication Date
JP2007289569A true JP2007289569A (en) 2007-11-08
JP4996128B2 JP4996128B2 (en) 2012-08-08

Family

ID=38760778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006123445A Expired - Fee Related JP4996128B2 (en) 2006-04-27 2006-04-27 Medical image processing apparatus and medical image processing method

Country Status (1)

Country Link
JP (1) JP4996128B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188118A (en) * 2009-01-20 2010-09-02 Toshiba Corp Ultrasound diagnosis apparatus, ultrasound image processing apparatus, image processing method, and image display method
JP2010240409A (en) * 2009-03-31 2010-10-28 General Electric Co <Ge> Method and system for displaying quantitative segmental data in 4d rendering
JP2012075645A (en) * 2010-09-30 2012-04-19 Toshiba Corp Medical image diagnostic apparatus and control program of medical image diagnostic apparatus
WO2013150911A1 (en) * 2012-04-04 2013-10-10 コニカミノルタ株式会社 Image generation device and program
JP2015226692A (en) * 2014-06-02 2015-12-17 株式会社東芝 Medical image processor, medical image processing method and program
JP2016193196A (en) * 2015-04-01 2016-11-17 株式会社東芝 Medical image processor
US9990703B2 (en) 2014-01-09 2018-06-05 Fujitsu Limited Visualization method and apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08126634A (en) * 1994-10-30 1996-05-21 Medeitetsukusu:Kk Image display of three-dimensional (stereoscopic) or four-dimensional (three dimensions having time axis) data in stereoscopic imaging centering around blood vessel angiography utilizing x-rays
JPH09180001A (en) * 1995-12-25 1997-07-11 Hitachi Ltd How to display 3D dynamic data
JP2002306483A (en) * 2001-04-18 2002-10-22 Toshiba Corp Medical diagnosis image processing equipment and method thereof
JP2004141612A (en) * 2002-08-30 2004-05-20 Hitachi Medical Corp Method and apparatus for image processing
JP2004195082A (en) * 2002-12-20 2004-07-15 Aloka Co Ltd Ultrasonic diagnostic apparatus
WO2005006978A1 (en) * 2003-07-17 2005-01-27 Hitachi Medical Corporation Hardness distribution image acquisition method using magnetic resonance imaging device and magnetic resonance imaging device
JP2005342366A (en) * 2004-06-07 2005-12-15 Ge Medical Systems Global Technology Co Llc Hardness measuring apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08126634A (en) * 1994-10-30 1996-05-21 Medeitetsukusu:Kk Image display of three-dimensional (stereoscopic) or four-dimensional (three dimensions having time axis) data in stereoscopic imaging centering around blood vessel angiography utilizing x-rays
JPH09180001A (en) * 1995-12-25 1997-07-11 Hitachi Ltd How to display 3D dynamic data
JP2002306483A (en) * 2001-04-18 2002-10-22 Toshiba Corp Medical diagnosis image processing equipment and method thereof
JP2004141612A (en) * 2002-08-30 2004-05-20 Hitachi Medical Corp Method and apparatus for image processing
JP2004195082A (en) * 2002-12-20 2004-07-15 Aloka Co Ltd Ultrasonic diagnostic apparatus
WO2005006978A1 (en) * 2003-07-17 2005-01-27 Hitachi Medical Corporation Hardness distribution image acquisition method using magnetic resonance imaging device and magnetic resonance imaging device
JP2005342366A (en) * 2004-06-07 2005-12-15 Ge Medical Systems Global Technology Co Llc Hardness measuring apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010188118A (en) * 2009-01-20 2010-09-02 Toshiba Corp Ultrasound diagnosis apparatus, ultrasound image processing apparatus, image processing method, and image display method
US9072470B2 (en) 2009-01-20 2015-07-07 Kabushiki Kaisha Toshiba Ultrasound diagnosis apparatus, ultrasound image processing apparatus, image processing method, image display method, and computer program product
JP2010240409A (en) * 2009-03-31 2010-10-28 General Electric Co <Ge> Method and system for displaying quantitative segmental data in 4d rendering
JP2012075645A (en) * 2010-09-30 2012-04-19 Toshiba Corp Medical image diagnostic apparatus and control program of medical image diagnostic apparatus
WO2013150911A1 (en) * 2012-04-04 2013-10-10 コニカミノルタ株式会社 Image generation device and program
JP5408400B1 (en) * 2012-04-04 2014-02-05 コニカミノルタ株式会社 Image generating apparatus and program
CN104363833A (en) * 2012-04-04 2015-02-18 柯尼卡美能达株式会社 Image generation device and program
US9990735B2 (en) 2012-04-04 2018-06-05 Konica Minolta, Inc. Image generation device that acquires images based on a periodic variation of an anatomical structure
US9990703B2 (en) 2014-01-09 2018-06-05 Fujitsu Limited Visualization method and apparatus
JP2015226692A (en) * 2014-06-02 2015-12-17 株式会社東芝 Medical image processor, medical image processing method and program
JP2016193196A (en) * 2015-04-01 2016-11-17 株式会社東芝 Medical image processor

Also Published As

Publication number Publication date
JP4996128B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP5551957B2 (en) Projection image generation apparatus, operation method thereof, and projection image generation program
JP6242569B2 (en) Medical image display apparatus and X-ray diagnostic apparatus
US8090174B2 (en) Virtual penetrating mirror device for visualizing virtual objects in angiographic applications
US8007437B2 (en) Method and apparatus for interactive 4-dimensional (4D) virtual endoscopy
JP4709177B2 (en) Three-dimensional image processing apparatus and method, and program
CN101243472B (en) Selectivity merges 2Dx ray image and the system and method for 3D ultrasonoscopy
CN1864633B (en) Method for expanding the display of a volume image of an object region
US9361726B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and methods therefor
JP5405045B2 (en) X-ray imaging apparatus and image processing apparatus
US8755565B2 (en) X-ray CT apparatus and image display method of X-ray CT apparatus
US10537293B2 (en) X-ray CT system, image display device, and image display method
RU2009118382A (en) VISUALIZATION OF THREE-DIMENSIONAL IMAGES IN COMBINATION WITH TWO-DIMENSIONAL PROJECTION IMAGES
JP4996128B2 (en) Medical image processing apparatus and medical image processing method
JP2009034494A (en) X-ray radiographic apparatus, image processing device, and image processing program
JP5214876B2 (en) 3D image processing apparatus and medical image diagnostic apparatus
JP2009006086A (en) Image processing method, image processing program, and image processing apparatus
JP2008035895A (en) Image processing method and image processing program
JP5075399B2 (en) Medical image display device and medical image diagnostic device
JP5305635B2 (en) Medical image display device
JP5498185B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image display program
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
JP5624350B2 (en) Medical image processing device
JP4709603B2 (en) Medical image processing device
US20230045275A1 (en) Methods and system for guided device insertion during medical imaging
JP2006239253A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees