[go: up one dir, main page]

JP5901930B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5901930B2
JP5901930B2 JP2011224207A JP2011224207A JP5901930B2 JP 5901930 B2 JP5901930 B2 JP 5901930B2 JP 2011224207 A JP2011224207 A JP 2011224207A JP 2011224207 A JP2011224207 A JP 2011224207A JP 5901930 B2 JP5901930 B2 JP 5901930B2
Authority
JP
Japan
Prior art keywords
image
developed image
curved surface
developed
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011224207A
Other languages
Japanese (ja)
Other versions
JP2013081660A (en
Inventor
和正 荒木田
和正 荒木田
ファングリ・ジョン
平岡 学
学 平岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011224207A priority Critical patent/JP5901930B2/en
Publication of JP2013081660A publication Critical patent/JP2013081660A/en
Application granted granted Critical
Publication of JP5901930B2 publication Critical patent/JP5901930B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明の実施形態は、画像処理装置に関する。   Embodiments described herein relate generally to an image processing apparatus.

心筋解析のため、X線コンピュータ断層撮影装置や磁気共鳴イメージング装置等の高分解能の画像診断装置により心臓全体をスキャンすることが可能となっている。心筋の解析結果を表示するために、画像診断装置により発生されたボリュームデータに基づいてポーラーマップやMPR(Multi Planar Reconstruction)画像を発生している。ポーラーマップは、心筋領域の心軸回りの基準点からの回転角度と心軸上の基準点からの距離とにより規定される2次元の極座標系で画素値の空間分布を示す画像である。従って、ポーラーマップは、心筋全体を観察するのに適している。しかし、ポーラーマップ上の位置と実際の心筋の位置との対応を把握しづらい。MPR画像は、心筋領域に設定された一断面内の画素値の空間分布を示している。従って、MPR画像上の位置と実際の心筋の位置との対応を把握しやすい。しかし、MPR画像により心筋全体を観察することは困難である。   For myocardial analysis, it is possible to scan the entire heart with a high-resolution image diagnostic apparatus such as an X-ray computed tomography apparatus or a magnetic resonance imaging apparatus. In order to display the analysis result of the myocardium, a polar map and an MPR (Multi Planar Reconstruction) image are generated based on the volume data generated by the image diagnostic apparatus. The polar map is an image showing a spatial distribution of pixel values in a two-dimensional polar coordinate system defined by a rotation angle from a reference point around the axis of the myocardial region and a distance from the reference point on the axis. Therefore, the polar map is suitable for observing the entire myocardium. However, it is difficult to grasp the correspondence between the position on the polar map and the actual myocardial position. The MPR image shows a spatial distribution of pixel values in one cross section set in the myocardial region. Therefore, it is easy to grasp the correspondence between the position on the MPR image and the actual myocardial position. However, it is difficult to observe the entire myocardium with an MPR image.

目的は、心筋の画像診断能の向上を可能とする画像処理装置を提供することにある。   An object of the present invention is to provide an image processing apparatus capable of improving myocardial image diagnostic ability.

本実施形態に係る画像処理装置は、心臓に関するボリュームデータを記憶する記憶部と、前記ボリュームデータから心筋領域を抽出する抽出部と、前記抽出された心筋領域のうちの外壁から内壁までの間の所定位置に、表示のための曲面を設定する設定部と、前記曲面における画素値の空間分布を2次元の直交座標系で表現する展開画像のデータを前記ボリュームデータに基づいて発生する展開画像発生部と、前記心筋領域の模式画像を前記発生された展開画像とともに表示する表示部と、を具備する。

An image processing apparatus according to the present embodiment includes a storage unit that stores volume data relating to the heart, an extraction unit that extracts a myocardial region from the volume data, and an outer wall to an inner wall of the extracted myocardial region. A setting unit for setting a curved surface for display at a predetermined position, and a developed image generation for generating developed image data representing a spatial distribution of pixel values on the curved surface in a two-dimensional orthogonal coordinate system based on the volume data And a display unit for displaying a schematic image of the myocardial region together with the generated developed image.

本実施形態に係る画像処理装置の構成を示す図。1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment. 図1の制御部の制御により実行される画像処理の典型的な流れを示す図。The figure which shows the typical flow of the image process performed by control of the control part of FIG. 図2のステップS2において抽出される心筋領域の模式図。The schematic diagram of the myocardial area extracted in step S2 of FIG. 図2のステップS4において曲面設定部により行われる正規化処理を説明するための図。The figure for demonstrating the normalization process performed by the curved surface setting part in step S4 of FIG. 図2のステップS7において展開画像発生部により行われる展開画像発生処理の概念を示す図。The figure which shows the concept of the expansion | deployment image generation process performed by the expansion | deployment image generation part in step S7 of FIG. 図2のステップS7において展開画像発生部により行われる展開画像発生処理の詳細を示す図。The figure which shows the detail of the expansion | deployment image generation process performed by the expansion | deployment image generation part in step S7 of FIG. 図2のステップS8において表示部による展開画像の表示例を示す図。The figure which shows the example of a display of the expansion | deployment image by a display part in step S8 of FIG. 図2のステップS8において表示部による展開画像の他の表示例を示す図。The figure which shows the other example of a display of the expansion | deployment image by a display part in step S8 of FIG. 図2のステップS8において表示部による展開画像の他の表示例を示す図。The figure which shows the other example of a display of the expansion | deployment image by a display part in step S8 of FIG. 図2のステップS8において表示部による展開画像の他の表示例を示す図。The figure which shows the other example of a display of the expansion | deployment image by a display part in step S8 of FIG. 図2のステップS7において展開画像発生部により行われる他の展開画像発生処理の詳細を示す図。The figure which shows the detail of the other expansion | deployment image generation processing performed by the expansion | deployment image generation part in step S7 of FIG. 図1のガイド画像発生部により発生されるガイド画像の表示例を示す図。The figure which shows the example of a display of the guide image generated by the guide image generation part of FIG. 図1の投影処理部により行われる投影処理を説明するための図。The figure for demonstrating the projection process performed by the projection process part of FIG. 応用例4に係る制御部の制御のもとに行われる心筋領域の展開画像と血管領域の展開画像との重ね合わせ処理の典型的な流れを模式的に示す図。The figure which shows typically the typical flow of the superimposition process of the expansion | deployment image of the myocardial area | region and the expansion | deployment image of a blood vessel area | region performed under control of the control part which concerns on the application example 4. FIG. 図1のポーラーマップ発生部により発生されるポーラーマップの表示例を示す図。The figure which shows the example of a display of the polar map produced | generated by the polar map generation part of FIG. 図1の曲面画像発生部により発生される曲面画像の表示例を示す図。The figure which shows the example of a display of the curved surface image produced | generated by the curved surface image generation part of FIG.

以下、図面を参照しながら本実施形態に係わる画像処理装置を説明する。   The image processing apparatus according to this embodiment will be described below with reference to the drawings.

図1は、本実施形態に係る画像処理装置1の構成を示す図である。図1に示すように、画像処理装置1は、記憶部11、抽出部13、表示曲面設定部15、展開画像発生部17、表示部19、操作部21、及び制御部23を有している。   FIG. 1 is a diagram illustrating a configuration of an image processing apparatus 1 according to the present embodiment. As illustrated in FIG. 1, the image processing apparatus 1 includes a storage unit 11, an extraction unit 13, a display curved surface setting unit 15, a developed image generation unit 17, a display unit 19, an operation unit 21, and a control unit 23. .

記憶部11は、画像診断装置により被検体の心臓をスキャンすることにより発生されたボリュームデータを記憶している。ボリュームデータは、心臓に関する画素領域(以下、心臓領域と呼ぶことにする。)を含んでいる。本実施形態に係る画像診断装置としては、X線コンピュータ断層撮影装置や磁気共鳴イメージング装置、PET装置、SPECT装置が挙げられる。X線コンピュータ断層撮影装置の場合、CTスキャン時において心臓には造影剤が流入している。磁気共鳴イメージング装置の場合、造影剤無しでも血流を画像化できるので、MRスキャン時において心臓には造影剤が流入していても流入していなくてもよい。ボリュームデータのボクセルには、心臓の形態指標に関する指標値や、心臓の機能指標に関する指標値が割り付けられている。ボリュームデータがX線コンピュータ断層撮影装置により発生された場合、ボリュームデータには形態指標の指標値であるCT値が割り付けられている。ボリュームデータが磁気共鳴イメージング装置の場合、ボリュームデータには形態指標の指標値であるT1値やT2値等が割り付けられている。機能指標としては、例えば、X線コンピュータ断層撮影装置や磁気共鳴イメージング装置により発生されたボリュームデータのパーフュージョン解析により算出された解析値が挙げられる。ボリュームデータがPET装置やSPECT装置により発生された場合、ボリュームデータには放射性同位元素の濃度分布を表す機能指標の指標値や、この指標値に基づいて計算された種々の機能指標の指標値が割り付けられている。記憶部11は、さらに、制御部23により実行される画像処理プログラムを記憶している。   The storage unit 11 stores volume data generated by scanning the subject's heart with the diagnostic imaging apparatus. The volume data includes a pixel region related to the heart (hereinafter referred to as a heart region). Examples of the diagnostic imaging apparatus according to the present embodiment include an X-ray computed tomography apparatus, a magnetic resonance imaging apparatus, a PET apparatus, and a SPECT apparatus. In the case of an X-ray computed tomography apparatus, a contrast agent flows into the heart during a CT scan. In the case of a magnetic resonance imaging apparatus, blood flow can be imaged without a contrast agent, so that a contrast agent may or may not flow into the heart during MR scanning. An index value related to the heart shape index and an index value related to the heart function index are assigned to the voxels of the volume data. When the volume data is generated by an X-ray computed tomography apparatus, a CT value that is an index value of a form index is assigned to the volume data. When the volume data is a magnetic resonance imaging apparatus, a T1 value, a T2 value, or the like, which is an index value of a shape index, is assigned to the volume data. Examples of the function index include an analysis value calculated by perfusion analysis of volume data generated by an X-ray computed tomography apparatus or a magnetic resonance imaging apparatus. When the volume data is generated by a PET apparatus or a SPECT apparatus, the volume data includes an index value of a function index indicating the concentration distribution of the radioisotope, and index values of various function indexes calculated based on the index value. Assigned. The storage unit 11 further stores an image processing program executed by the control unit 23.

なお、以下の説明の簡便のため、形態指標の指標値や機能指標の指標値を特に区別しない場合、これらを総称して画素値を呼ぶことにする。   For simplicity of the following description, when the index value of the form index and the index value of the function index are not particularly distinguished, these are collectively referred to as pixel values.

抽出部13は、ボリュームデータの中から特定の部位に対応する画素領域を抽出する。具体的には、抽出部13は、ボリュームデータの中から心筋に対応する画素領域(以下、心筋領域と呼ぶことにする。)を抽出したり、血管に対応する画素領域(以下、血管領域と呼ぶことにする。)を抽出したりする。   The extraction unit 13 extracts a pixel region corresponding to a specific part from the volume data. Specifically, the extraction unit 13 extracts a pixel region corresponding to a myocardium (hereinafter referred to as a myocardial region) from the volume data, or a pixel region corresponding to a blood vessel (hereinafter referred to as a blood vessel region). And so on.)

表示曲面設定部15は、心筋領域のうちの外壁から内壁までの間の指定位置に、表示のための曲面(以下、表示曲面と称する)を設定する。表示曲面は、後述する展開画像の表示面である。   The display curved surface setting unit 15 sets a curved surface for display (hereinafter referred to as a display curved surface) at a designated position between the outer wall and the inner wall of the myocardial region. The display curved surface is a display surface of a developed image described later.

展開画像発生部17は、ボリュームデータに基づいて表示曲面に関する展開画像のデータを発生する。展開画像は、表示曲面における3次元的な画素値の空間分布を2次元の直交座標系で表現した画像である。   The developed image generating unit 17 generates developed image data related to the display curved surface based on the volume data. The developed image is an image in which a spatial distribution of three-dimensional pixel values on the display curved surface is expressed by a two-dimensional orthogonal coordinate system.

表示部19は、展開画像等を表示機器に表示する。表示機器としては、例えばCRTディスプレイや液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等が挙げられる。   The display unit 19 displays a developed image or the like on a display device. Examples of the display device include a CRT display, a liquid crystal display, an organic EL display, and a plasma display.

操作部21は、ユーザからの各種指令や情報入力を、入力機器を介して受け付ける。入力機器としては、マウスやトラックボールなどのポインティングデバイス、スイッチボタン等の選択デバイス、あるいはキーボード等が挙げられる。   The operation unit 21 receives various commands and information input from the user via the input device. Examples of the input device include a pointing device such as a mouse and a trackball, a selection device such as a switch button, or a keyboard.

制御部23は、画像診断装置の中枢として機能する。具体的には、制御部23は、記憶部11に記憶されている画像処理プログラムを展開し、この画像処理プログラムに従って各部を制御し、本実施形態に係る画像処理を実行する。   The control unit 23 functions as the center of the image diagnostic apparatus. Specifically, the control unit 23 develops an image processing program stored in the storage unit 11, controls each unit according to the image processing program, and executes image processing according to the present embodiment.

以下、制御部23の制御のもとに実行される画像処理の詳細について説明する。なお、以下の説明を具体的に行うため、ボリュームデータは、X線コンピュータ断層撮影装置により発生されたものであるとする。   Hereinafter, details of image processing executed under the control of the control unit 23 will be described. In order to specifically describe the following, it is assumed that the volume data is generated by an X-ray computed tomography apparatus.

図2は、制御部23の制御により実行される画像処理の典型的な流れを示す図である。制御部23は、ユーザから操作部21を介して画像処理の開始指示がなされたことを契機として画像処理を実行する。また、制御部23は、造影剤により造影された心臓に関するボリュームデータを記憶部11から読み込み、抽出部13に供給する(ステップS1)。   FIG. 2 is a diagram illustrating a typical flow of image processing executed under the control of the control unit 23. The control unit 23 executes image processing in response to an instruction to start image processing via the operation unit 21 from the user. Further, the control unit 23 reads volume data relating to the heart imaged by the contrast agent from the storage unit 11 and supplies the volume data to the extraction unit 13 (step S1).

ステップS1が行われると制御部23は、抽出部13に抽出処理を行わせる(ステップS2)。ステップS2において抽出部13は、領域拡張法等の任意の画像処理を利用して、ボリュームデータから心筋領域を抽出する。図3は、心筋領域R1の模式図である。図3に示すように、心筋領域R1は、中空の略円錐形状を有している。抽出部13は、心筋領域R1の形状に従って心筋領域R1の尖点PAと基点PBとを設定する。心筋領域R1の先端が尖点PAに設定され、心筋領域R1の基部側の任意点が基点PBに設定される。そして尖点PAと基点PBとを通る軸は、抽出部13により心軸ACに設定される。   When step S1 is performed, the control unit 23 causes the extraction unit 13 to perform extraction processing (step S2). In step S2, the extraction unit 13 extracts a myocardial region from the volume data using arbitrary image processing such as a region expansion method. FIG. 3 is a schematic diagram of the myocardial region R1. As shown in FIG. 3, the myocardial region R1 has a hollow, substantially conical shape. The extraction unit 13 sets the cusp PA and the base point PB of the myocardial region R1 according to the shape of the myocardial region R1. The tip of the myocardial region R1 is set to the cusp PA, and an arbitrary point on the base side of the myocardial region R1 is set to the base point PB. Then, the axis passing through the cusp PA and the base point PB is set to the central axis AC by the extraction unit 13.

ステップS2が行われると制御部23は、曲面設定部15に断面設定処理を行わせる(ステップS3)。ステップS3において曲面設定部15は、心軸ACに沿う複数の断面をボリュームデータに設定する。典型的には、複数の断面は、心軸ACに直交するように設定される。なお、複数の断面の向きはこれに限定されない。例えば、複数の断面は、心軸ACに対して傾斜するように設定されてもよい。   When step S2 is performed, the control unit 23 causes the curved surface setting unit 15 to perform cross-section setting processing (step S3). In step S3, the curved surface setting unit 15 sets a plurality of cross sections along the central axis AC as volume data. Typically, the plurality of cross sections are set to be orthogonal to the central axis AC. Note that the orientation of the plurality of cross sections is not limited to this. For example, the plurality of cross sections may be set to be inclined with respect to the axial axis AC.

ステップS3が行われると制御部23は、曲面設定部15に正規化処理を行わせる(ステップS4)。ステップS4において曲面設定部15は、複数の断面の各々について、心筋領域の内壁と外壁との間の距離を既定の数値範囲で正規化する。図4は、正規化処理を説明するための図であり、断面内の心筋領域R1を模式的に示す図である。図4に示すように、まず曲面設定部15は、各断面について、心筋領域R1の内壁WIと外壁WOとを抽出する。より詳細には、曲面設定部15は、心筋領域R1の内側の境界をトレースすることにより心筋領域R1の内側の閉曲線(内壁)を抽出し、心筋領域の外側の境界をトレースすることにより心筋領域R1の外側の閉曲線(外壁)を抽出する。内側の境界は心筋領域R1の両壁のうちの心軸に近い方の境界であり、外側の境界は心筋領域R1の両壁のうちの心軸に遠い方の境界である。次に、曲面設定部15は、心軸ACから放射状に伸びる複数の直線LIを設定する。図4においては、簡便のため4つの直線LIが示されているが、実際の処理においては、4つよりも多い直線LIが設定されるとよい。次に曲面設定部15は、直線LIと内壁WIとの交点PI、直線LIと外壁WOとの交点POを特定する。曲面設定部15は、各直線LI上の交点PIと交点POとの間の距離を既定の数値範囲で正規化する。例えば、既定の数値範囲は、0%〜100%に設定される。この場合、曲面設定部15は、交点PIの位置を0%、交点POの位置を100%に設定する。交点PIと交点POとの間の直線LI上の各点の位置は、交点PIから交点POに進むにつれて交点PIから各点の位置までの距離が0%から100%に線形的に変化するように設定される。これにより正規化が行われる。以下、交点PIから交点POへの方向を厚さ方向と呼ぶことにする。   When step S3 is performed, the control unit 23 causes the curved surface setting unit 15 to perform normalization processing (step S4). In step S4, the curved surface setting unit 15 normalizes the distance between the inner wall and the outer wall of the myocardial region within a predetermined numerical range for each of the plurality of cross sections. FIG. 4 is a diagram for explaining the normalization process, and is a diagram schematically showing the myocardial region R1 in the cross section. As shown in FIG. 4, the curved surface setting unit 15 first extracts the inner wall WI and the outer wall WO of the myocardial region R1 for each cross section. More specifically, the curved surface setting unit 15 extracts a closed curve (inner wall) inside the myocardial region R1 by tracing the inner boundary of the myocardial region R1, and then traces the outer boundary of the myocardial region by tracing the outer boundary. A closed curve (outer wall) outside R1 is extracted. The inner boundary is a boundary closer to the heart axis of both walls of the myocardial region R1, and the outer boundary is a boundary farther from the heart axis of both walls of the myocardial region R1. Next, the curved surface setting unit 15 sets a plurality of straight lines LI extending radially from the central axis AC. In FIG. 4, four straight lines LI are shown for convenience, but in actual processing, it is preferable to set more than four straight lines LI. Next, the curved surface setting unit 15 specifies an intersection point PI between the straight line LI and the inner wall WI and an intersection point PO between the straight line LI and the outer wall WO. The curved surface setting unit 15 normalizes the distance between the intersection point PI and the intersection point PO on each straight line LI within a predetermined numerical range. For example, the predetermined numerical range is set to 0% to 100%. In this case, the curved surface setting unit 15 sets the position of the intersection point PI to 0% and the position of the intersection point PO to 100%. The position of each point on the straight line LI between the intersection point PI and the intersection point PO is such that the distance from the intersection point PI to the position of each point linearly changes from 0% to 100% as it proceeds from the intersection point PI to the intersection point PO. Set to As a result, normalization is performed. Hereinafter, the direction from the intersection point PI to the intersection point PO will be referred to as the thickness direction.

ステップS4が行われると制御部23は、操作部25を介してユーザにより、既定の数値範囲(上述の例の場合、0%から100%)内での数値が指定されることを待機する(ステップS5)。指定される数値は、展開画像の表示曲面の位置を意味する。ユーザは、操作部25を介して数値範囲の下限値以上、上限値以下の所望の数値を指定する。数値範囲が0%から100%の場合、0%以上100%以下の所望の数値が指定される。数値は、キーボードやタッチパネル、マウス等の入力機器を介して入力されるとよい。なお、展開画像の表示曲面の位置を示す数値は、必ずしもユーザにより操作部25を介して指定されなくてもよい。例えば、曲面設定部15により、内壁を表す0%や外壁を表す100%に自動的に数値が指定されてもよい。   When step S4 is performed, the control unit 23 waits for a user to specify a numerical value within a predetermined numerical value range (0% to 100% in the above example) via the operation unit 25 ( Step S5). The specified numerical value means the position of the display curved surface of the developed image. The user designates a desired numerical value not less than the lower limit value and not more than the upper limit value of the numerical value range via the operation unit 25. When the numerical value range is 0% to 100%, a desired numerical value of 0% to 100% is designated. The numerical value may be input via an input device such as a keyboard, a touch panel, or a mouse. Note that the numerical value indicating the position of the display curved surface of the developed image is not necessarily specified by the user via the operation unit 25. For example, the curved surface setting unit 15 may automatically specify a numerical value as 0% representing the inner wall or 100% representing the outer wall.

ユーザにより数値が指定されると制御部23は、曲面設定部15に曲面設定処理を行わせる(ステップS6)。ステップS6において曲面設定部15は、ステップS5において指定された数値に対応する心筋領域上の位置に表示曲面を設定する。具体的には、まず、曲面設定部は、図4に示す各断面の各直線LIについて、指定された数値に対応する画素を特定する。そして曲面設定部15は、特定された全ての画素の集合を展開画像の表示曲面に設定する。   When a numerical value is designated by the user, the control unit 23 causes the curved surface setting unit 15 to perform curved surface setting processing (step S6). In step S6, the curved surface setting unit 15 sets a display curved surface at a position on the myocardial region corresponding to the numerical value designated in step S5. Specifically, first, the curved surface setting unit identifies a pixel corresponding to a designated numerical value for each straight line LI of each cross section shown in FIG. Then, the curved surface setting unit 15 sets the specified set of all pixels as the display curved surface of the developed image.

ステップS6が行われると制御部23は、展開画像発生部17に展開画像発生処理を行わせる(ステップS7)。ステップS7において展開画像発生部17は、ステップS6において設定された表示曲面に関する展開画像のデータをボリュームデータに基づいて発生する。以下、展開画像発生処理について詳細に説明する。   When step S6 is performed, the control unit 23 causes the developed image generation unit 17 to perform a developed image generation process (step S7). In step S7, the developed image generation unit 17 generates developed image data related to the display curved surface set in step S6 based on the volume data. Hereinafter, the developed image generation process will be described in detail.

図5は、展開画像発生処理の概念を示す図である。図5の(a)は展開前の表示曲面PCを示し、図5の(b)は展開後の表示曲面、すなわち、展開画像を示している。図5に示すように、展開画像発生処理は、表示曲面PCを展開開始点PSから剥ぐように展開する処理である。   FIG. 5 is a diagram showing the concept of the developed image generation process. 5A shows the display curved surface PC before development, and FIG. 5B shows the display curved surface after development, that is, a developed image. As shown in FIG. 5, the developed image generation process is a process of developing the display curved surface PC so as to peel from the development start point PS.

図6は、展開画像発生処理を詳細に説明するための図である。図6の(a)は心筋領域R1の縦断面を示し、図6の(b)は心筋領域R1に設定された断面CSnを示し、図6の(c)は展開画像のためのテンプレートを示している。なお例示のため、図6の(a)には、3つの断面CS1、CS2、CSmが示されている。断面の数nは、幾つに設定されてもよい。断面数nが多ければ多いほど、展開画像の解像度が向上する。図6の(b)に示すように、表示曲面DPは、心筋領域R1内の50%の位置に設定されているものとする。   FIG. 6 is a diagram for explaining the developed image generation processing in detail. 6A shows a longitudinal section of the myocardial region R1, FIG. 6B shows a section CSn set in the myocardial region R1, and FIG. 6C shows a template for a developed image. ing. For the sake of illustration, FIG. 6A shows three cross sections CS1, CS2, and CSm. The number n of cross sections may be set to any number. The greater the number of cross sections n, the better the resolution of the developed image. As shown in FIG. 6B, it is assumed that the display curved surface DP is set at a position of 50% in the myocardial region R1.

展開画像発生処理においては、まず、各断面CSnにおいて展開開始点PSが展開画像発生部17により設定される。各断面CSnにおいて展開開始点PSは、心軸AC回りの同一角度に設定される。展開開始点PSの角度は、ユーザにより操作部21を介して任意の値に設定可能である。以下の説明を具体的に行うため、展開開始点PSは、0°に設定されるとする。また、展開画像発生部17により、各断面CSnにおいて基準点PRが設定される。基準点PRは、各断面CSnにおいて、展開開始点PSとは異なる同一角度に設定される。基準点PRのが、展開画像のX軸の中心に位置合わせされる。例えば、基準点PRと展開開始点PSとは、基準点PRと展開開始点PSとの角度差が±180°になるように設定される。   In the developed image generation process, first, the developed image generation unit 17 sets a development start point PS in each cross section CSn. In each cross section CSn, the development start point PS is set to the same angle around the axis AC. The angle of the development start point PS can be set to an arbitrary value via the operation unit 21 by the user. In order to specifically describe the following, it is assumed that the development start point PS is set to 0 °. Further, the developed image generator 17 sets the reference point PR in each cross section CSn. The reference point PR is set at the same angle different from the development start point PS in each cross section CSn. The reference point PR is aligned with the center of the X-axis of the developed image. For example, the reference point PR and the development start point PS are set such that the angle difference between the reference point PR and the development start point PS is ± 180 °.

展開画像発生部17は、表示曲面DPと断面CSnとが交差する円周上の画素(以下、円周画素と呼ぶことにする。)の画素値を、図6の(c)に示す展開画像のためのテンプレートに割り付けることにより、展開画像を発生する。図6の(c)に示すように、テンプレートの縦軸(Y軸)は、心軸AC上の距離に規定される。心軸AC上の距離は、具体的には、心軸AC上の基準位置(例えば、尖点PA)からの心軸ACに沿う距離に規定される。テンプレートの横軸(X軸)は、心筋領域R1の心軸AC回りの基準位置(例えば、基準点PR)からの距離である。換言すれば、テンプレートの横軸(X軸)は、円周上の距離に規定される。円周上の距離は、具体的には、各断面と表示曲面とが交差する円周上の基準位置(例えば、基準点PR)からの円周に沿う距離に規定される。このように、テンプレートは、心軸上の距離と円周上の距離とにより規定される2次元の直交座標系を有している。各断面CSnの基準点PRは、テンプレートのX軸の中心(すなわち、距離0)に位置合わせされる。例えば、基準点PRから時計回り方向がテンプレートの+X方向に規定され、基準点PRから反時計回り方向がテンプレートの−X方向に規定される。テンプレートのX軸に沿う長さは、各断面CSnの円周の長さのうちの最大長に設定される。なお、テンプレートのX軸の長さは、最大長より長く設定されてもよい。   The developed image generation unit 17 uses the pixel values of the pixels on the circumference where the display curved surface DP and the cross section CSn intersect (hereinafter referred to as “circumferential pixels”) as the developed image shown in FIG. An unfolded image is generated by assigning it to a template for. As shown in FIG. 6C, the vertical axis (Y-axis) of the template is defined by the distance on the central axis AC. Specifically, the distance on the mandrel AC is defined as a distance along the mandrel AC from a reference position on the mandrel AC (for example, the cusp PA). The horizontal axis (X axis) of the template is the distance from the reference position (for example, the reference point PR) around the cardiac axis AC of the myocardial region R1. In other words, the horizontal axis (X axis) of the template is defined by the distance on the circumference. Specifically, the distance on the circumference is defined as a distance along the circumference from a reference position (for example, reference point PR) on the circumference where each cross section and the display curved surface intersect. As described above, the template has a two-dimensional orthogonal coordinate system defined by the distance on the axis and the distance on the circumference. The reference point PR of each cross section CSn is aligned with the center of the X axis of the template (ie, distance 0). For example, the clockwise direction from the reference point PR is defined as the + X direction of the template, and the counterclockwise direction from the reference point PR is defined as the −X direction of the template. The length along the X axis of the template is set to the maximum length among the circumferential lengths of the respective cross sections CSn. Note that the length of the X-axis of the template may be set longer than the maximum length.

ここで、テンプレートへの画素値の割付処理を具体的に説明する。まず、展開画像発生部17は、複数の断面の各々について、表示曲面DPと断面CSnとが交差する円周上の複数の円周画素を特定する。そして、展開画像発生部17は、各円周画素のテンプレート座標を特定する。具体的には、まず、展開画像発生部17は、尖点PAから各断面CSnまでの心軸ACに沿う距離を特定する。これにより、各円周画素についてテンプレートのY軸座標が特定される。次に、展開画像発生部17は、各断面CSnについて、基準点PRから各円周画素までの円周に沿う距離を特定する。これにより、各円周画素についてテンプレートのX軸座標が特定される。そして、展開画像発生部17は、各円周画素について、特定されたテンプレート座標に円周画素の画素値を割り付ける。この円周画素の画素値の割付により展開画像のデータが発生される。   Here, the process of assigning pixel values to the template will be specifically described. First, the developed image generation unit 17 specifies a plurality of circumferential pixels on the circumference where the display curved surface DP and the section CSn intersect for each of the plurality of cross sections. Then, the developed image generation unit 17 specifies the template coordinates of each circumferential pixel. Specifically, first, the developed image generation unit 17 specifies the distance along the central axis AC from the cusp PA to each cross section CSn. Thereby, the Y-axis coordinate of the template is specified for each circumferential pixel. Next, the developed image generation unit 17 specifies the distance along the circumference from the reference point PR to each circumferential pixel for each cross-section CSn. Thereby, the X-axis coordinate of the template is specified for each circumferential pixel. Then, the developed image generation unit 17 assigns the pixel value of the circumferential pixel to the specified template coordinates for each circumferential pixel. Data of the developed image is generated by assigning the pixel values of the circumferential pixels.

ステップS7が行われると制御部23は、表示部19に表示処理を行わせる(ステップS8)。ステップS8において表示部19は、ステップS7において発生された展開画像を表示する。図7は、展開画像I1の一例を示す図である。図7に示すように、展開画像I1は、このような発生過程からわかるように、3次元的な表示曲面における画素値の空間分布を、2次元の直交座標で表現した画像である。表示部19は、例えば、展開画像I1を画素値に応じてグレーで表示する。表示部19は、展開画像I1上の位置の把握を容易にするために、基準点PRからの円周に沿う距離を示す目印を展開画像に重ねて表示してもよい。このような目印としては、例えば、図7に示すように、距離0(基準点)を示す線LR1、中間距離±Midを示す線LR2、最大距離±Maxを示す線LR3が挙げられる。なお、最大距離±Maxは、各断面CSnの円周に沿って基準点から展開開始点までの距離のうちの最大距離である。中間距離±Midは、最大距離±Maxの半分である。なお、目印は、点線に限定されず、実線、破線、一点鎖線等の既存のあらゆる線が適用可能である。また、目印は、線に限定されず、展開画像I1の端部等に表示されるマークであってもよい。   When step S7 is performed, the control unit 23 causes the display unit 19 to perform display processing (step S8). In step S8, the display unit 19 displays the developed image generated in step S7. FIG. 7 is a diagram illustrating an example of the developed image I1. As shown in FIG. 7, the developed image I1 is an image expressing the spatial distribution of pixel values on a three-dimensional display curved surface with two-dimensional orthogonal coordinates, as can be seen from such a generation process. The display unit 19 displays the developed image I1 in gray according to the pixel value, for example. The display unit 19 may display a mark indicating the distance along the circumference from the reference point PR on the developed image in order to easily grasp the position on the developed image I1. Examples of such a mark include a line LR1 indicating a distance 0 (reference point), a line LR2 indicating an intermediate distance ± Mid, and a line LR3 indicating a maximum distance ± Max as shown in FIG. The maximum distance ± Max is the maximum distance among the distances from the reference point to the development start point along the circumference of each cross section CSn. The intermediate distance ± Mid is half of the maximum distance ± Max. In addition, a mark is not limited to a dotted line, All existing lines, such as a solid line, a broken line, and a dashed-dotted line, are applicable. Further, the mark is not limited to a line, and may be a mark displayed at the end of the developed image I1.

医師等のユーザは、3次元的な画素値の空間分布を2次元の極座標で表現したポーラーマップに比して展開画像の方が、画像上の位置と実際の心筋の位置との対応関係を把握しやすい。また、展開画像の表示曲面は、心筋領域の全体に分布している。従って、ユーザは、断面内の画素値の空間分布を表現するMPR画像に比して展開画像の方が、心筋領域の全体を観察することができる。   Compared with a polar map in which a spatial distribution of three-dimensional pixel values is expressed in two-dimensional polar coordinates, a user such as a doctor shows a correspondence between the position on the image and the actual myocardial position. Easy to grasp. Further, the display curved surface of the developed image is distributed over the entire myocardial region. Therefore, the user can observe the entire myocardial region in the developed image as compared with the MPR image expressing the spatial distribution of the pixel values in the cross section.

ステップS8が終了すると制御部23は、本実施形態に係る画像処理を終了する。   When step S8 ends, the control unit 23 ends the image processing according to the present embodiment.

なお、ステップS8において展開画像の表示方法は、グレー表示のみに限定されない。例えば、表示部19は、図8に示すように、展開画像I2を画素値に応じたカラーで表示してもよい。この際、表示部19は、カラーと画素値との対応関係をユーザに提示するために、カラーバーを展開画像I2とともに表示するとよい。カラー表示により、ユーザは、画素値の違いを色の違いで把握することができる。さらなる他の表示方法として、表示部19は、展開画像を、図9に示すように、等高線表示をしてもよいし、図10に示すように、3次元グラフ表示してもよい。図9に示すように、等高線表示の場合、表示部19は、等しい画素値を有する画素が線(等高線)で結ばれた展開画像I3を表示する。等高線は、画素値に応じたグレーで表示されても、カラーで表示されてもどちらでもよい。図10に示すように、3次元グラフ表示の場合、表示部19は、画素値に応じた高さを有する3次元的な棒グラフで表現する展開画像I4を表示する。棒グラフは、画素値に応じたグレーで表示されても、カラーで表示されてもどちらでもよい。また、3次元グラフ表示における視点の位置は、ユーザにより操作部21を介して任意に設定可能である。   Note that the display method of the developed image in step S8 is not limited to only gray display. For example, the display unit 19 may display the developed image I2 in a color corresponding to the pixel value as shown in FIG. At this time, the display unit 19 may display the color bar together with the developed image I2 in order to present the correspondence between the color and the pixel value to the user. The color display allows the user to grasp the difference in pixel value from the difference in color. As still another display method, the display unit 19 may display the developed image as a contour line as shown in FIG. 9, or as a three-dimensional graph as shown in FIG. As shown in FIG. 9, in the case of contour line display, the display unit 19 displays a developed image I3 in which pixels having equal pixel values are connected by lines (contour lines). The contour lines may be displayed in gray or in color according to the pixel value. As shown in FIG. 10, in the case of a three-dimensional graph display, the display unit 19 displays a developed image I4 expressed by a three-dimensional bar graph having a height corresponding to the pixel value. The bar graph may be displayed in gray or in color depending on the pixel value. Further, the position of the viewpoint in the three-dimensional graph display can be arbitrarily set by the user via the operation unit 21.

このように本実施形態に係る表示部19は、展開画像を通常の表示方法の他に、等高線表示や3次元グラフ表示を行うことができる。また、これら表示方法は、画素値に応じたグレー又はカラーで表示することができる。画像処理装置1は、このように、展開画像の多数の表示方法を有している。これら表示方法は、ユーザから操作部21を介した指示に応じて任意に選択可能である。すなわち表示部19は、ユーザの好みに応じた表示方法で展開画像を表示することができ、画像診断の効率を向上させることができる。   As described above, the display unit 19 according to the present embodiment can perform contour line display and three-dimensional graph display of the developed image in addition to the normal display method. Further, these display methods can display in gray or color according to the pixel value. As described above, the image processing apparatus 1 has a number of display methods of the developed image. These display methods can be arbitrarily selected according to an instruction from the user via the operation unit 21. That is, the display unit 19 can display the developed image by a display method according to the user's preference, and can improve the efficiency of image diagnosis.

心筋領域の厚さは、同一ではなく、心筋領域内の部位に応じて異なっている。従って、心筋領域の厚さ方向の位置を絶対距離(正規化前の距離)により指定すると、ある部位では内壁に近かったり、他の部位では外壁に近かったりしてしまう。上述のように画像処理装置1は、心筋領域の厚みを既定の数値範囲で正規化し、この数値範囲内での任意の指定値に対応する表示曲面に関する展開画像を発生している。このように心筋領域の厚みを正規化することにより、画像処理装置1は、内壁付近や外壁付近、心筋内部等の心筋領域の厚み方向に関する解剖学的に同質な位置を単一の指定値により一括して指定することができる。従って、この正規化処理により、表示曲面の設定を簡素化させたり、画像診断能を向上させたりできる。   The thickness of the myocardial region is not the same and varies depending on the site in the myocardial region. Therefore, when the position in the thickness direction of the myocardial region is designated by an absolute distance (distance before normalization), a certain part is close to the inner wall and another part is close to the outer wall. As described above, the image processing apparatus 1 normalizes the thickness of the myocardial region within a predetermined numerical range, and generates a developed image related to the display curved surface corresponding to an arbitrary designated value within this numerical range. By normalizing the thickness of the myocardial region in this way, the image processing apparatus 1 can determine the anatomically homogeneous position in the thickness direction of the myocardial region near the inner wall, the outer wall, the inside of the myocardium, or the like with a single designated value. You can specify all at once. Therefore, this normalization process can simplify the setting of the display curved surface and improve the image diagnostic ability.

ユーザは、心筋領域の厚さ方向に関する特定位置のみに関心があるわけではない。例えば、心筋梗塞は、心筋内膜側から心筋外膜側へ向けて組織が死んでいく。そのため、心筋の厚み方向に沿ってどれだけ組織が死んでいるか確認することが臨床上重要である。画像処理装置1は、展開画像を心筋の厚さ方向に沿ってブラウジング表示することができる。例えば、表示されている展開画像とは異なる位置の表示曲面に関する展開画像を観察したい場合、ユーザは、ステップS5と同様に操作部21を介して任意の表示曲面位置を指定可能である。表示曲面位置が指定された場合、展開画像発生部17は、指定された表示曲面位置に関する展開画像を発生し、表示部19は、この発生された展開画像を表示する。このようにして、展開画像発生部17は、ユーザからの表示曲面位置の変更指示に従って展開画像の表示曲面を更新することができる。これにより画像処理装置1は、心筋領域の厚さ方向の任意位置の表示曲面における画素値の空間分布を展開画像でブラウジング表示することができる。ブラウジング表示により、短時間で広範囲の部位を観察することが可能になる。   The user is not only interested in a specific position in the thickness direction of the myocardial region. For example, in myocardial infarction, the tissue dies from the myocardial intima side toward the myocardium outer membrane side. Therefore, it is clinically important to confirm how much tissue is dead along the thickness direction of the myocardium. The image processing apparatus 1 can display the developed image by browsing along the thickness direction of the myocardium. For example, when the user wants to observe a developed image relating to a display curved surface at a position different from the displayed developed image, the user can designate an arbitrary display curved surface position via the operation unit 21 as in step S5. When the display curved surface position is designated, the developed image generation unit 17 generates a developed image related to the designated display curved surface position, and the display unit 19 displays the generated developed image. In this way, the developed image generation unit 17 can update the display curved surface of the developed image in accordance with a display curved surface position change instruction from the user. As a result, the image processing apparatus 1 can display the spatial distribution of pixel values on the display curved surface at an arbitrary position in the thickness direction of the myocardial region as a developed image. By browsing display, a wide area can be observed in a short time.

なお、上述の説明において、展開画像の座標系は、心軸上の距離と円周上の距離とにより規定される第1の直交座標系であるとした。しかしながら、本実施形態は、これに限定されない。例えば、展開画像の座標系は、心軸上の距離と心軸回りの回転角度とにより規定される第2の直交座標系であってもよい。以下、第1の座標系に関する展開画像を心軸−円周展開画像と呼び、第2の座標系に関する展開画像を心軸−角度展開画像と呼ぶことにする。展開画像発生部17は、ステップS6において設定された表示曲面に関する心軸−角度展開画像をボリュームデータに基づいて発生する。   In the above description, the coordinate system of the developed image is the first orthogonal coordinate system defined by the distance on the central axis and the distance on the circumference. However, the present embodiment is not limited to this. For example, the coordinate system of the developed image may be a second orthogonal coordinate system defined by a distance on the central axis and a rotation angle around the central axis. Hereinafter, the developed image related to the first coordinate system is referred to as a mandrel-circumferentially developed image, and the developed image related to the second coordinate system is referred to as a mandrel-angle developed image. The developed image generation unit 17 generates a mandrel-angle developed image related to the display curved surface set in step S6 based on the volume data.

以下、図11を参照しながら、ステップS7において展開画像発生部17により行われる心軸−角度展開画像の発生方法について説明する。図11の(a)は心筋領域R1の縦断面を示し、図11の(b)は心筋領域R1に設定された断面CSnを示し、図11の(c)は心軸−角度展開画像のためのテンプレートを示している。図11の(c)に示すように、心軸−角度展開画像のためのテンプレートの縦軸(Y軸)は、心軸AC上の距離、具体的には、心軸AC上の基準位置(例えば、尖点PA)からの心軸ACに距離に規定される。テンプレートの横軸(X軸)は、心筋領域R1の心軸AC回りの基準位置(例えば、基準点PR)からの回転角度に規定される。換言すれば、テンプレートの横軸(X軸)は、心軸AC回りの回転角度、具体的には、心軸AC回りの基準位置(例えば、基準点PR)からの回転角度に規定される。このように、心軸−角度展開画像のためのテンプレートは、心軸上の位置と心軸回りの回転角度とにより規定される2次元の直交座標系を有している。各基準点PRは、テンプレートのX軸の中心(すなわち、角度0°)に位置合わせされる。例えば、基準点PRから時計回りがテンプレートの+X方向に規定され、基準点PRから反時計回りがテンプレートの−X方向に規定される。   Hereinafter, a method for generating a mandrel-angle developed image performed by the developed image generation unit 17 in step S7 will be described with reference to FIG. FIG. 11A shows a longitudinal section of the myocardial region R1, FIG. 11B shows a section CSn set in the myocardial region R1, and FIG. 11C shows a cardiac axis-angle developed image. Shows the template. As shown in FIG. 11C, the vertical axis (Y-axis) of the template for the core-angle-expanded image is a distance on the heart axis AC, specifically, a reference position ( For example, the distance is defined as the center axis AC from the cusp PA). The horizontal axis (X axis) of the template is defined by the rotation angle from the reference position (for example, the reference point PR) around the cardiac axis AC of the myocardial region R1. In other words, the horizontal axis (X-axis) of the template is defined by a rotation angle around the central axis AC, specifically, a rotation angle from a reference position (for example, the reference point PR) around the central axis AC. As described above, the template for the mandrel-angle developed image has a two-dimensional orthogonal coordinate system defined by the position on the mandrel and the rotation angle around the mandrel. Each reference point PR is aligned with the center of the X axis of the template (ie, an angle of 0 °). For example, clockwise from the reference point PR is defined in the + X direction of the template, and counterclockwise from the reference point PR is defined in the −X direction of the template.

ここで、画素値の割付処理を具体的にする。まず、展開画像発生部17は、複数の断面CSnの各々について、表示曲面DPと断面CSnとが交差する円周上の複数の円周画素を特定する。そして、展開画像発生部17は、各円周画素のテンプレート座標を特定する。具体的には、まず、展開画像発生部17は、尖点PAから各断面CSnまでの心軸ACに沿う距離を特定する。これにより、各円周画素についてテンプレートのY軸座標が特定される。次に、展開画像発生部17は、各断面CSnについて、基準点PRから各円周画素までの心軸AC回りの回転角度を特定する。これにより、各円周画素についてテンプレートのX軸座標が特定される。そして、展開画像発生部17は、各円周画素について、特定されたテンプレート座標に円周画素の画素値を割り付ける。この円周画素の画素値の割付により心軸−角度展開画像が発生される。   Here, the pixel value assignment processing will be specifically described. First, the developed image generation unit 17 specifies a plurality of circumferential pixels on the circumference where the display curved surface DP and the section CSn intersect for each of the plurality of sections CSn. Then, the developed image generation unit 17 specifies the template coordinates of each circumferential pixel. Specifically, first, the developed image generation unit 17 specifies the distance along the central axis AC from the cusp PA to each cross section CSn. Thereby, the Y-axis coordinate of the template is specified for each circumferential pixel. Next, the developed image generation unit 17 specifies the rotation angle around the axis AC from the reference point PR to each circumferential pixel for each cross-section CSn. Thereby, the X-axis coordinate of the template is specified for each circumferential pixel. Then, the developed image generation unit 17 assigns the pixel value of the circumferential pixel to the specified template coordinates for each circumferential pixel. A mandrel-angle developed image is generated by assigning the pixel values of the circumferential pixels.

なお、ボリュームデータにおいて心筋領域R1は、心軸上の位置に応じて角度に関する空間分解能が異なっている。従って、尖点PA付近等の比較的角度に関する空間分解能が低い場合、心軸−角度展開画像において画素値が割り付けられない空の画素が発生するおそれがある。この場合、展開画像発生部17は、空の画素の画素値を補間により算出する。補間方法としては、空の画素の画素値を最も角度が近い画素の画素値に置き換える二アレストネイバー(nearest neighbor)法や、画素値分布に基づいて画素の画素値を推定するバイリニア(bi-linear)法等の既知の如何なる補間法が適用可能である。このような補間方法を実行することで、画素値が割り付けられない空の画素を失くすことができる。従って、心軸−角度展開画像による画像診断能が向上する。   In the volume data, the myocardial region R1 has different spatial resolution regarding the angle depending on the position on the heart axis. Therefore, when the spatial resolution regarding the angle is relatively low, such as in the vicinity of the cusp PA, there is a possibility that an empty pixel to which no pixel value is assigned in the mandibular axis-angle development image may be generated. In this case, the developed image generation unit 17 calculates the pixel value of the empty pixel by interpolation. As an interpolation method, the nearest neighbor method that replaces the pixel value of the empty pixel with the pixel value of the pixel with the closest angle, or the bi-linear that estimates the pixel value of the pixel based on the pixel value distribution Any known interpolation method such as) method is applicable. By executing such an interpolation method, it is possible to lose empty pixels to which no pixel value is assigned. Therefore, the image diagnostic ability by the mandibular axis-angle developed image is improved.

発生された心軸−角度展開画像は、表示部19により表示される。表示部19は、心軸−円周展開画像上の位置の把握を容易にするために、心軸AC回りの基準点PRからの回転角度を示す基準線を心軸−角度展開画像に重ねて表示してもよい。このような基準線としては、例えば、図11の(c)に示すように、0°(基準点PR)を示す線、+90°を示す線、−90°を示す線、±180°を示す線が挙げられる。   The generated mandibular axis-angle development image is displayed by the display unit 19. The display unit 19 superimposes the reference line indicating the rotation angle from the reference point PR around the axis AC on the axis-angle expanded image in order to easily grasp the position on the axis-circumferentially expanded image. It may be displayed. As such a reference line, for example, as shown in FIG. 11C, a line indicating 0 ° (reference point PR), a line indicating + 90 °, a line indicating −90 °, and ± 180 ° are indicated. A line is mentioned.

なお、心軸−角度展開画像は、心軸−円周展開画像から発生されてもよい。この場合、展開画像発生部17は、X軸に関する画像幅を均一にするように心軸−円周展開画像に補間処理を施し、心軸−角度展開画像を発生する。例えば、展開画像発生部17は、心軸−円周展開画像のX軸に関する最大幅を特定し、特定された最大幅を基準幅に設定する。そして、展開画像発生部17は、各Y軸座標についてX軸に関する画像幅を基準幅に伸張するために、心軸−円周展開画像に補間処理を施す。これにより、心軸−円周展開画像から心軸−角度展開画像が発生される。なお、補間方法としては、上述の二アレストネイバー法やバイリニア法等の既知の如何なる補間法が適用可能である。   Note that the mandrel-angle developed image may be generated from the mandrel-circumferentially developed image. In this case, the developed image generation unit 17 performs an interpolation process on the mandrel-circumferentially developed image so as to make the image width related to the X axis uniform, and generates a mandrel-angle developed image. For example, the developed image generation unit 17 specifies the maximum width related to the X axis of the mandrel-circumferentially developed image, and sets the specified maximum width as the reference width. Then, the developed image generation unit 17 performs interpolation processing on the mandrel-circumferentially developed image in order to expand the image width related to the X axis to the reference width for each Y axis coordinate. As a result, a mandrel-angle developed image is generated from the mandrel-circumferentially developed image. As the interpolation method, any known interpolation method such as the above-mentioned two-arrest neighbor method or bilinear method can be applied.

かくして、本実施形態に係る画像処理装置1によれば、心筋の画像診断能を向上させることができる。   Thus, according to the image processing apparatus 1 according to the present embodiment, the myocardial image diagnostic ability can be improved.

次に、展開画像による画像診断能を向上させるための種々の応用例について説明する。なお、以下の応用例において展開画像は、心軸−円周展開画像であっても心軸−角度展開画像であってもどちらでも適用可能である。従って、以下の説明において、特に明示しない限り単に展開画像と記載することにする。   Next, various application examples for improving the image diagnostic ability based on the developed image will be described. In the following application examples, the developed image can be applied to either a mandrel-circumferentially developed image or a mandrel-angular developed image. Accordingly, in the following description, unless otherwise specified, it is simply described as a developed image.

[応用例1]
図1に示すように、画像処理装置1は、さらにガイド画像発生部25を有している。ガイド画像発生部25は、表示中の展開画像の表示曲面の位置を明瞭に示すためのガイド画像のデータを発生する。表示部19は、発生されたガイド画像を展開画像と並べて表示する。以下に、応用例1に係る画像処理装置1の詳細について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 1]
As shown in FIG. 1, the image processing apparatus 1 further includes a guide image generation unit 25. The guide image generator 25 generates guide image data for clearly indicating the position of the display curved surface of the developed image being displayed. The display unit 19 displays the generated guide image side by side with the developed image. Details of the image processing apparatus 1 according to the application example 1 will be described below. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

図12は、展開画像I1とガイド画像GIとの表示例を示す図である。図12に示すように、ガイド画像GIは、標準的な形状を有する心筋領域を模式的に表現する画像である。例えば、ガイド画像GIは、模式的な心筋領域を3次元的に表現する3次元模式画像GI1と、模式的な心筋領域を基部側から見た平面模式画像GI2とを有している。3次元模式画像GI1と平面模式画像GI2とには、展開画像の表示曲面の位置を示す線L2が重ねられている。表示曲面の位置の表示のために、3次元模式画像GI1と平面模式画像GI2との内壁と外壁との間の距離は、図2のステップS4における正規化の数値範囲で正規化されている。ガイド画像発生部25は、ステップS5において指定された数値に対応する3次元模式画像GI1と平面模式画像GI2とにおける位置を計算し、計算された位置に線L2を重ね合わせる。そして、表示部19は、線L2が重ね合わされた3次元模式画像GI1と平面模式画像GI2とを表示する。ガイド画像発生部25は、3次元模式画像GI1と平面模式画像GI2とに、上述の基準線LR1、LR2,LR3を表示してもよい。これにより、ユーザは、展開画像上の位置を実際の心筋の位置との対応関係をさらに明瞭且つ容易に把握することができる。   FIG. 12 is a diagram illustrating a display example of the developed image I1 and the guide image GI. As shown in FIG. 12, the guide image GI is an image that schematically represents a myocardial region having a standard shape. For example, the guide image GI includes a three-dimensional schematic image GI1 that three-dimensionally represents a schematic myocardial region, and a planar schematic image GI2 obtained by viewing the schematic myocardial region from the base side. A line L2 indicating the position of the display curved surface of the developed image is superimposed on the three-dimensional schematic image GI1 and the planar schematic image GI2. In order to display the position of the display curved surface, the distance between the inner wall and the outer wall of the three-dimensional schematic image GI1 and the planar schematic image GI2 is normalized by the normalization numerical range in step S4 of FIG. The guide image generating unit 25 calculates positions in the three-dimensional schematic image GI1 and the planar schematic image GI2 corresponding to the numerical values specified in step S5, and superimposes the line L2 on the calculated position. The display unit 19 displays the three-dimensional schematic image GI1 and the planar schematic image GI2 on which the line L2 is superimposed. The guide image generating unit 25 may display the above-described reference lines LR1, LR2, and LR3 on the three-dimensional schematic image GI1 and the planar schematic image GI2. Thus, the user can more clearly and easily grasp the correspondence between the position on the developed image and the actual myocardial position.

このように画像処理装置1は、展開画像の表示曲面の位置を明瞭に示すガイド画像を発生し、展開画像と並べて表示することができる。ユーザは、ガイド画像を観察することで、展開画像の表示曲面の心筋領域における位置を明瞭且つ容易に把握することができる。かくして、応用例1に係る画像処理装置1によれば、心筋の画像診断能が向上する。   As described above, the image processing apparatus 1 can generate a guide image that clearly indicates the position of the display curved surface of the developed image, and display the guide image side by side with the developed image. By observing the guide image, the user can clearly and easily grasp the position of the display curved surface of the developed image in the myocardial region. Thus, according to the image processing apparatus 1 according to the application example 1, the image diagnostic ability of the myocardium is improved.

なお、上述の説明においては、例示のために表示部19は、ガイド画像として、模式的な心筋領域を3次元的に表現する3次元模式画像と、模式的な心筋領域を基部側から見た平面模式画像とを含んでいるとした。しかしながら、表示部19は、3次元模式画像と平面模式画像との何れか一方を表示してもよい。また、表示部19は、ガイド画像として、異なる向きの心筋領域を模式的に示す画像を表示してもよい。   In the above description, for the sake of illustration, the display unit 19 has viewed the schematic myocardial region three-dimensionally as a guide image, and the schematic myocardial region viewed from the base side. And a plane schematic image. However, the display unit 19 may display either a three-dimensional schematic image or a planar schematic image. Further, the display unit 19 may display an image schematically showing myocardial regions in different directions as the guide image.

[応用例2]
図1に示すように、画像処理装置1は、さらに投影処理部27を有している。投影処理部は、複数の表示曲面に関する複数の展開画像に画素値投影処理を施し単一の投影画像を発生する。以下に、応用例2に係る画像処理装置1の詳細について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application 2]
As shown in FIG. 1, the image processing apparatus 1 further includes a projection processing unit 27. The projection processing unit performs pixel value projection processing on a plurality of developed images related to a plurality of display curved surfaces to generate a single projection image. Details of the image processing apparatus 1 according to the application example 2 will be described below. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

制御部23は、操作部21を介したユーザからの指示に従って、応用例2に係る画像処理を実行するために、展開画像発生部17、投影処理部25、及び表示部19を制御する。まず、展開画像発生部17は、図13に示すように、内壁から外壁までの間の複数の表示曲面に関する複数の展開画像のデータをボリュームデータに基づいて発生する。すなわち、複数の表示曲面は、心筋領域の厚み方向に沿って配列されている。次に投影処理部25は、複数の展開画像のデータに対して所定の投影方向に沿って画素値投影処理を施し、複数の展開画像のデータから単一の投影画像のデータを発生する。所定の投影方向は、例えば、厚み方向に規定される。本実施形態に係る画素値投影処理としては、投影レイが貫く画素の画素値の加算値を投影画像の画素の画素値に設定する加算投影処理、最大値を投影画像の画素の画素値に設定する最大値投影処理、平均値を投影画像の画素の画素値に設定する平均値投影処理、最小値を投影画像の画素の画素値に設定する最小値投影処理等の既存のあらゆる投影処理が適用可能である。実行する画素値投影処理の種類は、ユーザにより操作部21を介して任意に選択可能である。   The control unit 23 controls the developed image generation unit 17, the projection processing unit 25, and the display unit 19 in order to execute image processing according to the application example 2 in accordance with an instruction from the user via the operation unit 21. First, as shown in FIG. 13, the developed image generation unit 17 generates a plurality of developed image data related to a plurality of display curved surfaces from the inner wall to the outer wall based on the volume data. That is, the plurality of display curved surfaces are arranged along the thickness direction of the myocardial region. Next, the projection processing unit 25 performs pixel value projection processing on a plurality of development image data along a predetermined projection direction, and generates single projection image data from the plurality of development image data. The predetermined projection direction is defined in the thickness direction, for example. As the pixel value projection processing according to the present embodiment, the addition projection processing for setting the pixel value of the pixel through which the projection ray penetrates is set to the pixel value of the pixel of the projection image, and the maximum value is set to the pixel value of the pixel of the projection image. All existing projection processes such as maximum value projection processing, average value projection processing that sets the average value to the pixel value of the pixel of the projection image, and minimum value projection processing that sets the minimum value to the pixel value of the pixel of the projection image are applied Is possible. The type of pixel value projection processing to be executed can be arbitrarily selected by the user via the operation unit 21.

そして、表示部19は、発生された投影画像を表示する。表示部19は、投影画像を画素値に応じたグレーで表示してもよいし、カラーで表示してもよい。上述の発生過程からわかるように、投影画像の各画素の画素値は、心筋領域の厚み方向に沿う全ての画素の画素値を反映している。また、投影画像は、展開画像と同一の直交座標系を有している。従って、ユーザは、単一の投影画像を観察するのみで、心筋に異常があるか否か、さらには、異常のある部位の位置を一目瞭然に把握することができる。   Then, the display unit 19 displays the generated projection image. The display unit 19 may display the projected image in gray corresponding to the pixel value or in color. As can be seen from the generation process described above, the pixel value of each pixel of the projection image reflects the pixel values of all the pixels along the thickness direction of the myocardial region. Further, the projection image has the same orthogonal coordinate system as the developed image. Therefore, the user can grasp at a glance whether or not there is an abnormality in the myocardium, and furthermore, the position of the abnormal part by simply observing a single projection image.

このように画像処理装置1は、複数の表示曲面に関する複数の展開画像のデータに基づいて単一の投影画像のデータを発生し、発生された投影画像を表示する。ユーザは、投影画像を観察することで心筋の全体の状態を容易且つ明瞭に把握することができる。かくして、応用例2に係る画像処理装置1によれば、心筋の画像診断能が向上する。   As described above, the image processing apparatus 1 generates data of a single projection image based on data of a plurality of developed images related to a plurality of display curved surfaces, and displays the generated projection image. The user can easily and clearly grasp the entire state of the myocardium by observing the projection image. Thus, according to the image processing apparatus 1 according to the application example 2, myocardial image diagnostic ability is improved.

[応用例3]
図1に示すように、画像処理装置1は、さらに厚さ算出部29を有している。厚さ算出部29は、展開画像の各画素について心筋領域の厚さを算出する。以下に、応用例3に係る画像処理装置1の詳細について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 3]
As shown in FIG. 1, the image processing apparatus 1 further includes a thickness calculation unit 29. The thickness calculator 29 calculates the thickness of the myocardial region for each pixel of the developed image. Details of the image processing apparatus 1 according to the application example 3 will be described below. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

応用例3において制御部23は、ユーザからの操作部21を介した指示に従って、応用例3に係る画像処理を実行するために、厚さ算出部29、展開画像発生部17、及び表示部19を制御する。まず、厚さ算出部29は、展開画像に含まれる複数の画素の各々について、図4の直線L1に沿う心筋領域の厚さ方向に関する内壁と外壁との間の距離、すなわち、心筋領域の厚さを算出する。心筋領域の厚さとしては、例えば、内壁と外壁との間に含まれる画素の数であっても、この画素の数に所定の定数を乗じた値であってもどちらでもよい。次に展開画像発生部17は、展開画像に含まれる複数の画素の各々について、算出された厚さを展開画像の画素値に割り付ける。これにより、心筋領域の厚さの空間分布を2次元の直交座標で表現する展開画像(以下、厚み展開画像と呼ぶことにする。)のデータが発生される。   In the application example 3, the control unit 23 performs the image processing according to the application example 3 in accordance with an instruction from the user via the operation unit 21, and the thickness calculation unit 29, the developed image generation unit 17, and the display unit 19. To control. First, for each of the plurality of pixels included in the developed image, the thickness calculation unit 29 determines the distance between the inner wall and the outer wall in the thickness direction of the myocardial region along the straight line L1 in FIG. 4, that is, the thickness of the myocardial region. Is calculated. The thickness of the myocardial region may be, for example, the number of pixels included between the inner wall and the outer wall, or a value obtained by multiplying the number of pixels by a predetermined constant. Next, the developed image generation unit 17 assigns the calculated thickness to the pixel value of the developed image for each of the plurality of pixels included in the developed image. Thereby, data of a developed image (hereinafter referred to as a thickness developed image) that expresses the spatial distribution of the thickness of the myocardial region with two-dimensional orthogonal coordinates is generated.

表示部19は、発生された厚み展開画像を表示する。厚み展開画像の表示方法は、厚みの値に応じたグレーで表示してもよいし、カラーで表示してもよい。また、表示部19は、厚み展開画像を等高線表示してもよい良いし、3次元グラフ表示してもよい。   The display unit 19 displays the generated thickness development image. The display method of the thickness development image may be displayed in gray according to the thickness value, or may be displayed in color. Further, the display unit 19 may display the thickness development image in a contour line or a three-dimensional graph.

このように応用例3に係る画像処理装置1は、心筋領域の厚みを2次元の直交座標で表現する厚み展開画像を発生し、発生された厚み展開画像を表示する。ユーザは、厚み展開画像を観察することで心筋の厚みを容易且つ明瞭に把握することができる。かくして、応用例3に係る画像処理装置1によれば、心筋の画像診断能が向上する。   As described above, the image processing apparatus 1 according to the application example 3 generates a thickness development image that expresses the thickness of the myocardial region with two-dimensional orthogonal coordinates, and displays the generated thickness development image. The user can easily and clearly grasp the thickness of the myocardium by observing the thickness development image. Thus, according to the image processing apparatus 1 according to the application example 3, the myocardial image diagnostic ability is improved.

[応用例4]
応用例4に係る画像処理装置1は、展開画像に血管領域を重ねて表示することができる。以下、応用例4に係る画像処理装置1について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 4]
The image processing apparatus 1 according to the application example 4 can display the blood vessel region so as to overlap the developed image. Hereinafter, the image processing apparatus 1 according to the application example 4 will be described. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

図14は、制御部23の制御のもとに行われる応用例4に係る画像処理の典型的な流れを模式的に示す図である。応用例4において制御部23は、ユーザからの指示に従って、応用例4に係る画像処理の実行のために、抽出部13、展開画像発生部17、及び表示部19を制御する。抽出部13は、ボリュームデータから心筋領域R1と血管領域R2とを抽出する。応用例4に係る血管領域R2としては、典型的には、心臓を取り囲む冠動脈に関する画素領域(以下、冠動脈領域と呼ぶことにする。)であるが、心筋を栄養する他の血管に関する血管領域であってもよい。抽出対象の血管領域の種類は、操作部21を介してユーザにより任意に選択可能である。   FIG. 14 is a diagram schematically illustrating a typical flow of image processing according to the application example 4 performed under the control of the control unit 23. In application example 4, the control unit 23 controls the extraction unit 13, the developed image generation unit 17, and the display unit 19 in order to execute image processing according to application example 4 in accordance with an instruction from the user. The extraction unit 13 extracts the myocardial region R1 and the blood vessel region R2 from the volume data. The blood vessel region R2 according to the application example 4 is typically a pixel region related to the coronary artery surrounding the heart (hereinafter referred to as a coronary artery region), but is a blood vessel region related to another blood vessel that feeds the myocardium. There may be. The type of blood vessel region to be extracted can be arbitrarily selected by the user via the operation unit 21.

次に、展開画像発生部17は、ボリュームデータに基づいて、心筋領域の展開画像I1と血管領域の展開画像I5とを発生する。血管領域の展開画像I5は、心筋領域の展開画像I1と同様の方法により発生される。なお血管領域の展開画像I5と心筋領域の展開画像I1との画像サイズが異なる場合、同一の画像サイズになるように、血管領域の展開画像I5または心筋領域の展開画像I1は縮小または拡大される。そして、表示部19は、心筋領域の展開画像I1に血管領域の展開画像I5を位置整合して重ね合わせて表示する。   Next, the developed image generation unit 17 generates a developed image I1 of the myocardial region and a developed image I5 of the blood vessel region based on the volume data. The developed image I5 of the blood vessel region is generated by the same method as the developed image I1 of the myocardial region. If the image size of the developed image I5 of the blood vessel region and the developed image I1 of the myocardial region are different, the developed image I5 of the blood vessel region or the developed image I1 of the myocardial region is reduced or enlarged so as to have the same image size. . Then, the display unit 19 displays the developed image I5 of the vascular region superimposed on the developed image I1 of the myocardial region in a position-aligned manner.

このように応用例4に係る画像処理装置1は、心筋領域の展開画像に血管領域の展開画像を重ね合わせて表示している。この表示により、ユーザは、心筋の性状と血管の性状とを互いの位置関係を関連付けて観察することができる。例えば、狭窄等の異常を起こしている血管がある場合、この血管が栄養している心筋部位にも異常が発生する。従って、応用例4のように、心筋領域の展開画像に血管領域の展開画像を重ね合わせて表示することは、疾患の責任結果の特定に有効な技術であり、臨床的にとても有用である。かくして、応用例4に係る画像処理装置1によれば、心筋の画像診断能が向上する。   As described above, the image processing device 1 according to the application example 4 displays the developed image of the blood vessel region superimposed on the developed image of the myocardial region. With this display, the user can observe the properties of the myocardium and the properties of the blood vessels in association with each other. For example, when there is a blood vessel causing an abnormality such as stenosis, an abnormality also occurs in a myocardial region that is fed by the blood vessel. Therefore, as shown in Application Example 4, displaying the developed image of the vascular region superimposed on the developed image of the myocardial region is an effective technique for specifying the responsible result of the disease, and is very useful clinically. Thus, according to the image processing apparatus 1 according to the application example 4, myocardial image diagnostic ability is improved.

[応用例5]
図1に示すように、応用例5に係る画像処理装置1は、さらに、ポーラーマップ発生部31を有している。ポーラーマップ発生部31は、ボリュームデータに基づいて展開画像と同様の表示曲面に関するポーラーマップを発生する。表示部19は、ポーラーマップと展開画像とを並べて表示する。以下、応用例5に係る画像処理装置1について詳細に説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 5]
As shown in FIG. 1, the image processing apparatus 1 according to the application example 5 further includes a polar map generator 31. The polar map generating unit 31 generates a polar map related to the display curved surface similar to the developed image based on the volume data. The display unit 19 displays the polar map and the developed image side by side. Hereinafter, the image processing apparatus 1 according to the application example 5 will be described in detail. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

図15は、展開画像I1とポーラーマップI6との表示例を示す図である。図15に示すように、展開画像I1とポーラーマップI6とは、表示部19により並べて表示される。例えば、ポーラーマップ発生部31は、ステップS5において指定された数値に対応する表示曲面に関するポーラーマップI6をボリュームデータに基づいて発生する。従って、表示されている展開画像I1とポーラーマップI6とは、同一の表示曲面を有している。ユーザは、単一の表示曲面に関する心筋の性状を展開画像I1とポーラーマップI6との両方で確認することができる。従って、梗塞領域や虚血領域の評価のワークフローが向上する。   FIG. 15 is a diagram illustrating a display example of the developed image I1 and the polar map I6. As shown in FIG. 15, the developed image I1 and the polar map I6 are displayed side by side by the display unit 19. For example, the polar map generator 31 generates a polar map I6 related to the display curved surface corresponding to the numerical value specified in step S5 based on the volume data. Accordingly, the displayed developed image I1 and polar map I6 have the same display curved surface. The user can check the property of the myocardium with respect to a single display curved surface both in the developed image I1 and the polar map I6. Therefore, the workflow for evaluating the infarct region and the ischemic region is improved.

また、ポーラーマップ発生部31は、ユーザにより操作部21を介して表示曲面の位置の変更指示に従って、変更後の表示曲面に関するポーラーマップを発生することができる。従って、応用例5に係る画像処理装置1は、展開画像I1の表示曲面とポーラーマップI6の表示曲面とを連動して変更することができる。これにより、応用例5に係る画像処理装置1は、展開画像I1とポーラーマップI6との連動ブラウジング表示処理を実現する。かくして、応用例5に係る画像処理装置1によれば、心筋の画像診断能が向上する。   In addition, the polar map generation unit 31 can generate a polar map related to the display surface after the change in accordance with an instruction to change the position of the display surface via the operation unit 21 by the user. Therefore, the image processing apparatus 1 according to the application example 5 can change the display curved surface of the developed image I1 and the display curved surface of the polar map I6 in conjunction with each other. Thereby, the image processing apparatus 1 according to the application example 5 realizes the linked browsing display process of the developed image I1 and the polar map I6. Thus, according to the image processing apparatus 1 according to the application example 5, myocardial image diagnostic ability is improved.

[応用例6]
図1に示すように、応用例6に係る画像処理装置1は、さらに合成画像発生部33を有している。合成画像発生部33は、形態指標に関する展開画像と機能指標に関する展開画像との合成画像を表示することができる。以下、応用例6に係る画像処理装置1について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 6]
As illustrated in FIG. 1, the image processing apparatus 1 according to the application example 6 further includes a composite image generation unit 33. The composite image generation unit 33 can display a composite image of the developed image related to the form index and the developed image related to the function index. Hereinafter, the image processing apparatus 1 according to Application Example 6 will be described. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

制御部23は、操作部21を介したユーザからの指示に従って、応用例6に係る画像処理を実行するために、表示曲面設定部15、展開画像発生部17、合成画像発生部33、及び表示部19を制御する。表示曲面設定部15は、形態指標に関するボリュームデータに含まれる心筋領域と機能指標に関するボリュームデータに含まれる心筋領域との両方に、図2のステップS5において指定された位置に表示曲面を設定する。なお、形態指標に関するボリュームデータに含まれる心筋領域と機能指標に関するボリュームデータに含まれる心筋領域とは、既存の方法により位置合わせされているものとする。展開画像発生部17は、形態指標に関するボリュームデータに基づいて表示曲面に関する展開画像のデータを発生し、機能指標に関するボリュームデータに基づいて表示曲面に関する展開画像のデータを発生する。合成画像発生部33は、形態指標に関する展開画像と機能指標に関する展開画像とを合成し、合成画像を発生する。表示部19は、合成画像を表示する。   The control unit 23 executes the image processing according to the application example 6 in accordance with an instruction from the user via the operation unit 21, so that the display curved surface setting unit 15, the developed image generation unit 17, the composite image generation unit 33, and the display The unit 19 is controlled. The display curved surface setting unit 15 sets the display curved surface at the position designated in step S5 of FIG. 2 for both the myocardial region included in the volume data related to the morphology index and the myocardial region included in the volume data related to the function index. It is assumed that the myocardial region included in the volume data related to the morphology index and the myocardial region included in the volume data related to the function index are aligned by an existing method. The developed image generation unit 17 generates developed image data related to the display curved surface based on the volume data related to the form index, and generates developed image data related to the display curved surface based on the volume data related to the function index. The composite image generation unit 33 combines the developed image related to the form index and the developed image related to the function index to generate a composite image. The display unit 19 displays a composite image.

このように応用例6に係る画像処理装置1は、形態指標に関する展開画像と機能指標に関する展開画像との合成画像を発生し、表示することができる。この表示により、ユーザは、心筋に関する機能指標の空間分布を、解剖学的位置関係を明瞭にして展開画像上で確認することができる。かくして、応用例6に係る画像処理装置1によれば、心筋の画像診断能が向上する。   As described above, the image processing apparatus 1 according to the application example 6 can generate and display a composite image of the developed image related to the form index and the developed image related to the function index. With this display, the user can confirm the spatial distribution of the function index related to the myocardium on the developed image while clarifying the anatomical positional relationship. Thus, according to the image processing apparatus 1 according to the application example 6, the myocardial image diagnostic ability is improved.

[応用例7]
図1に示すように、応用例7に係る画像処理装置1は、さらに曲面画像発生部35を有している。曲面画像発生部35は、表示曲面の画素値の空間分布を3次元的に表現する2次元画像(以下、曲面画像と呼ぶことにする。)のデータをボリュームデータに基づいて発生する。以下、応用例7に係る画像処理装置1について説明する。なお以下の説明において、本実施形態と略同一の機能を有する構成要素については、同一符号を付し、必要な場合にのみ重複説明する。
[Application Example 7]
As illustrated in FIG. 1, the image processing apparatus 1 according to the application example 7 further includes a curved surface image generation unit 35. The curved surface image generation unit 35 generates data of a two-dimensional image (hereinafter referred to as a curved surface image) that three-dimensionally represents the spatial distribution of pixel values of the display curved surface based on the volume data. Hereinafter, the image processing apparatus 1 according to Application Example 7 will be described. In the following description, components having substantially the same functions as those of the present embodiment are denoted by the same reference numerals, and redundant description will be given only when necessary.

制御部23は、操作部21を介したユーザからの指示に従って、応用例7に係る画像処理を実行するために、表示曲面設定部15、曲面画像発生部35、及び表示部19を制御する。曲面画像発生部35は、図2のステップS5において指定された位置に対応する表示曲面に関する曲面画像のデータをボリュームデータに基づいて発生する。例えば、曲面画像発生部35は、ボリュームデータから表示曲面を切り出し、切り出された表示曲面にレンダリング処理を実行し、曲面画像のデータを発生する。また、曲面発生部35は、表示曲面から外側の領域を心筋領域から削除し、残りの領域にレンダリング処理を実行し、曲面画像のデータを発生してもよい。視点の位置や視線の方向は、ユーザにより操作部21を介して任意に設定可能である。表示部19は、発生された曲面画像を表示する。   The control unit 23 controls the display curved surface setting unit 15, the curved surface image generation unit 35, and the display unit 19 in order to execute the image processing according to the application example 7 in accordance with an instruction from the user via the operation unit 21. The curved surface image generation unit 35 generates curved surface image data relating to the display curved surface corresponding to the position designated in step S5 of FIG. 2 based on the volume data. For example, the curved surface image generation unit 35 cuts out a display curved surface from the volume data, executes rendering processing on the cut out display curved surface, and generates curved surface image data. In addition, the curved surface generation unit 35 may delete a region outside the display curved surface from the myocardial region, perform rendering processing on the remaining region, and generate curved surface image data. The position of the viewpoint and the direction of the line of sight can be arbitrarily set by the user via the operation unit 21. The display unit 19 displays the generated curved surface image.

図16は、曲面画像I7の表示例を示す図である。図16に示すように、表示部19は、例えば、曲面画像I7と展開画像I1とを並べて表示することができる。曲面画像I7の表示曲面部分は、機能指標の指標値に応じたカラーで表示される。曲面画像I7は、表示曲面の画素値の空間分布を3次元的に表現しているので、形状の歪みがない。すなわち、曲面画像I7は、表示曲面の画素値の空間分布を忠実に再現している。従って、ユーザは、曲面画像I7と展開画像I1とを見比べることにより、展開画像I1上の位置と実際の位置との対応関係をさらに明確にすることができる。かくして、応用例7に係る画像処理装置1によれば、心筋の画像診断能が向上する。   FIG. 16 is a diagram illustrating a display example of the curved surface image I7. As shown in FIG. 16, the display unit 19 can display, for example, the curved surface image I7 and the developed image I1 side by side. The display curved surface portion of the curved surface image I7 is displayed in a color corresponding to the index value of the function index. Since the curved surface image I7 expresses the spatial distribution of the pixel values of the display curved surface three-dimensionally, there is no distortion of the shape. That is, the curved surface image I7 faithfully reproduces the spatial distribution of the pixel values of the display curved surface. Therefore, the user can further clarify the correspondence between the position on the developed image I1 and the actual position by comparing the curved surface image I7 with the developed image I1. Thus, according to the image processing apparatus 1 according to the application example 7, the image diagnostic ability of the myocardium is improved.

なお、応用例7において合成画像発生部33は、同一の表示曲面に関する、形態指標に関する曲面画像と機能指標に関する曲面画像との合成画像を発生し、表示部19は、この合成画像を表示しても良い。   In Application Example 7, the composite image generation unit 33 generates a composite image of the curved image related to the form index and the curved image related to the function index related to the same display curved surface, and the display unit 19 displays the composite image. Also good.

例えば、血管が心筋内にもぐりこんでいる症例において、この実施例の有用性を説明する。心筋領域全体に関する3次元画像を表示した場合、血管の形態情報が心筋の機能情報に埋もれてしまい、ユーザは、血管の形態情報を観察することができない。しかし、本実施形態によれは、血管が走行している位置まで表示曲面を心筋の内部側に移動させることができる。従って応用例7に係る画像処理装置1は、血管が走行している位置を含む表示曲面を設定し、この表示曲面の形態指標に関する曲面画像と機能指標に関する曲面画像との合成画像を発生し、この合成画像を表示する。この合成画像の表示により、ユーザは、血管の走行と心筋の機能情報とを同時に観察することができる。   For example, the usefulness of this embodiment will be described in a case where a blood vessel is recessed into the myocardium. When a three-dimensional image related to the entire myocardial region is displayed, the blood vessel shape information is buried in the myocardial function information, and the user cannot observe the blood vessel shape information. However, according to this embodiment, the display curved surface can be moved to the inner side of the myocardium to the position where the blood vessel is running. Therefore, the image processing apparatus 1 according to the application example 7 sets a display curved surface including the position where the blood vessel is running, generates a composite image of the curved surface image related to the form index of the display curved surface and the curved surface image related to the function index, This composite image is displayed. By displaying the composite image, the user can observe the running of the blood vessel and the function information of the myocardium at the same time.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…画像処理装置、11…記憶部、13…抽出部、15…表示曲面設定部、17…展開画像発生部、19…表示部、21…操作部、23…制御部、25…ガイド画像発生部、27…投影処理部、29…厚さ算出部、31…ポーラーマップ発生部、33…合成画像発生部、35…曲面画像発生部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... Memory | storage part, 13 ... Extraction part, 15 ... Display curved surface setting part, 17 ... Development | development image generation part, 19 ... Display part, 21 ... Operation part, 23 ... Control part, 25 ... Guide image generation 27: Projection processing unit, 29 ... Thickness calculation unit, 31 ... Polar map generation unit, 33 ... Composite image generation unit, 35 ... Curved surface image generation unit

Claims (19)

心臓に関するボリュームデータを記憶する記憶部と、
前記ボリュームデータから心筋領域を抽出する抽出部と、
前記抽出された心筋領域のうちの外壁から内壁までの間の所定位置に、表示のための曲面を設定する設定部と、
前記曲面における画素値の空間分布を2次元の直交座標系で表現する展開画像のデータを前記ボリュームデータに基づいて発生する展開画像発生部と、
前記心筋領域の模式画像を前記発生された展開画像とともに表示する表示部と、
を具備する画像処理装置。
A storage unit for storing volume data relating to the heart;
An extraction unit for extracting a myocardial region from the volume data;
A setting unit that sets a curved surface for display at a predetermined position between the outer wall and the inner wall of the extracted myocardial region;
A developed image generating unit for generating data of a developed image representing a spatial distribution of pixel values on the curved surface in a two-dimensional orthogonal coordinate system based on the volume data;
A display unit for displaying a schematic image of the myocardial region together with the generated developed image;
An image processing apparatus comprising:
心臓に関するボリュームデータを記憶する記憶部と、
前記ボリュームデータから心筋領域を抽出する抽出部と、
前記抽出された心筋領域のうちの外壁から内壁までの間の所定位置に、表示のための曲面を設定する設定部と、
前記曲面における画素値の空間分布を2次元の直交座標系で表現する展開画像のデータを前記ボリュームデータに基づいて発生する展開画像発生部と、
前記発生された展開画像を表示する表示部と、
を具備する画像処理装置であって、
前記展開画像発生部は、入力操作に基づいて前記所定位置にある前記曲面の位置を前記心筋領域の厚さ方向に沿って変更することにより前記展開画像を更新する、
画像処理装置。
A storage unit for storing volume data relating to the heart;
An extraction unit for extracting a myocardial region from the volume data;
A setting unit that sets a curved surface for display at a predetermined position between the outer wall and the inner wall of the extracted myocardial region;
A developed image generating unit for generating data of a developed image representing a spatial distribution of pixel values on the curved surface in a two-dimensional orthogonal coordinate system based on the volume data;
A display unit for displaying the generated developed image;
An image processing apparatus comprising :
The developed image generation unit updates the developed image by changing the position of the curved surface at the predetermined position along the thickness direction of the myocardial region based on an input operation.
Image processing device.
前記設定部は、
前記外壁と前記内壁との間の距離を既定の数値範囲で正規化し、
前記所定位置として前記数値範囲内の所定の数値を、ユーザからの指示に従って、または自動的に指定し、
前記指定された数値に対応する前記曲面を前記心筋領域に設定する、
請求項1又は2記載の画像処理装置。
The setting unit
Normalize the distance between the outer wall and the inner wall by a predetermined numerical range;
A predetermined numerical value within the numerical value range as the predetermined position is designated according to an instruction from a user or automatically,
Setting the curved surface corresponding to the designated numerical value in the myocardial region;
The image processing apparatus according to claim 1 or 2 .
前記表示部は、前記心筋領域の模式画像を前記展開画像とともに表示する、請求項記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the display unit displays a schematic image of the myocardial region together with the developed image. 前記表示部は、前記模式画像に前記曲面の位置を示す目印を重ねる、請求項1又は4記載の画像処理装置。 The display unit superimposes a mark indicating the position of the curved surface to the pattern image, the image processing apparatus according to claim 1 or 4, wherein. 前記所定位置は、前記外壁から前記内壁までの間の複数の位置を含み、
前記展開画像発生部は、前記複数の位置にそれぞれ対応する複数の展開画像を前記ボリュームデータに基づいて発生し、前記発生された複数の展開画像に基づいて単一の投影画像を発生する、
請求項1又は2記載の画像処理装置。
The predetermined position includes a plurality of positions between the outer wall and the inner wall,
The developed image generation unit generates a plurality of developed images corresponding to the plurality of positions based on the volume data, and generates a single projection image based on the generated plurality of developed images.
The image processing apparatus according to claim 1 or 2 .
前記表示部は、前記投影画像を表示する、請求項記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein the display unit displays the projection image. 前記表示部は、前記投影画像の画素の画素値に応じたカラーで前記投影画像を表示する、請求項記載の画像処理装置。 The image processing apparatus according to claim 7 , wherein the display unit displays the projection image in a color corresponding to a pixel value of a pixel of the projection image. 前記表示部は、前記展開画像を等高線表示または3次元グラフ表示する、請求項1又は2記載の画像処理装置。 The display unit, the developed image to contour lines or 3-D graph display of the image processing apparatus according to claim 1 or 2, wherein. 前記画素値は、パーフュージョン解析値または前記心筋領域の厚み値である、請求項1又は2記載の画像処理装置。 The pixel value is a perfusion analysis value or thickness values of the myocardial region, the image processing apparatus according to claim 1 or 2, wherein. 前記抽出部は、前記ボリュームデータから血管領域を抽出し、
前記展開画像発生部は、前記抽出された血管領域が前記展開画像に位置整合して重ね合わされた画像を発生し、
前記表示部は、前記重ね合わされた画像を表示する、
請求項1又は2記載の画像処理装置。
The extraction unit extracts a blood vessel region from the volume data,
The developed image generation unit generates an image in which the extracted blood vessel region is superimposed on the developed image in position alignment,
The display unit displays the superimposed image;
The image processing apparatus according to claim 1 or 2 .
前記展開画像の前記直交座標系は、前記心筋領域の心軸上の第1の基準点からの距離と
前記心筋領域の前記心軸回りの第2の基準点からの距離とにより規定される第1の座標系、または、前記心軸上の前記第1の基準点からの距離と前記心軸りの前記第2の基準点からの回転角度とにより規定される第2の座標系により規定され、
前記展開画像は、前記第1の座標系により表現される第1の展開画像と、前記第2の座標系により表現される第2の展開画像とを含む、
請求項1又は2記載の画像処理装置。
The orthogonal coordinate system of the developed image is defined by a distance from a first reference point on the heart axis of the myocardial region and a distance from a second reference point around the heart axis of the myocardial region. 1 of the coordinate system, or defined by a second coordinate system defined by the rotation angle from the distance between the arbor rotational Rino said second reference point from the first reference point on said mandrel And
The developed image includes a first developed image represented by the first coordinate system and a second developed image represented by the second coordinate system.
The image processing apparatus according to claim 1 or 2 .
前記展開画像発生部は、
前記心筋領域の心軸に沿って配列される複数の断面を前記心筋領域に設定し、
前記設定された複数の断面の各々について、前記断面と前記曲面とが交差する円周上の画素の画素値を、前記第1の座標系に割り付けることによって、前記第1の展開画像を発生する、
請求項12記載の画像処理装置。
The developed image generation unit includes:
Setting a plurality of cross-sections arranged along the cardiac axis of the myocardial region in the myocardial region;
For each of the plurality of set cross sections, the first developed image is generated by assigning pixel values of pixels on the circumference where the cross section and the curved surface intersect to the first coordinate system. ,
The image processing apparatus according to claim 12 .
前記展開画像発生部は、
前記心筋領域の心軸に沿って配列される複数の断面を前記心筋領域に設定し、
前記設定された複数の断面の各々について、前記断面と前記曲面とが交差する円周上の画素の画素値を、前記第2の座標系に割り付けることによって、前記第2の展開画像を発生する、
請求項12記載の画像処理装置。
The developed image generation unit includes:
Setting a plurality of cross-sections arranged along the cardiac axis of the myocardial region in the myocardial region;
For each of the plurality of set cross sections, the second developed image is generated by assigning pixel values of pixels on the circumference where the cross section and the curved surface intersect to the second coordinate system. ,
The image processing apparatus according to claim 12 .
前記展開画像発生部は、前記第1の展開画像に基づいて前記第2の展開画像を発生する、請求項12記載の画像処理装置。 The image processing apparatus according to claim 12 , wherein the developed image generation unit generates the second developed image based on the first developed image. 前記曲面に関するポーラーマップを前記ボリュームデータに基づいて発生するポーラーマップ発生部をさらに備え、
前記表示部は、前記展開画像と前記ポーラーマップとを並べて表示する、
請求項1又は2記載の画像処理装置。
A polar map generating unit that generates a polar map related to the curved surface based on the volume data;
The display unit displays the developed image and the polar map side by side;
The image processing apparatus according to claim 1 or 2 .
合成画像発生部をさらに備え、
前記記憶部は、前記ボリュームデータとして、形態指標に関する形態ボリュームデータと機能指標に関する機能ボリュームデータとを記憶し、
前記展開画像発生部は、前記展開画像として、前記形態ボリュームデータに基づいて前記曲面に関する形態展開画像のデータを発生し、前記機能ボリュームデータに基づいて前記曲面に関する機能展開画像のデータを発生し、
前記合成画像発生部は、前記形態展開画像と前記機能展開画像との合成画像を発生し、
前記表示部は、前記合成画像を表示する、
請求項1又は2記載の画像処理装置。
Further comprising a composite image generator,
The storage unit stores, as the volume data, morphological volume data relating to morphological indicators and functional volume data relating to functional indicators,
The developed image generation unit generates, as the developed image, morphologically developed image data relating to the curved surface based on the morphological volume data, and generates functionally developed image data relating to the curved surface based on the functional volume data,
The composite image generation unit generates a composite image of the form development image and the function development image,
The display unit displays the composite image;
The image processing apparatus according to claim 1 or 2 .
記曲面の画素値の空間分布を3次元的に表現する2次元画像のデータを前記ボリュームデータに基づいて発生する2次元画像発生部をさらに備え、
前記表示部は、前記2次元画像を表示する、
請求項1又は2記載の画像処理装置。
Further comprising a 2-dimensional image generating unit that generates based on the data of the two-dimensional image three-dimensionally expressing the spatial distribution of the pixel value before Symbol song plane to the volume data,
The display unit displays the two-dimensional image;
The image processing apparatus according to claim 1 or 2 .
合成画像発生部をさらに備え、
前記記憶部は、前記ボリュームデータとして、形態指標に関する形態ボリュームデータと機能指標に関する機能ボリュームデータとを記憶し、
前記2次元画像発生部は、前記2次元画像として、前記形態ボリュームデータに基づいて前記曲面に関する形態2次元画像のデータを発生し、前記機能ボリュームデータに基づいて前記曲面に関する機能2次元画像のデータを発生し、
前記合成画像発生部は、前記形態2次元画像と前記機能2次元画像との合成画像を発生し、
前記表示部は、前記合成画像を表示する、
請求項18記載の画像処理装置。
Further comprising a composite image generator,
The storage unit stores, as the volume data, morphological volume data relating to morphological indicators and functional volume data relating to functional indicators,
The two-dimensional image generation unit generates, as the two-dimensional image, morphological two-dimensional image data relating to the curved surface based on the morphological volume data, and functional two-dimensional image data relating to the curved surface based on the functional volume data. Occur and
The composite image generation unit generates a composite image of the form two-dimensional image and the functional two-dimensional image,
The display unit displays the composite image;
The image processing apparatus according to claim 18 .
JP2011224207A 2011-10-11 2011-10-11 Image processing device Active JP5901930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011224207A JP5901930B2 (en) 2011-10-11 2011-10-11 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011224207A JP5901930B2 (en) 2011-10-11 2011-10-11 Image processing device

Publications (2)

Publication Number Publication Date
JP2013081660A JP2013081660A (en) 2013-05-09
JP5901930B2 true JP5901930B2 (en) 2016-04-13

Family

ID=48527510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224207A Active JP5901930B2 (en) 2011-10-11 2011-10-11 Image processing device

Country Status (1)

Country Link
JP (1) JP5901930B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6411072B2 (en) * 2014-06-02 2018-10-24 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, medical image processing method, and program
JP6452974B2 (en) * 2014-07-15 2019-01-16 キヤノンメディカルシステムズ株式会社 Medical image processing device
JP6357049B2 (en) * 2014-08-11 2018-07-11 キヤノン株式会社 Image processing apparatus, medical image diagnostic system, image processing method, and program
JP6098677B2 (en) * 2014-10-10 2017-03-22 キヤノンマーケティングジャパン株式会社 Medical image processing apparatus, program mountable in medical image processing apparatus, and medical image processing method
US10070837B2 (en) 2014-10-10 2018-09-11 Canon Kabushiki Kaisha Medical imaging apparatus, program installable in medical imaging apparatus, and medical imaging method
US10586398B2 (en) * 2014-12-18 2020-03-10 Koninklijke Philips N.V. Medical image editing
JP6849391B2 (en) * 2016-10-28 2021-03-24 キヤノンメディカルシステムズ株式会社 Medical image processing device and medical image processing method
JP6849392B2 (en) * 2016-10-28 2021-03-24 キヤノンメディカルシステムズ株式会社 Medical image processing device and medical image processing method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113215A (en) * 1998-10-08 2000-04-21 Dainippon Screen Mfg Co Ltd Image processor, and recording medium recorded with program for executing processing therefor
JP3801977B2 (en) * 2002-12-05 2006-07-26 ザイオソフト株式会社 Image analysis apparatus, function map creation means for image analysis apparatus, image analysis method, and image analysis program
JP4709604B2 (en) * 2004-08-03 2011-06-22 株式会社東芝 Image display device, image display method, storage medium, and program
JP2006204330A (en) * 2005-01-25 2006-08-10 Hitachi Medical Corp Image display device
JP5794752B2 (en) * 2007-07-24 2015-10-14 株式会社東芝 X-ray computed tomography apparatus and image processing apparatus
EP2203894B1 (en) * 2007-09-03 2011-03-02 Koninklijke Philips Electronics N.V. Visualization of voxel data
JP5019220B2 (en) * 2007-10-05 2012-09-05 株式会社東芝 Medical image display device and medical image display program
WO2009119691A1 (en) * 2008-03-25 2009-10-01 株式会社 東芝 Medical image processor and x-ray diagnostic apparatus
JP5426538B2 (en) * 2008-05-01 2014-02-26 株式会社モリタ製作所 Medical X-ray CT imaging apparatus, medical X-ray CT image display apparatus and display method thereof
WO2010020933A2 (en) * 2008-08-20 2010-02-25 Koninklijke Philips Electronics N.V. Processing cardiac data for personalized aha diagram
JP2011143115A (en) * 2010-01-15 2011-07-28 Toshiba Corp Medical image processing apparatus, medical image diagnosing apparatus and medical image processing program

Also Published As

Publication number Publication date
JP2013081660A (en) 2013-05-09

Similar Documents

Publication Publication Date Title
JP5901930B2 (en) Image processing device
JP6129476B2 (en) Medical image processing device
JP5224451B2 (en) Projection image creation apparatus, method and program
US9808213B2 (en) Image processing apparatus, image processing method, medical image diagnostic system, and storage medium
JP4559501B2 (en) Cardiac function display device, cardiac function display method and program thereof
JP5309109B2 (en) Medical image processing apparatus and method, and program
JP4545169B2 (en) Image display method, apparatus and program
US8285012B2 (en) Image display apparatus and program
US9679377B2 (en) Medical image processing apparatus and a medical image processing method
US20090022387A1 (en) Medical image display system and medical image display program
JP2009018005A (en) Bull's eye map creating apparatus, bull's eye map creating method, and image processing apparatus
JP2011125567A (en) Information processor, information processing method, information processing system and program
JP2010528750A (en) Inspection of tubular structures
JP5815513B2 (en) Image processing apparatus and image processing method
WO2013140750A1 (en) Medical image display control device, method, and program
JP4786307B2 (en) Image processing device
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP5100041B2 (en) Image processing apparatus and image processing program
JP6433190B2 (en) Image processing apparatus, image processing method, and program
JP2008000270A (en) Biotissue identification image creation method, device and program
US20080181475A1 (en) Medical image generating device, method and program
JP2013043016A (en) Apparatus and program for displaying medical image
JP6357049B2 (en) Image processing apparatus, medical image diagnostic system, image processing method, and program
JP2017143972A (en) Medical image display device, medical image display system, and program
JP2016036685A (en) Image processor, image processing method, medical image diagnostic system and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160309

R150 Certificate of patent or registration of utility model

Ref document number: 5901930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350