[go: up one dir, main page]

JP2013081713A - Medical image processing apparatus - Google Patents

Medical image processing apparatus Download PDF

Info

Publication number
JP2013081713A
JP2013081713A JP2011225208A JP2011225208A JP2013081713A JP 2013081713 A JP2013081713 A JP 2013081713A JP 2011225208 A JP2011225208 A JP 2011225208A JP 2011225208 A JP2011225208 A JP 2011225208A JP 2013081713 A JP2013081713 A JP 2013081713A
Authority
JP
Japan
Prior art keywords
cross
image
sectional
sectional image
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011225208A
Other languages
Japanese (ja)
Inventor
Koji Ota
浩二 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011225208A priority Critical patent/JP2013081713A/en
Publication of JP2013081713A publication Critical patent/JP2013081713A/en
Pending legal-status Critical Current

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】画素値に絶対的な尺度を定義することができない医用画像の表示に係る操作者の負担を軽減する。
【解決手段】医用画像処理装置4は、被検体に対する断面位置が画像毎に特定済である基本断面画像群と、被検体に対する断面位置が画像毎に未特定である断面画像群とを比較し、基本断面画像に一致した断面画像の断面位置を当該基本断面画像の断面位置と同一と特定する断面特定部4eを備える。これにより、医用画像の表示に係る操作者の負担を軽減することができる。
【選択図】図1
An object of the present invention is to reduce an operator's burden related to display of a medical image for which an absolute scale cannot be defined for a pixel value.
A medical image processing apparatus compares a basic cross-sectional image group in which a cross-sectional position with respect to a subject is specified for each image and a cross-sectional image group in which a cross-sectional position with respect to a subject is unspecified for each image. A cross-section specifying unit 4e that specifies the cross-sectional position of the cross-sectional image that matches the basic cross-sectional image to be the same as the cross-sectional position of the basic cross-sectional image is provided. Thereby, the burden on the operator related to the display of the medical image can be reduced.
[Selection] Figure 1

Description

本発明の実施形態は、医用画像処理装置に関する。   Embodiments described herein relate generally to a medical image processing apparatus.

医用画像診断装置では、通常、画像収集後の後処理として、医用画像を記憶した記憶装置や画像サーバ、保存メディア(記憶媒体)などから画像を選択して表示し、その画像に対して目的に応じた臨床応用解析機能を実行するという一連の作業が存在する。このとき、表示される画像には、X線CT装置(X線コンピュータ断層撮像装置)やMRI装置(磁気共鳴画像診断装置)などの各種の医用画像診断装置により撮像された画像が混在することが多く、同一医用画像診断装置であっても部位が異なる画像が混在することがある。   In a medical image diagnostic apparatus, usually, as post-processing after image collection, an image is selected from a storage device, an image server, or a storage medium (storage medium) that stores the medical image, and is displayed for the purpose. There is a series of tasks to execute the corresponding clinical application analysis function. At this time, the displayed image may include images captured by various medical image diagnostic apparatuses such as an X-ray CT apparatus (X-ray computed tomography apparatus) and an MRI apparatus (magnetic resonance imaging apparatus). In many cases, even in the same medical image diagnostic apparatus, images having different parts may be mixed.

前述のX線CT装置により撮像された画像(断面画像)においては、画素毎にCT値が定められ、画像を構成する画素値にCT値が定義されている。このCT値(HU:ハンスフィールドユニット)は、物質のX線吸収係数を基準物質(例えば、水)からの相対値として表し、X線吸収係数に比例した値である。例えば、基準となる水のCT値が0(ゼロ)、骨のCT値が1000、空気のCT値が−1000に設定される。   In an image (cross-sectional image) captured by the above-described X-ray CT apparatus, a CT value is determined for each pixel, and a CT value is defined as a pixel value constituting the image. This CT value (HU: Hansfield unit) represents the X-ray absorption coefficient of a substance as a relative value from a reference substance (for example, water), and is a value proportional to the X-ray absorption coefficient. For example, the CT value of reference water is set to 0 (zero), the CT value of bone is set to 1000, and the CT value of air is set to -1000.

この画像を液晶ディスプレイなどの表示装置に表示する場合には、画素値であるCT値を例えばモノクロ256階調の濃淡値(輝度値)に階調変換する表示パラメータを設定する必要がある。例えば、操作者は、前述のCT値(−1000〜1000)のうちどの範囲を濃淡表示するかをWL(ウインドレベル)及びWW(ウインド幅)で決定し、その範囲のCT値を階調変換する。実際には、表示したい部位に応じてWL及びWWを経験的に設定する。この設定後、同一部位の画像であれば、CT値である画素値に対応する濃淡値(輝度値)は同じになる。このように画素値に絶対的な尺度であるCT値を定義することができる医用画像では、同一部位の画像を同じ条件で表示するため、比較的容易に表示パラメータを設定することが可能である。   When this image is displayed on a display device such as a liquid crystal display, it is necessary to set display parameters for gradation conversion of the CT value, which is a pixel value, to a gradation value (luminance value) of, for example, monochrome 256 gradations. For example, the operator determines which range of the above CT values (-1000 to 1000) is to be displayed with light and shade by WL (window level) and WW (window width), and converts the CT value in the range to gradation. To do. Actually, WL and WW are set empirically according to the part to be displayed. After this setting, if the images are in the same part, the gray values (luminance values) corresponding to the pixel values that are CT values are the same. In this way, in a medical image in which a CT value, which is an absolute scale, can be defined as a pixel value, an image of the same part is displayed under the same conditions, so that display parameters can be set relatively easily. .

特開2006−61601号公報JP 2006-61601 A

しかしながら、画素値に絶対的な尺度であるCT値を定義することができない医用画像では、同一部位の画像であっても撮像方法や撮像パラメータによって画素値が異なってしまう。このため、操作者は、同一部位の画像を同じ条件で表示するために試行錯誤して適切な表示パラメータを設定することになる。また、表示パラメータがプリセットされていた場合でも、その表示パラメータは参考程度にしかならず、操作者はプリセットの表示パラメータを最適な表示パラメータに経験で変更する必要がある。このようなことから、画素値に絶対的な尺度を定義することができない医用画像を表示する際には、その表示に係る操作者の負担は大きくなっている。   However, in a medical image in which a CT value, which is an absolute scale, cannot be defined for the pixel value, the pixel value varies depending on the imaging method and imaging parameters even in the same region. For this reason, the operator sets appropriate display parameters through trial and error in order to display images of the same part under the same conditions. Even if the display parameters are preset, the display parameters are only a reference level, and the operator needs to change the preset display parameters to the optimum display parameters by experience. For this reason, when displaying a medical image in which an absolute scale cannot be defined for the pixel value, an operator's burden related to the display is increased.

本発明が解決しようとする課題は、画素値に絶対的な尺度を定義することができない医用画像の表示に係る操作者の負担を軽減することができる医用画像処理装置を提供することである。   The problem to be solved by the present invention is to provide a medical image processing apparatus that can reduce the burden on the operator related to the display of a medical image for which an absolute scale cannot be defined for the pixel value.

実施形態に係る医用画像処理装置は、被検体に対する断面位置が画像毎に特定済である基本断面画像群と、被検体に対する断面位置が画像毎に未特定である断面画像群とを比較し、基本断面画像に一致した断面画像の断面位置を当該基本断面画像の断面位置と同一と特定する断面特定部を備える。   The medical image processing apparatus according to the embodiment compares a basic cross-sectional image group in which the cross-sectional position with respect to the subject is specified for each image and a cross-sectional image group in which the cross-sectional position with respect to the subject is unspecified for each image, A cross-section specifying unit that specifies the cross-sectional position of the cross-sectional image that matches the basic cross-sectional image to be the same as the cross-sectional position of the basic cross-sectional image is provided.

実施形態に係る医用画像処理システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a medical image processing system according to an embodiment. 図1に示す医用画像処理システムが備える医用画像処理装置が行う画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing which the medical image processing apparatus with which the medical image processing system shown in FIG. 1 is provided. 図2に示す画像処理における断面位置特定処理及び表示パラメータ算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the cross-section position specific | specification process and display parameter calculation process in the image processing shown in FIG. 画像の領域照合を説明するための説明図である。It is explanatory drawing for demonstrating the area | region collation of an image. 画像の回転及び並進の補正を説明するための説明図である。It is explanatory drawing for demonstrating correction | amendment of rotation and translation of an image. マスク画像を用いた領域照合を説明するための説明図である。It is explanatory drawing for demonstrating the area collation using a mask image.

実施の一形態について図面を参照して説明する。   An embodiment will be described with reference to the drawings.

図1に示すように、本実施形態に係る医用画像処理システム1は、テンプレートを保管するテンプレートデータベース2と、被検体の画像データを保管する画像データベース3と、画像データを処理する医用画像処理装置4と、画像データに基づいて医用画像を表示する表示装置5とを備えている。   As shown in FIG. 1, a medical image processing system 1 according to this embodiment includes a template database 2 that stores templates, an image database 3 that stores image data of a subject, and a medical image processing apparatus that processes image data. 4 and a display device 5 for displaying a medical image based on the image data.

テンプレートデータベース2は、テンプレートとして、被検体に対する断面位置が画像毎に特定済である基本断面画像群を含む基本断面画像情報を蓄積して管理する。基本断面画像群は、断面画像の断面位置が被検体のどの部位のどこの位置であるかが特定されたものであり、テンプレートとして用いられる。基本断面画像情報は、必要に応じて、撮影情報(例えば撮影年月日や装置種別)などを含む付帯情報を有している。なお、テンプレートデータベース2としては、例えば、磁気ディスク装置や半導体ディスク装置を用いることが可能である。   The template database 2 accumulates and manages basic cross-sectional image information including a basic cross-sectional image group in which the cross-sectional position with respect to the subject has been specified for each image as a template. The basic cross-sectional image group is a group in which the cross-sectional position of the cross-sectional image is specified in which part of the subject, and is used as a template. The basic cross-sectional image information has incidental information including photographing information (for example, photographing date and device type) as necessary. As the template database 2, for example, a magnetic disk device or a semiconductor disk device can be used.

画像データベース3は、被検体の画像データとして、被検体に対する断面位置が画像毎に未特定である断面画像群を含む未特定断面画像情報を蓄積して管理する。断面画像群は、画素値に絶対的な尺度を定義することができないMRI装置などの医用画像診断装置により撮像されたスライス画像群である。未特定断面画像情報は、患者IDや患者名、撮影情報(例えば撮影年月日や装置種別)などを含む付帯情報も有している。なお、画像データベース3としては、例えば、磁気ディスク装置や半導体ディスク装置などを用いることが可能である。   The image database 3 accumulates and manages unspecified cross-sectional image information including a cross-sectional image group in which the cross-sectional position with respect to the subject is unspecified for each image as the image data of the subject. The cross-sectional image group is a slice image group captured by a medical image diagnostic apparatus such as an MRI apparatus that cannot define an absolute scale for pixel values. The unspecified cross-sectional image information also includes incidental information including a patient ID, a patient name, imaging information (for example, imaging date and device type), and the like. As the image database 3, for example, a magnetic disk device, a semiconductor disk device, or the like can be used.

医用画像処理装置4は、画像データベース3から所望の画像データを選択する画像選択部4aと、選択した画像データを読み出す画像読出部4bと、読み出した画像データを記憶する画像メモリ4cと、臨床応用解析機能を提供する臨床応用解析部4dと、記憶した画像データの断面位置を特定する断面特定部4eと、被検体の部位毎の表示パラメータや検査メニューなどの各種情報を記憶する記憶部4fと、表示パラメータや検査メニューなどを設定する設定部4gと、表示用の画像を生成する画像生成部4hとを備えている。これらの各部はハードウエアやソフトウエアあるいはそれらの両方により構成されている。   The medical image processing apparatus 4 includes an image selection unit 4a for selecting desired image data from the image database 3, an image reading unit 4b for reading the selected image data, an image memory 4c for storing the read image data, and clinical application. A clinical application analysis unit 4d that provides an analysis function, a cross-section specifying unit 4e that specifies the cross-sectional position of the stored image data, and a storage unit 4f that stores various information such as display parameters and examination menus for each region of the subject. A setting unit 4g for setting display parameters, an inspection menu, and the like, and an image generation unit 4h for generating an image for display. Each of these units is constituted by hardware, software, or both.

画像選択部4aは、マウスやキーボードなどの入力部(図示せず)に対する操作者の入力操作に応じて、画像データベース3から所望の患者の画像データである断面画像群を選択し、その選択結果を画像読出部4bに送信する。   The image selection unit 4a selects a cross-sectional image group that is image data of a desired patient from the image database 3 in accordance with an input operation of an operator with respect to an input unit (not shown) such as a mouse or a keyboard, and the selection result Is transmitted to the image reading unit 4b.

画像読出部4bは、画像選択部4aから送信された選択結果から、画像選択部4aにより選択された画像データである断面画像群を画像データベース3から読み出し、画像メモリ4cに配置する。   The image reading unit 4b reads a cross-sectional image group, which is image data selected by the image selection unit 4a, from the image database 3 from the selection result transmitted from the image selection unit 4a, and arranges it in the image memory 4c.

画像メモリ4cは、画像読出部4bによる配置に応じて、画像読出部4bにより読み出された断面画像群を記憶して保持する。この画像メモリ4cとしては、例えば、RAMや磁気ディスク装置、半導体ディスク装置などを用いることが可能である。   The image memory 4c stores and holds the cross-sectional image group read by the image reading unit 4b according to the arrangement by the image reading unit 4b. As the image memory 4c, for example, a RAM, a magnetic disk device, a semiconductor disk device, or the like can be used.

臨床応用解析部4dは、各種の臨床応用解析機能を提供可能であり、その臨床応用解析機能の一例として、二次元の画像データから三次元の解析用画像データを作成し、その解析用画像データを画像メモリ4cなどに保存する。   The clinical application analysis unit 4d can provide various clinical application analysis functions. As an example of the clinical application analysis function, the clinical application analysis unit 4d creates three-dimensional image data for analysis from two-dimensional image data. Is stored in the image memory 4c or the like.

断面特定部4eは、テンプレートデータベース2に蓄積された基本断面画像群と、画像メモリ4cに配置された断面画像群とを比較し、基本断面画像と断面画像とが一致した場合、基本断面画像に一致した断面画像の断面位置をその一致した基本断面画像の断面位置と同一と特定する。したがって、断面画像の断面位置は、その断面画像に一致した基本断面画像の断面位置と同じになる。   The cross-section specifying unit 4e compares the basic cross-sectional image group stored in the template database 2 with the cross-sectional image group arranged in the image memory 4c, and if the basic cross-sectional image and the cross-sectional image coincide with each other, The cross-sectional position of the matched cross-sectional image is specified to be the same as the cross-sectional position of the matched basic cross-sectional image. Therefore, the cross-sectional position of the cross-sectional image is the same as the cross-sectional position of the basic cross-sectional image that matches the cross-sectional image.

記憶部4fは、被検体の部位毎の表示パラメータや検査メニューなどの各種情報を記憶する。表示パラメータは画像表示に関して画素値を適切な濃淡値(輝度値)に変換するパラメータであり、検査メニューは部位毎の検査項目(例えば、各種の臨床応用解析機能の項目)を示すメニューである。なお、記憶部4fとしては、例えば、ROMや磁気ディスク装置、半導体ディスク装置などを用いることが可能である。   The storage unit 4f stores various information such as display parameters and examination menus for each part of the subject. The display parameter is a parameter for converting the pixel value into an appropriate gray value (luminance value) for image display, and the examination menu is a menu showing examination items for each region (for example, items of various clinical application analysis functions). For example, a ROM, a magnetic disk device, or a semiconductor disk device can be used as the storage unit 4f.

設定部4gは、断面特定部4eにより特定された断面画像の断面位置に応じて、その断面画像に対する表示パラメータを設定する。例えば、設定部4gは、同一部位の画像を同じ条件で表示するため、前述の断面画像の断面位置、すなわち部位に応じて表示パラメータを自動的に設定する(詳しくは、後述する)。この自動設定が不十分である場合には、記憶部4fにより記憶された部位毎の表示パラメータから、断面特定部4eにより特定された断面画像の断面位置に応じて、その断面画像に対する表示パラメータを選択して設定する。一方、最適な表示パラメータが記憶部4fに存在しない場合には、断面特定部4eにより特定された断面画像の断面位置に応じて、記憶部4fにより記憶された部位毎の表示パラメータから、その断面画像に対して候補となる表示パラメータを複数個選択して設定する。   The setting unit 4g sets display parameters for the cross-sectional image according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit 4e. For example, the setting unit 4g automatically sets display parameters according to the cross-sectional position of the above-described cross-sectional image, that is, the region in order to display the image of the same region under the same conditions (details will be described later). When this automatic setting is insufficient, the display parameter for the cross-sectional image is set according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit 4e from the display parameters for each part stored in the storage unit 4f. Select and set. On the other hand, when the optimum display parameter does not exist in the storage unit 4f, the cross-section is determined from the display parameters for each part stored in the storage unit 4f according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit 4e. A plurality of candidate display parameters for the image are selected and set.

また、前述の設定部4gは、断面特定部4eにより特定された断面画像の断面位置に応じて、その断面画像に関する検査メニュー(例えば、各種の臨床応用解析機能の項目)を設定する。例えば、設定部4gは、記憶部4fにより記憶された部位毎の検査メニューから、断面特定部4eにより特定された断面画像の断面位置に応じて、その断面画像に関する検査メニューを選択して設定する。さらに、設定部4gは、基本断面画像に一致した断面画像の部位名としてその基本断面画像の部位名を設定する。この部位名は基本断面画像の付帯情報に含まれており、その付帯情報から読み出されて用いられる。   In addition, the setting unit 4g sets an examination menu (for example, items of various clinical application analysis functions) related to the cross-sectional image according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit 4e. For example, the setting unit 4g selects and sets the inspection menu related to the cross-sectional image from the inspection menu for each part stored in the storage unit 4f according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit 4e. . Furthermore, the setting unit 4g sets the part name of the basic cross-sectional image as the part name of the cross-sectional image that matches the basic cross-sectional image. This part name is included in the incidental information of the basic cross-sectional image, and is read out from the incidental information and used.

画像生成部4hは、設定部4gにより設定された表示パラメータに基づいて、画像メモリ4c内の断面画像群から表示対象の断面画像を生成し、表示装置5に供給する。さらに、画像生成部4hは、候補となる表示パラメータや検査メニュー、さらに、断面画像に対応する部位名などを含む画像を必要に応じて生成し、表示装置5に供給する。   The image generation unit 4 h generates a cross-sectional image to be displayed from the cross-sectional image group in the image memory 4 c based on the display parameter set by the setting unit 4 g and supplies the cross-sectional image to the display device 5. Further, the image generation unit 4h generates an image including candidate display parameters and examination menus, and further includes a part name corresponding to the cross-sectional image, and supplies the generated image to the display device 5.

表示装置5は、画像生成部4hにより生成された画像やその他の画像など、各種画像を表示する表示装置である。この表示装置5としては、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイなどを用いることが可能である。   The display device 5 is a display device that displays various images such as an image generated by the image generation unit 4h and other images. As the display device 5, for example, a liquid crystal display, a CRT (Cathode Ray Tube) display, or the like can be used.

次に、前述の医用画像処理装置4が行う画像処理について詳しく説明する。臨床検査技師や医師などの操作者が入力部を入力操作して所望の画像データを指定すると、以下の処理が実行される。   Next, the image processing performed by the medical image processing apparatus 4 will be described in detail. When an operator such as a clinical laboratory technician or a doctor performs an input operation on the input unit and designates desired image data, the following processing is executed.

図2に示すように、まず、画像選択部4aにより画像データ(断面画像群)が選択される(ステップS1)。次いで、画像読出部4bにより画像データが画像メモリ4cに配置される(ステップS2)。その後、断面特定部4e及び設定部4gにより断面位置の特定及び表示パラメータの算出が行われ(ステップS3)、画像生成部4hにより画像(通常、二次元画像)が生成され(ステップS4)、その画像が表示装置5により表示される(ステップS5)。   As shown in FIG. 2, first, image data (cross-sectional image group) is selected by the image selection unit 4a (step S1). Next, the image data is arranged in the image memory 4c by the image reading unit 4b (step S2). Thereafter, the cross-section position is specified by the cross-section specifying unit 4e and the setting unit 4g and the display parameters are calculated (step S3), and an image (usually a two-dimensional image) is generated by the image generating unit 4h (step S4). An image is displayed by the display device 5 (step S5).

なお、臨床応用解析機能の一例である三次元画像の表示が、入力部に対する操作者の入力操作により指示されていた場合には、ステップS4において、画像メモリ4cにある断面画像群と設定済の表示パラメータを用いて、三次元の解析用画像データが生成され、ステップS5において、三次元画像が表示装置5により表示される。   If display of a three-dimensional image, which is an example of a clinical application analysis function, is instructed by an input operation of an operator with respect to the input unit, in step S4, the set of cross-sectional images in the image memory 4c are set. Three-dimensional analysis image data is generated using the display parameters, and the three-dimensional image is displayed by the display device 5 in step S5.

ここで、前述のステップS3の処理の流れについて詳しく説明する。   Here, the process flow of the above-described step S3 will be described in detail.

図3に示すように、まず、画像位置補正が行われ(ステップS11)、次いで、領域分割が行われ(ステップS12)、基本断面画像と断面画像との画像間の領域照合が行われ(ステップS13)、最後に、表示パラメータが算出される(ステップS14)。これらの処理が断面特定部4e及び設定部4gにより実行される。   As shown in FIG. 3, first, image position correction is performed (step S11), then region division is performed (step S12), and region matching between the basic cross-sectional image and the cross-sectional image is performed (step S12). S13) Finally, display parameters are calculated (step S14). These processes are executed by the cross-section specifying unit 4e and the setting unit 4g.

ステップS11では、前述の処理の基本が画像間の領域照合であるため、画像メモリ4c内の照合対象の断面画像群を照合元であるテンプレートデータベース2内の基本断面画像群と同じ断面状態にする補正(例えば、画像の拡大、縮小及び反転など)が行われる。この拡大及び縮小の補正では、拡大再構成や縮小再構成、部分収集などを行い、反転の補正では、視点移動(VFF、VFH)を行う。例えば、拡大及び縮小の補正においては、ピクセルスペーシング(ピクセル実長)をもとに、テンプレートの基本断面画像に照合対象の断面画像を合わせるように拡大あるいは縮小を行う。また、反転の補正においては、基本断面画像の向き(画像面の法線ベクトル)の情報を用いて、こちらもテンプレートの基本断面画像に合わせて照合対象の断面画像を鏡像反転する。これらのテンプレートの各種情報は基本断面画像の付帯情報に含まれており、その付帯情報から読み出されて用いられる。   In step S11, since the basis of the above-described processing is region collation between images, the cross-sectional image group to be collated in the image memory 4c is set to the same cross-sectional state as the basic cross-sectional image group in the template database 2 that is the collation source. Correction (for example, enlargement, reduction, and reversal of the image) is performed. In this enlargement and reduction correction, enlargement reconstruction, reduction reconstruction, partial collection, and the like are performed, and in the inversion correction, viewpoint movement (VFF, VFH) is performed. For example, in the enlargement / reduction correction, enlargement or reduction is performed based on pixel spacing (actual pixel length) so that the cross-sectional image to be collated matches the basic cross-sectional image of the template. In the reversal correction, the cross-sectional image to be collated is also mirror-inverted in accordance with the basic cross-sectional image of the template, using information on the orientation (normal vector of the image plane) of the basic cross-sectional image. Various types of information of these templates are included in the supplementary information of the basic cross-sectional image, and are read out from the supplementary information and used.

ステップS12では、領域分割の方法として様々な方法を用いることが可能であり、その一例として、分割統合法を基本とした方法を用いる。この分割統合法は、二つのステップからなり、最初のステップでは、断面画像を複数の区画(例えば2×2)に分割しながら、区画の分布が単一の母集団(組成)から生成されているか否かを検査(検定)し、区画の分布が単一の母集団から生成されている場合、分割を停止し、区画の分布が単一の母集団から生成されていない場合、分割を継続し、ある区画単位になったら処理を停止する。次のステップでは、分割された区画で隣り合った区画が同一の母集団から構成されているのであれば、これらの区画を統合する。この処理を繰り返し、分割された区画を統合していく。   In step S12, various methods can be used as the region dividing method. As an example, a method based on the division integration method is used. This division integration method is composed of two steps. In the first step, the distribution of the sections is generated from a single population (composition) while the cross-sectional image is divided into a plurality of sections (for example, 2 × 2). If the distribution of plots is generated from a single population, the partitioning is stopped. If the distribution of partitions is not generated from a single population, the split is continued. However, the processing is stopped when a certain partition unit is reached. In the next step, if adjacent sections of the divided sections are composed of the same population, these sections are integrated. This process is repeated to integrate the divided sections.

なお、MRI装置のような医用画像診断装置では、同じ部位を同じ撮像方法で撮像しても画素値がばらつくことがあり、統計的な手法は取り難い。そこで、断面画像内の観察したい領域は、ある面積を持ち、他と区別できるようなハイコントラストになっているという推測から次のような近似的な解法を用いる。この解法では、まず、断面画像をある区画(例えば16×16)に分割し、これらの区画にある最大画素値を求め、その区画全体をその最大画素値で埋める。次に、分割統合法により分割を行う。分割では、連続一様分布に従うとして検定を行い、連続一様分布に従うならば分割を停止し、従わないならば分割を継続し、ある単位以下、例えば10×10以下で処理を停止する。その後、得られた領域をk平均法によりクラスタリングする。このような領域分割の処理がテンプレートの基本断面画像群及び照合対象の断面画像群に対して行われる。   In a medical image diagnostic apparatus such as an MRI apparatus, pixel values may vary even if the same part is imaged by the same imaging method, and it is difficult to take a statistical method. Therefore, the following approximate solution is used from the assumption that the region to be observed in the cross-sectional image has a certain area and has a high contrast that can be distinguished from the others. In this solution, first, the cross-sectional image is divided into certain sections (for example, 16 × 16), maximum pixel values in these sections are obtained, and the entire section is filled with the maximum pixel values. Next, division is performed by the division integration method. In the division, the test is performed according to the continuous uniform distribution. If the continuous uniform distribution is followed, the division is stopped. If not, the division is continued, and the processing is stopped at a certain unit or less, for example, 10 × 10 or less. Thereafter, the obtained regions are clustered by the k-average method. Such region division processing is performed on the basic cross-sectional image group of the template and the cross-sectional image group to be collated.

ステップS13では、テンプレートの基本断面画像のクラスタと照合対象の断面画像のクラスタとの間の総当たり検査で面積比を用いて領域照合を行う。手順としては、図4に示すように、まず、テンプレートデータベース2内の基本断面画像群(例えば、全身の断面画像群)の基本断面画像Ti(i=1〜n1:n1は自然数)から、あるクラスタ番号の画像Tia(a=1〜m1:m1は自然数、ただし、図4中では一例としてm1=4)を生成する。次に、画像メモリ4c内の照合対象の断面画像群(例えば、心臓や頭などの部位の断面画像群)の断面画像Aj(j=1〜n2:n2は自然数)から、あるクラスタ番号の画像Ajb(b=1〜m2:m2は自然数、ただし、図4中では一例としてm2=4)を生成する。   In step S13, area matching is performed using the area ratio in the round-robin inspection between the cluster of the basic cross-sectional image of the template and the cluster of the cross-sectional image to be verified. As shown in FIG. 4, the procedure starts with a basic cross-sectional image Ti (i = 1 to n1: n1 is a natural number) of a basic cross-sectional image group (for example, a whole-body cross-sectional image group) in the template database 2. A cluster number image Tia (a = 1 to m1: m1 is a natural number, where m1 = 4 as an example in FIG. 4) is generated. Next, an image having a certain cluster number from a cross-sectional image Aj (j = 1 to n2: n2 is a natural number) of a cross-sectional image group (for example, a cross-sectional image group of a part such as a heart or head) in the image memory 4c. Ajb (b = 1 to m2: m2 is a natural number, where m2 = 4 as an example in FIG. 4) is generated.

その後、各画像Tia及び各画像Ajbに関して、ビット演算あるいは引き算を行い、合致面積を割り出す。面積比が規定値を超えた場合には、テンプレートの基本断面画像Tiと照合対象の断面画像Ajを同一とみなして終了する。このとき、テンプレートの基本断面画像Tiと照合対象の断面画像Ajとの適合率も算出する。なお、規定値は変更可能である。全ての基本断面画像Ti及び照合対象の断面画像Ajの比較を行い、その比較が終了すると、適合率が最大である基本断面画像Tiの断面位置を照合対象の断面画像Ajの断面位置と特定する。これにより、照合対象の断面画像Ajの断面位置は、その断面画像Ajに一致した基本断面画像Tiの断面位置と同じになる。この基本断面画像Tiの断面位置は被検体のどの部位のどこの位置であるかが特定されているため、照合対象の断面画像Ajの断面位置も被検体のどの部位のどこの位置であるかが特定されることになる。   After that, bit operation or subtraction is performed on each image Tia and each image Ajb to determine the matching area. If the area ratio exceeds the specified value, the basic cross-sectional image Ti of the template and the cross-sectional image Aj to be collated are regarded as the same, and the process ends. At this time, the matching ratio between the basic cross-sectional image Ti of the template and the cross-sectional image Aj to be collated is also calculated. The specified value can be changed. All the basic cross-sectional images Ti and the cross-sectional image Aj to be collated are compared, and when the comparison is completed, the cross-sectional position of the basic cross-sectional image Ti having the highest relevance rate is specified as the cross-sectional position of the cross-sectional image Aj to be collated. . As a result, the cross-sectional position of the cross-sectional image Aj to be collated becomes the same as the cross-sectional position of the basic cross-sectional image Ti that matches the cross-sectional image Aj. Since the position of which part of the subject is the cross-sectional position of the basic cross-sectional image Ti is specified, the position of the cross-sectional position of the cross-sectional image Aj to be collated is also the position of which part of the subject. Will be specified.

ステップS14では、前述の断面画像Ajの断面位置に応じて、ハイコントラストである部分を観察した部分と考え、最適な表示パラメータを算出する。例えば、輝度の場合では、前述で求めた照合対象の断面画像Ajの断面位置及び高画素値の領域などの情報を用いて、高画素値(高信号値)で且つ領域が大きい部分の画素値を輝度中心にし、高画素値の領域内の最小値及び最大値を輝度幅にする輝度変換処理を行い、輝度変換用の表示パラメータを設定する。なお、ステップS14の段階においては、照合対象の断面画像Ajの断面位置及び高画素値の領域が特定されている。   In step S14, an optimum display parameter is calculated by considering a high contrast portion as an observed portion according to the cross-sectional position of the cross-sectional image Aj described above. For example, in the case of luminance, the pixel value of a portion having a high pixel value (high signal value) and a large area is obtained using information such as the cross-sectional position of the cross-sectional image Aj to be collated and the high pixel value area obtained above. Is set to the luminance center, the luminance conversion processing is performed to set the minimum value and the maximum value in the high pixel value area to the luminance width, and the display parameters for luminance conversion are set. In step S14, the cross-sectional position and high pixel value region of the cross-sectional image Aj to be collated are specified.

また、三次元の画像表示を行う場合には、断面画像Ajの断面位置から高コントラスト領域がどの部位(例えば、血管あるいは臓器)かを判断することが可能であるので、そこから最適な三次元の表示パラメータを算出することができる。例えば、三次元の画像表示では、高画素値に位置する部位(例えば、臓器や血管)から適切なカラーテーブルを選択し、その輝度を中心にした線形の透明度カーブを求めて三次元の表示パラメータに設定する。   Further, when performing three-dimensional image display, it is possible to determine which part (for example, blood vessel or organ) the high-contrast region is based on the cross-sectional position of the cross-sectional image Aj. Display parameters can be calculated. For example, in a three-dimensional image display, an appropriate color table is selected from a part (for example, an organ or a blood vessel) located at a high pixel value, and a linear transparency curve centered on the luminance is obtained to obtain a three-dimensional display parameter. Set to.

ここで、前述の領域照合を行う前において、照合対象の断面画像Ajが撮影時などにすでに回転あるいは並進していることがある。領域分割時にある面積で区画化を行っているため、小さな回転や並進にはあまり影響を受けることがない。したがって、最初、前述のように拡大や縮小、反転補正のみの領域照合の処理を行い、テンプレートの全ての基本断面画像Tiで照合に失敗した場合、回転や並進の影響が大きいと判断し、回転及び並進の補正を行う。この補正では、クラスタを面積別に整列し、クラスタ間の重心距離が等しい二組を選択し、移動量及び回転量を算出する。   Here, before performing the region collation described above, the cross-sectional image Aj to be collated may have already been rotated or translated at the time of photographing or the like. Since partitioning is performed in a certain area at the time of region division, it is not so much affected by small rotations and translations. Therefore, first, as described above, the region matching process including only enlargement / reduction and reversal correction is performed, and when matching fails in all the basic cross-sectional images Ti of the template, it is determined that the influence of rotation or translation is large, and rotation is performed. And translation correction. In this correction, clusters are arranged according to area, two sets having the same center-of-gravity distance between clusters are selected, and the amount of movement and the amount of rotation are calculated.

例えば、図5に示すように、まず、テンプレートの基本断面画像Tiでは、線分(P1,P2)、(Q1,Q2)を求め、照合対象の断面画像Ajでは、線分(R1,R2)、(S1,S2)を求める。これらの線分は、最初の拡大や縮小、反転の補正のみを行う領域照合の処理で求められている。   For example, as shown in FIG. 5, first, line segments (P1, P2) and (Q1, Q2) are obtained from the basic cross-sectional image Ti of the template, and line segments (R1, R2) are obtained from the cross-sectional image Aj to be collated. , (S1, S2). These line segments are obtained by the area collation process in which only the first enlargement, reduction, and reversal correction is performed.

次に、四辺形を構成し、テンプレートの基本断面画像Tiでは、新たに線分(P1,Q1)、(P2,Q2)を求め(図5中の点線参照)、照合対象の断面画像Ajでは、線分(R1,S1)、(R2,S2)を求める(図5中の点線参照)。その線分(P1,Q1)の距離と(R1,S1)の距離とを比較し、さらに、その線分(P2,Q2)の距離と(R2,S2)の距離とを比較する。回転及び並進では点間の情報は失われないので、点間の距離を比較することで、照合対象の断面画像Ajがテンプレートの基本断面画像Tiと同じかどうかを確認することができる。もし同一でない場合には、別の基本断面画像Tiで処理を行う。   Next, a quadrilateral is formed, and in the basic cross-sectional image Ti of the template, new line segments (P1, Q1) and (P2, Q2) are obtained (see the dotted lines in FIG. 5). , Line segments (R1, S1), (R2, S2) are obtained (see dotted lines in FIG. 5). The distance of the line segment (P1, Q1) is compared with the distance of (R1, S1), and the distance of the line segment (P2, Q2) is compared with the distance of (R2, S2). Since information between points is not lost in rotation and translation, it is possible to confirm whether or not the cross-sectional image Aj to be verified is the same as the basic cross-sectional image Ti of the template by comparing the distances between the points. If they are not the same, processing is performed with another basic cross-sectional image Ti.

その後、面積が対応するクラスタの一組(図5中では、P1とR1)を選び出し、それらのP1とR1の位置関係から平行移動量dx、dyを算出する。照合対象の断面画像Ajの線分(R1,R2)と、その線分に対応するテンプレートの基本断面画像Tiの線分(P1,P2)をベクトル表記とし、その侠角(回転角)θを内積より求める。このようにして移動量及び回転量が算出され、その移動量及び回転量に基づいて、照合対象の断面画像Ajの回転及び並進の補正が行われる。これにより、拡大や縮小、反転補正に、回転及び並進補正が加わるので、正確な領域照合を行うことができる。   Thereafter, a set of clusters corresponding to the areas (P1 and R1 in FIG. 5) is selected, and parallel movement amounts dx and dy are calculated from the positional relationship between these P1 and R1. The line segment (R1, R2) of the cross-sectional image Aj to be collated and the line segment (P1, P2) of the basic cross-sectional image Ti of the template corresponding to the line segment are represented by vector notation, and the depression angle (rotation angle) θ is set as the vector notation. Obtained from inner product. In this way, the movement amount and the rotation amount are calculated, and the rotation and translation of the cross-sectional image Aj to be verified are corrected based on the movement amount and the rotation amount. Thereby, since rotation and translation correction are added to enlargement, reduction, and reversal correction, accurate region matching can be performed.

また、前述の領域照合を行う前には、拡大撮像(収集)や拡大再構成、縮小再構成などにより照合対象の断面画像Ajとテンプレートの基本断面画像Tiとの間に欠損が生じている場合がある。このため、照合精度の向上を目的として、その欠損部分を拡大撮像や拡大/縮小再構成の情報から照合対象外(評価対象外)とするマスク画像を生成して照合対象から外す。   In addition, before performing the above-described region collation, there is a defect between the cross-sectional image Aj to be collated and the basic cross-sectional image Ti of the template due to enlarged imaging (collection), enlargement reconstruction, reduction reconstruction, etc. There is. For this reason, for the purpose of improving the collation accuracy, a mask image that excludes the missing portion from the collation target (not the evaluation target) is generated from the information on the enlarged imaging and the enlargement / reduction reconstruction, and is excluded from the collation target.

例えば、図6に示すように、照合対象の断面画像Ajに欠損領域R1が存在している場合には、その欠損領域R1に対応するマスク画像B1を生成する。このマスク画像B1は欠損領域R1と同形状及び同面積であり、その欠損領域R1を覆う画像である。領域照合を行う際には、マスク画像B1がテンプレートの基本断面画像Tiに重ねられ、その状態のテンプレートの基本断面画像Tiと照合対象の断面画像Ajとの領域照合が行われる。これにより、欠損領域R1が照合対象から外されるので、正確な領域照合を行うことができる。   For example, as shown in FIG. 6, when the cross-sectional image Aj to be collated has a missing region R1, a mask image B1 corresponding to the missing region R1 is generated. This mask image B1 has the same shape and the same area as the defect region R1, and is an image that covers the defect region R1. When performing region matching, the mask image B1 is superimposed on the basic cross-sectional image Ti of the template, and region matching between the basic cross-sectional image Ti of the template in that state and the cross-sectional image Aj to be verified is performed. As a result, the missing region R1 is excluded from the verification target, so that accurate region verification can be performed.

また、前述の領域分割を二次元から三次元へ展開することで、三次元テンプレートを得ることが可能であり、その三次元テンプレートをテンプレートデータベース2に保管することもできる。さらに、三次元テンプレートを用いて照合対象の断面画像Ajの断面方向(断面画像群が並ぶ方向)に沿って多断面再構成を行うことによって、その断面方向の二次元テンプレート(基本断面画像群)を得ることができる。例えば、照合対象の断面画像群が全てテンプレート(二次元)の基本断面画像群と一致しなかった場合には、その照合対象の断面画像群とテンプレートの基本断面画像群との断面方向が異なると判断し、三次元テンプレートから照合対象の断面画像群の断面方向に合わせて二次元テンプレートの基本断面画像群を再構成する。これにより、照合対象の断面画像群と断面方向が一致した二次元テンプレートの基本断面画像群を用いて領域照合を行うことができる。なお、断面方向は照合対象の断面画像の法線ベクトルにより求められる。   Further, a three-dimensional template can be obtained by developing the above-described region division from two dimensions to three dimensions, and the three-dimensional template can be stored in the template database 2. Further, by performing multi-section reconstruction along the cross-sectional direction (direction in which cross-sectional image groups are arranged) of the cross-sectional image Aj to be collated using a three-dimensional template, a two-dimensional template (basic cross-sectional image group) in the cross-sectional direction is obtained. Can be obtained. For example, if all the cross-sectional image groups to be collated do not match the basic cross-sectional image group of the template (two-dimensional), the cross-sectional directions of the cross-sectional image group to be collated and the basic cross-sectional image group of the template are different. The basic cross-sectional image group of the two-dimensional template is reconstructed according to the cross-sectional direction of the cross-sectional image group to be verified from the three-dimensional template. Thereby, area collation can be performed using the basic cross-sectional image group of the two-dimensional template in which the cross-sectional direction matches the cross-sectional image group to be collated. The cross-sectional direction is obtained from the normal vector of the cross-sectional image to be verified.

また、断面画像Ajの断面位置に応じて、その断面位置から部位名(臓器名も含む)を自動的に表示することが可能である。この部位名の表示は、映りが悪い画像での臓器位置の把握や教育などに利用することができる。さらに、断面画像Ajの断面位置から必要な検査メニューを提示することも可能である。例えば、断面画像Ajの断面位置と高輝度情報から観察すべき部位(臓器も含む)を特定し、断面画像Ajに係る部位に必要な臨床応用機能を選別して検査メニュー(各種の臨床応用解析機能の項目)として提示することが可能であり、部位に関係した検査メニューのみを列挙することができる。具体的には、断面画像Ajの断面位置が頭部であれば、脳に関係した検査メニューを選択し、その断面位置が胸部であれば、胸部に関係した心臓や肺などの検査メニューを選択し、さらに、その断面位置が腹部であれば、腹部に関係した肝臓や腎臓などの検査メニューを選択して表示する。   Further, according to the cross-sectional position of the cross-sectional image Aj, it is possible to automatically display the part name (including the organ name) from the cross-sectional position. The display of the part name can be used for grasping an organ position in an image with poor projection or for education. Furthermore, it is possible to present a necessary inspection menu from the cross-sectional position of the cross-sectional image Aj. For example, a site (including an organ) to be observed is identified from the cross-sectional position of the cross-sectional image Aj and high-luminance information, a clinical application function necessary for the site related to the cross-sectional image Aj is selected, and an examination menu (various clinical application analysis) It can be presented as a function item), and only examination menus related to the site can be listed. Specifically, if the cross-sectional position of the cross-sectional image Aj is the head, an inspection menu related to the brain is selected, and if the cross-sectional position is the chest, an inspection menu such as the heart or lung related to the chest is selected. Further, if the cross-sectional position is the abdomen, an examination menu such as a liver or a kidney related to the abdomen is selected and displayed.

また、断面画像Ajの断面位置を特定することが可能であるため、二つの画像群の位置合わせを行うことができる。例えば、異なる二つの画像群の断面位置を求め、同一位置を自動的に算出して同じ位置の断面画像を並べて表示することが可能である。これにより、操作の省力化を実現することができる。通常、異なる二つの画像群を比較表示する場合には、違うモダリティや同じモダリティでも位置情報が異なることが多く、同じ位置の断面画像を並べて表示するための作業は困難であり、さらに、操作者の作業が増えることになる。   In addition, since the cross-sectional position of the cross-sectional image Aj can be specified, the two image groups can be aligned. For example, it is possible to obtain cross-sectional positions of two different image groups, automatically calculate the same position, and display the cross-sectional images at the same position side by side. Thereby, labor saving of operation is realizable. Normally, when two different image groups are displayed in comparison, the position information is often different even with different modalities or the same modality, and it is difficult to display the sectional images at the same position side by side. Will increase the work.

また、断面画像Ajの断面位置とコントラスト情報から部位(臓器や血管も含む)が抽出されているかどうかを検査し、適切な三次元可視化パラメータ(透明度やカラーテーブル)を算出することができる。例えば、断面位置とコントラスト情報(例えば高輝度情報)から観察すべき血管などの部位を特定し、三次元作成用のカラーテーブルや透明度を選択し、表示パラメータを設定することが可能である。これにより、操作の省力化を実現することができる。   Further, it is possible to inspect whether or not a part (including an organ and a blood vessel) is extracted from the cross-sectional position and contrast information of the cross-sectional image Aj, and calculate an appropriate three-dimensional visualization parameter (transparency and color table). For example, it is possible to specify a region such as a blood vessel to be observed from the cross-sectional position and contrast information (for example, high luminance information), select a color table for three-dimensional creation and transparency, and set display parameters. Thereby, labor saving of operation is realizable.

以上説明したように、本実施形態によれば、被検体に対する断面位置が画像毎に特定済である基本断面画像群と、被検体に対する断面位置が画像毎に未特定である断面画像群とを比較し、基本断面画像Tiに一致した断面画像Ajの断面位置をその基本断面画像Tiの断面位置と同一と特定する断面特定部4eを設けることによって、その断面画像Ajの断面位置が自動的に特定されることになる。これにより、画素値に絶対的な尺度を定義することができない医用画像を表示する場合でも、操作者は医用画像の断面位置から表示パラメータを設定することが容易となるので、自身で試行錯誤して表示パラメータを設定する場合に比べ、医用画像の表示に係る操作者の負担を軽減することができる。   As described above, according to this embodiment, the basic cross-sectional image group in which the cross-sectional position with respect to the subject has been specified for each image and the cross-sectional image group in which the cross-sectional position with respect to the subject is not specified for each image are included. In comparison, the cross-sectional position of the cross-sectional image Aj that automatically matches the cross-sectional position of the cross-sectional image Aj with the cross-sectional position of the cross-sectional image Aj that automatically matches the cross-sectional position of the basic cross-sectional image Ti Will be identified. This makes it easy for the operator to set display parameters from the cross-sectional position of the medical image even when displaying a medical image for which an absolute scale cannot be defined for the pixel value. Compared with the case where display parameters are set, the burden on the operator related to the display of medical images can be reduced.

特に、特定した断面画像Ajの断面位置に応じて、その断面画像Ajに対する表示パラメータを設定する設定部4gを設けることによって、表示対象の断面画像Ajの断面位置、すなわち部位に対応した表示パラメータを自動的に設定することが可能となるので、操作者の負担をさらに軽減することができる。   In particular, by providing a setting unit 4g that sets display parameters for the cross-sectional image Aj in accordance with the cross-sectional position of the specified cross-sectional image Aj, the display parameter corresponding to the cross-sectional position of the cross-sectional image Aj to be displayed, that is, the region. Since it can be set automatically, the burden on the operator can be further reduced.

また、被検体の部位毎の表示パラメータを記憶する記憶部4fと、その部位毎の表示パラメータから、特定した断面画像Ajの断面位置に応じて、その断面画像Ajに対する表示パラメータを選択して設定する設定部4gとを設けることによって、前述の自動設定が不十分である場合などでも、部位に対応した表示パラメータを自動的に設定することが可能となるので、操作者の負担をより確実に軽減することができる。   Further, the storage unit 4f that stores display parameters for each part of the subject and the display parameters for the cross-sectional image Aj are selected and set according to the cross-sectional position of the specified cross-sectional image Aj from the display parameters for each part. By providing the setting unit 4g, the display parameter corresponding to the part can be automatically set even when the above-described automatic setting is insufficient, so that the burden on the operator is more reliably ensured. Can be reduced.

なお、最適な表示パラメータが記憶部4fに無い場合には、設定部4gによりその部位毎の表示パラメータから、断面画像Ajの断面位置に応じてその断面画像Ajに対して候補となる表示パラメータを選択して設定し、画像生成部4hにより候補となる表示パラメータを含む画像を生成することによって、候補となる表示パラメータを表示装置5により表示することが可能となる。これにより、操作者は表示パラメータを選択して設定することができ、その結果、操作者の負担をより確実に軽減することができる。   If there is no optimal display parameter in the storage unit 4f, the setting unit 4g selects a display parameter that is a candidate for the cross-sectional image Aj according to the cross-sectional position of the cross-sectional image Aj from the display parameter for each part. By selecting, setting, and generating an image including candidate display parameters by the image generation unit 4h, the display device 5 can display the candidate display parameters. As a result, the operator can select and set the display parameter, and as a result, the burden on the operator can be more reliably reduced.

また、被検体の部位毎の検査メニューを記憶する記憶部4fと、その部位毎の検査メニューから、特定した断面画像Ajの断面位置に応じて、その断面画像Ajに関する検査メニューを選択して設定する設定部4gと、設定した検査メニューとその検査メニューに対応する断面画像Ajとを含む画像を生成する画像生成部4hとを設けることによって、断面画像Ajと共にその断面画像Ajに関する検査メニューが表示されることになる。これにより、検査メニューの選択が容易となるので、操作者の負担をさらに軽減することができる。   In addition, the storage unit 4f that stores the examination menu for each part of the subject and the examination menu related to the cross-sectional image Aj are selected and set according to the cross-sectional position of the specified cross-sectional image Aj from the examination menu for each part. By providing the setting unit 4g to perform and the image generation unit 4h for generating an image including the set inspection menu and the cross-sectional image Aj corresponding to the set inspection menu, the inspection menu regarding the cross-sectional image Aj is displayed together with the cross-sectional image Aj. Will be. Thereby, the selection of the inspection menu is facilitated, and the burden on the operator can be further reduced.

また、基本断面画像Tiに一致した断面画像Ajの部位名にその基本断面画像Tiの部位名を設定する設定部4gと、設定した部位名とその部位名に対応する断面画像Ajとを含む画像を生成する画像生成部4hとを設けることによって、断面画像Ajと共にその断面画像Ajの部位名が表示されることになる。これにより、断面画像Ajに係る部位の特定が容易となるので、操作者の負担をさらに軽減することができる。   In addition, an image including a setting unit 4g that sets the part name of the basic cross-sectional image Ti to the part name of the cross-sectional image Aj that matches the basic cross-sectional image Ti, and the set part name and the cross-sectional image Aj corresponding to the part name By providing the image generating unit 4h for generating the cross-sectional image Aj, the part name of the cross-sectional image Aj is displayed. Thereby, since the site | part which concerns on cross-sectional image Aj becomes easy to identify, an operator's burden can be further reduced.

以上、本発明の一実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although one embodiment of the present invention has been described above, this embodiment is presented as an example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

4 医用画像処理装置
4e 断面特定部
4f 記憶部
4g 設定部
4h 画像生成部
Aj 断面画像
Ti 基本断面画像
4 Medical Image Processing Device 4e Cross Section Identification Unit 4f Storage Unit 4g Setting Unit 4h Image Generation Unit Aj Cross Section Image Ti Basic Cross Section Image

Claims (7)

被検体に対する断面位置が画像毎に特定済である基本断面画像群と、被検体に対する断面位置が画像毎に未特定である断面画像群とを比較し、前記基本断面画像に一致した前記断面画像の断面位置を当該基本断面画像の断面位置と同一と特定する断面特定部を備えることを特徴とする医用画像処理装置。   The cross-sectional image in which the cross-sectional position for the subject has been specified for each image is compared with the cross-sectional image group in which the cross-sectional position for the subject is not specified for each image, and the cross-sectional image that matches the basic cross-sectional image A medical image processing apparatus comprising: a cross-section specifying unit that specifies that the cross-sectional position is the same as the cross-sectional position of the basic cross-sectional image. 前記断面特定部により特定された前記断面画像の断面位置に応じて、当該断面画像に対する表示パラメータを設定する設定部を備えることを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, further comprising: a setting unit that sets display parameters for the cross-sectional image according to a cross-sectional position of the cross-sectional image specified by the cross-sectional specifying unit. 前記被検体の部位毎の表示パラメータを記憶する記憶部と、
前記記憶部により記憶された前記部位毎の表示パラメータから、前記断面特定部により特定された前記断面画像の断面位置に応じて、当該断面画像に対する前記表示パラメータを選択して設定する設定部と、
を備えることを特徴とする請求項1記載の医用画像処理装置。
A storage unit for storing display parameters for each part of the subject;
A setting unit that selects and sets the display parameter for the cross-sectional image according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit from the display parameters for each part stored in the storage unit,
The medical image processing apparatus according to claim 1, further comprising:
前記被検体の部位毎の検査メニューを記憶する記憶部と、
前記記憶部により記憶された前記部位毎の検査メニューから、前記断面特定部により特定された前記断面画像の断面位置に応じて、当該断面画像に関する前記検査メニューを選択して設定する設定部と、
前記設定部により設定された前記検査メニューと当該検査メニューに対応する前記断面画像とを含む画像を生成する画像生成部と、
を備えることを特徴とする請求項1記載の医用画像処理装置。
A storage unit for storing an examination menu for each part of the subject;
From the examination menu for each part stored by the storage unit, according to the cross-sectional position of the cross-sectional image specified by the cross-section specifying unit, a setting unit that selects and sets the inspection menu related to the cross-sectional image;
An image generating unit that generates an image including the inspection menu set by the setting unit and the cross-sectional image corresponding to the inspection menu;
The medical image processing apparatus according to claim 1, further comprising:
前記基本断面画像に一致した前記断面画像の部位名に当該基本断面画像の部位名を設定する設定部と、
前記設定部により設定された部位名と当該部位名に対応する前記断面画像とを含む画像を生成する画像生成部と、
を備えることを特徴とする請求項1記載の医用画像処理装置。
A setting unit that sets a part name of the basic cross-sectional image to a part name of the cross-sectional image that matches the basic cross-sectional image;
An image generation unit that generates an image including the part name set by the setting unit and the cross-sectional image corresponding to the part name;
The medical image processing apparatus according to claim 1, further comprising:
前記断面特定部は、複数の前記断面画像群に対して前記断面位置の特定を実行し、それら断面画像群の位置合わせを行うことを特徴とする請求項1ないし5のいずれか一に記載の医用画像処理装置。   The cross section specifying unit executes the specification of the cross section position for a plurality of the cross section image groups, and performs alignment of the cross section image groups. Medical image processing apparatus. 前記断面特定部は、前記基本断面画像群から別の基本断面画像群を生成することを特徴とする請求項1ないし6のいずれか一に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the cross-section specifying unit generates another basic cross-sectional image group from the basic cross-sectional image group.
JP2011225208A 2011-10-12 2011-10-12 Medical image processing apparatus Pending JP2013081713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011225208A JP2013081713A (en) 2011-10-12 2011-10-12 Medical image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011225208A JP2013081713A (en) 2011-10-12 2011-10-12 Medical image processing apparatus

Publications (1)

Publication Number Publication Date
JP2013081713A true JP2013081713A (en) 2013-05-09

Family

ID=48527547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011225208A Pending JP2013081713A (en) 2011-10-12 2011-10-12 Medical image processing apparatus

Country Status (1)

Country Link
JP (1) JP2013081713A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003263A (en) * 2018-06-30 2018-12-14 上海联影医疗科技有限公司 Parameter information display methods, device and the PET system of medical image
WO2020105645A1 (en) * 2018-11-20 2020-05-28 富士フイルム株式会社 Image analysis device, analysis function determination method, and analysis function determination program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003263A (en) * 2018-06-30 2018-12-14 上海联影医疗科技有限公司 Parameter information display methods, device and the PET system of medical image
CN109003263B (en) * 2018-06-30 2021-10-22 上海联影医疗科技股份有限公司 Parameter information display method, device and PET system for medical images
WO2020105645A1 (en) * 2018-11-20 2020-05-28 富士フイルム株式会社 Image analysis device, analysis function determination method, and analysis function determination program
JPWO2020105645A1 (en) * 2018-11-20 2021-10-14 富士フイルム株式会社 Image analysis device, analysis function determination method, and analysis function determination program
JP7209738B2 (en) 2018-11-20 2023-01-20 富士フイルム株式会社 Image analysis device, analysis function determination method, and analysis function determination program
US12315123B2 (en) 2018-11-20 2025-05-27 Fujifilm Corporation Image analysis device, analysis function decision method, and analysis function decision program

Similar Documents

Publication Publication Date Title
JP5651600B2 (en) Reparameterized bullseye display
CN102525534B (en) Medical image-processing apparatus, medical image processing method
JP4717427B2 (en) Operation method and control apparatus of magnetic resonance tomography apparatus
CN102834055B (en) Medical image processing device
CN107464231B (en) System and method for determining optimal operating parameters for medical imaging
US8611989B2 (en) Multi-planar reconstruction lumen imaging method and apparatus
US20070100226A1 (en) Medical imaging system for accurate measurement evaluation of changes in a target lesion
JP4937922B2 (en) Image analysis apparatus and method
JP6768862B2 (en) Medical image processing method, medical image processing device, medical image processing system and medical image processing program
US20070237380A1 (en) Three-dimensional medical image display device equipped with pre-processing system implementing clinical protocol
CN1666710A (en) Method for producing resultant images of inspected objects
CN118056244A (en) Machine learning-based quality assessment of medical images and its application in facilitating imaging operations
US20150260819A1 (en) Transfer of validated cad training data to amended mr contrast levels
JP7097877B2 (en) Equipment and methods for quality evaluation of medical image data sets
US10445904B2 (en) Method and device for the automatic generation of synthetic projections
JPWO2020110774A1 (en) Image processing equipment, image processing methods, and programs
JP2020010726A (en) Confidence determination in medical image video clip measurement based upon video clip image quality
Reeves et al. Large-scale image region documentation for fully automated image biomarker algorithm development and evaluation
US7466849B2 (en) Method and apparatus for acquisition and evaluation of image data of an examination subject
US8938107B2 (en) System and method for automatic segmentation of organs on MR images using a combined organ and bone atlas
US9514384B2 (en) Image display apparatus, image display method and storage medium storing image display program
EP3389006B1 (en) Rib unfolding from magnetic resonance images
US8150122B2 (en) Method for controlling an image data acquisition and/or evaluation procedure in medical examinations
US11903691B2 (en) Combined steering engine and landmarking engine for elbow auto align
JP2013081713A (en) Medical image processing apparatus