JP2020175009A - Medical image processing apparatus and x-ray diagnostic apparatus - Google Patents
Medical image processing apparatus and x-ray diagnostic apparatus Download PDFInfo
- Publication number
- JP2020175009A JP2020175009A JP2019080881A JP2019080881A JP2020175009A JP 2020175009 A JP2020175009 A JP 2020175009A JP 2019080881 A JP2019080881 A JP 2019080881A JP 2019080881 A JP2019080881 A JP 2019080881A JP 2020175009 A JP2020175009 A JP 2020175009A
- Authority
- JP
- Japan
- Prior art keywords
- image
- interpolated
- ray
- interpolated image
- generates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 留置済みのデバイスの数が増えてきた場合に、デバイス画像の視認性の低下を阻止すること。【解決手段】 実施形態に係る医用画像処理装置は、取得部、デバイス画像生成部及び補間画像生成部を備えている。前記取得部は、被検体をX線により撮像したX線画像を取得する。前記デバイス画像生成部は、前記取得されたX線画像と他のX線画像とに基づいて、前記取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。前記補間画像生成部は、前記生成されたデバイス画像の欠損部分を補間した補間画像を生成する。【選択図】図1PROBLEM TO BE SOLVED: To prevent deterioration of visibility of a device image when the number of indwelling devices increases. A medical image processing apparatus according to an embodiment includes an acquisition unit, a device image generation unit, and an interpolated image generation unit. The acquisition unit acquires an X-ray image obtained by imaging the subject with X-rays. The device image generation unit generates a device image obtained by extracting a device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image. The interpolated image generation unit generates an interpolated image by interpolating the missing portion of the generated device image. [Selection diagram] Fig. 1
Description
本発明の実施形態は、医用画像処理装置及びX線診断装置に関する。 Embodiments of the present invention relate to medical image processing devices and X-ray diagnostic devices.
X線診断装置は、検査に加え、治療にも利用されている。例えば、動脈瘤に対する治療として、コイル塞栓術と呼ばれる方法が知られている。コイル塞栓術では、術者がリアルタイムで表示されるX線画像を視認しながら、カテーテル及びガイドワイヤを血管内に挿入して動脈瘤まで進行させ、動脈瘤にコイル(デバイス)を充填して塞栓する。これにより、動脈瘤内を血栓化させて、動脈瘤の破裂を防いでいる。 X-ray diagnostic equipment is used for treatment in addition to examination. For example, as a treatment for an aneurysm, a method called coil embolization is known. In coil embolization, the operator visually observes the X-ray image displayed in real time, inserts a catheter and guide wire into the blood vessel to advance to the aneurysm, and fills the aneurysm with a coil (device) to embolize. To do. As a result, the inside of the aneurysm is thrombused to prevent the aneurysm from rupturing.
このようなコイル塞栓術では、再発を防ぐために偏りなくコイルを充填することが重要である。そのため、術者は、充填状況を観察しながらコイルを充填する必要がある。このような充填状況の観察を支援する機能としてブランクロードマップ(以下、BRMともいう)がある。BRMは、現在のコイルの充填状況を示すX線画像と、既に留置済みのコイルを示すマスク画像との差分を求めることにより、現在、留置中のコイルのみを示す差分画像(BRM画像)を生成する機能である。BRMによれば、術者は、動脈瘤内のコイルのうち、留置中のコイルのみを観察しながらコイルを充填可能となる。 In such coil embolization, it is important to fill the coil evenly to prevent recurrence. Therefore, the operator needs to fill the coil while observing the filling condition. There is a blank roadmap (hereinafter, also referred to as BRM) as a function of supporting the observation of such a filling situation. The BRM generates a difference image (BRM image) showing only the coil currently being placed by obtaining the difference between the X-ray image showing the current filling status of the coil and the mask image showing the coil already placed. It is a function to do. According to BRM, the surgeon can fill the coil while observing only the indwelling coil among the coils in the aneurysm.
このようなBRMは、通常は特に問題ないが、本発明者の検討によれば、留置済みのコイルの数が増えてきた場合に、デバイス画像の視認性を低下させてしまうおそれがある点で改善の余地がある。例えば、マスク画像内で留置済みのコイルの数が増えてきた場合、デバイス画像では、留置中のコイルが部分的に欠損して表示されてしまい、また、X線画像とマスク画像との間の位置ずれによるアーチファクトが生じ易くなる。これらにより、デバイス画像の視認性を低下させてしまうおそれがある。 Such a BRM is usually not particularly problematic, but according to the study of the present inventor, when the number of indwelling coils increases, the visibility of the device image may be deteriorated. There is room for improvement. For example, when the number of indwelling coils increases in the mask image, the indwelling coils are partially missing and displayed in the device image, and between the X-ray image and the mask image. Images due to misalignment are likely to occur. As a result, the visibility of the device image may be reduced.
本発明が解決しようとする課題は、留置済みのデバイスの数が増えてきた場合に、デバイス画像の視認性の低下を阻止することである。 An object to be solved by the present invention is to prevent a decrease in visibility of a device image when the number of indwelling devices increases.
実施形態に係る医用画像処理装置は、取得部、デバイス画像生成部及び補間画像生成部を備えている。
前記取得部は、被検体をX線により撮像したX線画像を取得する。
前記デバイス画像生成部は、前記取得されたX線画像と他のX線画像とに基づいて、前記取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。
前記補間画像生成部は、前記生成されたデバイス画像の欠損部分を補間した補間画像を生成する。
The medical image processing apparatus according to the embodiment includes an acquisition unit, a device image generation unit, and an interpolation image generation unit.
The acquisition unit acquires an X-ray image obtained by imaging the subject with X-rays.
The device image generation unit generates a device image obtained by extracting the device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image.
The interpolated image generation unit generates an interpolated image by interpolating the defective portion of the generated device image.
以下、図面を参照して各実施形態について説明する。 Hereinafter, each embodiment will be described with reference to the drawings.
<第1の実施形態>
図1は、第1の実施形態に係るX線診断装置及び医用画像処理装置を含む医用情報処理システムの構成を示すブロック図であり、図2は、X線診断装置の構成を示すブロック図である。図3は、医用画像処理装置の構成を示すブロック図である。図1に示す医用情報処理システムは、互いにネットワークNwを介して通信可能なX線診断装置1及び医用画像処理装置90を備えている。なお、この医用情報処理システムは、これに限らず、X線診断装置1又は医用画像処理装置90を省略した構成に変形可能である。また、X線診断装置1としては、バイプレーン構造を例に挙げて述べるが、これに限らず、シングルプレーン構造を用いてもよい。Cアーム9及びΩアーム19は、撮像角度の違いを除いてほぼ同様に動作するので、主にCアーム9を用いた場合を例に挙げて説明する。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a medical information processing system including an X-ray diagnostic apparatus and a medical image processing apparatus according to the first embodiment, and FIG. 2 is a block diagram showing a configuration of the X-ray diagnostic apparatus. is there. FIG. 3 is a block diagram showing a configuration of a medical image processing device. The medical information processing system shown in FIG. 1 includes an X-ray diagnostic apparatus 1 and a medical image processing apparatus 90 capable of communicating with each other via a network Nw. The medical information processing system is not limited to this, and can be transformed into a configuration in which the X-ray diagnostic apparatus 1 or the medical image processing apparatus 90 is omitted. Further, the X-ray diagnostic apparatus 1 will be described by taking a biplane structure as an example, but the present invention is not limited to this, and a single plane structure may be used. Since the C arm 9 and the Ω arm 19 operate in substantially the same manner except for the difference in the imaging angle, the case where the C arm 9 is mainly used will be described as an example.
ここで、X線診断装置1は、撮像装置10及びコンソール装置70を備えている。撮像装置10は、高電圧発生装置3、第1X線管5、第1X線検出器7、Cアーム9、第1コリメータ11、第2X線管15、第2X線検出器17、Ωアーム19、第2コリメータ21、天板24、寝台25及び駆動部27を備えている。 Here, the X-ray diagnostic apparatus 1 includes an imaging apparatus 10 and a console apparatus 70. The imaging device 10 includes a high voltage generator 3, a first X-ray tube 5, a first X-ray detector 7, a C arm 9, a first collimator 11, a second X-ray tube 15, a second X-ray detector 17, and an Ω arm 19. It includes a second collimator 21, a top plate 24, a sleeper 25, and a drive unit 27.
高電圧発生装置3は、第1X線管5と第2X線管15とに供給する管電流と、第1X線管5と第2X線管15とに印加する管電圧とを発生する。高電圧発生装置3は、処理回路74に制御され、管電流を第1X線管5と第2X線管15とに供給し、管電圧を第1X線管5と第2X線管15とに印加する。 The high voltage generator 3 generates a tube current supplied to the first X-ray tube 5 and the second X-ray tube 15 and a tube voltage applied to the first X-ray tube 5 and the second X-ray tube 15. The high voltage generator 3 is controlled by the processing circuit 74, supplies a tube current to the first X-ray tube 5 and the second X-ray tube 15, and applies the tube voltage to the first X-ray tube 5 and the second X-ray tube 15. To do.
第1X線管5は、高電圧発生装置3から供給された管電流と、高電圧発生装置3により印加された管電圧とに基づいて、X線の焦点(以下、第1焦点と呼ぶ)においてX線(以下、第1X線と呼ぶ)を発生する。第1焦点から発生された第1X線は、第1X線管5の前面に設けられたX線放射窓を介して、被検体Pに照射される。なお、第1焦点から発生された第1X線の一部は、第1X線管5とX線放射窓との間に設けられた第1コリメータ11により遮蔽される。すなわち、入力インタフェース73から入力された第1照射範囲に従って第1コリメータ11が移動され、第1X線の照射範囲が限定される。 The first X-ray tube 5 has an X-ray focus (hereinafter referred to as a first focus) based on the tube current supplied from the high voltage generator 3 and the tube voltage applied by the high voltage generator 3. X-rays (hereinafter referred to as first X-rays) are generated. The first X-ray generated from the first focal point is applied to the subject P through an X-ray emission window provided on the front surface of the first X-ray tube 5. A part of the first X-rays generated from the first focal point is shielded by the first collimator 11 provided between the first X-ray tube 5 and the X-ray emission window. That is, the first collimator 11 is moved according to the first irradiation range input from the input interface 73, and the irradiation range of the first X-ray is limited.
第1X線検出器7は、第1X線管5から発生され、被検体Pを透過した第1X線を検出する。例えば、第1X線検出器7は、フラットパネルディテクタ(Flat Panel Detector:以下、第1FPDと呼ぶ)を有する。第1FPDは、複数の半導体検出素子を有する。半導体検出素子には、直接変換形と間接変換形とがある。直接変換形とは、入射X線を直接的に電気信号に変換する形式である。間接変換形とは、入射X線を蛍光体で光に変換し、その光を電気信号に変換する形式である。 The first X-ray detector 7 detects the first X-ray emitted from the first X-ray tube 5 and transmitted through the subject P. For example, the first X-ray detector 7 has a flat panel detector (hereinafter referred to as a first FPD). The first FPD has a plurality of semiconductor detection elements. There are two types of semiconductor detection elements: direct conversion type and indirect conversion type. The direct conversion type is a type in which incident X-rays are directly converted into an electric signal. The indirect conversion type is a type in which incident X-rays are converted into light by a phosphor and the light is converted into an electric signal.
第1X線検出器7の後段には、図示しない投影データ生成回路及び投影データ記憶回路を備える。投影データ生成回路は、第1FPDから行単位あるいは列単位でパラレルに読み出された電荷を電圧に変換する電荷・電圧変換器と、この電荷・電圧変換器の出力をデジタル信号に変換するA/D変換器と、デジタル変換されたパラレル信号を時系列的なシリアル信号に変換するパラレル・シリアル変換器を備えている。投影データ生成回路は、このシリアル信号を時系列的な投影データとして投影データ記憶回路に供給する。投影データ記憶回路は、投影データ生成回路から供給される時系列的な投影データを順次保存して2次元投影データを生成する。この2次元投影データは、メモリ71に保存される。 A projection data generation circuit and a projection data storage circuit (not shown) are provided in the subsequent stage of the first X-ray detector 7. The projection data generation circuit is a charge / voltage converter that converts the charge read in parallel from the first FPD in rows or columns into a voltage, and an A / that converts the output of this charge / voltage converter into a digital signal. It includes a D converter and a parallel serial converter that converts a digitally converted parallel signal into a time-series serial signal. The projection data generation circuit supplies this serial signal as time-series projection data to the projection data storage circuit. The projection data storage circuit sequentially stores the time-series projection data supplied from the projection data generation circuit to generate two-dimensional projection data. This two-dimensional projection data is stored in the memory 71.
Cアーム9は、第1X線管5と第1X線検出器7とを被検体P及び天板24を挟んで対向するように保持することで、天板24上の被検体PのX線撮影を行うことができる構成を有する。また、Cアーム9は、第1焦点と第1X線検出器7との距離(線源受像面間距離(Source Image Distance:以下、第1SIDとも呼ぶ))を変更可能に、第1X線管5と第1X線検出器7とを保持する。「第1SID」は、単に「SID」とも呼ぶ。なお、天板24は、当該天板24の長手方向、短軸方向及び鉛直方向に沿って移動可能に寝台25に設けられている。 The C-arm 9 holds the first X-ray tube 5 and the first X-ray detector 7 so as to face each other with the subject P and the top plate 24 interposed therebetween, so that X-ray imaging of the subject P on the top plate 24 is performed. Has a configuration capable of performing. Further, the C-arm 9 makes it possible to change the distance between the first focal point and the first X-ray detector 7 (distance between the source image receiving surfaces (Source Image Distance: hereinafter, also referred to as the first SID)), and the first X-ray tube 5 And the first X-ray detector 7. The "first SID" is also simply referred to as a "SID". The top plate 24 is provided on the bed 25 so as to be movable along the longitudinal direction, the minor axis direction, and the vertical direction of the top plate 24.
具体的にはCアーム9は、天板24の長軸方向及び短軸方向に沿って移動可能となっている。また、Cアーム9は、保持部を介して支持アームに支持されている。支持アームは、略円弧形状を有し、天井に設けられたレールに対する移動機構に基端が取り付けられている。Cアーム9は、天板24に垂直なZ方向と、天板24の長軸方向に沿ったY方向との両者に直交するX方向の軸を中心に回転可能に保持部に保持されている。また、Cアーム9は、Y方向の軸を中心とした略円弧形状を有し、略円弧形状に沿ってスライド動作可能に保持部に保持されている。すなわち、Cアーム9は、Y方向の軸を回転中心としたスライド動作を行うことができる。また、Cアーム9は、保持部を中心としてX方向の軸を中心とした回転動作(以下、「主回転動作」と称する。)をすることができ、スライドとこの回転の組み合わせにより様々な角度方向(撮像角度)からX線画像を取得することを可能とする。さらに、Cアーム9は、Z方向の軸を中心にも回転することができ、これにより、例えば、上述のスライド動作の回転中心軸をX方向とすることができる。なお、第1X線管5の第1焦点と、第1X線検出器7の検出面中心とを通る撮影軸は、スライド動作の回転中心軸と、主回転動作の回転中心軸とに一点で交差するように設計されている。当該交点は、一般的には、アイソセンタと呼ばれている。アイソセンタは、Cアーム9が上述のスライド動作や主回転動作をしても変位しない。このため、アイソセンタに関心部位(例、動脈瘤)が位置した場合、Cアーム9のスライド動作又は主回転動作により得られた医用画像の動画像において、関心部位の観察が容易になる。 Specifically, the C arm 9 can move along the long axis direction and the short axis direction of the top plate 24. Further, the C arm 9 is supported by the support arm via the holding portion. The support arm has a substantially arc shape, and its base end is attached to a moving mechanism for a rail provided on the ceiling. The C-arm 9 is rotatably held by the holding portion about an axis in the X direction orthogonal to both the Z direction perpendicular to the top plate 24 and the Y direction along the long axis direction of the top plate 24. .. Further, the C arm 9 has a substantially arc shape centered on the axis in the Y direction, and is held by the holding portion so as to be slidable along the substantially arc shape. That is, the C arm 9 can perform a sliding operation centered on the axis in the Y direction. Further, the C arm 9 can perform a rotational motion (hereinafter, referred to as "main rotary motion") about an axis in the X direction about the holding portion, and various angles depending on the combination of the slide and this rotation. It is possible to acquire an X-ray image from a direction (imaging angle). Further, the C arm 9 can also rotate about an axis in the Z direction, whereby, for example, the rotation center axis of the above-mentioned slide operation can be set in the X direction. The imaging axis passing through the first focal point of the first X-ray tube 5 and the center of the detection surface of the first X-ray detector 7 intersects the rotation center axis of the slide operation and the rotation center axis of the main rotation operation at one point. Designed to do. The intersection is generally called an isocenter. The isocenter does not displace even if the C arm 9 performs the above-mentioned sliding operation or main rotation operation. Therefore, when the site of interest (eg, an aneurysm) is located in the isocenter, the site of interest can be easily observed in the moving image of the medical image obtained by the sliding motion or the main rotation motion of the C arm 9.
第2X線管15は、高電圧発生装置3から供給された管電流と、高電圧発生装置3により印加された管電圧とに基づいて、X線の焦点(以下、第2焦点と呼ぶ)においてX線(以下、第2X線と呼ぶ)を発生する。第2焦点から発生された第2X線は、第2X線管15の前面に設けられたX線放射窓を介して、被検体Pに照射される。なお、第2焦点から発生された第2X線の一部は、第2X線管15とX線放射窓との間に設けられた第2コリメータ21により遮蔽される。すなわち、入力インタフェース73から入力された第2照射範囲に従って第2コリメータ21が移動され、第2X線の照射範囲が限定される。 The second X-ray tube 15 is at the focal point of X-rays (hereinafter referred to as the second focal point) based on the tube current supplied from the high voltage generator 3 and the tube voltage applied by the high voltage generator 3. X-rays (hereinafter referred to as second X-rays) are generated. The second X-ray generated from the second focal point is applied to the subject P through an X-ray emission window provided on the front surface of the second X-ray tube 15. A part of the second X-ray generated from the second focal point is shielded by the second collimator 21 provided between the second X-ray tube 15 and the X-ray emission window. That is, the second collimator 21 is moved according to the second irradiation range input from the input interface 73, and the irradiation range of the second X-ray is limited.
第2X線検出器17は、第2X線管15から発生され、被検体Pを透過したX線を検出する。例えば、第2X線検出器17は、第2FPDを有する。第2X線検出器17の後段には、図示しない投影データ生成回路及び投影データ記憶回路を備える。投影データ生成回路は、第2FPDから行単位あるいは列単位でパラレルに読み出された電荷を電圧に変換する電荷・電圧変換器と、この電荷・電圧変換器の出力をデジタル信号に変換するA/D変換器と、デジタル変換されたパラレル信号を時系列的なシリアル信号に変換するパラレル・シリアル変換器を備えている。投影データ生成回路は、このシリアル信号を時系列的な投影データとして投影データ記憶回路に供給する。投影データ記憶回路は、投影データ生成回路から供給される時系列的な投影データを順次保存して2次元投影データを生成する。この2次元投影データは、メモリ71に保存される。 The second X-ray detector 17 detects X-rays generated from the second X-ray tube 15 and transmitted through the subject P. For example, the second X-ray detector 17 has a second FPD. A projection data generation circuit and a projection data storage circuit (not shown) are provided in the subsequent stage of the second X-ray detector 17. The projection data generation circuit is a charge / voltage converter that converts the charge read in parallel from the second FPD in rows or columns into a voltage, and an A / that converts the output of this charge / voltage converter into a digital signal. It includes a D converter and a parallel serial converter that converts a digitally converted parallel signal into a time-series serial signal. The projection data generation circuit supplies this serial signal as time-series projection data to the projection data storage circuit. The projection data storage circuit sequentially stores the time-series projection data supplied from the projection data generation circuit to generate two-dimensional projection data. This two-dimensional projection data is stored in the memory 71.
Ωアーム19は、第2X線管15と第2X線検出器17とを天板24上の被検体Pを挟んで対向するように保持することで、被検体PのX線撮影を行うことができる構成を有する。また、Ωアーム19は、第2焦点と第2X線検出器17との距離(線源受像面間距離(Source Image Distance:以下、第2SIDとも呼ぶ))を変更可能に、第2X線管15と第2X線検出器17とを保持する。「第2SID」は、単に「SID」とも呼ぶ。 The Ω arm 19 holds the second X-ray tube 15 and the second X-ray detector 17 so as to face each other with the subject P on the top plate 24 interposed therebetween, so that the X-ray image of the subject P can be taken. It has a structure that can be used. Further, the Ω arm 19 can change the distance between the second focal point and the second X-ray detector 17 (distance between the source image receiving surfaces (Source Image Distance: hereinafter, also referred to as the second SID)), so that the second X-ray tube 15 can be changed. And the second X-ray detector 17. The "second SID" is also simply referred to as a "SID".
具体的にはΩアーム19は、天板24の長軸方向及び短軸方向に沿って移動可能となっている。また、Ωアーム19は、保持部を介して支持アームに支持されている。支持アームは、略円弧形状を有し、天井に設けられたレールに対する移動機構に基端が取り付けられている。Ωアーム19は、天板24に垂直なZ方向と、天板24の長軸方向に沿ったY方向の軸を中心に回転可能に保持部に保持されている。また、Ωアーム19は、Y方向の軸を中心とした略円弧形状を有し、略円弧形状に沿ってスライド動作可能に保持部に保持されている。すなわち、Ωアーム19は、Y方向の軸を回転中心としたスライド動作を行うことができる。また、Ωアーム19は、保持部を中心としてZ方向の軸を中心とした回転動作(以下、「主回転動作」と称する。)をすることができ、スライドとこの回転の組み合わせにより様々な角度方向(撮像角度)からX線画像を取得することを可能とする。なお、第2X線管15の第2焦点と、第2X線検出器17の検出面中心とを通る撮影軸は、スライド動作の回転中心軸と、主回転動作の回転中心軸とに一点で交差するように設計されている。当該交点は、一般的には、アイソセンタと呼ばれている。アイソセンタは、Ωアーム19が上述のスライド動作や主回転動作をしても変位しない。このため、アイソセンタに関心部位(例、動脈瘤)が位置した場合、Ωアーム19のスライド動作又は主回転動作により得られた医用画像の動画像において、関心部位の観察が容易になる。 Specifically, the Ω arm 19 can move along the major axis direction and the minor axis direction of the top plate 24. Further, the Ω arm 19 is supported by the support arm via the holding portion. The support arm has a substantially arc shape, and its base end is attached to a moving mechanism for a rail provided on the ceiling. The Ω arm 19 is rotatably held by the holding portion about the axis in the Z direction perpendicular to the top plate 24 and the axis in the Y direction along the long axis direction of the top plate 24. Further, the Ω arm 19 has a substantially arc shape centered on the axis in the Y direction, and is held by the holding portion so as to be slidable along the substantially arc shape. That is, the Ω arm 19 can perform a sliding operation centered on the axis in the Y direction. Further, the Ω arm 19 can perform a rotational operation (hereinafter, referred to as “main rotation operation”) about an axis in the Z direction about the holding portion, and various angles depending on the combination of the slide and this rotation. It is possible to acquire an X-ray image from a direction (imaging angle). The imaging axis passing through the second focal point of the second X-ray tube 15 and the center of the detection surface of the second X-ray detector 17 intersects the rotation center axis of the sliding operation and the rotation center axis of the main rotation operation at one point. Designed to do. The intersection is generally called an isocenter. The isocenter does not displace even if the Ω arm 19 performs the above-mentioned sliding operation or main rotation operation. Therefore, when the site of interest (eg, an aneurysm) is located in the isocenter, the site of interest can be easily observed in the moving image of the medical image obtained by the sliding motion or the main rotation motion of the Ω arm 19.
このようなCアーム9及びΩアーム19は、レール下の支持アーム、X方向の軸、Y方向の軸及びZ方向の軸に係る動作を実現するための複数の動力源が該当する適当な箇所に備えられている。これらの動力源は駆動部27を構成する。 Such a C arm 9 and an Ω arm 19 are suitable locations to which a plurality of power sources for realizing operations related to the support arm under the rail, the axis in the X direction, the axis in the Y direction, and the axis in the Z direction correspond. Be prepared for. These power sources form a drive unit 27.
駆動部27は、システム制御機能741からの駆動信号を読み込んでCアーム9及びΩアーム19の各々をスライド運動、回転運動、直線運動させる。さらに、Cアーム9及びΩアーム19には、その角度(撮像角度)または姿勢や位置の情報を検出する状態検出器がそれぞれ備えられている。状態検出器は、例えば回転角や移動量を検出するポテンショメータや、位置検出センサであるエンコーダ等で構成される。エンコーダとしては、例えば磁気方式、刷子式、あるいは光電式等の、いわゆるアブソリュートエンコーダが使用可能となっている。また、状態検出器としては、回転変位をデジタル信号として出力するロータリエンコーダあるいは直線変位をデジタル信号として出力するリニアエンコーダなど、様々な種類の位置検出機構が適宜、使用可能となっている。 The drive unit 27 reads the drive signal from the system control function 741 and causes each of the C arm 9 and the Ω arm 19 to perform a slide motion, a rotary motion, and a linear motion. Further, the C arm 9 and the Ω arm 19 are each provided with a state detector that detects information on the angle (imaging angle) or the posture and position. The state detector is composed of, for example, a potentiometer that detects the rotation angle and the amount of movement, an encoder that is a position detection sensor, and the like. As the encoder, a so-called absolute encoder such as a magnetic type, a brush type, or a photoelectric type can be used. Further, as the state detector, various types of position detection mechanisms such as a rotary encoder that outputs rotational displacement as a digital signal and a linear encoder that outputs linear displacement as a digital signal can be appropriately used.
コンソール装置70は、メモリ71、ディスプレイ72、入力インタフェース73、処理回路74及びネットワークインタフェース76を備えている。 The console device 70 includes a memory 71, a display 72, an input interface 73, a processing circuit 74, and a network interface 76.
メモリ71は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)及び画像メモリなど電気的情報を記録するメモリ本体と、それらメモリ本体に付随するメモリコントローラやメモリインタフェースなどの周辺回路とを備えている。メモリ71は、例えば、処理回路74に実行されるプログラムと、第1X線検出器7及び第2X線検出器17から受けた検出データ(2次元投影データ)、処理回路74により生成された医用画像、処理回路74の処理に用いるデータ、各種テーブル、処理途中のデータ及び処理後のデータ等が記憶される。医用画像としては、例えば、X線画像(X線透視画像)、マスク画像(他のX線画像)、差分画像、デバイス画像、補間画像、強調画像、造影血管X線画像(DSA画像)、重畳画像などがある。プログラムは、例えば、コンピュータに、被検体をX線により撮像したX線画像を取得する取得機能、当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成するデバイス画像生成機能、当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する補間画像生成機能、を実現させる。補足すると、このようなプログラムとしては、例えば、予めネットワーク又は非一過性のコンピュータ読み取り可能な記憶媒体からコンピュータにインストールされ、医用画像処理装置77の各機能を当該コンピュータに実現させるプログラムが用いられる。 The memory 71 includes a memory body for recording electrical information such as ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), and image memory, and a memory controller and memory interface attached to the memory body. It is equipped with peripheral circuits. The memory 71 is, for example, a program executed in the processing circuit 74, detection data (two-dimensional projection data) received from the first X-ray detector 7 and the second X-ray detector 17, and a medical image generated by the processing circuit 74. , Data used for processing of the processing circuit 74, various tables, data in the middle of processing, data after processing, and the like are stored. Examples of medical images include X-ray images (X-ray fluoroscopic images), mask images (other X-ray images), difference images, device images, interpolated images, emphasized images, contrasted blood vessel X-ray images (DSA images), and superimposition. There are images and so on. The program has, for example, an acquisition function for acquiring an X-ray image obtained by imaging a subject with X-rays on a computer, and the acquired X-ray image based on the acquired X-ray image and another X-ray image. A device image generation function for generating a device image obtained by extracting the device drawn in the above, and an interpolated image generation function for generating an interpolated image by interpolating a defective portion of the generated device image are realized. Supplementally, as such a program, for example, a program that is pre-installed in a computer from a network or a non-transient computer-readable storage medium and realizes each function of the medical image processing apparatus 77 in the computer is used. ..
ディスプレイ72は、医用画像などといった各種の情報を表示するディスプレイ本体と、ディスプレイ本体に表示用の信号を供給する内部回路、ディスプレイ本体と内部回路とをつなぐコネクタやケーブルなどの周辺回路から構成されている。内部回路は、処理回路74から供給される画像データに被検体情報や投影データ生成条件等の付帯情報を重畳して表示データを生成し、得られた表示データに対しD/A変換とTVフォーマット変換を行なってディスプレイ本体に表示する。例えば、ディスプレイ72は、処理回路74によって生成された医用画像や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ72は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。また、ディスプレイ72は、表示部の一例である。また、ディスプレイ72は、デスクトップ型でもよいし、コンソール装置70本体と無線通信可能なタブレット端末等で構成されることにしても構わない。ディスプレイ72は表示部の一例である。 The display 72 is composed of a display main body that displays various information such as medical images, an internal circuit that supplies a display signal to the display main body, and peripheral circuits such as a connector and a cable that connect the display main body and the internal circuit. There is. The internal circuit generates display data by superimposing ancillary information such as subject information and projection data generation conditions on the image data supplied from the processing circuit 74, and D / A conversion and TV format are performed on the obtained display data. Convert and display on the display body. For example, the display 72 outputs a medical image generated by the processing circuit 74, a GUI (Graphical User Interface) for receiving various operations from the operator, and the like. For example, the display 72 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 72 is an example of a display unit. Further, the display 72 may be a desktop type, or may be composed of a tablet terminal or the like capable of wireless communication with the console device 70 main body. The display 72 is an example of a display unit.
入力インタフェース73は、被検体情報の入力、X線条件の設定、撮像装置10の幾何学的情報、各種コマンド信号の入力等を行う。被検体情報は、例えば、被検体ID、被検体名、生年月日、年齢、体重、性別、検査部位等を含んでいる。なお、被検体情報は、被検体の身長を含んでもよい。撮像装置10の幾何学的情報は、例えば、Cアーム9による撮像角度及び第1SIDと、Ωアーム19による撮像角度及び第2SIDなどである。入力インタフェース73は、例えば、Cアーム9及びΩアーム19の移動指示、関心領域(ROI)の設定などを行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、及び表示画面とタッチパッドとが一体化されたタッチパネルディスプレイ等によって実現される。入力インタフェース73は、処理回路74に接続されており、操作者から受け取った入力操作を電気信号へ変換し、処理回路74へと出力する。また、入力インタフェース73は、コンソール装置70本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、本明細書において入力インタフェース73はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路74へ出力する電気信号の処理回路も入力インタフェース73の例に含まれる。 The input interface 73 inputs subject information, sets X-ray conditions, geometric information of the imaging device 10, inputs various command signals, and the like. The subject information includes, for example, a subject ID, a subject name, a date of birth, an age, a weight, a sex, a test site, and the like. The subject information may include the height of the subject. The geometric information of the image pickup apparatus 10 is, for example, the image pickup angle and the first SID by the C arm 9 and the image pickup angle and the second SID by the Ω arm 19. The input interface 73 performs an input operation by touching, for example, a trackball, a switch button, a mouse, a keyboard, or an operation surface for instructing movement of the C arm 9 and the Ω arm 19 and setting an area of interest (ROI). It is realized by a touch pad and a touch panel display in which a display screen and a touch pad are integrated. The input interface 73 is connected to the processing circuit 74, converts the input operation received from the operator into an electric signal, and outputs the input operation to the processing circuit 74. Further, the input interface 73 may be composed of a tablet terminal or the like capable of wireless communication with the console device 70 main body. Further, in the present specification, the input interface 73 is not limited to the one provided with physical operating parts such as a mouse and a keyboard. For example, an example of the input interface 73 includes an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the device and outputs the electric signal to the processing circuit 74. ..
処理回路74は、メモリ71内のプログラムを呼び出し実行することにより、プログラムに対応するシステム制御機能741、画像処理機能742、デバイス画像生成機能743、補間画像生成機能744、強調画像生成機能745及び表示制御機能746を実現するプロセッサである。なお、処理回路74の説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス等の回路を意味する。プログラマブル論理デバイスには、例えば、単純プログラマブル論理デバイス(SPLD)、複合プログラマブル論理デバイス(CPLD)、及びフィールドプログラマブルゲートアレイ(FPGA)等がある。この種のプロセッサは、メモリ71内のプログラムを呼び出し実行する代わりに、当該プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。また、図2においては単一の処理回路74にてシステム制御機能741、画像処理機能742、デバイス画像生成機能743、補間画像生成機能744、強調画像生成機能745及び表示制御機能746が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。また、システム制御機能741、画像処理機能742、デバイス画像生成機能743、補間画像生成機能744、強調画像生成機能745及び表示制御機能746は、それぞれシステム制御回路、画像処理回路、デバイス画像生成回路、補間画像生成回路、強調画像生成回路及び表示制御回路と呼んでもよく、個別のハードウェア回路として実装してもよい。 By calling and executing the program in the memory 71, the processing circuit 74 calls and executes the system control function 741, the image processing function 742, the device image generation function 743, the interpolated image generation function 744, the emphasized image generation function 745, and the display corresponding to the program. It is a processor that realizes the control function 746. The word "processor" used in the description of the processing circuit 74 means, for example, a circuit such as a CPU, a GPU, an integrated circuit (ASIC) for a specific application, or a programmable logic device. Programmable logic devices include, for example, simple programmable logic devices (SPLDs), composite programmable logic devices (CPLDs), field programmable gate arrays (FPGAs), and the like. This type of processor may be configured to incorporate the program directly into the circuit of the processor instead of calling and executing the program in the memory 71. Further, in FIG. 2, a system control function 741, an image processing function 742, a device image generation function 743, an interpolated image generation function 744, a emphasized image generation function 745, and a display control function 746 are realized by a single processing circuit 74. Although described as those, a processing circuit may be formed by combining a plurality of independent processors, and each function may be realized by executing a program by each processor. Further, the system control function 741, the image processing function 742, the device image generation function 743, the interpolated image generation function 744, the emphasized image generation function 745, and the display control function 746 are the system control circuit, the image processing circuit, and the device image generation circuit, respectively. It may be called an interpolated image generation circuit, an emphasized image generation circuit, and a display control circuit, and may be implemented as individual hardware circuits.
システム制御機能741は、例えば、入力インタフェース73から入力された操作者によるコマンド信号、及び各種初期設定条件等の情報を一旦記憶した後、これらの情報を処理回路74の各処理機能に送信する。 The system control function 741 temporarily stores information such as a command signal by an operator input from the input interface 73 and various initial setting conditions, and then transmits these information to each processing function of the processing circuit 74.
また、システム制御機能741は、例えば、入力インタフェース73から入力されたCアーム9、Ωアーム19及び天板24の駆動に関する情報を用いて、駆動部27及び寝台25の制御を行う。例えば、システム制御機能741は、Cアーム9やΩアーム19の移動や回転、及び天板24の移動やチルトなどを制御する。 Further, the system control function 741 controls the drive unit 27 and the sleeper 25 by using, for example, the information regarding the drive of the C arm 9, the Ω arm 19, and the top plate 24 input from the input interface 73. For example, the system control function 741 controls the movement and rotation of the C arm 9 and the Ω arm 19, and the movement and tilt of the top plate 24.
また、システム制御機能741は、例えば、各種初期設定条件等の情報を読み込んで、高電圧発生装置3における管電圧、管電流、照射時間などのX線条件の制御を行う。X線条件は、管電流と照射時間の積(mAs)を含んでもよい。 Further, the system control function 741 reads, for example, information such as various initial setting conditions, and controls X-ray conditions such as tube voltage, tube current, and irradiation time in the high voltage generator 3. The X-ray condition may include the product of tube current and irradiation time (mAs).
画像処理機能742は、例えば、メモリ71内の2次元投影データに対してフィルタリング処理等の画像処理を行ってX線画像を生成し、X線画像をメモリ71に保存する。ここで、第1X線検出器7の出力に基づくX線画像を第1X線画像と呼んでもよく、第2X線検出器17の出力に基づくX線画像を第2X線画像と呼んでもよい。第1X線画像及び第2X線画像は、互いに異なる2つの撮像角度で撮像されている。但し、以下の説明では、主に、Cアーム9のみを用いた場合を例に挙げて述べるので、「第1X線画像」を単に「X線画像」と呼ぶ。更に、画像処理機能742は、得られた複数のX線画像データに対し合成処理や減算(サブトラクション)処理等を行ない、得られた他のX線画像(マスク画像)や差分画像などをメモリ71に保存する。なお、造影剤を用いて得られたX線画像から、造影剤を用いずに得られたX線画像を減算処理して得られたX線画像については、造影血管X線画像又はDSA(Digital Subtraction Angiography)画像ともいう。第1X線管5、第1X線検出器7、メモリ71及び画像処理機能742は、X線診断装置1における取得部の一例であり、被検体をX線により撮像したX線画像を取得する。メモリ71及び画像処理機能742は、医用画像処理装置77における取得部の一例であり、被検体をX線により撮像したX線画像を取得する。 The image processing function 742, for example, performs image processing such as filtering processing on the two-dimensional projection data in the memory 71 to generate an X-ray image, and saves the X-ray image in the memory 71. Here, the X-ray image based on the output of the first X-ray detector 7 may be called the first X-ray image, and the X-ray image based on the output of the second X-ray detector 17 may be called the second X-ray image. The first X-ray image and the second X-ray image are captured at two different imaging angles. However, in the following description, since the case where only the C arm 9 is used is mainly described as an example, the "first X-ray image" is simply referred to as an "X-ray image". Further, the image processing function 742 performs synthesis processing, subtraction (subtraction) processing, and the like on the obtained plurality of X-ray image data, and stores the obtained other X-ray images (mask images), difference images, and the like in the memory 71. Save to. The X-ray image obtained by subtracting the X-ray image obtained without using the contrast agent from the X-ray image obtained with the contrast agent is a contrast angiography X-ray image or DSA (Digital). Subtraction Angiography) Also called an image. The first X-ray tube 5, the first X-ray detector 7, the memory 71, and the image processing function 742 are examples of acquisition units in the X-ray diagnostic apparatus 1, and acquire an X-ray image obtained by imaging a subject with X-rays. The memory 71 and the image processing function 742 are examples of acquisition units in the medical image processing device 77, and acquire an X-ray image obtained by imaging a subject with X-rays.
デバイス画像生成機能743は、当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。以下の説明中、他のX線画像は、マスク画像ともいう。デバイス画像は、欠損部分を含むデバイスを示す場合には、欠損画像と呼んでもよい。デバイス画像生成機能743は、デバイス画像生成部の一例である。 The device image generation function 743 generates a device image obtained by extracting the device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image. In the following description, other X-ray images are also referred to as mask images. The device image may be referred to as a defective image when showing a device including a defective portion. The device image generation function 743 is an example of a device image generation unit.
補間画像生成機能744は、当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する。補間画像生成機能744は、補間画像生成部の一例である。 The interpolated image generation function 744 generates an interpolated image by interpolating the missing portion of the generated device image. The interpolated image generation function 744 is an example of an interpolated image generation unit.
強調画像生成機能745は、当該生成された補間画像に基づいて、上記取得されたX線画像又は上記X線画像と上記他のX線画像との差分画像においてデバイスを強調した強調画像を生成する。例えば、強調画像生成機能745は、補間画像をX線画像又は差分画像に重畳することにより強調画像を生成してもよい。強調画像生成機能745は、強調画像生成部の一例である。また、強調画像生成機能745は、必須ではなく、省略してもよい。 The enhanced image generation function 745 generates an enhanced image in which the device is emphasized in the acquired X-ray image or the difference image between the X-ray image and the other X-ray image based on the generated interpolated image. .. For example, the enhanced image generation function 745 may generate an enhanced image by superimposing the interpolated image on the X-ray image or the difference image. The emphasized image generation function 745 is an example of an emphasized image generation unit. Further, the emphasized image generation function 745 is not essential and may be omitted.
表示制御機能746は、例えば、システム制御機能741からの信号を読み込んで、メモリ71から所望の医用画像データを取得してディスプレイ72に表示する制御などを行う。これに限らず、表示制御機能746は、各種画像や各種情報をディスプレイ72に表示させることが可能である。表示制御機能746は、表示制御部の一例である。 The display control function 746 controls, for example, to read a signal from the system control function 741, acquire desired medical image data from the memory 71, and display it on the display 72. Not limited to this, the display control function 746 can display various images and various information on the display 72. The display control function 746 is an example of a display control unit.
ネットワークインタフェース76は、コンソール装置70をネットワークNwに接続して医用画像処理装置90等の他の装置と通信するための回路である。ネットワークインタフェース76としては、例えば、ネットワークインタフェースカード(NIC)が使用可能となっている。以下の説明では、他の装置との通信にネットワークインタフェース76が介在する旨の記載を省略する。 The network interface 76 is a circuit for connecting the console device 70 to the network Nw and communicating with other devices such as the medical image processing device 90. As the network interface 76, for example, a network interface card (NIC) can be used. In the following description, the description that the network interface 76 intervenes in communication with other devices will be omitted.
これらメモリ71、ディスプレイ72、入力インタフェース73、処理回路74の画像処理機能742、デバイス画像生成機能743、補間画像生成機能744、強調画像生成機能745及び表示制御機能746は、医用画像処理装置77を構成している。医用画像処理装置77は、X線診断装置1に内蔵されてもよく、X線診断装置1とは別の装置として、X線診断装置1の外部に設けてもよい。 The memory 71, the display 72, the input interface 73, the image processing function 742 of the processing circuit 74, the device image generation function 743, the interpolated image generation function 744, the emphasized image generation function 745, and the display control function 746 refer to the medical image processing device 77. It is configured. The medical image processing device 77 may be built in the X-ray diagnostic device 1, or may be provided outside the X-ray diagnostic device 1 as a device separate from the X-ray diagnostic device 1.
一方、医用画像処理装置90は、図3に示すように、メモリ91、ディスプレイ92、入力インタフェース93、処理回路94及びネットワークインタフェース96を備えている。 On the other hand, as shown in FIG. 3, the medical image processing apparatus 90 includes a memory 91, a display 92, an input interface 93, a processing circuit 94, and a network interface 96.
メモリ91は、ROM、RAM、HDD及び画像メモリなど電気的情報を記録するメモリ本体と、それらメモリ本体に付随するメモリコントローラやメモリインタフェースなどの周辺回路とを備えている。メモリ91は、例えば、処理回路94に実行されるプログラム、X線診断装置1から受信した医用画像、処理回路94により生成された医用画像、処理回路94の処理に用いるデータ、各種テーブル、処理途中のデータ及び処理後のデータ等が記憶される。医用画像としては、例えば、X線画像(X線透視画像)、マスク画像(他のX線画像)、差分画像、デバイス画像、補間画像、強調画像、造影血管X線画像(DSA画像)、重畳画像などがある。プログラムは、例えば、コンピュータに、被検体をX線により撮像したX線画像を取得する取得機能、当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成するデバイス画像生成機能、当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する補間画像生成機能、を実現させる。補足すると、このようなプログラムとしては、例えば、予めネットワーク又は非一過性のコンピュータ読み取り可能な記憶媒体からコンピュータにインストールされ、医用画像処理装置90の各機能を当該コンピュータに実現させるプログラムが用いられる。 The memory 91 includes a memory main body that records electrical information such as ROM, RAM, HDD, and image memory, and peripheral circuits such as a memory controller and a memory interface attached to the memory main body. The memory 91 is, for example, a program executed in the processing circuit 94, a medical image received from the X-ray diagnostic apparatus 1, a medical image generated by the processing circuit 94, data used for processing the processing circuit 94, various tables, and processing in progress. Data and data after processing are stored. Examples of medical images include X-ray images (X-ray fluoroscopic images), mask images (other X-ray images), difference images, device images, interpolated images, emphasized images, contrasted blood vessel X-ray images (DSA images), and superimposition. There are images and so on. The program has, for example, an acquisition function for acquiring an X-ray image obtained by imaging a subject with X-rays on a computer, and the acquired X-ray image based on the acquired X-ray image and another X-ray image. A device image generation function for generating a device image obtained by extracting the device drawn in the above, and an interpolated image generation function for generating an interpolated image by interpolating a defective portion of the generated device image are realized. Supplementally, as such a program, for example, a program that is installed in the computer in advance from a network or a non-transient computer-readable storage medium and realizes each function of the medical image processing apparatus 90 in the computer is used. ..
ディスプレイ92は、医用画像などといった各種の情報を表示するディスプレイ本体と、ディスプレイ本体に表示用の信号を供給する内部回路、ディスプレイ本体と内部回路とをつなぐコネクタやケーブルなどの周辺回路から構成されている。内部回路は、処理回路94から供給される画像データに被検体情報や投影データ生成条件等の付帯情報を重畳して表示データを生成し、得られた表示データに対しD/A変換とTVフォーマット変換を行なってディスプレイ本体に表示する。例えば、ディスプレイ92は、処理回路94によって強調された医用画像や、操作者からの各種操作を受け付けるためのGUI等を出力する。例えば、ディスプレイ92は、液晶ディスプレイやCRTディスプレイである。また、ディスプレイ92は、表示部の一例である。また、ディスプレイ92は、デスクトップ型でもよいし、医用画像処理装置90本体と無線通信可能なタブレット端末等で構成されることにしても構わない。ディスプレイ92は表示部の一例である。 The display 92 is composed of a display main body that displays various information such as medical images, an internal circuit that supplies a display signal to the display main body, and peripheral circuits such as a connector and a cable that connect the display main body and the internal circuit. There is. The internal circuit generates display data by superimposing ancillary information such as subject information and projection data generation conditions on the image data supplied from the processing circuit 94, and D / A conversion and TV format are performed on the obtained display data. Convert and display on the display body. For example, the display 92 outputs a medical image emphasized by the processing circuit 94, a GUI for receiving various operations from the operator, and the like. For example, the display 92 is a liquid crystal display or a CRT display. The display 92 is an example of a display unit. Further, the display 92 may be a desktop type, or may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical image processing device 90. The display 92 is an example of a display unit.
入力インタフェース93は、被検体情報の入力、撮像装置10の幾何学的情報、各種コマンド信号の入力等を行う。被検体情報は、例えば、被検体ID、被検体名、生年月日、年齢、体重、性別、検査部位等を含んでいる。なお、被検体情報は、被検体の身長を含んでもよい。撮像装置10の幾何学的情報は、例えば、Cアーム9による撮像角度及び第1SIDと、Ωアーム19による撮像角度及び第2SIDなどである。入力インタフェース93は、例えば、画像処理といった医用情報処理に関する指示、関心領域(ROI)の設定などを行うためのトラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、及び表示画面とタッチパッドとが一体化されたタッチパネルディスプレイ等によって実現される。入力インタフェース93は、処理回路94に接続されており、操作者から受け取った入力操作を電気信号へ変換し、処理回路94へと出力する。また、入力インタフェース93は、医用画像処理装置90本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、本明細書において入力インタフェース93はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路94へ出力する電気信号の処理回路も入力インタフェース93の例に含まれる。 The input interface 93 inputs subject information, geometric information of the image pickup apparatus 10, various command signals, and the like. The subject information includes, for example, a subject ID, a subject name, a date of birth, an age, a weight, a sex, a test site, and the like. The subject information may include the height of the subject. The geometric information of the image pickup apparatus 10 is, for example, the image pickup angle and the first SID by the C arm 9 and the image pickup angle and the second SID by the Ω arm 19. The input interface 93 is, for example, a trackball for performing instructions related to medical information processing such as image processing, setting of an area of interest (ROI), a switch button, a mouse, a keyboard, and a touch pad for performing input operations by touching an operation surface. , And a touch panel display or the like in which the display screen and the touch pad are integrated. The input interface 93 is connected to the processing circuit 94, converts the input operation received from the operator into an electric signal, and outputs the input operation to the processing circuit 94. Further, the input interface 93 may be composed of a tablet terminal or the like capable of wireless communication with the main body of the medical image processing device 90. Further, in the present specification, the input interface 93 is not limited to the one provided with physical operating parts such as a mouse and a keyboard. For example, an example of the input interface 93 includes an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the device and outputs the electric signal to the processing circuit 94. ..
処理回路94は、メモリ91内のプログラムを呼び出し実行することにより、プログラムに対応する画像処理機能942、デバイス画像生成機能943、補間画像生成機能944、強調画像生成機能945及び表示制御機能946を実現するプロセッサである。なお、処理回路94の説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス等の回路を意味する。プログラマブル論理デバイスには、例えば、単純プログラマブル論理デバイス(SPLD)、複合プログラマブル論理デバイス(CPLD)、及びフィールドプログラマブルゲートアレイ(FPGA)等がある。この種のプロセッサは、メモリ91内のプログラムを呼び出し実行する代わりに、当該プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。また、図3においては単一の処理回路94にて画像処理機能942、デバイス画像生成機能943、補間画像生成機能944、強調画像生成機能945及び表示制御機能946が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。また、画像処理機能942、デバイス画像生成機能943、補間画像生成機能944、強調画像生成機能945及び表示制御機能946は、それぞれ画像処理回路、デバイス画像生成回路、補間画像生成回路、強調画像生成回路及び表示制御回路と呼んでもよく、個別のハードウェア回路として実装してもよい。 The processing circuit 94 realizes the image processing function 942, the device image generation function 943, the interpolated image generation function 944, the emphasized image generation function 945, and the display control function 946 corresponding to the program by calling and executing the program in the memory 91. It is a processor to do. The term "processor" used in the description of the processing circuit 94 means, for example, a circuit such as a CPU, a GPU, an integrated circuit (ASIC) for a specific application, or a programmable logic device. Programmable logic devices include, for example, simple programmable logic devices (SPLDs), composite programmable logic devices (CPLDs), field programmable gate arrays (FPGAs), and the like. This type of processor may be configured to incorporate the program directly into the circuit of the processor instead of calling and executing the program in the memory 91. Further, in FIG. 3, it has been described that the image processing function 942, the device image generation function 943, the interpolated image generation function 944, the emphasized image generation function 945, and the display control function 946 are realized by a single processing circuit 94. , A plurality of independent processors may be combined to form a processing circuit, and each processor may execute a program to realize each function. Further, the image processing function 942, the device image generation function 943, the interpolation image generation function 944, the emphasis image generation function 945, and the display control function 946 are the image processing circuit, the device image generation circuit, the interpolation image generation circuit, and the emphasis image generation circuit, respectively. And may be called a display control circuit, and may be implemented as an individual hardware circuit.
ここで、画像処理機能742は、例えば、メモリ91内の2次元投影データに対してフィルタリング処理等の画像処理を行ってX線画像を生成し、X線画像をメモリ91に保存する。ここで、第1X線検出器7の出力に基づくX線画像を第1X線画像と呼んでもよく、第2X線検出器17の出力に基づくX線画像を第2X線画像と呼んでもよい。第1X線画像及び第2X線画像は、互いに異なる2つの撮像角度で撮像されている。但し、以下の説明では、主に、Cアーム9のみを用いた場合を例に挙げて述べるので、「第1X線画像」を単に「X線画像」と呼ぶ。更に、画像処理機能942は、得られた複数のX線画像データに対し合成処理や減算(サブトラクション)処理等を行ない、得られた他のX線画像(マスク画像)や差分画像などをメモリ91に保存する。なお、造影剤を用いて得られたX線画像から、造影剤を用いずに得られたX線画像を減算処理して得られたX線画像については、造影血管X線画像又はDSA(Digital Subtraction Angiography)画像ともいう。メモリ91及び画像処理機能942は、医用画像処理装置90における取得部の一例であり、被検体をX線により撮像したX線画像を取得する。但し、取得部は、これに限定されない。例えば、X線診断装置1からX線画像が送信される場合には、当該X線画像を受信してメモリ91に保存するネットワークインタフェース96と、メモリ91とが取得部の一例となる。 Here, the image processing function 742, for example, performs image processing such as filtering processing on the two-dimensional projection data in the memory 91 to generate an X-ray image, and saves the X-ray image in the memory 91. Here, the X-ray image based on the output of the first X-ray detector 7 may be called the first X-ray image, and the X-ray image based on the output of the second X-ray detector 17 may be called the second X-ray image. The first X-ray image and the second X-ray image are captured at two different imaging angles. However, in the following description, since the case where only the C arm 9 is used is mainly described as an example, the "first X-ray image" is simply referred to as an "X-ray image". Further, the image processing function 942 performs synthesis processing, subtraction (subtraction) processing, and the like on the obtained plurality of X-ray image data, and stores the obtained other X-ray image (mask image), difference image, and the like in the memory 91. Save to. The X-ray image obtained by subtracting the X-ray image obtained without using the contrast agent from the X-ray image obtained with the contrast agent is a contrast angiography X-ray image or DSA (Digital). Subtraction Angiography) Also called an image. The memory 91 and the image processing function 942 are examples of acquisition units in the medical image processing apparatus 90, and acquire an X-ray image obtained by imaging a subject with X-rays. However, the acquisition unit is not limited to this. For example, when an X-ray image is transmitted from the X-ray diagnostic apparatus 1, the network interface 96 that receives the X-ray image and stores it in the memory 91 and the memory 91 are examples of the acquisition unit.
デバイス画像生成機能943は、当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。以下の説明中、他のX線画像は、マスク画像ともいう。デバイス画像は、欠損部分を含むデバイスを示す場合には、欠損画像と呼んでもよい。デバイス画像生成機能943は、デバイス画像生成部の一例である。 The device image generation function 943 generates a device image obtained by extracting the device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image. In the following description, other X-ray images are also referred to as mask images. The device image may be referred to as a defective image when showing a device including a defective portion. The device image generation function 943 is an example of a device image generation unit.
補間画像生成機能944は、当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する。補間画像生成機能944は、補間画像生成部の一例である。 The interpolated image generation function 944 generates an interpolated image by interpolating the missing portion of the generated device image. The interpolated image generation function 944 is an example of an interpolated image generation unit.
強調画像生成機能945は、当該生成された補間画像に基づいて、上記取得されたX線画像又は上記X線画像と上記他のX線画像との差分画像においてデバイスを強調した強調画像を生成する。例えば、強調画像生成機能945は、補間画像をX線画像又は差分画像に重畳することにより強調画像を生成してもよい。強調画像生成機能945は、強調画像生成部の一例である。また、強調画像生成機能745は、必須ではなく、省略してもよい。 The enhanced image generation function 945 generates an enhanced image in which the device is emphasized in the acquired X-ray image or the difference image between the X-ray image and the other X-ray image based on the generated interpolated image. .. For example, the enhanced image generation function 945 may generate an enhanced image by superimposing the interpolated image on the X-ray image or the difference image. The emphasized image generation function 945 is an example of an emphasized image generation unit. Further, the emphasized image generation function 745 is not essential and may be omitted.
表示制御機能946は、例えば、入力インタフェース93の操作に応じて、メモリ91から所望の医用画像データを取得してディスプレイ92に表示する制御などを行う。これに限らず、表示制御機能946は、各種画像や各種情報をディスプレイ92に表示させることが可能である。表示制御機能946は、表示制御部の一例である。 The display control function 946 controls, for example, to acquire desired medical image data from the memory 91 and display it on the display 92 in response to an operation of the input interface 93. Not limited to this, the display control function 946 can display various images and various information on the display 92. The display control function 946 is an example of a display control unit.
ネットワークインタフェース96は、医用画像処理装置90をネットワークNwに接続してX線診断装置1等の他の装置と通信するための回路である。ネットワークインタフェース96としては、例えば、ネットワークインタフェースカード(NIC)が使用可能となっている。以下の説明では、他の装置との通信にネットワークインタフェース96が介在する旨の記載を省略する。 The network interface 96 is a circuit for connecting the medical image processing device 90 to the network Nw and communicating with other devices such as the X-ray diagnostic device 1. As the network interface 96, for example, a network interface card (NIC) can be used. In the following description, the description that the network interface 96 intervenes in communication with other devices will be omitted.
なお、医用画像処理装置90内の画像処理機能942、デバイス画像生成機能943、補間画像生成機能944、強調画像生成機能945及び表示制御機能946は、X線診断装置1内の画像処理機能742、デバイス画像生成機能743、補間画像生成機能744、強調画像生成機能745及び表示制御機能746と同様の機能である。すなわち、医用情報処理システムとしては、医用画像処理装置90の処理回路94の各機能、又はX線診断装置1の処理回路74の各機能(但し、システム制御機能741を除く)、のいずれかの動作が実行される。 The image processing function 942 in the medical image processing device 90, the device image generation function 943, the interpolated image generation function 944, the emphasized image generation function 945, and the display control function 946 are the image processing function 742 in the X-ray diagnostic device 1. It is the same function as the device image generation function 743, the interpolation image generation function 744, the emphasized image generation function 745, and the display control function 746. That is, as the medical information processing system, either the functions of the processing circuit 94 of the medical image processing device 90 or the functions of the processing circuit 74 of the X-ray diagnostic device 1 (excluding the system control function 741). The action is performed.
次に、以上のように構成された医用画像処理装置の動作について図4のフローチャート並びに図5及び図6の模式図を用いて説明する。なお、X線診断装置1の処理回路74、及び医用画像処理装置90の処理回路94は、画像処理機能、デバイス画像生成機能、補間画像生成機能、強調画像生成機能及び表示制御機能に関し、ほぼ同様の動作を実行する。これに伴い、重複した文言の繰り返しを避けて理解を容易にする観点から、以下の説明では、当該各機能の動作について、医用画像処理装置90の処理回路94を代表例に挙げて述べる。このような代表例の説明は、適宜、装置名及び参照符号などを読み替えることにより、X線診断装置1及び医用画像処理装置77の処理回路74の動作の説明に適用することができる。このことは、以下の各実施形態でも同様である。 Next, the operation of the medical image processing apparatus configured as described above will be described with reference to the flowchart of FIG. 4 and the schematic views of FIGS. 5 and 6. The processing circuit 74 of the X-ray diagnostic apparatus 1 and the processing circuit 94 of the medical image processing apparatus 90 are substantially the same with respect to the image processing function, the device image generation function, the interpolated image generation function, the emphasized image generation function, and the display control function. To perform the operation of. Along with this, from the viewpoint of avoiding repetition of duplicated words and facilitating understanding, in the following description, the operation of each function will be described by taking the processing circuit 94 of the medical image processing apparatus 90 as a typical example. The description of such a representative example can be applied to the description of the operation of the processing circuit 74 of the X-ray diagnostic device 1 and the medical image processing device 77 by appropriately reading the device name, the reference code, and the like. This also applies to each of the following embodiments.
始めに、X線診断装置1の処理回路74は、操作者による入力インタフェース73の操作に応じて、撮像装置10を制御してCアーム9の撮像角度やSIDを調整し、X線透視撮像を開始する。これにより、被検体PのX線画像が動画として得られる。このX線画像は、X線透視撮像中、X線診断装置1から医用画像処理装置90に送信される。 First, the processing circuit 74 of the X-ray diagnostic apparatus 1 controls the imaging apparatus 10 to adjust the imaging angle and SID of the C arm 9 in response to the operation of the input interface 73 by the operator, and performs X-ray fluoroscopic imaging. Start. As a result, an X-ray image of the subject P can be obtained as a moving image. This X-ray image is transmitted from the X-ray diagnostic apparatus 1 to the medical image processing apparatus 90 during the X-ray fluoroscopic imaging.
ステップST10において、医用画像処理装置90は、X線診断装置1からX線画像を取得し、当該X線画像をメモリ91に保存する一方、ディスプレイ92に表示させる。このX線透視下において、コイル塞栓術が開始される。コイル塞栓術では、術者がリアルタイムで表示されるX線画像を視認しながら、カテーテル及びガイドワイヤを血管内に挿入して動脈瘤まで進行させ、動脈瘤にコイル(デバイス)を充填していく。なお、リアルタイムでの表示は、厳密に、撮像された瞬間に表示する処理を意味するのではなく、X線診断装置1側でX線画像が順次取得される処理に並行して、医用画像処理装置90側で当該X線画像が順次表示される処理を意味する。 In step ST10, the medical image processing device 90 acquires an X-ray image from the X-ray diagnostic device 1, stores the X-ray image in the memory 91, and displays the X-ray image on the display 92. Under this fluoroscopy, coil embolization is initiated. In coil embolization, the operator visually observes the X-ray image displayed in real time, inserts a catheter and guide wire into the blood vessel, advances to the aneurysm, and fills the aneurysm with a coil (device). .. Strictly speaking, the real-time display does not mean the process of displaying at the moment of imaging, but the medical image processing in parallel with the process of sequentially acquiring the X-ray images on the X-ray diagnostic apparatus 1 side. This means a process in which the X-ray images are sequentially displayed on the device 90 side.
ステップST10の後、ステップST20において、医用画像処理装置90の処理回路94は、操作者による入力インタフェース93の操作に応じて、取得したX線画像をマスク画像にするか否かを判定する。例えば、処理回路94は、マスク画像の取得指示を入力する操作に応じた電気信号を入力インタフェース93から受け付けると、X線画像をマスク画像にすることを判定し、ステップST30に移行する。この種のマスク画像の取得指示は、例えば、一本のコイルを動脈瘤に留置する毎に、操作者の操作によって入力される。一方、判定結果が否の場合、ステップST40に移行する。 After step ST10, in step ST20, the processing circuit 94 of the medical image processing apparatus 90 determines whether or not to use the acquired X-ray image as a mask image in response to the operation of the input interface 93 by the operator. For example, when the processing circuit 94 receives the electric signal corresponding to the operation of inputting the mask image acquisition instruction from the input interface 93, the processing circuit 94 determines that the X-ray image is to be a mask image, and proceeds to step ST30. An instruction to acquire this type of mask image is input by an operator's operation every time one coil is placed in the aneurysm, for example. On the other hand, if the determination result is no, the process proceeds to step ST40.
ステップST20の後、ステップST30において、処理回路94は、ステップST10で取得したX線画像をマスク画像として取得し、メモリ91に保存する。メモリ91内のマスク画像は、マスク画像の取得指示が入力される毎に、更新される。マスク画像は、撮像装置10の幾何学的情報に関連づけて保存されてもよい。幾何学的情報は、例えば、取得されたX線画像の付帯情報に含まれている。 After step ST20, in step ST30, the processing circuit 94 acquires the X-ray image acquired in step ST10 as a mask image and stores it in the memory 91. The mask image in the memory 91 is updated every time an instruction to acquire the mask image is input. The mask image may be stored in association with the geometric information of the imaging device 10. Geometric information is included in, for example, incidental information of the acquired X-ray image.
ステップST30の後、ステップST40において、処理回路94は、当該取得されたX線画像とマスク画像(他のX線画像)とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。具体的には例えば、図5に示すように、処理回路94は、X線画像gxからマスク画像gmを減算して差分画像gsを求める。差分画像gsは、ブランクロードマップ(BRM)画像と呼んでもよい。また、処理回路94は、差分画像gsから留置中のデバイスを抽出してデバイス画像gdを求める。ここで、留置中のデバイスを抽出する場合、例えば図6に示すように、差分画像gsから第1閾値以下の黒色画素を抽出する閾値処理により、デバイスとアーチファクトとを示す黒色画像gbsを得る。また、差分画像gsから第2閾値以上の白色画素を抽出する閾値処理により、アーチファクトを示す白色画像gwsを得る。次に、黒色画像gbsと、白色画像gwsとの位置合わせを行い、2つの画像を重畳した位置合わせ画像gd_rを得る。この位置合わせ画像gd_rは、例えば、黒色画像gbs及び白色画像gwsのうち、一方の画像については固定し、他方の画像については、回転行列による回転処理や並進ベクトルによる平行移動を施すことにより、得てもよい。次に、位置合わせ画像gd_rにおいて、白色画像gwsの白色画素領域を少し膨張させた領域(白色画素の近傍領域)を背景色で塗りつぶす。これにより、位置合わせ画像gd_rからアーチファクトが消去され、差分画像gsからデバイスのみを抽出したデバイス画像gdが生成される。このデバイス画像gdは、マスク画像gm内で留置済みのコイルの数が増えてきた場合、X線画像gxからマスク画像gmを減算する処理に起因して、留置中のコイルが部分的に欠損して表現される。 After step ST30, in step ST40, the processing circuit 94 extracts the device drawn on the acquired X-ray image based on the acquired X-ray image and the mask image (another X-ray image). Generate the device image. Specifically, for example, as shown in FIG. 5, the processing circuit 94 subtracts the mask image gm from the X-ray image gx to obtain the difference image gs. The difference image gs may be referred to as a blank roadmap (BRM) image. Further, the processing circuit 94 extracts the device being placed from the difference image gs and obtains the device image gd. Here, when extracting the indwelling device, for example, as shown in FIG. 6, a black image gbs showing the device and the artifact is obtained by a threshold process for extracting black pixels of the first threshold value or less from the difference image gs. Further, a white image gws showing an artifact is obtained by a threshold process for extracting white pixels having a second threshold value or more from the difference image gs. Next, the black image gbs and the white image gws are aligned to obtain a aligned image gd_r in which the two images are superimposed. The aligned image gd_r can be obtained, for example, by fixing one of the black image gbs and the white image gws, and performing translation processing by a rotation matrix or translational movement on the other image. You may. Next, in the aligned image gd_r, a region (a region near the white pixel) in which the white pixel region of the white image gws is slightly expanded is filled with a background color. As a result, the artifact is deleted from the aligned image gd_r, and the device image gd obtained by extracting only the device from the difference image gs is generated. In this device image gd, when the number of indwelling coils in the mask image gm increases, the indwelling coils are partially lost due to the process of subtracting the mask image gm from the X-ray image gx. Is expressed.
ステップST40の後、ステップST50において、処理回路94は、図5に示すように、当該生成されたデバイス画像gdの欠損部分を補間した補間画像giを生成する。欠損部分は、直線又は曲線のいずれで補間してもよい。 After step ST40, in step ST50, the processing circuit 94 generates an interpolated image gi that interpolates the missing portion of the generated device image gd, as shown in FIG. The missing portion may be interpolated with either a straight line or a curved line.
ステップST50の後、ステップST60において、処理回路94は、当該生成された補間画像giに基づいて、上記取得されたX線画像gx又は上記差分画像gsにおいてデバイスを強調した強調画像geを生成する。例えば図5に示すように、処理回路94は、補間画像giを差分画像gsに重畳することにより強調画像geを生成する。 After step ST50, in step ST60, the processing circuit 94 generates an emphasized image ge that emphasizes the device in the acquired X-ray image gx or the difference image gs based on the generated interpolated image gi. For example, as shown in FIG. 5, the processing circuit 94 generates the emphasized image ge by superimposing the interpolated image gi on the difference image gs.
ステップST60の後、ステップST70において、処理回路94は、生成した強調画像geをディスプレイ92に表示させる。このとき、処理回路94は、取得したX線画像gxを強調画像geと共に、ディスプレイ92に表示させることが好ましい。但し、補間画像giをX線画像gxに重畳して強調画像geを生成した場合には、X線画像gxを省略し、強調画像geのみを表示しても構わない。術者は、X線画像gxと共に、リアルタイムに表示される留置中のコイル(デバイス)を強調して示す強調画像geを視認しながらコイルの充填を進めていく。このリアルタイムでの表示は、前述同様に、X線診断装置1側でX線画像が順次取得される処理に並行して、医用画像処理装置90側で当該X線画像から生成された強調画像geが順次表示される処理を意味する。 After step ST60, in step ST70, the processing circuit 94 causes the generated highlighted image ge to be displayed on the display 92. At this time, it is preferable that the processing circuit 94 displays the acquired X-ray image gx together with the emphasized image ge on the display 92. However, when the interpolated image gi is superimposed on the X-ray image gx to generate the emphasized image ge, the X-ray image gx may be omitted and only the emphasized image ge may be displayed. The surgeon proceeds to fill the coil while visually recognizing the emphasized image ge that emphasizes the indwelling coil (device) displayed in real time together with the X-ray image gx. In this real-time display, similarly to the above, the emphasized image ge generated from the X-ray image on the medical image processing device 90 side in parallel with the process of sequentially acquiring the X-ray image on the X-ray diagnostic device 1 side. Means the process of displaying sequentially.
ステップST70の後、ステップST80において、術者は、ディスプレイ92を視認しながらコイルの充填が完了したか否かを判断する。この判断の結果、否の場合には(ST80:No)、ステップST10に戻り、ステップST10〜ST80の動作が継続される。一方、ステップST80の判断の結果、コイルの充填が完了した場合には(ST80:Yes)、コイル塞栓術を終了する。これにより、動脈瘤内を血栓化させて動脈瘤の破裂を防ぐことができる。 After step ST70, in step ST80, the operator visually determines whether or not the coil filling is completed while visually observing the display 92. As a result of this determination, if the result is no (ST80: No), the process returns to step ST10, and the operations of steps ST10 to ST80 are continued. On the other hand, as a result of the determination in step ST80, when the filling of the coil is completed (ST80: Yes), the coil embolization is completed. This makes it possible to thrombus the inside of the aneurysm and prevent the aneurysm from rupturing.
上述したように第1の実施形態によれば、被検体をX線により撮像したX線画像を取得する。当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する。このように、デバイス画像の欠損部分を補間した補間画像を生成する構成により、留置済みのデバイスの数が増えてきた場合に、デバイス画像の視認性の低下を阻止することができる。補足すると、第1の実施形態によれば、留置済みコイルの陰に隠れてしまい断片的にしか見えていなかった留置中コイルの形状の視認性を向上させることが可能となる。また、その結果として、コイル充填の精度の向上を期待することができる。 As described above, according to the first embodiment, an X-ray image obtained by imaging a subject with X-rays is acquired. Based on the acquired X-ray image and another X-ray image, a device image obtained by extracting the device drawn on the acquired X-ray image is generated. An interpolated image is generated by interpolating the missing portion of the generated device image. As described above, the configuration of generating the interpolated image by interpolating the defective portion of the device image can prevent the deterioration of the visibility of the device image when the number of indwelling devices increases. Supplementally, according to the first embodiment, it is possible to improve the visibility of the shape of the indwelling coil, which is hidden behind the indwelling coil and is only visible in fragments. As a result, improvement in coil filling accuracy can be expected.
また、第1の実施形態によれば、生成された補間画像に基づいて、当該取得されたX線画像又は当該X線画像と当該他のX線画像との差分画像においてデバイスを強調した強調画像を生成してもよい。この場合、X線画像又は差分画像内のデバイスを強調した強調画像が得られるので、前述した効果に加え、X線画像又は差分画像の背景を視認することができる。 Further, according to the first embodiment, the emphasized image in which the device is emphasized in the acquired X-ray image or the difference image between the X-ray image and the other X-ray image based on the generated interpolated image. May be generated. In this case, since the emphasized image in which the device in the X-ray image or the difference image is emphasized can be obtained, the background of the X-ray image or the difference image can be visually recognized in addition to the above-mentioned effect.
また、第1の実施形態によれば、補間画像をX線画像又は差分画像に重畳することにより強調画像を生成してもよい。この場合、X線画像又は差分画像内のデバイス部分の画素値を変更して強調画像を生成する処理に比べ、容易に強調画像を生成することができる。 Further, according to the first embodiment, the emphasized image may be generated by superimposing the interpolated image on the X-ray image or the difference image. In this case, the emphasized image can be easily generated as compared with the process of changing the pixel value of the device portion in the X-ray image or the difference image to generate the emphasized image.
<第2の実施形態>
次に、第2の実施形態に係る医用画像処理装置について説明する。以下の説明は、前述した図面と同一部分については同一符号を付してその詳しい説明を省略し、主に、異なる部分について述べる。このことは、以下の各実施形態についても同様である。
<Second embodiment>
Next, the medical image processing apparatus according to the second embodiment will be described. In the following description, the same parts as those in the above-described drawings are designated by the same reference numerals, detailed description thereof will be omitted, and different parts will be mainly described. This also applies to each of the following embodiments.
第2の実施形態は、第1の実施形態の処理回路74,94における補間画像生成機能744,944が学習済みモデルを用いる形態である。すなわち、処理回路74,94の補間画像生成機能744,944は、欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成する学習済みモデルに対して、デバイス画像を入力することで補間画像を生成する。当該学習済みモデルは、AI(人工知能)ソフトウエアの一部であるプログラムモジュールとしての利用が想定される。但し、ASICやFPGA等のように、学習済みモデルが処理回路74,94内に実装されていてもよい。本実施形態では、処理回路74,94が学習済みモデルをメモリ71,91から読み込んで動作させる場合を例に挙げて述べる。 In the second embodiment, the interpolated image generation functions 744 and 944 in the processing circuits 74 and 94 of the first embodiment use the trained model. That is, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 relative to the trained model that generates an output image indicating the device in which the defective portion is interpolated based on the input image indicating the device including the defective portion. , Generate an interpolated image by inputting a device image. The trained model is expected to be used as a program module that is a part of AI (artificial intelligence) software. However, a trained model may be mounted in the processing circuits 74 and 94, such as ASIC and FPGA. In the present embodiment, a case where the processing circuits 74 and 94 read the trained model from the memories 71 and 91 and operate the model will be described as an example.
このような学習済みモデルは、学習用データに基づいて、機械学習モデルに機械学習を行わせることにより、学習済みの機械学習モデルである学習済みモデルとして作成可能となっている。ここで、学習用データは、欠損部分を含むデバイスを示す入力画像を入力データとし、当該欠損部分を補間したデバイスを示す出力画像を出力データとした、入力データと出力データとの組である。機械学習モデルは、欠損部分を含むデバイスを示す差分画像gs又はデバイス画像gdを入力とし、当該欠損部分を補間したデバイスを示す差分画像gs又は補間画像gdを出力する、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数及びパラメータの組合せにより定義される。本実施形態に係る機械学習モデルは、上記の要請を満たす如何なるパラメータ付き合成関数であっても良いが、多層のネットワークモデル(以下、多層化ネットワークと呼ぶ)であるとする。多層化ネットワークを用いる学習済みモデルは、欠損部分を含むデバイスを示す入力画像を入力する入力層と、当該欠損部分を補間したデバイスを示す出力画像を出力する出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層とを有する。このような多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)を用いている。DNNとしては、例えば、再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)や畳込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いてもよい。この種のCNNは、DCNN(Deep CNN)ともいう。本実施形態では、学習済みモデルとしてDCNNを用いている。CNNについては、例えば、前述した「イアン・グッドフェロー(Ian Goodfellow)、外2名、「第9章 畳み込みネットワーク(Chapter 9 Convolutional Networks)」、ディープラーニング(Deep learning)、エムアイティー・プレス(MIT press)、2016年、p.330−372、インターネット <URL:http://www.deeplearningbook.org>」に記載されている。また、RNNは、長・短期記憶(Long Short−Term Memory:LSTM)を含んでもよい。以上の当該多層化ネットワークに関する説明は、以下の全ての機械学習モデル及び学習済みモデルにも該当する。 Such a trained model can be created as a trained model, which is a trained machine learning model, by causing the machine learning model to perform machine learning based on the training data. Here, the training data is a set of input data and output data in which an input image indicating a device including a defective portion is used as input data and an output image indicating a device in which the defective portion is interpolated is used as output data. In the machine learning model, a plurality of functions are synthesized, in which the difference image gs or the device image gd indicating the device including the defective portion is input and the difference image gs or the interpolated image gd indicating the device in which the defective portion is interpolated is output. It is a composite function with parameters. A parameterized composition function is defined by a combination of multiple adjustable functions and parameters. The machine learning model according to the present embodiment may be a composite function with any parameter that satisfies the above requirements, but is a multi-layer network model (hereinafter referred to as a multi-layer network). A trained model using a multi-layer network includes an input layer that inputs an input image indicating a device including a defective portion, an output layer that outputs an output image indicating a device that interpolates the defective portion, and an input layer and an output layer. It has at least one intermediate layer provided between the two. As such a multi-layer network, for example, a deep neural network (DNN), which is a multi-layer neural network targeted for deep learning, is used. As the DNN, for example, a recurrent neural network (RNN) or a convolutional neural network (Convolutional Neural Network: CNN) may be used. This type of CNN is also referred to as DCNN (Deep CNN). In this embodiment, DCNN is used as the trained model. Regarding CNN, for example, "Ian Goodfellow" mentioned above, two outsiders, "Chapter 9 Convolutional Networks", Deep Learning, MIT Press (MIT press), for example, "Chapter 9 Convolutional Networks", Deep Learning, MIT Press. ), 2016, p. 330-372, Internet <URL: http://www.deeplearningbook.org> ”. In addition, the RNN may include long short-term memory (Long Short-Term Memory: LSTM). The above description of the multi-layer network also applies to all the following machine learning models and trained models.
これに伴い、処理回路74,94は、メモリ71,91内のプログラムに基づき、前述した機能に加え、図7及び図8に示すように、学習済みモデルを生成するための学習制御機能747,947を実行可能となっている。学習制御機能747,947は、学習用データに基づいて、メモリ71,91内の機械学習モデルに機械学習を行わせることにより、学習済みの機械学習モデルである学習済みモデルを生成する。なお、学習済みモデルは、学習済みモデルが出力した成果物に対してユーザがフィードバックを与えることにより、学習済みモデルの内部アルゴリズムを更に更新する「自己学習するモデル」を含む。 Along with this, the processing circuits 74 and 94 have a learning control function 747 for generating a trained model, as shown in FIGS. 7 and 8, in addition to the above-mentioned functions based on the programs in the memories 71 and 91. 947 can be executed. The learning control functions 747 and 947 generate a trained model which is a trained machine learning model by causing the machine learning model in the memories 71 and 91 to perform machine learning based on the learning data. The trained model includes a "self-learning model" that further updates the internal algorithm of the trained model by giving feedback to the deliverable output by the trained model.
ここで、学習用データは、外部からメモリ71,91に書き込まれた入力画像と出力画像との複数のペアであってもよい。この場合、例えば、入力画像は、欠損部分を含む直線又は曲線を示す画像としてもよく、欠損部分を含む図形を示す画像としてもよい。出力画像は、入力画像の欠損部分を補間した画像である。 Here, the learning data may be a plurality of pairs of an input image and an output image written in the memories 71 and 91 from the outside. In this case, for example, the input image may be an image showing a straight line or a curve including a defective portion, or an image showing a figure including the defective portion. The output image is an image obtained by interpolating the missing portion of the input image.
あるいは、学習用データは、学習制御機能747,947により作成された入力画像と出力画像との複数のペアであってもよい。学習用データとしては、1枚の元画像から入力画像と出力画像とのペアを作成してもよく、2枚の元画像から入力画像と出力画像とのペアを作成してもよい。 Alternatively, the learning data may be a plurality of pairs of the input image and the output image created by the learning control functions 747 and 947. As the training data, a pair of an input image and an output image may be created from one original image, or a pair of an input image and an output image may be created from two original images.
1枚の元画像からペアを作成する場合、元画像としては、欠損部分を含まないデバイスを示す差分画像gsとし、出力画像としては当該元画像を用い、入力画像としては当該元画像が示すデバイスに欠損部分を加工して形成した差分画像gsとしてもよい。また、1枚の元画像からペアを作成する場合、上記出力画像である差分画像gsからデバイスを抽出した補間画像giを出力画像とし、上記入力画像である差分画像gsからデバイスを抽出したデバイス画像gdを入力画像としてもよい。すなわち、学習用データとしては、欠損部分を含まない差分画像gsと欠損部分を含む差分画像gsとのペアを用いてもよく、デバイス画像gdと補間画像giとのペアを用いてもよい。 When creating a pair from one original image, the original image is a difference image gs indicating a device that does not include a defective portion, the output image is the original image, and the input image is the device indicated by the original image. The difference image gs formed by processing the defective portion may be used. When creating a pair from one original image, the interpolated image gi obtained by extracting the device from the difference image gs which is the output image is used as the output image, and the device image obtained by extracting the device from the difference image gs which is the input image. You may use gd as an input image. That is, as the learning data, a pair of the difference image gs not including the defective portion and the difference image gs including the defective portion may be used, or a pair of the device image gd and the interpolated image gi may be used.
また、2枚の元画像からペアを作成する場合、第1の元画像としては、欠損部分を含むデバイスを示す差分画像gsとし、第2の元画像としては、欠損部分を含むデバイスを示す差分画像gsとしてもよい。このような第1の元画像及び第2の元画像は、例えば、撮像条件を変えた撮像により取得可能となっている。この場合、入力画像としては第1の元画像である差分画像gsを用い、出力画像としては第2の元画像である差分画像gsとしてもよい。また同様に、2枚の元画像からペアを作成する場合、上記出力画像である差分画像gsからデバイスを抽出した補間画像giを出力画像とし、上記入力画像である差分画像gsからデバイスを抽出したデバイス画像gdを入力画像としてもよい。 When a pair is created from two original images, the first original image is a difference image gs indicating a device including a defective portion, and the second original image is a difference indicating a device including a defective portion. It may be an image gs. Such a first original image and a second original image can be acquired, for example, by imaging with different imaging conditions. In this case, the difference image gs which is the first original image may be used as the input image, and the difference image gs which is the second original image may be used as the output image. Similarly, when creating a pair from two original images, the interpolated image gi obtained by extracting the device from the difference image gs which is the output image is used as the output image, and the device is extracted from the difference image gs which is the input image. The device image gd may be used as an input image.
また、メモリ71,91は、前述した構成に加え、機械学習モデル及び学習済みモデルを記憶する。また、メモリ71,91内のプログラムは、処理回路74,94のプロセッサにより実行され、前述した機能に加え、学習制御機能747,947をコンピュータに実現させる。但し、補間画像生成機能744,944が学習済みモデルを用いる場合でも、機械学習モデルの記憶とその学習制御機能747,947は、必須ではなく省略してもよい。補足すると、学習済みモデルを用いる場合、医用画像処理装置77,90が機械学習モデルの学習により学習済みモデルを生成する必要はなく、外部から取得した学習済みモデルを用いてもよい。例えば、メモリ71、91は、X線診断装置1の工場出荷前に予め学習済みモデルを記憶してもよく、あるいはX線診断装置1の工場出荷後に、図示しないサーバ装置などから取得した学習済みモデルを記憶してもよい。また、メモリ71,91は、AIに基づく学習済みモデルに限らず、AIに基づかない既存の補間画像生成プログラムを記憶してもよい。このことは、以下の各実施形態でも同様である。 Further, the memories 71 and 91 store a machine learning model and a trained model in addition to the above-described configuration. Further, the programs in the memories 71 and 91 are executed by the processors of the processing circuits 74 and 94, and in addition to the above-mentioned functions, the learning control functions 747 and 947 are realized in the computer. However, even when the interpolated image generation functions 744 and 944 use the trained model, the memory of the machine learning model and the learning control functions 747 and 947 are not essential and may be omitted. Supplementally, when the trained model is used, it is not necessary for the medical image processing devices 77 and 90 to generate the trained model by learning the machine learning model, and the trained model acquired from the outside may be used. For example, the memories 71 and 91 may store a trained model in advance before the X-ray diagnostic apparatus 1 is shipped from the factory, or may be learned from a server device (not shown) after the X-ray diagnostic apparatus 1 is shipped from the factory. You may memorize the model. Further, the memories 71 and 91 are not limited to the trained model based on AI, and may store an existing interpolated image generation program that is not based on AI. This also applies to each of the following embodiments.
他の構成は、第1の実施形態と同様である。 Other configurations are the same as in the first embodiment.
次に、以上のように構成された医用画像処理装置の動作について図9のフローチャート並びに図10及び図11の模式図を用いて説明する。以下の説明は、機械学習モデルの学習制御に関する動作(図9及び図10)及び学習済みモデルを用いた補間画像の生成に関する動作(図9及び図11)の順に述べる。 Next, the operation of the medical image processing apparatus configured as described above will be described with reference to the flowchart of FIG. 9 and the schematic views of FIGS. 10 and 11. The following description will be described in the order of the operation related to the learning control of the machine learning model (FIGS. 9 and 10) and the operation related to the generation of the interpolated image using the trained model (FIGS. 9 and 11).
(学習制御に関する動作:図9及び図10)
始めに、ステップST1において、処理回路94は、予め準備された学習データセットから機械学習に用いる量の学習用データを順次、用いて機械学習モデルmd1に機械学習を行わせる。このとき、機械学習モデルmd1は、学習用データのうち、欠損部分を含む直線又は曲線を示す入力画像に基づいて、当該直線又は曲線に含まれる欠損部分を補間した出力画像を出力する。また、処理回路94は、機械学習モデルmd1から出力された出力画像が、学習用データ内の出力画像に近づくように、機械学習モデルmd1のパラメータ等を調整し、機械学習モデルmd1に機械学習を行う。機械学習の終了により、処理回路94は、パラメータ等を調整済みの機械学習モデルmd1を得る。
(Operations related to learning control: FIGS. 9 and 10)
First, in step ST1, the processing circuit 94 causes the machine learning model md1 to perform machine learning by sequentially using the amount of learning data used for machine learning from the learning data set prepared in advance. At this time, the machine learning model md1 outputs an output image obtained by interpolating the defective portion included in the straight line or the curve based on the input image showing the straight line or the curved line including the defective portion in the training data. Further, the processing circuit 94 adjusts the parameters of the machine learning model md1 and the like so that the output image output from the machine learning model md1 approaches the output image in the training data, and applies machine learning to the machine learning model md1. Do. Upon completion of machine learning, the processing circuit 94 obtains a machine learning model md1 whose parameters and the like have been adjusted.
続いて、処理回路94は、転移学習を行う。すなわち、処理回路94は、学習用データのうち、欠損部分を含むデバイスを示すデバイス画像gdを機械学習モデルmd1に入力し、当該欠損部分を補間した補間画像を機械学習モデルmd1から出力させる。また、処理回路94は、機械学習モデルmd1から出力された補間画像が、学習用データ内の補間画像giに近づくように、機械学習モデルmd1のパラメータ等を調整し、機械学習モデルmd1に機械学習を行う。機械学習の終了により、処理回路94は、パラメータ等を調整済みの機械学習モデルmd1を得る。 Subsequently, the processing circuit 94 performs transfer learning. That is, the processing circuit 94 inputs the device image gd indicating the device including the defective portion of the learning data into the machine learning model md1, and outputs the interpolated image obtained by interpolating the defective portion from the machine learning model md1. Further, the processing circuit 94 adjusts the parameters of the machine learning model md1 and the like so that the interpolated image output from the machine learning model md1 approaches the interpolated image gi in the training data, and machine learning the machine learning model md1. I do. Upon completion of machine learning, the processing circuit 94 obtains a machine learning model md1 whose parameters and the like have been adjusted.
このような転移学習により、処理回路94は、学習済みの機械学習モデルmd1として、学習済みモデルmd2を作成する。作成された学習済みモデルmd2は、欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成するように機能付けられている。処理回路94は、作成した学習済みモデルmd2をメモリ91に保存する。これにより、ステップST1が終了する。なお、転移学習は、必須ではなく、省略してもよい。すなわち、機械学習のうち、欠損部分を含む直線又は曲線を示す入力画像と、当該欠損部分を補間した出力画像とを用いる前半のサブステップは、省略してもよい。この場合、機械学習としては、デバイス画像gd及び補間画像giなどの実データセットを用いる後半のサブステップのみが実行される。なお、後半のサブステップとしては、デバイス画像gd及び補間画像giに代えて、欠損部分を含む差分画像gsと、当該欠損部分を補間した差分画像gsとを用いてもよい。 By such transfer learning, the processing circuit 94 creates the trained model md2 as the trained machine learning model md1. The created trained model md2 is functionalized to generate an output image showing the device in which the defective portion is interpolated, based on the input image showing the device including the defective portion. The processing circuit 94 stores the created learned model md2 in the memory 91. As a result, step ST1 ends. Note that transfer learning is not essential and may be omitted. That is, in machine learning, the first half substep using the input image showing a straight line or curve including the defective portion and the output image obtained by interpolating the defective portion may be omitted. In this case, as machine learning, only the latter substep using the actual data set such as the device image gd and the interpolated image gi is executed. As the latter substep, instead of the device image gd and the interpolated image gi, a difference image gs including a defective portion and a difference image gs obtained by interpolating the defective portion may be used.
(補間画像の生成に関する動作:図9及び図11)
ステップST1の終了後、前述同様にステップST10〜ST40が実行され、欠損部分を含むデバイス画像gdが生成される。
(Operation related to generation of interpolated image: FIGS. 9 and 11)
After the end of step ST1, steps ST10 to ST40 are executed in the same manner as described above, and a device image gd including the defective portion is generated.
ステップST40の後、ステップST50において、処理回路94は、欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成する学習済みモデルmd2に対して、デバイス画像gdを入力することで補間画像giを生成する。 After step ST40, in step ST50, the processing circuit 94 relatives to the trained model md2, which generates an output image showing the device that interpolates the missing part, based on the input image showing the device including the missing part. An interpolated image gi is generated by inputting the image gd.
ステップST50の後、ステップST60において、処理回路94は、当該生成された補間画像giに基づいて、上記取得されたX線画像gx又は上記差分画像gsにおいてデバイスを強調した強調画像geを生成する。例えば図11の右側中段に示すように、処理回路94は、補間画像giを差分画像gsに重畳することにより強調画像geを生成する。あるいは、処理回路94は、例えば図11の右側下段に示すように、補間画像giを着色し、当該着色した補間画像giをX線画像gxに重畳することにより強調画像geを生成してもよい。 After step ST50, in step ST60, the processing circuit 94 generates an emphasized image ge that emphasizes the device in the acquired X-ray image gx or the difference image gs based on the generated interpolated image gi. For example, as shown in the middle right side of FIG. 11, the processing circuit 94 generates the emphasized image ge by superimposing the interpolated image gi on the difference image gs. Alternatively, the processing circuit 94 may generate the emphasized image ge by coloring the interpolated image gi and superimposing the colored interpolated image gi on the X-ray image gx, for example, as shown in the lower right side of FIG. ..
ステップST60の後、前述同様にステップST70が実行され、強調画像geがディスプレイ92に表示される。なお、ステップST40〜ST70の処理をX線透視の収集間隔以内に行うことで、リアルタイムで、術者は、補間されたコイルを強調画像ge上で観察することができる。 After step ST60, step ST70 is executed in the same manner as described above, and the emphasized image ge is displayed on the display 92. By performing the processes of steps ST40 to ST70 within the collection interval of fluoroscopy, the operator can observe the interpolated coil on the emphasized image ge in real time.
上述したように第2の実施形態によれば、欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成する学習済みモデルに対して、デバイス画像を入力することで補間画像を生成する。これにより、第1の実施形態の効果に加え、機械学習の精度に応じて、補間画像の視認性の向上を図ることができる。また、機械学習モデルを機械学習させるときに転移学習を用いる場合には、学習用データとして準備する差分画像、デバイス画像及び補間画像などといった実データセット数を低減させることが可能となる。 As described above, according to the second embodiment, the device image is used for the trained model that generates an output image showing the device in which the defective portion is interpolated based on the input image showing the device including the defective portion. An interpolated image is generated by inputting. As a result, in addition to the effect of the first embodiment, the visibility of the interpolated image can be improved according to the accuracy of machine learning. Further, when transfer learning is used when machine learning a machine learning model, it is possible to reduce the number of actual data sets such as difference images, device images, and interpolated images prepared as learning data.
<第3の実施形態>
第3の実施形態は、第1及び第2の実施形態の変形例であり、処理回路74,94における補間画像生成機能744,944が欠損部分を曲線で補間する形態である。
<Third embodiment>
The third embodiment is a modification of the first and second embodiments, in which the interpolation image generation functions 744 and 944 in the processing circuits 74 and 94 interpolate the defective portion with a curve.
すなわち、処理回路74,94の補間画像生成機能744,944は、デバイス画像gd内の欠損部分を曲線で補間することにより補間画像giを生成する。具体的には例えば、処理回路74,94の補間画像生成機能744,944は、デバイス画像gdの収集順に、当該デバイス画像gd内の欠損部分を曲線で補間する補間処理を実行する。 That is, the interpolating image generation functions 744 and 944 of the processing circuits 74 and 94 generate the interpolating image gi by interpolating the defective portion in the device image gd with a curve. Specifically, for example, the interpolation image generation functions 744 and 944 of the processing circuits 74 and 94 execute an interpolation process of interpolating a defective portion in the device image gd with a curve in the order of collecting the device image gd.
他の構成は、第1及び第2の実施形態と同様である。 Other configurations are the same as in the first and second embodiments.
以上のような構成によれば、図12に示すように、ステップST50において、処理回路94は、デバイス画像gd内の欠損部分を曲線で補間することにより補間画像giを生成する。これにより、欠損部分を曲線で補間する構成により、実際のデバイス(コイル)の曲線形状とも整合し易くなるので、第1又は第2の実施形態のうち、直線で補間した場合に比べ、補間画像の視認性を向上させることができる。また、収集したデバイス画像の順に、当該デバイス画像内の欠損部分を補間するため、欠損部分を実際のデバイスとは異なる形状に補間するエラーを抑制でき、補間画像の精度の向上を図ることができる。 According to the above configuration, as shown in FIG. 12, in step ST50, the processing circuit 94 generates the interpolated image gi by interpolating the defective portion in the device image gd with a curve. As a result, the configuration in which the defective portion is interpolated with a curve makes it easier to match the curved shape of the actual device (coil), so that the interpolated image is compared with the case of interpolating with a straight line in the first or second embodiment. Visibility can be improved. Further, since the defective portion in the device image is interpolated in the order of the collected device images, it is possible to suppress an error of interpolating the defective portion into a shape different from the actual device, and it is possible to improve the accuracy of the interpolated image. ..
<第4の実施形態>
第4の実施形態は、第1乃至第3の各実施形態の変形例であり、処理回路74,94における補間画像生成機能744,944が補間する領域を、過去の補間画像におけるデバイスを示す画素の周辺の領域に制限する形態である。
<Fourth Embodiment>
The fourth embodiment is a modification of each of the first to third embodiments, and is a pixel indicating a device in a past interpolated image in a region interpolated by the interpolated image generation functions 744 and 944 in the processing circuits 74 and 94. It is a form that limits the area around.
具体的には、処理回路74,94の補間画像生成機能744,944は、過去の補間画像giにおけるデバイスの位置に基づいてデバイス画像gd内のデバイス近傍領域を設定し、当該設定したデバイス近傍領域内の前記欠損部分を補間することにより、新たな補間画像giを生成する。より具体的には、補間画像生成機能744,944は、過去の補間画像giにおけるデバイスを示す画素からの距離が閾値以下であるデバイス近傍領域に基づいてデバイス画像gd内のデバイス近傍領域を設定する。当該距離が閾値以下であるデバイス近傍領域は、例えば、過去に抽出及び補間されたデバイスを示す画素からの距離が閾値以下(マージン以下)の領域とすればよく、この領域をデバイス画像に割り当てて、補間処理の実行範囲を示すデバイス近傍領域とすればよい。例えば、デバイスを示す画素をp1とした場合、当該画素p1を中心とした、一辺が(2n+1)画素の正方形領域をデバイス近傍領域としてもよい。この場合、「n」が閾値に相当する。あるいは、当該画素p1を中心とした、半径m画素の略円形領域をデバイス近傍領域としてもよい。この場合、「m」が閾値に相当する。ここで、閾値の大きさについては、例えば、SIDや天板高さに基づいて決定してもよい。すなわち、Cアーム9、Ωアーム19、寝台25等の機構系の配置に基づいて、閾値の大きさを決定することにより、幾何的拡大率に応じた適切なデバイス近傍領域を設定できる。また、「デバイス近傍領域」の用語は、「デバイス周辺領域」又は「補間対象領域」などのように、適宜、別の名称に読み替えてもよい。 Specifically, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 set a device neighborhood area in the device image gd based on the position of the device in the past interpolated image gi, and the set device neighborhood area. A new interpolated image gi is generated by interpolating the defective portion in the image. More specifically, the interpolated image generation functions 744 and 944 set the device neighborhood region in the device image gd based on the device neighborhood region in which the distance from the pixel indicating the device in the past interpolation image gi is equal to or less than the threshold value. .. The device neighborhood region where the distance is equal to or less than the threshold value may be, for example, a region where the distance from the pixel indicating the device extracted and interpolated in the past is equal to or less than the threshold value (margin or less), and this region is assigned to the device image. , The device neighborhood area indicating the execution range of the interpolation process may be used. For example, when the pixel indicating the device is p1, a square region having a side of (2n + 1) pixels centered on the pixel p1 may be a region near the device. In this case, "n" corresponds to the threshold value. Alternatively, a substantially circular region having a radius of m pixels centered on the pixel p1 may be used as a region near the device. In this case, "m" corresponds to the threshold value. Here, the size of the threshold value may be determined based on, for example, the SID or the height of the top plate. That is, by determining the size of the threshold value based on the arrangement of the mechanical system such as the C arm 9, the Ω arm 19, and the sleeper 25, an appropriate device neighborhood region can be set according to the geometric enlargement ratio. Further, the term "device proximity region" may be appropriately read as another name such as "device peripheral region" or "interference target region".
他の構成は、第1乃至第3の各実施形態と同様である。 Other configurations are the same as those of the first to third embodiments.
以上のような構成によれば、図13に示すように、ステップST50において、処理回路94は、時系列に沿った各フレームのデバイス画像gdの欠損部分を補間し、各フレームの補間画像giを生成する。ここで、現在のフレームをTとして説明する。 According to the above configuration, as shown in FIG. 13, in step ST50, the processing circuit 94 interpolates the missing portion of the device image gd of each frame along the time series, and obtains the interpolated image gi of each frame. Generate. Here, the current frame will be described as T.
処理回路94は、フレームT−1の過去の補間画像gi(T−1)におけるデバイスを示す画素からの距離が閾値以下であるデバイス近傍領域r1に基づいて、フレームTの現在のデバイス画像gd内のデバイス近傍領域r1を設定する。具体的には、過去の補間画像gi(T−1)内のデバイス近傍領域r1を、現在のデバイス画像gd(T)にデバイス近傍領域r1として当てはめる。 The processing circuit 94 is in the current device image gd of the frame T based on the device neighborhood region r1 in which the distance from the pixel indicating the device in the past interpolated image gi (T-1) of the frame T-1 is equal to or less than the threshold value. The device neighborhood region r1 of is set. Specifically, the device neighborhood region r1 in the past interpolated image gi (T-1) is applied to the current device image gd (T) as the device neighborhood region r1.
しかる後、処理回路94は、現在のデバイス画像gd(T)において、デバイス近傍領域r1内の欠損部分を補間することにより、新たな補間画像gi(T)を生成する。これにより、現在のデバイス画像gd(T)にノイズnsがある場合でも、ノイズnsを無視して欠損部分を補間するので、第1乃至第3の各実施形態の効果に加え、より一層、補間画像の視認性の低下を阻止することができる。 After that, the processing circuit 94 generates a new interpolated image gi (T) by interpolating the missing portion in the device neighborhood region r1 in the current device image gd (T). As a result, even if the current device image gd (T) has noise ns, the noise ns is ignored and the defective portion is interpolated. Therefore, in addition to the effects of the first to third embodiments, the interpolation is further performed. It is possible to prevent the deterioration of the visibility of the image.
補足すると、第1の実施形態のようにデバイス近傍領域r1を用いない場合、図14に示すように、現在のデバイス画像gd(T)にノイズnsがあると、ノイズnsを含めて欠損部分を補間する。この場合、現在の補間画像gi(T)内のデバイス形状が大きく歪んでしまい、隣接フレーム間でデバイス形状が大きく変化し、補間画像の視認性が低下する可能性がある。 Supplementally, when the device neighborhood region r1 is not used as in the first embodiment, as shown in FIG. 14, if there is noise ns in the current device image gd (T), the missing portion including the noise ns is removed. Interpolate. In this case, the device shape in the current interpolated image gi (T) may be greatly distorted, the device shape may change significantly between adjacent frames, and the visibility of the interpolated image may decrease.
<第5の実施形態>
第5の実施形態は、第1乃至第3の各実施形態の変形例であり、処理回路74,94における補間画像生成機能744,944が補間画像を修正する形態である。
<Fifth Embodiment>
The fifth embodiment is a modification of each of the first to third embodiments, in which the interpolated image generation functions 744 and 944 in the processing circuits 74 and 94 modify the interpolated image.
具体的には、処理回路74,94の補間画像生成機能744,944は、生成した補間画像giを、過去の補間画像giに整合するように修正することにより、新たな補間画像giを生成する。 Specifically, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 generate a new interpolated image gi by modifying the generated interpolated image gi so as to match the past interpolated image gi. ..
他の構成は、第1乃至第3の各実施形態と同様である。 Other configurations are the same as those of the first to third embodiments.
以上のような構成によれば、図15に示すように、ステップST50において、処理回路94は、時系列に沿った各フレームのデバイス画像gdの欠損部分を補間し、各フレームの補間画像giを生成する。ここで、現在のフレームをTとして説明する。 According to the above configuration, as shown in FIG. 15, in step ST50, the processing circuit 94 interpolates the missing portion of the device image gd of each frame along the time series, and obtains the interpolated image gi of each frame. Generate. Here, the current frame will be described as T.
処理回路94は、フレームTの現在のデバイス画像gd(T)の欠損部分を補間した補間画像gi(T)を生成する。このとき、現在のデバイス画像gd(T)にノイズnsがあると、ノイズnsを含めて欠損部分を補間するので、図15の中央に示すように、歪んだデバイス形状の現在の補間画像gi(T)を生成する。この補間画像gi(T)は、過去の補間画像gi(T−1)との整合を確認していない段階のため、ディスプレイ92に表示しない。 The processing circuit 94 generates an interpolated image gi (T) that interpolates the missing portion of the current device image gd (T) of the frame T. At this time, if there is noise ns in the current device image gd (T), the missing portion is interpolated including the noise ns. Therefore, as shown in the center of FIG. 15, the current interpolated image gi of the distorted device shape ( T) is generated. This interpolated image gi (T) is not displayed on the display 92 because the matching with the past interpolated image gi (T-1) has not been confirmed.
次に、処理回路94は、生成した現在の補間画像gi(T)と、過去の補間画像gi(T−1)とを位置合わせして比較し、対応の取れなかった断片領域r_nsを無視して、再度、補間処理を実行する。ここで、対応を取る手法としては、例えば、DP(Dynamic programming)マッチング等の任意のマッチング手法が、適宜、使用可能となっている。いずれにしても、再度の補間処理により、処理回路94は、新たな補間画像gi(T+1)を生成する。 Next, the processing circuit 94 aligns and compares the generated current interpolated image gi (T) and the past interpolated image gi (T-1), and ignores the unmatched fragment region r_ns. Then, the interpolation process is executed again. Here, as a method for taking measures, for example, an arbitrary matching method such as DP (Dynamic programming) matching can be used as appropriate. In any case, the processing circuit 94 generates a new interpolated image gi (T + 1) by the interpolation processing again.
このように、生成した補間画像giを、過去の補間画像giに整合するように修正することにより、新たな補間画像giを生成するので、第1乃至第3の各実施形態の効果に加え、より一層、補間画像の視認性の低下を阻止することができる。 By modifying the generated interpolated image gi so as to match the past interpolated image gi in this way, a new interpolated image gi is generated. Therefore, in addition to the effects of the first to third embodiments, Further, it is possible to prevent the deterioration of the visibility of the interpolated image.
<第6の実施形態>
第6の実施形態は、第4及び第5の各実施形態を組み合わせた例であり、処理回路74,94における補間画像生成機能744,944が、補間画像を修正する処理と、補間する領域を設定する処理とを並列に実行し、好ましい方の補間画像を出力する形態である。
<Sixth Embodiment>
The sixth embodiment is an example in which the fourth and fifth embodiments are combined, and the interpolated image generation functions 744 and 944 in the processing circuits 74 and 94 determine the process of modifying the interpolated image and the area to be interpolated. This is a form in which the setting process is executed in parallel and the preferred interpolated image is output.
具体的には、処理回路74,94の補間画像生成機能744,944は、第1生成処理、第2生成処理及び出力処理を実行する。ここで、第1生成処理は、生成した補間画像を、過去の補間画像に整合するように修正することにより、第1補間画像を生成する。第2生成処理は、過去の補間画像におけるデバイスの位置に基づいてデバイス画像内のデバイス近傍領域を設定し、当該設定したデバイス近傍領域内の欠損部分を補間することにより、第2補間画像を生成する。より具体的には、補間画像生成機能744,944は、過去の補間画像におけるデバイスを示す画素からの距離が閾値以下であるデバイス近傍領域に基づいてデバイス画像内のデバイス近傍領域を設定する。出力処理は、第1補間画像と第2補間画像とのうち、過去の補間画像に近い方の補間画像を、生成した補間画像として出力する。ここで、補間画像生成機能744,944は、第1生成部、第2生成部及び出力部の一例である。 Specifically, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 execute the first generation process, the second generation process, and the output process. Here, the first generation process generates the first interpolated image by modifying the generated interpolated image so as to match the past interpolated image. The second generation process generates a second interpolated image by setting a device neighborhood region in the device image based on the position of the device in the past interpolated image and interpolating the missing portion in the set device neighborhood region. To do. More specifically, the interpolated image generation functions 744 and 944 set the device neighborhood region in the device image based on the device neighborhood region in which the distance from the pixel indicating the device in the past interpolated image is equal to or less than the threshold value. The output process outputs the interpolated image of the first interpolated image and the second interpolated image that is closer to the past interpolated image as the generated interpolated image. Here, the interpolated image generation functions 744 and 944 are examples of a first generation unit, a second generation unit, and an output unit.
他の構成は、第1乃至第3の各実施形態と同様である。 Other configurations are the same as those of the first to third embodiments.
以上のような構成によれば、図16に示すように、ステップST50において、処理回路94は、ステップST51A,ST52Aからなる第1生成処理のスレッド(#1)と、ステップST51B,ST52Bからなる第2生成処理のスレッド(#2)とを並列に実行する。例えば、処理回路94は、ステップST51A、ST51B、ST52A、ST52Bの順に各ステップを実行することにより、2つのスレッドを並列に実行する。 According to the above configuration, as shown in FIG. 16, in step ST50, the processing circuit 94 is a first generation processing thread (# 1) including steps ST51A and ST52A, and a first thread (# 1) including steps ST51B and ST52B. 2 Execute the generation processing thread (# 2) in parallel. For example, the processing circuit 94 executes two threads in parallel by executing each step in the order of steps ST51A, ST51B, ST52A, and ST52B.
すなわち、スレッド(#1)のステップST51Aにおいて、処理回路94は、デバイス画像gdから補間画像giを生成する。 That is, in step ST51A of the thread (# 1), the processing circuit 94 generates an interpolated image gi from the device image gd.
スレッド(#2)のステップST51Bにおいて、処理回路94は、過去の補間画像におけるデバイスを示す画素からの距離が閾値以下であるデバイス近傍領域に基づいて、デバイス画像gdのデバイス近傍領域を設定する。 In step ST51B of the thread (# 2), the processing circuit 94 sets the device neighborhood region of the device image gd based on the device neighborhood region where the distance from the pixel indicating the device in the past interpolated image is equal to or less than the threshold value.
スレッド(#1)のステップST52Aにおいて、処理回路94は、ステップST51Aで生成した補間画像giを過去の補間画像giに基づいて修正し、第1補間画像giを生成する。 In step ST52A of the thread (# 1), the processing circuit 94 modifies the interpolated image gi generated in step ST51A based on the past interpolated image gi to generate the first interpolated image gi.
スレッド(#2)のステップST52Bにおいて、処理回路94は、ステップST51Bで設定したデバイス近傍領域内で補間を実行し、第2補間画像giを生成する。 In step ST52B of the thread (# 2), the processing circuit 94 executes interpolation within the device neighborhood region set in step ST51B to generate a second interpolated image gi.
なお、これに限らず、処理回路94が2つのプロセッサを有する場合には、第1プロセッサがスレッド(#1)のステップST51A,ST52Aを順に実行し、これに並行して、第2プロセッサがスレッド(#2)のステップST51B,ST52Bを順に実行すればよい。 Not limited to this, when the processing circuit 94 has two processors, the first processor executes steps ST51A and ST52A of the thread (# 1) in order, and in parallel with this, the second processor threads. Steps ST51B and ST52B of (# 2) may be executed in order.
いずれにしても2つのスレッドの実行後、ステップST53において、処理回路94は、第1補間画像giと第2補間画像giとのうち、過去の補間画像に近い方の補間画像を、生成した補間画像として出力する。以下、前述同様に、ステップST60以降の処理が実行される。 In any case, after the execution of the two threads, in step ST53, the processing circuit 94 generates an interpolation image of the first interpolation image gi and the second interpolation image gi, whichever is closer to the past interpolation image. Output as an image. Hereinafter, the processes after step ST60 are executed in the same manner as described above.
従って、第6の実施形態によれば、第4の実施形態の補間する領域を設定する処理と、第5の実施形態の補間画像を修正する処理とを並列に実行し、好ましい方の補間画像を出力するので、第4又は第5の実施形態の効果を交替的に得ることができる。 Therefore, according to the sixth embodiment, the process of setting the area to be interpolated in the fourth embodiment and the process of modifying the interpolated image of the fifth embodiment are executed in parallel, and the preferred interpolated image is executed. Is output, so that the effects of the fourth or fifth embodiment can be obtained alternately.
<第7の実施形態>
第7の実施形態は、第2及び第3の各実施形態を組み合わせた例であり、処理回路74,94における補間画像生成機能744,944が、学習済みモデルを用いる処理と、欠損部分を曲線で補間する処理とを並列に実行し、好ましい方の補間画像を出力する形態である。
<7th Embodiment>
The seventh embodiment is an example in which the second and third embodiments are combined, and the interpolated image generation functions 744 and 944 in the processing circuits 74 and 94 perform processing using the trained model and curve the defective portion. This is a form in which the process of interpolating with is executed in parallel and the preferred interpolated image is output.
具体的には、処理回路74,94の補間画像生成機能744,944は、第3生成処理、第4生成処理及び出力処理を実行する。ここでいう「第3生成処理」及び「第4生成処理」の名称は、前述した「第1生成処理」及び「第2生成処理」とは異なる処理を表す形式的な名称であり、先行する第1生成処理及び第2生成処理を持たない。言い換えると、「第3生成処理」及び「第4生成処理」の名称は、他の名称に変更してもよい。このことは、「第3補間画像」及び「第4補間画像」の名称についても同様である。 Specifically, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 execute the third generation process, the fourth generation process, and the output process. The names of the "third generation process" and the "fourth generation process" referred to here are formal names representing processes different from the above-mentioned "first generation process" and "second generation process", and precede them. It does not have a first generation process and a second generation process. In other words, the names of the "third generation process" and the "fourth generation process" may be changed to other names. This also applies to the names of the "third interpolated image" and the "fourth interpolated image".
ここで、第3生成処理は、欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成する学習済みモデルに対して、デバイス画像を入力することで第3補間画像を生成する。第4生成処理は、欠損部分を曲線で補間することにより第4補間画像を生成する。出力処理は、第3補間画像と第4補間画像とのうち、過去の補間画像に近い方の補間画像を、生成した補間画像として出力する。ここで、補間画像生成機能744,944は、第3生成部、第4生成部及び出力部の一例である。 Here, in the third generation process, a device image is input to a trained model that generates an output image indicating a device in which the defective portion is interpolated based on an input image indicating a device including the defective portion. Generate a third interpolated image. The fourth generation process generates a fourth interpolated image by interpolating the defective portion with a curve. The output process outputs the interpolated image of the third interpolated image and the fourth interpolated image, which is closer to the past interpolated image, as the generated interpolated image. Here, the interpolated image generation functions 744 and 944 are examples of a third generation unit, a fourth generation unit, and an output unit.
他の構成は、第1乃至第3の各実施形態と同様である。 Other configurations are the same as those of the first to third embodiments.
以上のような構成によれば、図17に示すように、ステップST50において、処理回路94は、ステップST51C,ST52Cからなる第1生成処理のスレッド(#1)と、ステップST52Dからなる第2生成処理のスレッド(#2)とを並列に実行する。例えば、処理回路94は、ステップST51C、ST52Cの処理と、ステップST52Dの処理とを並列に実行することにより、2つのスレッドを並列に実行する。 According to the above configuration, as shown in FIG. 17, in step ST50, the processing circuit 94 has a thread (# 1) for the first generation processing including steps ST51C and ST52C, and a second generation including step ST52D. Execute the processing thread (# 2) in parallel. For example, the processing circuit 94 executes two threads in parallel by executing the processing of steps ST51C and ST52C and the processing of step ST52D in parallel.
すなわち、スレッド(#1)のステップST51Cにおいて、処理回路94は、デバイス画像を学習済みモデルに入力する。 That is, in step ST51C of the thread (# 1), the processing circuit 94 inputs the device image to the trained model.
スレッド(#1)のステップST52Cにおいて、処理回路94は、ステップST51Cで入力したデバイス画像に基づいて、学習済みモデルにより第3補間画像giを生成する。 In step ST52C of the thread (# 1), the processing circuit 94 generates a third interpolated image gi by the trained model based on the device image input in step ST51C.
一方、スレッド(#2)のステップST52Dにおいて、処理回路94は、デバイス画像の欠損部分を曲線で補間して第4補間画像giを生成する。 On the other hand, in step ST52D of the thread (# 2), the processing circuit 94 interpolates the defective portion of the device image with a curve to generate the fourth interpolated image gi.
なお、これに限らず、処理回路94が2つのプロセッサを有する場合には、第1プロセッサがスレッド(#1)のステップST51C,ST52Cを順に実行し、これに並行して、第2プロセッサがスレッド(#2)のステップST52Dを実行すればよい。 Not limited to this, when the processing circuit 94 has two processors, the first processor executes steps ST51C and ST52C of threads (# 1) in order, and in parallel with this, the second processor threads. Step ST52D of (# 2) may be executed.
いずれにしても2つのスレッドの実行後、ステップST53Dにおいて、処理回路94は、第3補間画像giと第4補間画像giとのうち、過去の補間画像に近い方の補間画像を、生成した補間画像として出力する。以下、前述同様に、ステップST60以降の処理が実行される。 In any case, after the execution of the two threads, in step ST53D, the processing circuit 94 generates an interpolation image of the third interpolation image gi and the fourth interpolation image gi, whichever is closer to the past interpolation image. Output as an image. Hereinafter, the processes after step ST60 are executed in the same manner as described above.
従って、第7の実施形態によれば、第2の実施形態の学習済みモデルを用いる処理と、第3の実施形態の欠損部分を曲線で補間する処理とを並列に実行し、好ましい方の補間画像を出力するので、第2又は第3の実施形態の効果を交替的に得ることができる。 Therefore, according to the seventh embodiment, the process using the trained model of the second embodiment and the process of interpolating the defective portion of the third embodiment with a curve are executed in parallel, and the preferred interpolation is performed. Since the image is output, the effects of the second or third embodiment can be obtained alternately.
<第8の実施形態>
第8の実施形態は、第2又は第7の実施形態の変形例であり、学習済みモデルに入力されるデバイス画像gdを加工する形態である。
<8th Embodiment>
The eighth embodiment is a modification of the second or seventh embodiment, and is a mode in which the device image gd input to the trained model is processed.
具体的には、処理回路74,94の補間画像生成機能744,944は、過去の補間画像giにおけるデバイスの位置に基づいてデバイス画像内でデバイス近傍領域とは異なる領域の画素値を実質的に0に修正し、当該修正後のデバイス画像を学習済みモデルに入力する。より具体的には、補間画像生成機能744,944は、過去の補間画像giにおけるデバイスを示す画素からの距離が閾値以下であるデバイス近傍領域に基づいてデバイス画像内のデバイス近傍領域を設定する。当該デバイス近傍領域は、例えば、過去に抽出及び補間されたデバイスを示す画素からの距離が閾値以下(マージン以下)の領域として、設定すればよい。閾値の大きさについては、前述同様に、第1SID、第2SID、天板24の高さに基づいて決定してもよい。すなわち、Cアーム9、Ωアーム19、寝台25等の機構系の配置に基づいて、閾値の大きさを決定することにより、幾何的拡大率に応じた適切なデバイス近傍領域を設定できる。また、ここでいう「実質的に0」は、ゼロ値でもよく、差分画像gsの背景値でもよい。 Specifically, the interpolated image generation functions 744 and 944 of the processing circuits 74 and 94 substantially set pixel values in a region different from the device neighborhood region in the device image based on the position of the device in the past interpolated image gi. It is corrected to 0, and the corrected device image is input to the trained model. More specifically, the interpolated image generation functions 744 and 944 set the device neighborhood region in the device image based on the device neighborhood region in which the distance from the pixel indicating the device in the past interpolated image gi is equal to or less than the threshold value. The device neighborhood region may be set as, for example, a region in which the distance from the pixel indicating the device extracted and interpolated in the past is equal to or less than the threshold value (below the margin). The size of the threshold value may be determined based on the heights of the first SID, the second SID, and the top plate 24, as described above. That is, by determining the size of the threshold value based on the arrangement of the mechanical system such as the C arm 9, the Ω arm 19, and the sleeper 25, an appropriate device neighborhood region can be set according to the geometric enlargement ratio. Further, "substantially 0" here may be a zero value or a background value of the difference image gs.
他の構成は、第2又は第7の実施形態と同様である。 Other configurations are the same as in the second or seventh embodiment.
以上のような構成によれば、図18に示すように、ステップST50(又はST51C,ST52C)において、処理回路94は、時系列に沿った各フレームのデバイス画像gdに対し、過去の補間画像giに基づいて当該デバイス画像gd内でデバイス近傍領域r1とは異なる領域の画素値を実質的に0に修正する。しかる後、処理回路94は、当該修正後のデバイス画像gdを学習済みモデルに入力することで、各フレームの補間画像giを生成する。ここで、現在のフレームをTとして説明する。 According to the above configuration, as shown in FIG. 18, in step ST50 (or ST51C, ST52C), the processing circuit 94 has a past interpolated image gi with respect to the device image gd of each frame in chronological order. Based on the above, the pixel value of the region different from the device neighborhood region r1 in the device image gd is corrected to substantially 0. After that, the processing circuit 94 generates the interpolated image gi of each frame by inputting the modified device image gd into the trained model. Here, the current frame will be described as T.
処理回路94は、フレームT−1の過去の補間画像gi(T−1)に基づいて、フレームTの現在のデバイス画像gd内のデバイス近傍領域r1以外の領域の画素値を0値に修正する。具体的には、過去の補間画像gi(T−1)内のデバイス近傍領域r1を、現在のデバイス画像gd(T)にデバイス近傍領域r1として当てはめ、デバイス近傍領域r1とは異なる領域の画素値を実質的に0に修正し、修正後のデバイス画像gd(T)を得る。 The processing circuit 94 corrects the pixel value of the region other than the device neighborhood region r1 in the current device image gd of the frame T to 0 value based on the past interpolated image gi (T-1) of the frame T-1. .. Specifically, the device neighborhood region r1 in the past interpolated image gi (T-1) is applied to the current device image gd (T) as the device neighborhood region r1, and the pixel value of the region different from the device neighborhood region r1. Is substantially modified to 0 to obtain the modified device image gd (T).
しかる後、処理回路94は、修正後のデバイス画像gd(T)を学習済みモデルに入力することで、デバイス近傍領域r1内の欠損部分を補間することにより、新たな補間画像gi(T)を生成する。これにより、現在のデバイス画像gd(T)にノイズnsがある場合でも、ノイズnsの画素を0値に修正して欠損部分を補間するので、第2又は第7の実施形態の効果に加え、学習済みモデルの精度の向上を図ることができる。 After that, the processing circuit 94 inputs the modified device image gd (T) to the trained model to interpolate the missing portion in the device neighborhood region r1 to obtain a new interpolated image gi (T). Generate. As a result, even if the current device image gd (T) has noise ns, the pixel of noise ns is corrected to a 0 value and the missing portion is interpolated. Therefore, in addition to the effect of the second or seventh embodiment, The accuracy of the trained model can be improved.
<第9の実施形態>
第9の実施形態は、第1乃至第8の各実施形態の変形例であり、前述した補間画像gi又は強調画像geに対し、血管の輪郭を示す輪郭画像を重畳表示する形態である。以下の説明は、第1の実施形態に組み合わせた場合を例に挙げて述べるが、これに限らず、第2乃至第8の実施形態に組み合わせてもよい。
<9th embodiment>
The ninth embodiment is a modification of each of the first to eighth embodiments, and is a form in which a contour image showing the contour of a blood vessel is superimposed and displayed on the above-mentioned interpolated image gi or emphasized image ge. The following description will be described by exemplifying a case where the combination is performed with the first embodiment, but the present invention is not limited to this, and the combination may be combined with the second to eighth embodiments.
これに伴い、処理回路74,94の画像処理機能742,942は、造影剤が注入された被検体をX線により撮像した造影画像を更に取得し、当該造影画像内の血管の輪郭を抽出した輪郭画像を生成する。例えば、処理回路74,94は、時系列に沿って、造影剤を用いて得られたX線画像から、造影剤を用いずに得られたX線画像gxを減算処理してDSA画像を得る。また、処理回路74,94は、時系列のDSA画像から造影箇所の加算画像を求め、当該加算された造影箇所の輪郭を抽出することにより、血管の輪郭を示す輪郭画像を生成する。メモリ71,91及び画像処理機能742,942は、医用画像処理装置77,90における輪郭抽出部の一例である。 Along with this, the image processing functions 742 and 942 of the processing circuits 74 and 94 further acquired a contrast image obtained by X-ray imaging of the subject into which the contrast medium was injected, and extracted the contour of the blood vessel in the contrast image. Generate a contour image. For example, the processing circuits 74 and 94 obtain a DSA image by subtracting the X-ray image gx obtained without using a contrast medium from the X-ray image obtained with a contrast medium in chronological order. .. Further, the processing circuits 74 and 94 obtain an added image of the contrast-enhanced portion from the DSA image of the time series and extract the contour of the added contrast-enhanced portion to generate a contour image showing the contour of the blood vessel. The memories 71 and 91 and the image processing functions 742 and 942 are examples of contour extraction units in the medical image processing devices 77 and 90.
また、処理回路74,94の表示制御機能746は、当該輪郭画像と補間画像とを重畳してディスプレイ72,92に表示させる。 Further, the display control function 746 of the processing circuits 74 and 94 superimposes the contour image and the interpolated image and displays them on the displays 72 and 92.
他の構成は、第1乃至第8の各実施形態と同様である。 Other configurations are the same as those of the first to eighth embodiments.
次に、以上のように構成された医用画像処理装置の動作について図19のフローチャート及び図20の模式図を用いて説明する。以下の動作は、第1の実施形態に組み合わせた場合を例に挙げて述べるが、これに限らず、第2乃至第8の実施形態に組み合わせてもよい。 Next, the operation of the medical image processing apparatus configured as described above will be described with reference to the flowchart of FIG. 19 and the schematic diagram of FIG. The following operation will be described with reference to the case where it is combined with the first embodiment, but the present invention is not limited to this, and it may be combined with the second to eighth embodiments.
ステップST2において、処理回路94は、図20に示すように、造影剤を用いて得られたX線画像から、造影剤を用いずに得られたX線画像gxを減算処理してDSA画像g_dsaを得る。また、処理回路74,94は、時系列のDSA画像g_dsaから造影箇所を加算した加算画像g_aを求め、当該加算された造影箇所の輪郭を抽出することにより、血管の輪郭を示す輪郭画像gcを生成する。 In step ST2, as shown in FIG. 20, the processing circuit 94 subtracts the X-ray image gx obtained without using the contrast medium from the X-ray image obtained with the contrast medium, and performs the DSA image g_dsa. To get. Further, the processing circuits 74 and 94 obtain the added image g_a obtained by adding the contrast-enhanced parts from the time-series DSA images g_dsa, and extract the contour of the added contrast-enhanced parts to obtain the contour image gc showing the contour of the blood vessel. Generate.
ステップST2の後、前述同様にステップST10〜ST50が実行され、デバイス画像gdから補間画像giが生成される。 After step ST2, steps ST10 to ST50 are executed in the same manner as described above, and the interpolated image gi is generated from the device image gd.
ステップST50の後、ステップST71において、処理回路94は、ステップST2で生成された輪郭画像gcと、ステップST50で生成された補間画像giとを重畳してディスプレイ92に表示させる。なお、輪郭画像gcは、補間画像giに限らず、強調画像geに重畳して表示してもよい。 After step ST50, in step ST71, the processing circuit 94 superimposes the contour image gc generated in step ST2 and the interpolated image gi generated in step ST50 and displays them on the display 92. The contour image gc is not limited to the interpolated image gi, and may be superimposed on the emphasized image ge and displayed.
以下、前述同様に、ステップST80以降の処理が実行される。 Hereinafter, the processes after step ST80 are executed in the same manner as described above.
上述したように第9の実施形態によれば、造影剤が注入された被検体をX線により撮像した造影画像を更に取得する。当該造影画像内の血管の輪郭を抽出した輪郭画像を生成する。当該輪郭画像と補間画像とを重畳して表示部(ディスプレイ)に表示させる。これにより、第1乃至第8の各実施形態の効果に加え、輪郭画像を重畳させる構成により、補間画像又は強調画像の視認性の向上を図ることができる。 As described above, according to the ninth embodiment, a contrast image obtained by imaging a subject into which a contrast agent is injected by X-ray is further acquired. A contour image is generated by extracting the contour of the blood vessel in the contrast image. The contour image and the interpolated image are superimposed and displayed on the display unit (display). As a result, in addition to the effects of the first to eighth embodiments, the visibility of the interpolated image or the emphasized image can be improved by the configuration in which the contour image is superimposed.
補足すると、例えば図5及び図6に示したように、補間処理により、差分画像gs内にあるアーチファクトが削除され、補間画像giには、留置中のデバイスのみが示される。このような補間画像giを表示する場合には、デバイスの挿入先の位置を把握しにくいため、過去のDSA画像g_dsa画像から得た輪郭画像gcを重畳表示することで、視認性を向上させることができる。 Supplementally, as shown in FIGS. 5 and 6, for example, the interpolation process deletes the artifacts in the difference image gs, and the interpolation image gi shows only the device in place. When displaying such an interpolated image gi, it is difficult to grasp the position of the insertion destination of the device. Therefore, the visibility is improved by superimposing the contour image gc obtained from the past DSA image g_dsa image. Can be done.
<第10の実施形態>
第10の実施形態は、第1乃至第8の各実施形態の変形例であり、前述した補間画像gi又は強調画像geに対し、過去の補間画像を重畳表示する形態である。
<10th Embodiment>
The tenth embodiment is a modification of each of the first to eighth embodiments, and is a form in which a past interpolated image is superimposed and displayed on the above-mentioned interpolated image gi or emphasized image ge.
これに伴い、処理回路74,94の表示制御機能746は、補間画像と、当該補間画像とは異なる色を用いた過去の補間画像とを重畳してディスプレイ72,92に表示させる。 Along with this, the display control function 746 of the processing circuits 74 and 94 superimposes the interpolated image and the past interpolated image using a color different from the interpolated image and displays them on the displays 72 and 92.
他の構成は、第1乃至第8の各実施形態と同様である。 Other configurations are the same as those of the first to eighth embodiments.
次に、以上のように構成された医用画像処理装置の動作について図21のフローチャート及び図22の模式図を用いて説明する。 Next, the operation of the medical image processing apparatus configured as described above will be described with reference to the flowchart of FIG. 21 and the schematic diagram of FIG. 22.
いま、前述同様にステップST10〜ST50が実行され、デバイス画像gdから補間画像giが生成されたとする。 Now, it is assumed that steps ST10 to ST50 are executed in the same manner as described above, and the interpolated image gi is generated from the device image gd.
ステップST50の後、ステップST72において、処理回路94は、互いに色を変えた過去の補間画像を準備する。例えば、処理回路94は、1本のコイルを留置完了する毎に、入力インタフェース93の操作に応じて、留置完了したコイルの補間画像を、過去の補間画像としてメモリ91に保存しておく。そして、処理回路94は、メモリ91内の過去の補間画像を読み出して、互いに色を変える。図22に示す例では、処理回路94は、3枚の過去の補間画像giを読み出して、過去の補間画像gi内のデバイス部分をそれぞれ赤色、緑色及び青色に着色することにより、着色後の過去の補間画像g_r,gi_g,gi_bを準備する。 After step ST50, in step ST72, the processing circuit 94 prepares past interpolated images in different colors. For example, each time the processing circuit 94 completes the placement of one coil, the interpolated image of the completed coil is stored in the memory 91 as a past interpolated image in response to the operation of the input interface 93. Then, the processing circuit 94 reads out the past interpolated images in the memory 91 and changes the colors of each other. In the example shown in FIG. 22, the processing circuit 94 reads out three past interpolated images gi and colors the device portions in the past interpolated image gi in red, green, and blue, respectively, so that the past after coloring is performed. Prepare the interpolated images g_r, gi_g, and gi_b of.
ステップST72の後、ステップST73において、処理回路94は、着色後の過去の補間画像g_r,gi_g,gi_bを合成することにより、合成画像g_rgbを生成する。 After step ST72, in step ST73, the processing circuit 94 generates a composite image g_rgb by synthesizing the past interpolated images g_r, gi_g, and gi_b after coloring.
ステップST73の後、ステップST74において、処理回路94は、生成された合成画像g_rgbと、ステップST50で生成された補間画像giとを重畳してディスプレイ92に表示させる。なお、輪郭画像gcは、補間画像giに限らず、強調画像geに重畳して表示してもよい。 After step ST73, in step ST74, the processing circuit 94 superimposes the generated composite image g_rgb and the interpolated image gi generated in step ST50 and displays them on the display 92. The contour image gc is not limited to the interpolated image gi, and may be superimposed on the emphasized image ge and displayed.
以下、前述同様に、ステップST80以降の処理が実行される。 Hereinafter, the processes after step ST80 are executed in the same manner as described above.
上述したように第10の実施形態によれば、補間画像と、当該補間画像とは異なる色を用いた過去の補間画像とを重畳して表示部(ディスプレイ)に表示させる。これにより、第1乃至第8の各実施形態の効果に加え、過去の補間画像を重畳させる構成により、留置済みのデバイス留置状況についても、術者に視認させることができる。補足すると、補間処理により、差分画像gs内にあるアーチファクトが削除され、補間画像giには、留置中のデバイスのみが示される。このような補間画像giを表示する場合には、デバイスの挿入先の位置を把握しにくいため、過去の補間画像giを重畳表示することで、手技の精度の向上を図ることができる。 As described above, according to the tenth embodiment, the interpolated image and the past interpolated image using a color different from the interpolated image are superimposed and displayed on the display unit (display). As a result, in addition to the effects of the first to eighth embodiments, the operator can visually recognize the indwelling state of the indwelled device by the configuration in which the past interpolated images are superimposed. Supplementally, the interpolation process deletes the artifacts in the difference image gs, and the interpolation image gi shows only the device in place. When displaying such an interpolated image gi, it is difficult to grasp the position of the insertion destination of the device. Therefore, the accuracy of the procedure can be improved by superimposing and displaying the past interpolated image gi.
なお、第10の実施形態は、第9の実施形態と同時に実行してもよい。すなわち、処理回路74,94の表示制御機能746,946は、輪郭画像と、補間画像と、当該補間画像とは異なる色を用いた過去の補間画像とを重畳してディスプレイ72,92に表示させてもよい。この場合、第9及び第10の実施形態の効果を同時に得ることができる。 The tenth embodiment may be executed at the same time as the ninth embodiment. That is, the display control functions 746 and 946 of the processing circuits 74 and 94 superimpose the contour image, the interpolated image, and the past interpolated image using a color different from the interpolated image and display them on the displays 72 and 92. You may. In this case, the effects of the ninth and tenth embodiments can be obtained at the same time.
<第11の実施形態>
第11の実施形態は、第1乃至第10の各実施形態の変形例であり、X線画像の撮像時の幾何学的情報と、他のX線画像(マスク画像gm)に対応する幾何学的情報とが一致する場合にデバイス画像を生成する形態である。以下の説明は、第9の実施形態に組み合わせた場合を例に挙げて述べるが、これに限らず、第1乃至第8の各実施形態又は第10の実施形態に組み合わせてもよい。
<11th Embodiment>
The eleventh embodiment is a modification of each of the first to tenth embodiments, and is a geometry corresponding to geometric information at the time of imaging an X-ray image and another X-ray image (mask image gm). This is a form in which a device image is generated when the target information matches. The following description will be described by exemplifying the case of combining with the ninth embodiment, but the present invention is not limited to this, and may be combined with each of the first to eighth embodiments or the tenth embodiment.
これに伴い、メモリ71,91は、図23に示すように、X線画像gxを撮像するX線診断装置1における他のX線画像(マスク画像gm)を撮像したときの幾何学的情報と、他のX線画像(マスク画像gm)とを対応付けて記憶する。ここで、幾何学的情報は、Cアーム9の場合、例えば、Cアーム9による撮像角度や前述した第1SIDが使用可能となっている。Ωアーム19の場合、同様に、Ωアーム19による撮像角度や前述した第2SIDが使用可能となっている。なお、マスク画像gmと、X線診断装置1の幾何学的情報とは、例えば、処理回路74,94の画像処理機能742,942により、互いに対応付けてメモリ71,91に書き込まれる。また、メモリ71,91は、さらに、当該幾何学的情報及びマスク画像gmと、過去の補間画像giと、輪郭画像gcとを対応付けて記憶してもよい。同様に、当該幾何学的情報及びマスク画像gmと、過去の補間画像giと、輪郭画像gcとは、例えば、処理回路74,94の画像処理機能742,942により、互いに対応付けてメモリ71,91に書き込まれる。なお、輪郭画像gcを用いない第1乃至第8の各実施形態に組み合わせる場合、輪郭画像gcは省略される。メモリ71,91は、記憶部の一例である。 Along with this, as shown in FIG. 23, the memories 71 and 91 and the geometric information when another X-ray image (mask image gm) in the X-ray diagnostic apparatus 1 that captures the X-ray image gx is imaged. , Is stored in association with another X-ray image (mask image gm). Here, in the case of the C arm 9, for example, the imaging angle by the C arm 9 and the above-mentioned first SID can be used as the geometric information. Similarly, in the case of the Ω arm 19, the imaging angle by the Ω arm 19 and the above-mentioned second SID can be used. The mask image gm and the geometric information of the X-ray diagnostic apparatus 1 are written to the memories 71 and 91 in association with each other by, for example, the image processing functions 742 and 942 of the processing circuits 74 and 94. Further, the memories 71 and 91 may further store the geometric information and the mask image gm, the past interpolated image gi, and the contour image gc in association with each other. Similarly, the geometric information and mask image gm, the past interpolated image gi, and the contour image gc are associated with each other by, for example, the image processing functions 742 and 942 of the processing circuits 74 and 94, and the memory 71, It is written in 91. When combined with each of the first to eighth embodiments in which the contour image gc is not used, the contour image gc is omitted. The memories 71 and 91 are examples of storage units.
また、処理回路74,94のデバイス画像生成機能743,943は、X線画像gxが撮像されたときのX線診断装置の幾何学的情報と、当該記憶されたマスク画像gm(他のX線画像)に対応する幾何学的情報とが一致する場合に、当該X線画像gxと当該マスク画像gmとに基づいてデバイス画像gdを生成する。補足すると、当該幾何学的情報が一致しない場合には、X線画像gxとマスク画像gmとの差分画像gsにアーチファクトが発生するので、差分画像gs(やデバイス画像gd)を生成しない。なお、差分画像gsやデバイス画像gdを生成しない場合、例えば、処理回路74,94の表示制御機能746,946は、取得したX線画像gxをディスプレイ72,92に表示させる。 Further, the device image generation functions 743 and 943 of the processing circuits 74 and 94 include geometric information of the X-ray diagnostic apparatus when the X-ray image gx is captured and the stored mask image gm (other X-rays). When the geometric information corresponding to the image) matches, the device image gd is generated based on the X-ray image gx and the mask image gm. Supplementally, if the geometrical information does not match, an artifact occurs in the difference image gs between the X-ray image gx and the mask image gm, so that the difference image gs (or device image gd) is not generated. When the difference image gs and the device image gd are not generated, for example, the display control functions 746 and 946 of the processing circuits 74 and 94 display the acquired X-ray image gx on the displays 72 and 92.
他の構成は、第9の実施形態と同様である。 Other configurations are the same as in the ninth embodiment.
次に、以上のように構成された医用画像処理装置の動作について図24のフローチャートを用いて説明する。 Next, the operation of the medical image processing apparatus configured as described above will be described with reference to the flowchart of FIG. 24.
いま、戦術同様にステップST2が実行され、輪郭画像gcが生成される。 Now, step ST2 is executed in the same manner as the tactic, and the contour image gc is generated.
ステップST2の後、ステップST3において、処理回路94は、輪郭画像gcと、輪郭画像gcに対応するX線画像を撮像したときのX線診断装置1の幾何学的情報とを対応付けてメモリ91に保存する。この例では、幾何学的情報は、Cアームによる撮像角度であるとする。 After step ST2, in step ST3, the processing circuit 94 associates the contour image gc with the geometric information of the X-ray diagnostic apparatus 1 when the X-ray image corresponding to the contour image gc is captured, and the memory 91. Save to. In this example, the geometric information is the imaging angle by the C-arm.
ステップST3の後、前述同様にステップST10〜ST20が実行され、取得したX線画像をマスク画像にするか否かが判定される。ここで、X線画像をマスク画像にすることを判定した場合、前述同様に、ステップST30に移行する。一方、判定結果が否の場合、前述とは異なり、ステップST32に移行する。 After step ST3, steps ST10 to ST20 are executed in the same manner as described above, and it is determined whether or not the acquired X-ray image is used as a mask image. Here, when it is determined that the X-ray image is to be a mask image, the process proceeds to step ST30 in the same manner as described above. On the other hand, if the determination result is no, the process proceeds to step ST32, unlike the above.
ステップST20の後、ステップST30〜ST31において、処理回路94は、ステップST10で取得したX線画像をマスク画像として取得し、当該マスク画像と、当該マスク画像を撮像したときの幾何学的情報とを対応付けてメモリ91に保存する。 After step ST20, in steps ST30 to ST31, the processing circuit 94 acquires the X-ray image acquired in step ST10 as a mask image, and obtains the mask image and the geometric information when the mask image is imaged. It is associated and saved in the memory 91.
ステップST31の後、ステップST32において、処理回路94は、ステップST10で取得されたX線画像gxが撮像されたときのX線診断装置の幾何学的情報と、メモリ91内のマスク画像gmに対応する幾何学的情報とが一致するか否かを判定する。ステップST32の判定の結果、2つの幾何学的情報が一致した場合、処理回路94は、前述同様に、ステップST40以降の処理を実行する。なお、ステップST40以降の処理において、処理回路94は、当該幾何学的情報に基づいてメモリ91を検索し、得られた輪郭画像gcをステップST71の重畳表示に用いてもよい。また、ステップST71の重畳表示中、ステップST10で取得されるX線画像(ライブ画像)に対し、拡大処理、縮小処理、回転処理又は並進処理を施したとき、対応するマスク画像gm及び輪郭画像gcについても同様の拡大処理、縮小処理、回転処理又は並進処理を施す。これにより、拡大処理、縮小処理、回転処理又は並進処理に対応する補間画像及び輪郭画像を重畳表示させる。なお、ここでいう拡大処理、縮小処理としては、画像処理による方法と、SIDを変える方法とが適宜、使用可能となっている。SIDを変える場合には、ステップST32の判定に用いる幾何学的情報を撮像角度とし、SIDを判定に用いない。また、回転処理は、撮影角度を一定とした状態における平面上の回転を意味する。並進処理としては、天板24やCアーム9の平行移動による方法と、画像処理による方法とが適宜、使用可能となっている。すなわち、前述したX線画像(ライブ画像)に対する拡大処理、縮小処理、回転処理又は並進処理に対応する補間画像及び輪郭画像の重畳表示は、撮像角度が一定である場合(ST32;Yes)に実行される。言い換えると、撮像角度を変えた場合には、ステップST40〜ST71は実行されず、ステップST33に移行する。 After step ST31, in step ST32, the processing circuit 94 corresponds to the geometric information of the X-ray diagnostic apparatus when the X-ray image gx acquired in step ST10 is captured and the mask image gm in the memory 91. It is determined whether or not the geometric information to be used matches. When the two geometric information match as a result of the determination in step ST32, the processing circuit 94 executes the processing after step ST40 in the same manner as described above. In the processing after step ST40, the processing circuit 94 may search the memory 91 based on the geometric information and use the obtained contour image gc for the superimposed display in step ST71. Further, during the superimposed display in step ST71, when the X-ray image (live image) acquired in step ST10 is subjected to enlargement processing, reduction processing, rotation processing, or translation processing, the corresponding mask image gm and contour image gc Is also subjected to the same enlargement processing, reduction processing, rotation processing, or translation processing. As a result, the interpolated image and the contour image corresponding to the enlargement processing, the reduction processing, the rotation processing, or the translation processing are superimposed and displayed. As the enlargement processing and reduction processing referred to here, a method by image processing and a method of changing the SID can be appropriately used. When changing the SID, the geometric information used for the determination in step ST32 is used as the imaging angle, and the SID is not used for the determination. Further, the rotation process means rotation on a plane in a state where the shooting angle is constant. As the translation process, a method of parallel movement of the top plate 24 and the C arm 9 and a method of image processing can be appropriately used. That is, the superimposed display of the interpolated image and the contour image corresponding to the above-mentioned enlargement processing, reduction processing, rotation processing, or translation processing of the X-ray image (live image) is executed when the imaging angle is constant (ST32; Yes). Will be done. In other words, when the imaging angle is changed, steps ST40 to ST71 are not executed, and the process proceeds to step ST33.
一方、ステップST32の判定の結果、否の場合、ステップST33に移行する。ここで、否の場合とは、マスク画像gmの撮像の後、Cアーム9による撮像角度又は第1SIDを変更した状況に対応する。例えば、手技によっては、一時的にCアーム9による撮像角度又は第1SIDを変更した後、元の撮像角度や第1SIDに戻す場合がある。このように、一時的に幾何学的情報を変更した場合には、ステップST33に移行することにより、ステップST40〜ST71を実行しない。 On the other hand, if the result of the determination in step ST32 is no, the process proceeds to step ST33. Here, the case of no corresponds to a situation in which the imaging angle or the first SID is changed by the C arm 9 after imaging the mask image gm. For example, depending on the procedure, the imaging angle by the C arm 9 or the first SID may be temporarily changed and then returned to the original imaging angle or the first SID. When the geometric information is temporarily changed in this way, steps ST40 to ST71 are not executed by shifting to step ST33.
ステップST32の後、ステップST33において、処理回路94は、ステップST10で取得したX線画像をディスプレイ92に表示させ、ステップST80に移行する。 After step ST32, in step ST33, the processing circuit 94 displays the X-ray image acquired in step ST10 on the display 92, and proceeds to step ST80.
以下、前述同様に、ステップST80以降の処理が実行される。 Hereinafter, the processes after step ST80 are executed in the same manner as described above.
上述したように第11の実施形態によれば、取得部における撮像時の幾何学的情報と、他のX線画像とを対応付けて記憶する。X線画像が取得されたときの取得部の幾何学的情報と、当該記憶された他のX線画像に対応する幾何学的情報とが一致する場合に、当該X線画像と当該他のX線画像とに基づいてデバイス画像を生成する。このように、撮像時の幾何学的情報が同一であるX線画像と他のX線画像とに基づいてデバイス画像を生成するので、補間画像の元となるデバイス画像に対し、アーチファクトの発生を抑制することができる。 As described above, according to the eleventh embodiment, the geometric information at the time of imaging in the acquisition unit is stored in association with other X-ray images. When the geometric information of the acquisition unit when the X-ray image is acquired and the geometric information corresponding to the other stored X-ray image match, the X-ray image and the other X-ray image are matched. Generate a device image based on the line image. In this way, since the device image is generated based on the X-ray image having the same geometric information at the time of imaging and another X-ray image, an artifact may occur in the device image that is the source of the interpolated image. It can be suppressed.
以上説明した少なくとも一つの実施形態によれば、被検体をX線により撮像したX線画像を取得する。当該取得されたX線画像と他のX線画像とに基づいて、当該取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成する。当該生成されたデバイス画像の欠損部分を補間した補間画像を生成する。このように、デバイス画像の欠損部分を補間した補間画像を生成する構成により、留置済みのデバイスの数が増えてきた場合に、デバイス画像の視認性の低下を阻止することができる。 According to at least one embodiment described above, an X-ray image obtained by imaging a subject with X-rays is acquired. Based on the acquired X-ray image and another X-ray image, a device image obtained by extracting the device drawn on the acquired X-ray image is generated. An interpolated image is generated by interpolating the missing portion of the generated device image. As described above, the configuration of generating the interpolated image by interpolating the defective portion of the device image can prevent the deterioration of the visibility of the device image when the number of indwelling devices increases.
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図2、図3、図7又は図8における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), or a programmable logic device (for example,). It means circuits such as Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA). Processor is a storage circuit. The function is realized by reading and executing the program stored in. In this case, the processor may be configured to incorporate the program directly into the circuit of the processor instead of storing the program in the storage circuit. The function is realized by reading and executing the program incorporated in the circuit. Note that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits are provided. They may be combined to form one processor to realize the function. Further, the plurality of components in FIGS. 2, 3, 7 or 8 may be integrated into one processor to realize the function. You may try to do it.
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1 X線診断装置
3 高電圧発生装置
5 第1X線管
7 第1X線検出器
9 Cアーム
10 撮像装置
11 第1コリメータ
15 第2X線管
17 第2X線検出器
19 Ωアーム
21 第2コリメータ
24 天板
25 寝台
27 駆動部
70 コンソール装置
71,91 メモリ
72,92 ディスプレイ
73,93 入力インタフェース
74,94 処理回路
741 システム制御機能
742,942 画像処理機能
743,943 デバイス画像生成機能
744,944 補間画像生成機能
745,945 強調画像生成機能
746,946 表示制御機能
747,947 学習制御機能
76,96 ネットワークインタフェース
90 医用画像処理装置
gx X線画像
gm マスク画像
gs 差分画像
gd,gd(T-1),gd(T) デバイス画像
gi,gi(T-1),gi(T),gi(T+1),gi_r,gi_g,gi_b 補間画像
ge 強調画像
gbs 黒色画像
gws 白色画像
gd_r 位置合わせ画像
md1 機械学習モデル
md2 学習済みモデル
g_dsa DSA画像
g_a 加算画像
gc 輪郭画像
gi_rgb 合成画像
1 X-ray diagnostic device 3 High voltage generator 5 1st X-ray tube 7 1st X-ray detector 9 C arm 10 Imaging device 11 1st collimator 15 2nd X-ray tube 17 2nd X-ray detector 19 Ω arm 21 2nd collimeter 24 Top plate 25 Sleeper 27 Drive unit 70 Console device 71,91 Memory 72,92 Display 73,93 Input interface 74,94 Processing circuit 741 System control function 742,942 Image processing function 743,943 Device image generation function 744,944 Interpolated image Generation function 745,945 Emphasis image generation function 746,946 Display control function 747,947 Learning control function 76,96 Network interface 90 Medical image processing device gx X-ray image gm Mask image gs Difference image gd, gd (T-1), gd (T) device image gi, gi (T-1), gi (T), gi (T + 1), gi_r, gi_g, gi_b interpolated image ge emphasized image gbs black image gws white image gd_r alignment image md1 machine learning Model md2 Trained model g_dsa DSA image g_a Addition image gc Contour image gi_rgb Composite image
Claims (14)
前記取得されたX線画像と他のX線画像とに基づいて、前記取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成するデバイス画像生成部と、
前記生成されたデバイス画像の欠損部分を補間した補間画像を生成する補間画像生成部と、
を備える医用画像処理装置。 An acquisition unit that acquires an X-ray image of a subject imaged by X-rays,
A device image generation unit that generates a device image obtained by extracting a device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image.
An interpolated image generator that generates an interpolated image by interpolating the missing portion of the generated device image,
A medical image processing device comprising.
前記生成した補間画像を、過去の補間画像に整合するように修正することにより、第1補間画像を生成する第1生成部と、
過去の補間画像におけるデバイスの位置に基づいて前記デバイス画像内のデバイス近傍領域を設定し、当該設定したデバイス近傍領域内の前記欠損部分を補間することにより、第2補間画像を生成する第2生成部と、
前記第1補間画像と前記第2補間画像とのうち、前記過去の補間画像に近い方の補間画像を、前記生成した補間画像として出力する出力部と、
を備えた請求項1乃至5のいずれか一項に記載の医用画像処理装置。 The interpolated image generation unit
A first generation unit that generates a first interpolated image by modifying the generated interpolated image so as to match the past interpolated image.
A second generation that generates a second interpolated image by setting a device neighborhood region in the device image based on the position of the device in the past interpolated image and interpolating the missing portion in the set device neighborhood region. Department and
An output unit that outputs an interpolated image of the first interpolated image and the second interpolated image that is closer to the past interpolated image as the generated interpolated image.
The medical image processing apparatus according to any one of claims 1 to 5.
欠損部分を含むデバイスを示す入力画像に基づいて、当該欠損部分を補間したデバイスを示す出力画像を生成する学習済みモデルに対して、前記デバイス画像を入力することで第3補間画像を生成する第3生成部と、
前記欠損部分を曲線で補間することにより第4補間画像を生成する第4生成部と、
前記第3補間画像と前記第4補間画像とのうち、過去の補間画像に近い方の補間画像を、前記生成した補間画像として出力する出力部と、
を備えた請求項1乃至3のいずれか一項に記載の医用画像処理装置。 The interpolated image generation unit
A third interpolation image is generated by inputting the device image to a trained model that generates an output image showing a device in which the defective portion is interpolated based on an input image showing a device including a defective portion. 3 generator and
A fourth generation unit that generates a fourth interpolation image by interpolating the defective portion with a curve, and
An output unit that outputs the interpolated image of the third interpolated image and the fourth interpolated image that is closer to the past interpolated image as the generated interpolated image.
The medical image processing apparatus according to any one of claims 1 to 3.
表示制御部と、
をさらに備え、
前記取得部は、造影剤が注入された前記被検体をX線により撮像した造影画像を更に取得し、
前記輪郭抽出部は、前記造影画像内の血管の輪郭を抽出した輪郭画像を生成し、
前記表示制御部は、前記輪郭画像と前記補間画像とを重畳して表示部に表示させる、
請求項1に記載の医用画像処理装置。 Contour extractor and
Display control unit and
With more
The acquisition unit further acquires a contrast image obtained by X-ray imaging of the subject into which the contrast medium has been injected.
The contour extraction unit generates a contour image that extracts the contour of the blood vessel in the contrast image, and generates a contour image.
The display control unit superimposes the contour image and the interpolated image and displays them on the display unit.
The medical image processing apparatus according to claim 1.
をさらに備えた、請求項1に記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, further comprising a display control unit that superimposes the interpolated image and a past interpolated image using a color different from the interpolated image and displays them on the display unit.
をさらに備え、
前記デバイス画像生成部は、前記X線画像が撮像されたときのX線診断装置の幾何学的情報と、前記記憶された他のX線画像に対応する幾何学的情報とが一致する場合に、当該X線画像と当該他のX線画像とに基づいて前記デバイス画像を生成する、請求項1乃至12のいずれか一項に記載の医用画像処理装置。 A storage unit that stores geometrical information when the other X-ray image is imaged in the X-ray diagnostic apparatus that captures the X-ray image in association with the other X-ray image.
With more
When the device image generation unit matches the geometric information of the X-ray diagnostic apparatus when the X-ray image is captured and the geometric information corresponding to the other stored X-ray image. The medical image processing apparatus according to any one of claims 1 to 12, wherein the device image is generated based on the X-ray image and the other X-ray image.
前記取得されたX線画像と他のX線画像とに基づいて、前記取得されたX線画像に描出されたデバイスを抽出したデバイス画像を生成するデバイス画像生成部と、
前記生成されたデバイス画像の欠損部分を補間した補間画像を生成する補間画像生成部と、
を備えるX線診断装置。 An acquisition unit that acquires an X-ray image of a subject imaged by X-rays,
A device image generation unit that generates a device image obtained by extracting a device drawn on the acquired X-ray image based on the acquired X-ray image and another X-ray image.
An interpolated image generator that generates an interpolated image by interpolating the missing portion of the generated device image,
An X-ray diagnostic device comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019080881A JP7242397B2 (en) | 2019-04-22 | 2019-04-22 | Medical image processing device and X-ray diagnostic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019080881A JP7242397B2 (en) | 2019-04-22 | 2019-04-22 | Medical image processing device and X-ray diagnostic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020175009A true JP2020175009A (en) | 2020-10-29 |
JP7242397B2 JP7242397B2 (en) | 2023-03-20 |
Family
ID=72935675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019080881A Active JP7242397B2 (en) | 2019-04-22 | 2019-04-22 | Medical image processing device and X-ray diagnostic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7242397B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022080132A1 (en) | 2020-10-16 | 2022-04-21 | オムロン株式会社 | Trajectory generation device, trajectory generation method, and trajectory generation program |
WO2022202310A1 (en) * | 2021-03-26 | 2022-09-29 | テルモ株式会社 | Program, image processing method, and image processing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013123589A (en) * | 2011-12-15 | 2013-06-24 | Canon Inc | Image processor, image processing method, and program |
JP2015211914A (en) * | 2010-08-17 | 2015-11-26 | 株式会社東芝 | Medical image diagnostic device |
US20190282304A1 (en) * | 2018-03-16 | 2019-09-19 | Shimadzu Corporation | X-Ray Fluoroscopic Imaging Apparatus |
-
2019
- 2019-04-22 JP JP2019080881A patent/JP7242397B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015211914A (en) * | 2010-08-17 | 2015-11-26 | 株式会社東芝 | Medical image diagnostic device |
JP2013123589A (en) * | 2011-12-15 | 2013-06-24 | Canon Inc | Image processor, image processing method, and program |
US20190282304A1 (en) * | 2018-03-16 | 2019-09-19 | Shimadzu Corporation | X-Ray Fluoroscopic Imaging Apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022080132A1 (en) | 2020-10-16 | 2022-04-21 | オムロン株式会社 | Trajectory generation device, trajectory generation method, and trajectory generation program |
WO2022202310A1 (en) * | 2021-03-26 | 2022-09-29 | テルモ株式会社 | Program, image processing method, and image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP7242397B2 (en) | 2023-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8509384B2 (en) | Method for enhanced visualization of objects in interventional angiographic examinations | |
JP4854137B2 (en) | Medical diagnostic imaging equipment | |
CN111601552A (en) | Image forming apparatus | |
JP6392040B2 (en) | Image processing apparatus and X-ray diagnostic apparatus | |
JP6466132B2 (en) | Medical image processing apparatus and X-ray image diagnostic apparatus | |
JP2016026556A (en) | X-ray ct equipment and image forming device | |
JP4226829B2 (en) | X-ray diagnostic apparatus and image processing apparatus | |
CN110876627B (en) | X-ray imaging device and X-ray image processing method | |
US10937226B2 (en) | Medical image processing apparatus, reconstruction method and X-ray diagnostic apparatus based on a change of a density of a contrast agent over time | |
JP7242397B2 (en) | Medical image processing device and X-ray diagnostic device | |
JP7246952B2 (en) | Medical information processing device, X-ray diagnostic device and program | |
JP4777164B2 (en) | HEART RATE DETERMINATION DEVICE, PROGRAM, AND X-RAY DIAGNOSIS DEVICE | |
JP5487172B2 (en) | Medical image diagnostic apparatus and medical image processing apparatus | |
JP7309377B2 (en) | X-ray diagnostic device, medical information processing device and program | |
JP6466079B2 (en) | X-ray computed tomography apparatus and scan plan setting support apparatus | |
JP7233850B2 (en) | Medical image processing device, X-ray diagnostic device and medical image processing program | |
JP4709603B2 (en) | Medical image processing device | |
US11334998B2 (en) | Medical image processing apparatus, X-ray diagnostic apparatus, and computer-implemented method | |
JP6716196B2 (en) | X-ray equipment | |
JP7187217B2 (en) | Medical image processing device, X-ray diagnostic device and medical image processing program | |
JP6595202B2 (en) | X-ray diagnostic equipment | |
JP2021058281A (en) | X-ray diagnostic apparatus, medical image processing device and program | |
JP6129481B2 (en) | X-ray diagnostic apparatus and control program | |
WO2021033741A1 (en) | Medical image processing apparatus, x-ray diagnosis apparatus, and medical image processing method | |
CN119497590A (en) | Radiographic imaging device for obtaining improved radiographic images and operating method of the radiographic imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221228 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7242397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |