[go: up one dir, main page]

JP2025023667A - IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM - Google Patents

IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP2025023667A
JP2025023667A JP2023128002A JP2023128002A JP2025023667A JP 2025023667 A JP2025023667 A JP 2025023667A JP 2023128002 A JP2023128002 A JP 2023128002A JP 2023128002 A JP2023128002 A JP 2023128002A JP 2025023667 A JP2025023667 A JP 2025023667A
Authority
JP
Japan
Prior art keywords
image
pixels
information
thickness
radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023128002A
Other languages
Japanese (ja)
Inventor
晃介 照井
Kosuke Terui
貴司 岩下
Takashi Iwashita
竜一 藤本
Ryuichi Fujimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023128002A priority Critical patent/JP2025023667A/en
Publication of JP2025023667A publication Critical patent/JP2025023667A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To acquire high-quality images.SOLUTION: An image processing device includes a processing unit that performs material separation processing to perform separation into thickness images of multiple materials using multiple pieces of information corresponding to mutually-different radiation energies obtained by performing imaging by irradiating a subject with radiation. The processing unit performs material separation processing by using the thickness image subjected to noise reduction processing by using different parameters between partial pixels and other pixels specified on the basis of the information on the difference in the multiple pieces of information and the multiple pieces of information.SELECTED DRAWING: Figure 10

Description

開示の技術は、画像処理装置、放射線撮像システム、画像処理方法及びプログラムに関する。より具体的には、医療診断における一般撮影などの静止画撮影や透視撮影などの動画撮影に用いられる画像処理装置、放射線撮像システム、画像処理方法及びプログラムに関する。 The disclosed technology relates to an image processing device, a radiation imaging system, an image processing method, and a program. More specifically, the technology relates to an image processing device, a radiation imaging system, an image processing method, and a program used for still image capture such as general imaging in medical diagnosis and for video capture such as fluoroscopy.

現在、X線による医療画像診断や非破壊検査に用いる撮影装置として、半導体材料によって形成された平面検出器(Flat Panel Detector、以下FPDと略す)を用いた放射線撮像装置が普及している。 Currently, radiation imaging devices using flat panel detectors (FPDs) made of semiconductor materials are widely used as imaging devices for medical image diagnosis and non-destructive testing using X-rays.

FPDを用いた撮影方法として、エネルギーサブトラクションでは、管電圧の異なるX線を照射して取得した、エネルギーの異なる複数の画像を処理することにより、物質分離画像、例えば、骨画像や軟部組織画像を取得することができる(特許文献1)。 In energy subtraction, an imaging method using an FPD, multiple images of different energies are acquired by irradiating X-rays with different tube voltages, and then processed to obtain material-separated images, such as bone images and soft tissue images (Patent Document 1).

特開2019-162358号公報JP 2019-162358 A

エネルギーサブトラクション処理を用いて取得した軟部組織や骨のコントラストを除去することにより、画像下治療(IVR:Interventional Radiology)において、血管に注入された造影剤や、ステント、コイル等の医療用デバイスの視認性を向上できる。一方で、エネルギーサブトラクション処理を行うと画像のノイズが増加し得る。また、エネルギーの異なる複数の画像を取得する際に被写体が動いた場合、モーションアーチファクトが発生し得る。優れた画質の画像を取得するには、ノイズの増加を抑制しつつ、モーションアーチファクトを低減することが必要とされる。 By removing the contrast of soft tissues and bones acquired using energy subtraction processing, the visibility of contrast agents injected into blood vessels and medical devices such as stents and coils can be improved during interventional radiology (IVR). However, energy subtraction processing can increase image noise. Furthermore, if the subject moves when acquiring multiple images with different energies, motion artifacts can occur. To acquire images of high quality, it is necessary to reduce motion artifacts while suppressing the increase in noise.

開示の技術は、優れた画質の画像を取得することが可能な画像処理技術の提供を目的する。 The disclosed technology aims to provide image processing technology that can obtain images with excellent image quality.

開示の技術の一態様による画像処理装置は、被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う処理手段を備え、
前記処理手段は、前記複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された前記厚み画像と、前記複数の情報とを用いて、前記物質分離処理を行う。
According to one aspect of the disclosed technique, an image processing device includes a processing unit that performs a material separation process for separating an image into thickness images of a plurality of materials using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and capturing the image;
The processing means performs the material separation process using the thickness image which has been subjected to noise reduction processing using parameters which differ between a portion of pixels identified based on information regarding the difference between the plurality of pieces of information and other pixels, and the plurality of pieces of information.

開示の技術によれば、優れた画質の画像を取得することが可能になる。 The disclosed technology makes it possible to obtain images with excellent image quality.

第1実施形態によるX線撮影システムの構成例を示す図。1 is a diagram showing an example of the arrangement of an X-ray imaging system according to a first embodiment. 第1実施形態によるX線撮像装置の画素等価回路図。FIG. 2 is an equivalent circuit diagram of a pixel of the X-ray imaging device according to the first embodiment. 第1実施形態によるX線撮像装置のタイミングチャート。4 is a timing chart of the X-ray imaging apparatus according to the first embodiment. 第1実施形態によるX線撮像装置のタイミングチャート。4 is a timing chart of the X-ray imaging apparatus according to the first embodiment. 第1実施形態による補正処理を説明するブロック図。FIG. 4 is a block diagram illustrating a correction process according to the first embodiment. 第1実施形態に係る信号処理を説明するブロック図。FIG. 2 is a block diagram illustrating signal processing according to the first embodiment. 第1実施形態に係る画像処理を説明するブロック図。FIG. 2 is a block diagram illustrating image processing according to the first embodiment. 第1実施形態に係る蓄積画像を取得するための補正処理を説明するブロック図。FIG. 4 is a block diagram illustrating a correction process for acquiring a file image according to the first embodiment. 第1実施形態に係る蓄積画像Aと骨画像Bとを例示的に示す図。3A and 3B are diagrams illustrating an example of a stored image A and a bone image B according to the first embodiment. 第1実施形態に係る信号処理を説明するブロック図。FIG. 2 is a block diagram illustrating signal processing according to the first embodiment. 第1実施形態に係るエネルギーサブトラクションにおけるモーションアーチファクトを例示する図。5A to 5C are diagrams illustrating examples of motion artifacts in energy subtraction according to the first embodiment. 第1実施形態のフィルタパラメータの変更処理を説明する図。5A to 5C are views for explaining a filter parameter changing process according to the first embodiment; 第1実施形態のモーションアーチファクトの検知画像を示す図。FIG. 4 is a diagram showing a motion artifact detection image according to the first embodiment. 第2実施形態のフィルタパラメータの変更処理を説明する図。13A to 13C are diagrams for explaining a filter parameter changing process according to the second embodiment. 第2実施形態のモーションアーチファクトの検知画像を示す図。FIG. 13 is a diagram showing a motion artifact detection image according to the second embodiment. 第3実施形態のモーションアーチファクトの検知画像を示す図。FIG. 13 is a diagram showing a motion artifact detection image according to the third embodiment. 第3実施形態モーションアーチファクトの検知処理を説明する図。13A to 13C are views for explaining a motion artifact detection process according to the third embodiment. 変形例における信号処理を説明するブロック図。FIG. 11 is a block diagram illustrating signal processing in a modified example.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

なお、開示の技術における放射線には、放射線崩壊によって放出される粒子(光子を含む)の作るビームであるα線、β線、γ線などの他に、同程度以上のエネルギーを有するビーム、例えばX線や粒子線、宇宙線なども、含まれるものとする。以下の実施形態では、放射線の一例としてX線を用いた装置を説明する。したがって、以下では、放射線撮像装置、放射線撮像システムとして、それぞれX線撮像装置、X線撮像システムとして説明する。 Note that radiation in the disclosed technology includes alpha rays, beta rays, gamma rays, and the like, which are beams made of particles (including photons) emitted by radioactive decay, as well as beams having the same or greater energy, such as X-rays, particle beams, and cosmic rays. In the following embodiment, an apparatus using X-rays as an example of radiation will be described. Therefore, hereinafter, a radiation imaging apparatus and a radiation imaging system will be described as an X-ray imaging apparatus and an X-ray imaging system, respectively.

(第1実施形態)
図1は、実施形態に係る、放射線撮像システムの一例としてのX線撮像システムの構成例を示すブロック図である。実施形態のX線撮像システムは、X線発生装置101(放射線源)、X線制御装置102、撮像制御装置103(画像処理装置)、X線撮像装置104(放射線撮像装置)を備える。
First Embodiment
1 is a block diagram showing an example of the configuration of an X-ray imaging system as an example of a radiation imaging system according to an embodiment. The X-ray imaging system according to the embodiment includes an X-ray generating device 101 (radiation source), an X-ray control device 102, an imaging control device 103 (image processing device), and an X-ray imaging device 104 (radiation imaging device).

X線発生装置101は、X線を発生し、被写体にX線を照射する。X線制御装置102は、X線発生装置101におけるX線の発生を制御する。撮像制御装置103は、画像情報の取得及び制御を行う。撮像制御装置103は、例えば、1つまたは複数のプロセッサー(CPU)とメモリ(記憶部136)を有し、プロセッサーがメモリ(記憶部136)に格納されたプログラムを実行してX線画像の取得及び画像処理を行う。なお、撮像制御装置103による画像処理を含む各処理は、専用のハードウエアにより実現されてもよいし、ハードウエアとソフトウエアの協働により実現されてもよい。X線撮像装置104は、X線を可視光に変換する蛍光体105と、可視光を検出する二次元検出器106を有する。二次元検出器は、X線量子を検出する画素20をX列×Y行のアレイ状に配置したセンサであり、画像情報を出力する。 The X-ray generating device 101 generates X-rays and irradiates the subject with the X-rays. The X-ray control device 102 controls the generation of X-rays in the X-ray generating device 101. The imaging control device 103 acquires and controls image information. The imaging control device 103 has, for example, one or more processors (CPUs) and a memory (storage unit 136), and the processor executes a program stored in the memory (storage unit 136) to acquire X-ray images and perform image processing. Note that each process including image processing by the imaging control device 103 may be realized by dedicated hardware, or may be realized by a combination of hardware and software. The X-ray imaging device 104 has a phosphor 105 that converts X-rays into visible light, and a two-dimensional detector 106 that detects visible light. The two-dimensional detector is a sensor in which pixels 20 that detect X-ray quanta are arranged in an array of X columns x Y rows, and outputs image information.

撮像制御装置103は、上述したプロセッサーにより放射線画像を処理する画像処理装置として機能する。取得部131、補正部132、信号処理部133、画像処理部134、表示制御部135及び記憶部136は、画像処理装置としての機能構成例を示している。撮像制御装置103(画像処理装置)は、二次元検出器で検出された複数の放射線エネルギーに対応した複数の情報を用いてノイズ低減処理された画像を取得する。 The imaging control device 103 functions as an image processing device that processes radiation images using the above-mentioned processor. The acquisition unit 131, correction unit 132, signal processing unit 133, image processing unit 134, display control unit 135, and storage unit 136 show an example of the functional configuration of the image processing device. The imaging control device 103 (image processing device) acquires an image that has been subjected to noise reduction processing using multiple pieces of information corresponding to multiple radiation energies detected by the two-dimensional detector.

取得部131は、被写体に放射線を照射して撮影を行うことで得られた互いにエネルギーが異なる複数の放射線画像を取得する。取得部131は、複数の放射線画像として、1ショットの放射線の曝射の間に複数回のサンプルホールドを行って得られた放射線画像を取得する。 The acquisition unit 131 acquires multiple radiation images with different energies obtained by irradiating a subject with radiation and capturing an image. The acquisition unit 131 acquires multiple radiation images obtained by performing sample holds multiple times during the exposure of one shot of radiation.

補正部132は、取得部131により取得された複数の放射線画像を補正してエネルギーサブトラクション処理で用いられる複数の画像を生成する。 The correction unit 132 corrects the multiple radiation images acquired by the acquisition unit 131 to generate multiple images to be used in the energy subtraction process.

信号処理部133は、被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を取得する。 The signal processing unit 133 acquires multiple pieces of information corresponding to multiple different radiation energies obtained by irradiating the subject with radiation and capturing an image.

ここで、複数の情報には、複数の放射線エネルギーのうち第1の放射線エネルギーに対応した情報と、第1の放射線エネルギーとは異なる第2の放射線エネルギーに対応した情報とが含まれる。第1の放射線エネルギーに対応した情報には第1の放射線画像が含まれ、第2の放射線エネルギーに対応した情報には第2の放射線画像が含まれる。 Here, the multiple pieces of information include information corresponding to a first radiation energy among the multiple radiation energies, and information corresponding to a second radiation energy different from the first radiation energy. The information corresponding to the first radiation energy includes a first radiation image, and the information corresponding to the second radiation energy includes a second radiation image.

X線撮像装置104により撮像された第1の放射線画像には、撮影によって得られた電気信号(画像信号)の信号値(画素値)と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれる。また、X線撮像装置104により撮像された第2の放射線画像には、撮影によって得られた電気信号(画像信号)の信号値(画素値)と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれる。複数の画像(第1の放射線画像、第2の放射線画像)には、第1の物質の厚み画像(第1画像)と第1の物質とは異なる第2の物質の厚み画像(第2画像)が含まれる。複数の画像には、例えば、骨と軟部組織というように物質を分離して表す画像(物質分離画像)が含まれる。 The first radiographic image captured by the X-ray imaging device 104 includes data in which the signal values (pixel values) of the electrical signals (image signals) obtained by imaging correspond to position information indicating the two-dimensional arrangement of the signal values. The second radiographic image captured by the X-ray imaging device 104 includes data in which the signal values (pixel values) of the electrical signals (image signals) obtained by imaging correspond to position information indicating the two-dimensional arrangement of the signal values. The multiple images (first radiographic image, second radiographic image) include a thickness image of a first material (first image) and a thickness image of a second material different from the first material (second image). The multiple images include an image (material separation image) that shows materials separated, such as bone and soft tissue.

信号処理部133は、互いに異なる放射線エネルギーで撮影した複数の放射線画像に基づいて、例えば、第1の物質の厚みを示す第1画像と、第1の物質とは異なる第2の物質の厚みを示す第2画像とを生成する。ここで、第1の物質には、少なくとも、カルシウム、ハイドロキシアパタイト、又は骨が含まれ、第2の物質には、少なくとも、水、又は脂肪又はカルシウムを含まない軟物質が含まれる。信号処理部133の詳細は後述する。 The signal processing unit 133 generates, for example, a first image showing the thickness of a first material and a second image showing the thickness of a second material different from the first material, based on a plurality of radiation images captured with mutually different radiation energies. Here, the first material includes at least calcium, hydroxyapatite, or bone, and the second material includes at least water, or soft material that does not contain fat or calcium. Details of the signal processing unit 133 will be described later.

画像処理部134は、信号処理部133による信号処理によって取得された第1画像および第2画像を用いて、表示用画像を生成する。表示制御部135は、信号処理部133により取得された第1の物質の厚み画像と、第2の物質の厚み画像とを、例えば、液晶ディスプレイや有機ELディスプレイなどで構成される表示装置137に表示させる。操作装置138は、例えば、マウスやキーボードなどで構成され、操作者からの各種指示を入力する。操作装置138は、表示装置137と一体となったタッチパネルとして実現されてもよい。 The image processing unit 134 generates an image for display using the first image and the second image acquired by the signal processing unit 133 through signal processing. The display control unit 135 displays the thickness image of the first substance and the thickness image of the second substance acquired by the signal processing unit 133 on a display device 137 consisting of, for example, a liquid crystal display or an organic EL display. The operation device 138 consists of, for example, a mouse and a keyboard, and inputs various instructions from an operator. The operation device 138 may be realized as a touch panel integrated with the display device 137.

記憶部136は、各種のプログラム、データベース(テーブル)やフィルタ処理F1(ノイズ低減処理)用のフィルタパラメータ(以下、「パラメータ」ともいう)を記憶している。テーブルには、エネルギーサブトラクション処理の際に用いる各種テーブルが含まれる。また、フィルタパラメータは、撮影条件(曝射条件)に応じて最適化されたフィルタパラメータである。1つまたは複数のプロセッサー(CPU)が記憶部136に格納されたプログラムを実行して、取得部131、補正部132、信号処理部133、画像処理部134、表示制御部135の機能を実現する。 The storage unit 136 stores various programs, databases (tables), and filter parameters (hereinafter also referred to as "parameters") for the filter process F1 (noise reduction process). The tables include various tables used during energy subtraction processing. The filter parameters are filter parameters optimized according to the imaging conditions (exposure conditions). One or more processors (CPUs) execute the programs stored in the storage unit 136 to realize the functions of the acquisition unit 131, correction unit 132, signal processing unit 133, image processing unit 134, and display control unit 135.

図2は、実施形態に係る画素20の等価回路図である。画素20は、光電変換素子201と、出力回路部202とを含む。光電変換素子201は、典型的にはフォトダイオードでありうる。出力回路部202は、増幅回路部204、クランプ回路部206、サンプルホールド回路207、選択回路部208を含む。 FIG. 2 is an equivalent circuit diagram of a pixel 20 according to an embodiment. The pixel 20 includes a photoelectric conversion element 201 and an output circuit section 202. The photoelectric conversion element 201 can typically be a photodiode. The output circuit section 202 includes an amplifier circuit section 204, a clamp circuit section 206, a sample-and-hold circuit 207, and a selection circuit section 208.

光電変換素子201は、電荷蓄積部を含み、該電荷蓄積部は、増幅回路部204のMOSトランジスタ204aのゲートに接続されている。MOSトランジスタ204aのソースは、MOSトランジスタ204bを介して電流源204cに接続されている。MOSトランジスタ204aと電流源204cとによってソースフォロア回路が構成されている。MOSトランジスタ204bは、そのゲートに供給されるイネーブル信号ENがアクティブレベルになるとオンしてソースフォロア回路を動作状態にするイネーブルスイッチである。 The photoelectric conversion element 201 includes a charge storage section, which is connected to the gate of the MOS transistor 204a of the amplifier circuit section 204. The source of the MOS transistor 204a is connected to a current source 204c via a MOS transistor 204b. The MOS transistor 204a and the current source 204c form a source follower circuit. The MOS transistor 204b is an enable switch that turns on when an enable signal EN supplied to its gate becomes active level, putting the source follower circuit into an operating state.

図2に示す例では、光電変換素子201の電荷蓄積部およびMOSトランジスタ204aのゲートが共通のノードを構成していて、このノードは、電荷蓄積部に蓄積された電荷を電圧に変換する電荷電圧変換部として機能する。即ち、電荷電圧変換部には、電荷蓄積部に蓄積された電荷Qと電荷電圧変換部が有する容量値Cとによって定まる電圧V(=Q/C)が現れる。電荷電圧変換部は、リセットスイッチ203を介してリセット電位Vresに接続されている。リセット信号PRESがアクティブレベルになると、リセットスイッチ203がオンして、電荷電圧変換部の電位がリセット電位Vresにリセットされる。 In the example shown in FIG. 2, the charge storage section of the photoelectric conversion element 201 and the gate of the MOS transistor 204a form a common node, and this node functions as a charge-voltage conversion section that converts the charge stored in the charge storage section into a voltage. That is, a voltage V (=Q/C) appears in the charge-voltage conversion section, which is determined by the charge Q stored in the charge storage section and the capacitance value C of the charge-voltage conversion section. The charge-voltage conversion section is connected to a reset potential Vres via a reset switch 203. When the reset signal PRES becomes active level, the reset switch 203 turns on and the potential of the charge-voltage conversion section is reset to the reset potential Vres.

クランプ回路部206は、リセットした電荷電圧変換部の電位に応じて増幅回路部204によって出力されるノイズをクランプ容量206aによってクランプする。つまり、クランプ回路部206は、光電変換素子201で光電変換により発生した電荷に応じてソースフォロア回路から出力された信号から、このノイズをキャンセルするための回路である。このノイズはリセット時のkTCノイズを含む。クランプは、クランプ信号PCLをアクティブレベルにしてMOSトランジスタ206bをオン状態にした後に、クランプ信号PCLを非アクティブレベルにしてMOSトランジスタ206bをオフ状態にすることによってなされる。クランプ容量206aの出力側は、MOSトランジスタ206cのゲートに接続されている。MOSトランジスタ206cのソースは、MOSトランジスタ206dを介して電流源206eに接続されている。MOSトランジスタ206cと電流源206eとによってソースフォロア回路が構成されている。MOSトランジスタ206dは、そのゲートに供給されるイネーブル信号EN0がアクティブレベルになるとオンしてソースフォロア回路を動作状態にするイネーブルスイッチである。 The clamp circuit unit 206 clamps the noise output by the amplifier circuit unit 204 according to the potential of the reset charge-voltage conversion unit using the clamp capacitance 206a. In other words, the clamp circuit unit 206 is a circuit for canceling this noise from the signal output from the source follower circuit according to the charge generated by photoelectric conversion in the photoelectric conversion element 201. This noise includes the kTC noise at the time of reset. The clamp is performed by setting the clamp signal PCL to an active level to turn on the MOS transistor 206b, and then setting the clamp signal PCL to an inactive level to turn off the MOS transistor 206b. The output side of the clamp capacitance 206a is connected to the gate of the MOS transistor 206c. The source of the MOS transistor 206c is connected to the current source 206e via the MOS transistor 206d. The MOS transistor 206c and the current source 206e form a source follower circuit. MOS transistor 206d is an enable switch that turns on when the enable signal EN0 supplied to its gate becomes active, putting the source follower circuit into an operational state.

光電変換素子201で光電変換により発生した電荷に応じてクランプ回路部206から出力される信号は、光信号として、光信号サンプリング信号TSがアクティブレベルになることによってスイッチ207Saを介して容量207Sbに書き込まれる。電荷電圧変換部の電位をリセットした直後にMOSトランジスタ206bをオン状態とした際にクランプ回路部206から出力される信号は、クランプ電圧である。ノイズ信号は、ノイズサンプリング信号TNがアクティブレベルになることによってスイッチ207Naを介して容量207Nbに書き込まれる。このノイズ信号には、クランプ回路部206のオフセット成分が含まれる。スイッチ207Saと容量207Sbによって信号サンプルホールド回路207Sが構成され、スイッチ207Naと容量207Nbによってノイズサンプルホールド回路207Nが構成される。サンプルホールド回路部207は、信号サンプルホールド回路207Sとノイズサンプルホールド回路207Nとを含む。 The signal output from the clamp circuit unit 206 according to the charge generated by photoelectric conversion in the photoelectric conversion element 201 is written as an optical signal to the capacitance 207Sb via the switch 207Sa when the optical signal sampling signal TS becomes active level. The signal output from the clamp circuit unit 206 when the MOS transistor 206b is turned on immediately after resetting the potential of the charge-voltage conversion unit is a clamp voltage. The noise signal is written to the capacitance 207Nb via the switch 207Na when the noise sampling signal TN becomes active level. This noise signal includes an offset component of the clamp circuit unit 206. The switch 207Sa and the capacitance 207Sb form a signal sample-and-hold circuit 207S, and the switch 207Na and the capacitance 207Nb form a noise sample-and-hold circuit 207N. The sample-and-hold circuit unit 207 includes a signal sample-and-hold circuit 207S and a noise sample-and-hold circuit 207N.

駆動回路部が行選択信号をアクティブレベルに駆動すると、容量207Sbに保持された信号(光信号)がMOSトランジスタ208Saおよび行選択スイッチ208Sbを介して信号線21Sに出力される。また、同時に、容量207Nbに保持された信号(ノイズ)がMOSトランジスタ208Naおよび行選択スイッチ208Nbを介して信号線21Nに出力される。MOSトランジスタ208Saは、信号線21Sに設けられた不図示の定電流源とソースフォロア回路を構成する。同様に、MOSトランジスタ208Naは、信号線21Nに設けられた不図示の定電流源とソースフォロア回路を構成する。MOSトランジスタ208Saと行選択スイッチ208Sbによって信号用選択回路部208Sが構成され、MOSトランジスタ208Naと行選択スイッチ208Nbによってノイズ用選択回路部208Nが構成される。選択回路部208は、信号用選択回路部208Sとノイズ用選択回路部208Nとを含む。 When the driving circuit unit drives the row selection signal to an active level, the signal (optical signal) held in the capacitance 207Sb is output to the signal line 21S via the MOS transistor 208Sa and the row selection switch 208Sb. At the same time, the signal (noise) held in the capacitance 207Nb is output to the signal line 21N via the MOS transistor 208Na and the row selection switch 208Nb. The MOS transistor 208Sa constitutes a constant current source (not shown) and a source follower circuit provided on the signal line 21S. Similarly, the MOS transistor 208Na constitutes a constant current source (not shown) and a source follower circuit provided on the signal line 21N. The signal selection circuit unit 208S is constituted by the MOS transistor 208Sa and the row selection switch 208Sb, and the noise selection circuit unit 208N is constituted by the MOS transistor 208Na and the row selection switch 208Nb. The selection circuit section 208 includes a signal selection circuit section 208S and a noise selection circuit section 208N.

画素20は、隣接する複数の画素20の光信号を加算する加算スイッチ209Sを有してもよい。加算モード時には、加算モード信号ADDがアクティブレベルになり、加算スイッチ209Sがオン状態になる。これにより、隣接する画素20の容量207Sbが加算スイッチ209Sによって相互に接続されて、光信号が平均化される。同様に、画素20は、隣接する複数の画素20のノイズを加算する加算スイッチ209Nを有してもよい。加算スイッチ209Nがオン状態になると、隣接する画素20の容量207Nbが加算スイッチ209Nによって相互に接続されて、ノイズが平均化される。加算部209は、加算スイッチ209Sと加算スイッチ209Nを含む。 The pixel 20 may have an addition switch 209S that adds the optical signals of adjacent pixels 20. In the addition mode, the addition mode signal ADD becomes active and the addition switch 209S is turned on. This causes the capacitances 207Sb of adjacent pixels 20 to be connected to each other by the addition switch 209S, and the optical signals are averaged. Similarly, the pixel 20 may have an addition switch 209N that adds the noises of adjacent pixels 20. When the addition switch 209N is turned on, the capacitances 207Nb of adjacent pixels 20 are connected to each other by the addition switch 209N, and the noises are averaged. The adder 209 includes an addition switch 209S and an addition switch 209N.

また、画素20は、感度を変更するための感度変更部205を有してもよい。画素20は、例えば、第1感度変更スイッチ205aおよび第2感度変更スイッチ205'a、並びにそれらに付随する回路素子を含みうる。第1変更信号WIDEがアクティブレベルになると、第1感度変更スイッチ205aがオンして、電荷電圧変換部の容量値に第1付加容量205bの容量値が追加される。これによって画素20の感度が低下する。第2変更信号WIDE2がアクティブレベルになると、第2感度変更スイッチ205'aがオンして、電荷電圧変換部の容量値に第2付加容量205'bの容量値が追加される。これによって画素20の感度が更に低下する。このように画素20の感度を低下させる機能を追加することによって、より大きな光量を受光することが可能となり、ダイナミックレンジを広げることができる。第1変更信号WIDEがアクティブレベルになる場合には、イネーブル信号ENwをアクティブレベルにして、MOSトランジスタ204aに変えてMOSトランジスタ204'aをソースフォロア動作させてもよい。 The pixel 20 may also have a sensitivity change unit 205 for changing the sensitivity. The pixel 20 may include, for example, a first sensitivity change switch 205a and a second sensitivity change switch 205'a, as well as circuit elements associated therewith. When the first change signal WIDE becomes active, the first sensitivity change switch 205a is turned on, and the capacitance value of the first additional capacitance 205b is added to the capacitance value of the charge-voltage conversion unit. This reduces the sensitivity of the pixel 20. When the second change signal WIDE2 becomes active, the second sensitivity change switch 205'a is turned on, and the capacitance value of the second additional capacitance 205'b is added to the capacitance value of the charge-voltage conversion unit. This further reduces the sensitivity of the pixel 20. By adding a function to reduce the sensitivity of the pixel 20 in this way, it becomes possible to receive a larger amount of light, and the dynamic range can be expanded. When the first change signal WIDE becomes active level, the enable signal ENw may be set to active level, and the MOS transistor 204'a may be changed to a source follower operation.

X線撮像装置104は、二次元検出器106から以上のような画素回路の出力を読み出し、不図示のAD変換器でデジタル値に変換した後、撮像制御装置103に画像を転送する。 The X-ray imaging device 104 reads the output of the pixel circuits described above from the two-dimensional detector 106, converts it to a digital value using an AD converter (not shown), and then transfers the image to the imaging control device 103.

次に、上述した構成を備えた実施形態のX線撮像システムの動作について説明する。図3は、実施形態に係るX線撮像システムにおいてエネルギーサブトラクションを行った場合のX線撮像装置104の駆動タイミングを示す。図3における波形は横軸を時間として、X線の曝射、同期信号、光電変換素子201のリセット、サンプルホールド回路207、信号線21からの画像の読み出しのタイミングを示している。 Next, the operation of the X-ray imaging system of the embodiment having the above-mentioned configuration will be described. FIG. 3 shows the drive timing of the X-ray imaging device 104 when energy subtraction is performed in the X-ray imaging system of the embodiment. The waveform in FIG. 3 shows the timing of X-ray exposure, synchronization signal, resetting of the photoelectric conversion element 201, sample hold circuit 207, and image readout from signal line 21, with time on the horizontal axis.

リセット信号により光電変換素子201のリセットが行われてからX線が曝射される。X線の管電圧は理想的には矩形波となるが、管電圧の立ち上がりと立下りには有限の時間がかかる。特に、パルスX線で曝射時間が短い場合は、管電圧はもはや矩形波とはみなせず、X線301~303に示すような波形となる。立ち上がり期のX線301、安定期のX線302、立下り期のX線303ではそれぞれX線のエネルギーが異なる。したがって、サンプルホールドによって区切られる期間の放射線に対応したX線画像を得ることにより、互いにエネルギーが異なる複数種類のX線画像が得られる。 The photoelectric conversion element 201 is reset by a reset signal before X-rays are emitted. Ideally, the X-ray tube voltage is a square wave, but it takes a finite amount of time for the tube voltage to rise and fall. In particular, when the exposure time is short with pulsed X-rays, the tube voltage is no longer considered a square wave, and takes a waveform like that shown by X-rays 301 to 303. The X-rays in the rising phase 301, the X-rays in the stable phase 302, and the X-rays in the falling phase 303 each have different X-ray energies. Therefore, by obtaining X-ray images corresponding to the radiation in the periods separated by sample and hold, multiple types of X-ray images with different energies can be obtained.

X線撮像装置104は、立ち上がり期のX線301が曝射された後に、ノイズサンプルホールド回路207Nでサンプリングを行い、さらに安定期のX線302が曝射された後に信号サンプルホールド回路207Sでサンプリングを行う。その後、X線撮像装置104は、信号線21Nと信号線21Sの差分を画像として読み出す。このとき、ノイズサンプルホールド回路207Nには立ち上がり期のX線301の信号(R)が保持され、信号サンプルホールド回路207Sには立ち上がり期のX線301の信号と安定期のX線302の信号(B)の和(R+B)が保持されている。従って、安定期のX線302の信号に対応した画像304が読み出される。 The X-ray imaging device 104 performs sampling in the noise sample hold circuit 207N after the X-rays 301 in the rising phase are irradiated, and performs sampling in the signal sample hold circuit 207S after the X-rays 302 in the stable phase are irradiated. After that, the X-ray imaging device 104 reads out the difference between the signal line 21N and the signal line 21S as an image. At this time, the noise sample hold circuit 207N holds the signal (R 1 ) of the X-rays 301 in the rising phase, and the signal sample hold circuit 207S holds the sum (R 1 +B) of the signal of the X-rays 301 in the rising phase and the signal (B) of the X-rays 302 in the stable phase. Therefore, an image 304 corresponding to the signal of the X-rays 302 in the stable phase is read out.

次に、X線撮像装置104は、立下り期のX線303の曝射と、画像304の読み出しとが完了してから、再び信号サンプルホールド回路207Sでサンプリングを行う。その後、X線撮像装置104は、光電変換素子201のリセットを行い、再びノイズサンプルホールド回路207Nでサンプリングを行い、信号線21Nと信号線21Sの差分を画像として読み出す。このとき、ノイズサンプルホールド回路207NにはX線が曝射されていない状態の信号が保持され、信号サンプルホールド回路207Sには立ち上がり期のX線301の信号と安定期のX線302と立下り期のX線303の信号(R)の和(R+B+R)が保持されている。従って、立ち上がり期のX線301の信号と安定期のX線302の信号と立下り期のX線303の信号に対応した画像306が読み出される。その後、画像306と画像304の差分を計算することで、立ち上がり期のX線301と立下り期のX線303の和に対応した画像305が得られる。この計算は、X線撮像装置104で行われてもよいし、撮像制御装置103で行われてもよい。 Next, after completing the exposure of the X-ray 303 in the falling period and the readout of the image 304, the X-ray imaging device 104 performs sampling again in the signal sample-and-hold circuit 207S. After that, the X-ray imaging device 104 resets the photoelectric conversion element 201, performs sampling again in the noise sample-and-hold circuit 207N, and reads out the difference between the signal line 21N and the signal line 21S as an image. At this time, the noise sample-and-hold circuit 207N holds a signal in a state where no X-rays are irradiated, and the signal sample-and-hold circuit 207S holds the sum (R 1 + B+R 2 ) of the signal of the X-ray 301 in the rising period, the signal of the X-ray 302 in the stable period, and the signal of the X-ray 303 in the falling period. Therefore, an image 306 corresponding to the signal of the X-ray 301 in the rising period, the signal of the X-ray 302 in the stable period, and the signal of the X-ray 303 in the falling period is read out. Thereafter, by calculating the difference between the image 306 and the image 304, an image 305 corresponding to the sum of the X-rays 301 in the rising edge and the X-rays 303 in the falling edge is obtained. This calculation may be performed by the X-ray imaging device 104 or the imaging control device 103.

サンプルホールド回路207及び光電変換素子201のリセットを行うタイミングは、X線発生装置101からX線の曝射が開始されたことを示す同期信号307を用いて決定される。X線の曝射開始を検出する方法としては、X線発生装置101の管電流を測定し、電流値が予め設定された閾値を上回るか否かを判定する構成を用いることができるがこれに限られるものではない。例えば、光電変換素子201のリセットが完了した後、画素20を繰り返して読み出し、画素値が予め設定された閾値を上回るか否かを判定することによりX線の曝射開始を検出する構成が用いられてもよい。 The timing for resetting the sample-and-hold circuit 207 and the photoelectric conversion element 201 is determined using a synchronization signal 307 indicating that X-ray exposure has started from the X-ray generating device 101. As a method for detecting the start of X-ray exposure, a configuration for measuring the tube current of the X-ray generating device 101 and determining whether or not the current value exceeds a preset threshold can be used, but is not limited to this. For example, a configuration for detecting the start of X-ray exposure by repeatedly reading out the pixel 20 after the resetting of the photoelectric conversion element 201 is completed and determining whether or not the pixel value exceeds a preset threshold can be used.

あるいは、例えば、X線撮像装置104に二次元検出器106とは異なるX線検出器を内蔵し、その測定値が予め設定された閾値を上回るか否かを判定することによりX線の曝射開始を検出する構成が用いられてもよい。いずれの方式の場合も、X線の曝射開始を示す同期信号307の入力から予め指定した時間が経過した後に、信号サンプルホールド回路207Sのサンプリング、ノイズサンプルホールド回路207Nのサンプリング、光電変換素子201のリセットが行われる。 Alternatively, for example, an X-ray imaging device 104 may have an X-ray detector built in that is different from the two-dimensional detector 106, and the start of X-ray exposure may be detected by determining whether or not the measured value exceeds a preset threshold value. In either case, sampling of the signal sample-and-hold circuit 207S, sampling of the noise sample-and-hold circuit 207N, and resetting of the photoelectric conversion element 201 are performed after a pre-specified time has elapsed since the input of a synchronization signal 307 indicating the start of X-ray exposure.

以上のようにして、パルスX線の安定期に対応した画像304と、立ち上がり期と立下り期の和に対応した画像305が得られる。これら二枚のX線画像を形成する際に曝射されたX線のエネルギーは互いに異なるため、これらX線画像間で演算を行うことでエネルギーサブトラクション処理を行うことができる。 In this manner, an image 304 corresponding to the stable period of the pulsed X-rays and an image 305 corresponding to the sum of the rising and falling periods are obtained. Since the energies of the X-rays irradiated when forming these two X-ray images are different, energy subtraction processing can be performed by performing calculations between these X-ray images.

図4は、実施形態に係るX線撮像システムにおいてエネルギーサブトラクションを行った場合のX線撮像装置104の駆動タイミングを示す。図4に示す駆動タイミングは、X線発生装置101の管電圧を能動的に切り替えている点で図3の駆動タイミングとは異なる。 Figure 4 shows the drive timing of the X-ray imaging device 104 when energy subtraction is performed in the X-ray imaging system according to the embodiment. The drive timing shown in Figure 4 differs from the drive timing in Figure 3 in that the tube voltage of the X-ray generator 101 is actively switched.

まず、光電変換素子201のリセットが行われた後、X線発生装置101は低エネルギーのX線401の曝射を行う。この状態で、X線撮像装置104は、ノイズサンプルホールド回路207Nによりサンプリングを行う。その後、X線発生装置101は、管電圧を切り替えて高エネルギーのX線402の曝射を行う。この状態で、X線撮像装置104は、信号サンプルホールド回路207Sによりサンプリングを行う。その後、X線発生装置101は、管電圧を切り替えて低エネルギーのX線403の曝射を行う。X線撮像装置104は、信号線21Nと信号線21Sの差分を画像として読み出す。このとき、ノイズサンプルホールド回路207Nには低エネルギーのX線401の信号(R)が保持され、信号サンプルホールド回路207Sには低エネルギーのX線401の信号と高エネルギーのX線402の信号(B)の和(R+B)が保持されている。従って、高エネルギーのX線402の信号に対応した画像404が読み出される。 First, after the photoelectric conversion element 201 is reset, the X-ray generation device 101 irradiates low-energy X-rays 401. In this state, the X-ray imaging device 104 performs sampling using the noise sample-and-hold circuit 207N. Then, the X-ray generation device 101 switches the tube voltage to irradiate high-energy X-rays 402. In this state, the X-ray imaging device 104 performs sampling using the signal sample-and-hold circuit 207S. Then, the X-ray generation device 101 switches the tube voltage to irradiate low-energy X-rays 403. The X-ray imaging device 104 reads out the difference between the signal line 21N and the signal line 21S as an image. At this time, the noise sample-and-hold circuit 207N holds a signal (R 1 ) of the low-energy X-ray 401, and the signal sample-and-hold circuit 207S holds the sum (R 1 +B) of the signal of the low-energy X-ray 401 and the signal (B) of the high-energy X-ray 402. Therefore, an image 404 corresponding to the signal of the high-energy X-ray 402 is read out.

次に、X線撮像装置104は、低エネルギーのX線403の曝射と、画像404の読み出しとが完了してから、再び信号サンプルホールド回路207Sでサンプリングを行う。その後、X線撮像装置104は、光電変換素子201のリセットを行い、再びノイズサンプルホールド回路207Nでサンプリングを行い、信号線21Nと信号線21Sの差分を画像として読み出す。このとき、ノイズサンプルホールド回路207NにはX線が曝射されていない状態の信号が保持され、信号サンプルホールド回路207Sには低エネルギーのX線401の信号と高エネルギーのX線402と低エネルギーのX線403の信号(R)の和(R+B+R)が保持されている。従って、低エネルギーのX線401の信号と高エネルギーのX線402の信号と低エネルギーのX線403の信号に対応した画像406が読み出される。 Next, after the X-ray imaging device 104 completes the exposure of the low-energy X-rays 403 and the readout of the image 404, it again performs sampling in the signal sample-and-hold circuit 207S. After that, the X-ray imaging device 104 resets the photoelectric conversion element 201, performs sampling again in the noise sample-and-hold circuit 207N, and reads out the difference between the signal line 21N and the signal line 21S as an image. At this time, the noise sample-and-hold circuit 207N holds a signal in a state where no X-rays are irradiated, and the signal sample-and-hold circuit 207S holds the sum (R 1 +B+R 2 ) of the signal of the low-energy X-rays 401, the signal of the high-energy X-rays 402, and the signal of the low-energy X-rays 403 (R 2 ) . Therefore, an image 406 corresponding to the signal of the low-energy X-rays 401, the signal of the high-energy X-rays 402, and the signal of the low-energy X-rays 403 is read out.

その後、画像406と画像404の差分を計算することで、低エネルギーのX線401と低エネルギーのX線403の和に対応した画像405が得られる。この計算は、X線撮像装置104で行われてもよいし、撮像制御装置103で行われてもよい。同期信号407については、図3と同様である。このように、管電圧を能動的に切り替えながら画像を取得することで、図3の方法に比べて低エネルギーと高エネルギーの放射線画像の間のエネルギー差をより大きくすることが出来る。 Then, by calculating the difference between image 406 and image 404, image 405 corresponding to the sum of low-energy X-rays 401 and low-energy X-rays 403 is obtained. This calculation may be performed by the X-ray imaging device 104 or the imaging control device 103. The synchronization signal 407 is the same as in FIG. 3. In this way, by acquiring images while actively switching the tube voltage, it is possible to make the energy difference between low-energy and high-energy radiation images larger than in the method of FIG. 3.

次に、撮像制御装置103によるエネルギーサブトラクション処理について説明する。実施形態におけるエネルギーサブトラクション処理は、補正部132による補正処理、信号処理部133による信号処理、画像処理部134による画像処理の3段階に分かれている。以下、それぞれの処理について説明する。 Next, the energy subtraction processing by the imaging control device 103 will be described. In this embodiment, the energy subtraction processing is divided into three stages: correction processing by the correction unit 132, signal processing by the signal processing unit 133, and image processing by the image processing unit 134. Each process will be described below.

補正処理は、X線撮像装置104から取得された複数の放射線画像を処理してエネルギーサブトラクション処理における後述の信号処理で用いられる複数の画像を生成する処理である。 The correction process processes multiple radiation images acquired from the X-ray imaging device 104 to generate multiple images to be used in the signal processing described below in the energy subtraction process.

図5に、実施形態に係るエネルギーサブトラクション処理のための補正処理のブロック図を示す。まず、取得部131は、X線撮像装置104にX線を曝射しない状態での撮像を行わせ、図3または図4に示した駆動で画像を取得する。この駆動により2枚の画像が読み出される。以下、1枚目の画像(画像304または画像404)をF_ODD、2枚目の画像(画像306または画像406)をF_EVENとする。F_ODDとF_EVENは、X線撮像装置104の固定パターンノイズ(FPN:Fixed Pattern Noise)に対応する画像である。 Figure 5 shows a block diagram of the correction process for the energy subtraction process according to the embodiment. First, the acquisition unit 131 causes the X-ray imaging device 104 to perform imaging without emitting X-rays, and acquires an image by the drive shown in Figure 3 or Figure 4. This drive reads out two images. Hereinafter, the first image (image 304 or image 404) is F_ODD, and the second image (image 306 or image 406) is F_EVEN. F_ODD and F_EVEN are images that correspond to the fixed pattern noise (FPN: Fixed Pattern Noise) of the X-ray imaging device 104.

次に、取得部131は、被写体がない状態でX線撮像装置104にX線を曝射して撮像を行わせ、図3又は図4に示した駆動によりX線撮像装置104から出力されるゲイン補正用の画像を取得する。この駆動により、上記と同様に2枚の画像が読み出される。以下、1枚目のゲイン補正用の画像(画像304または画像404)をW_ODD、2枚目のゲイン補正用の画像(画像306または画像406)をW_EVENとする。W_ODDとW_EVENは、X線撮像装置104のFPNとX線による信号の和に対応する画像である。補正部132は、W_ODDからF_ODDを、W_EVENからF_EVENを減算することで、X線撮像装置104のFPNが除去された画像WF_ODDとWF_EVENを得る。これをオフセット補正と呼ぶ。 Next, the acquisition unit 131 causes the X-ray imaging device 104 to irradiate X-rays in the absence of a subject to perform imaging, and acquires an image for gain correction output from the X-ray imaging device 104 by the drive shown in FIG. 3 or FIG. 4. This drive reads out two images in the same manner as above. Hereinafter, the first image for gain correction (image 304 or image 404) is referred to as W_ODD, and the second image for gain correction (image 306 or image 406) is referred to as W_EVEN. W_ODD and W_EVEN are images corresponding to the sum of the FPN of the X-ray imaging device 104 and the signal due to X-rays. The correction unit 132 obtains images WF_ODD and WF_EVEN in which the FPN of the X-ray imaging device 104 has been removed, by subtracting F_ODD from W_ODD and F_EVEN from W_EVEN. This is called offset correction.

WF_ODDは安定期のX線302に対応する画像であり、WF_EVENは立ち上がり期のX線301、安定期のX線302、立下り期のX線303の和に対応する画像である。従って、補正部132は、WF_EVENからWF_ODDを減算することで、立ち上がり期のX線301と立下り期のX線303の和に対応する画像を得る。このように、複数枚の画像の減算により、サンプルホールドによって区切られる特定の期間のX線に対応した画像を得る処理を色補正と呼ぶ。立ち上がり期のX線301と立下り期のX線303のエネルギーは、安定期のX線302のエネルギーに比べて低い。従って、色補正により、WF_EVENからWF_ODDを減算することで、被写体がない場合の低エネルギー画像W_Lowが得られる。また、WF_ODDから、被写体がない場合の高エネルギー画像W_Highが得られる。 WF_ODD is an image corresponding to the X-rays 302 in the stable period, and WF_EVEN is an image corresponding to the sum of the X-rays 301 in the rising period, the X-rays 302 in the stable period, and the X-rays 303 in the falling period. Therefore, the correction unit 132 obtains an image corresponding to the sum of the X-rays 301 in the rising period and the X-rays 303 in the falling period by subtracting WF_ODD from WF_EVEN. The process of obtaining an image corresponding to the X-rays in a specific period separated by sample hold by subtracting multiple images in this way is called color correction. The energy of the X-rays 301 in the rising period and the X-rays 303 in the falling period is lower than the energy of the X-rays 302 in the stable period. Therefore, by subtracting WF_ODD from WF_EVEN through color correction, a low-energy image W_Low when there is no subject is obtained. Also, a high-energy image W_High when there is no subject is obtained from WF_ODD.

次に、取得部131は、被写体がある状態でX線撮像装置104にX線を曝射して撮像を行わせ、図3または図4に示した駆動によりX線撮像装置104から出力される画像を取得する。このとき2枚の画像が読み出される。以下、1枚目の画像(画像304または画像404)をX_ODD、2枚目の画像(画像306または画像406)をX_EVENとする。補正部132は、被写体がない場合と同様のオフセット補正および色補正を行うことで、被写体がある場合の低エネルギー画像X_Lowと、被写体がある場合の高エネルギー画像X_Highを得る。 Next, the acquisition unit 131 causes the X-ray imaging device 104 to irradiate X-rays and perform imaging when a subject is present, and acquires images output from the X-ray imaging device 104 by the driving shown in FIG. 3 or FIG. 4. At this time, two images are read out. Hereinafter, the first image (image 304 or image 404) is referred to as X_ODD, and the second image (image 306 or image 406) is referred to as X_EVEN. The correction unit 132 performs offset correction and color correction similar to those performed when no subject is present, thereby obtaining a low-energy image X_Low when a subject is present, and a high-energy image X_High when a subject is present.

ここで、被写体の厚みをd、被写体の線減弱係数をμ、被写体がない場合の画素20の出力をI、被写体がある場合の画素20の出力をIとすると、以下の[数1]式が成り立つ。 Here, if the thickness of the subject is d, the linear attenuation coefficient of the subject is μ, the output of pixel 20 when there is no subject is I 0 , and the output of pixel 20 when there is a subject is I, the following formula 1 holds.

Figure 2025023667000002
Figure 2025023667000002

[数1]式を変形すると、以下の[数2]式が得られる。[数2]式の右辺は被写体の透過率を示す。被写体の透過率は0~1の間の実数である。 Transforming equation [1] gives the following equation [2]. The right-hand side of equation [2] indicates the transmittance of the subject. The transmittance of the subject is a real number between 0 and 1.

Figure 2025023667000003
Figure 2025023667000003

従って、補正部132は、被写体がある場合の低エネルギー画像X_Lowを、被写体がない場合の低エネルギー画像W_Lowで除算することで、低エネルギーにおける透過率の画像L(以下、「低エネルギー画像Lまたは第2の放射線画像L」ともいう)を得る。同様に、補正部132は、被写体がある場合の高エネルギー画像X_Highを、被写体がない場合の高エネルギー画像W_Highで除算することで、高エネルギーにおける透過率の画像Hを得る(以下、「高エネルギー画像Hまたは第1の放射線画像H」ともいう)。このように、被写体ありの状態で得られた放射線画像に基づいて得られた画像を被写体なしの状態で得られた放射線画像に基づいて得られた画像で除算することにより、低エネルギーにおける透過率又は高エネルギーにおける透過率の画像(L,H)を取得する処理をゲイン補正と呼ぶ。 Therefore, the correction unit 132 obtains an image L of transmittance at low energy (hereinafter also referred to as "low energy image L or second radiation image L") by dividing the low energy image X_Low when a subject is present by the low energy image W_Low when no subject is present. Similarly, the correction unit 132 obtains an image H of transmittance at high energy (hereinafter also referred to as "high energy image H or first radiation image H") by dividing the high energy image X_High when a subject is present by the high energy image W_High when no subject is present. The process of obtaining an image (L, H) of transmittance at low energy or transmittance at high energy by dividing an image obtained based on a radiation image obtained in a state with a subject by an image obtained based on a radiation image obtained in a state without a subject is called gain correction.

図6に、実施形態に係るエネルギーサブトラクション処理の信号処理のブロック図を示す。信号処理部133は、補正部132から得られる複数の画像を用いて物質分離画像を生成する。以下では、骨の厚みの画像B(以下、骨の厚みBまたは骨画像Bともいう)と軟部組織の厚みの画像S(以下、軟部組織の厚みSまたは軟部組織画像Sともいう)からなる物質分離画像の生成処理を説明する。信号処理部133は、以下の処理により図5に示した補正によって得られた低エネルギーにおける透過率の画像Lと高エネルギーにおける透過率の画像Hから、骨の厚みの画像Bと軟部組織の厚みの画像Sを求める。 Figure 6 shows a block diagram of signal processing for energy subtraction processing according to the embodiment. The signal processing unit 133 generates a material separation image using multiple images obtained from the correction unit 132. Below, a process for generating a material separation image consisting of a bone thickness image B (hereinafter also referred to as bone thickness B or bone image B) and a soft tissue thickness image S (hereinafter also referred to as soft tissue thickness S or soft tissue image S) will be described. The signal processing unit 133 obtains the bone thickness image B and the soft tissue thickness image S from the low energy transmittance image L and the high energy transmittance image H obtained by the correction shown in Figure 5 through the following process.

まず、X線フォトンのエネルギーをE、エネルギーEにおけるフォトン数をN(E)、骨の厚み画像における厚みをB、軟部組織の厚み画像における厚みをS、エネルギーEにおける骨の線減弱係数をμ(E)、エネルギーEにおける軟部組織の線減弱係数をμ(E)、透過率をI/Iとすると、以下の[数3]式が成り立つ。 First, assuming that the energy of an X-ray photon is E, the number of photons at energy E is N(E), the thickness in the bone thickness image is B, the thickness in the soft tissue thickness image is S, the linear attenuation coefficient of bone at energy E is μ B (E), the linear attenuation coefficient of soft tissue at energy E is μ S (E), and the transmittance is I/I 0 , the following equation (3) holds.

Figure 2025023667000004
Figure 2025023667000004

エネルギーEにおけるフォトン数N(E)は、X線のスペクトルである。X線のスペクトルは、シミュレーション又は実測により得られる。また、エネルギーEおける骨の線減弱係数μ(E)とエネルギーEおける軟部組織の線減弱係数μ(E)は、それぞれNIST(National Institute of Standards and Technology)などのデータベースから得られる。したがって、[数3]式によれば、任意の骨の厚み画像における厚みB、軟部組織の厚み画像における厚みS、X線のスペクトルN(E)における透過率I/Iを計算することが可能である。 The number of photons N(E) at energy E is the spectrum of X-rays. The spectrum of X-rays is obtained by simulation or actual measurement. The linear attenuation coefficient μ B (E) of bone at energy E and the linear attenuation coefficient μ S (E) of soft tissue at energy E are obtained from databases such as NIST (National Institute of Standards and Technology). Therefore, according to the formula 3, it is possible to calculate the thickness B in an arbitrary bone thickness image, the thickness S in an arbitrary soft tissue thickness image, and the transmittance I/I 0 in the spectrum N(E) of X-rays.

ここで、低エネルギーのX線におけるスペクトルをN(E)、高エネルギーのX線におけるスペクトルをN(E)とすると、画像Lにおける透過率、及び、画像Hの透過率について、以下の[数4]式の各式が成り立つ。 Here, if the spectrum of low-energy X-rays is N L (E) and the spectrum of high-energy X-rays is N H (E), the following equations [Equation 4] hold for the transmittance in image L and the transmittance in image H.

Figure 2025023667000005
Figure 2025023667000005

[数4]式の非線形連立方程式を解くことで、骨の厚み画像における厚みBと軟部組織の厚み画像における厚みSが求まる。非線形連立方程式を解く代表的な方法として、ここではニュートンラフソン法を用いた場合について説明する。まず、ニュートンラフソン法の反復回数をmとし、m回目の反復後の骨の厚みをB、m回目の反復後の軟部組織の厚みをSとしたとき、m回目の反復後の高エネルギーの透過率の画像H、m回目の反復後の低エネルギーの透過率の画像Lは以下の[数5]式で表される。 By solving the nonlinear simultaneous equations of [Equation 4], the thickness B in the bone thickness image and the thickness S in the soft tissue thickness image are obtained. As a representative method for solving the nonlinear simultaneous equations, the case where the Newton-Raphson method is used will be described here. First, when the number of iterations of the Newton-Raphson method is m, the bone thickness after the mth iteration is Bm , and the soft tissue thickness after the mth iteration is Sm , the high energy transmittance image Hm after the mth iteration and the low energy transmittance image Lm after the mth iteration are expressed by the following [Equation 5].

Figure 2025023667000006
Figure 2025023667000006

また、厚みが微小に変化したときの透過率の変化率を、以下の[数6]式で表す。 The rate of change in transmittance when the thickness is changed slightly is expressed by the following formula [6].

Figure 2025023667000007
Figure 2025023667000007

このとき、m+1回目の反復後の骨の厚みBm+1と軟部組織の厚みSm+1を、高エネルギーの透過率の画像Hと低エネルギーの透過率の画像Lを用いて、以下の[数7]式で表す。 In this case, the bone thickness B m+1 and the soft tissue thickness S m+1 after the m+1th iteration are expressed by the following formula (7) using the high-energy transmittance image H and the low-energy transmittance image L.

Figure 2025023667000008
Figure 2025023667000008

2x2の行列の逆行列は、行列式をdetとすると、クラメルの公式より以下の[数8]式で表される。 The inverse of a 2x2 matrix, with its determinant det, is expressed by the following equation (8) using Cramer's rule.

Figure 2025023667000009
Figure 2025023667000009

従って、[数7]式に[数8]式を代入すると、以下の[数9]式が求まる。 Therefore, by substituting [Equation 8] into [Equation 7], we obtain the following [Equation 9].

Figure 2025023667000010
Figure 2025023667000010

以上のような計算を繰り返すことで、m回目の反復後の高エネルギーの透過率の画像Hと実測した高エネルギーの透過率の画像Hの差分が限りなく0に近づいていく。低エネルギーの透過率の画像Lについても同様である。これによって、m回目の反復後の骨の厚みBが骨の厚みBに収束し、m回目の軟部組織の厚みSが軟部組織の厚みSに収束する。以上のようにして、[数4]式に示した非線形連立方程式を解くことができる。従って、全ての画素について[数4]式を計算することで、低エネルギーにおける透過率の画像Lと高エネルギーにおける透過率の画像Hから、骨の厚みの画像B、軟部組織の厚みの画像Sを取得することができる。 By repeating the above calculations, the difference between the high energy transmittance image Hm after the mth iteration and the measured high energy transmittance image H approaches 0. The same is true for the low energy transmittance image L. As a result, the bone thickness Bm after the mth iteration converges to the bone thickness B, and the soft tissue thickness Sm after the mth iteration converges to the soft tissue thickness S. In this manner, the nonlinear simultaneous equations shown in [Equation 4] can be solved. Therefore, by calculating [Equation 4] for all pixels, the bone thickness image B and the soft tissue thickness image S can be obtained from the low energy transmittance image L and the high energy transmittance image H.

また、実施形態では、ニュートンラフソン法を用いて非線形連立方程式を解いていた。しかしながら開示の技術はこのような形態に限定されない。例えば、最小二乗法や二分法などの反復解法を用いてもよい。 In the embodiment, the Newton-Raphson method is used to solve the nonlinear simultaneous equations. However, the disclosed technology is not limited to this form. For example, iterative solving methods such as the least squares method and the bisection method may be used.

また、実施形態では、非線形連立方程式を反復解法で解いていたが、開示の技術はこのような形態に限定されない。非線形連立方程式を反復解法で解く過程では数値積分が必要となる。しかも、m回の反復計算を行うたびに再計算が必要となるため、図6で示したエネルギーサブトラクションの信号処理における処理負荷が高くなる場合が生じ得る。そこで、様々な組み合わせの高エネルギーの透過率の画像Hと低エネルギーの透過率の画像Lに対する骨の厚みBや軟部組織の厚みSを事前に求めてテーブルを生成し、記憶部136に記憶しておき、このテーブルを参照することで骨の厚みBや軟部組織の厚みSを高速に求めるようにしてもよい。 In the embodiment, the nonlinear simultaneous equations are solved by an iterative solution method, but the disclosed technology is not limited to this form. Numerical integration is required in the process of solving the nonlinear simultaneous equations by an iterative solution method. Moreover, since recalculation is required every m iterations, the processing load in the signal processing of the energy subtraction shown in FIG. 6 may become high. Therefore, the bone thickness B and the soft tissue thickness S for various combinations of high-energy transmittance images H and low-energy transmittance images L may be calculated in advance to generate a table and stored in the storage unit 136, and the bone thickness B and the soft tissue thickness S may be calculated quickly by referring to this table.

(画像処理の説明)
図7に、本実施形態に係る画像処理のブロック図を示す。画像処理部134は、図6で示したエネルギーサブトラクションの信号処理によって得られた骨の厚みの画像Bに対して後処理を行うなどして、表示用画像を生成する。後処理として、画像処理部134は、対数変換やダイナミックレンジ圧縮などを用いることが可能である。なお、後処理の種類や強度をパラメータとして入力することで、処理の内容を切り替えてもよい。
(Explanation of image processing)
A block diagram of image processing according to this embodiment is shown in Fig. 7. The image processing unit 134 generates an image for display by performing post-processing on the bone thickness image B obtained by the signal processing of the energy subtraction shown in Fig. 6. As the post-processing, the image processing unit 134 can use logarithmic conversion, dynamic range compression, etc. The content of the processing may be switched by inputting the type and strength of the post-processing as parameters.

図8は、本実施形態に係る蓄積画像を取得するための補正処理を実現する構成の一例を示すブロック図である。表示装置137に表示するための画像としては、エネルギー分解能を持たない画像、すなわち既存の放射線撮像システムで撮影した画像と互換性のある画像である、蓄積画像Aも好適に用いられる。蓄積画像Aは、例えば図8で示すように、画像XF_EVENを画像WF_EVENで除算することにより生成される。画像XF_EVENおよび画像WF_EVENは図5で説明したとおりである。すなわち、画像XF_EVENは、被写体がある場合の立ち上がり期のX線301、安定期のX線302、立下り期のX線303の和に対応する画像である。また、画像WF_EVENは、被写体がない場合の立ち上がり期のX線301、安定期のX線302、立下り期のX線303の和に対応する画像である。 Figure 8 is a block diagram showing an example of a configuration for realizing correction processing for acquiring a stored image according to this embodiment. As an image to be displayed on the display device 137, a stored image A, which is an image that does not have energy resolution, i.e., an image compatible with an image captured by an existing radiation imaging system, is also preferably used. The stored image A is generated by dividing the image XF_EVEN by the image WF_EVEN, for example, as shown in Figure 8. The images XF_EVEN and WF_EVEN are as described in Figure 5. That is, the image XF_EVEN is an image corresponding to the sum of the X-rays 301 in the rising phase, the X-rays 302 in the stable phase, and the X-rays 303 in the falling phase when there is a subject. Also, the image WF_EVEN is an image corresponding to the sum of the X-rays 301 in the rising phase, the X-rays 302 in the stable phase, and the X-rays 303 in the falling phase when there is no subject.

なお、信号処理部133は、表示用画像として蓄積画像Aを、高エネルギーにおける透過率の画像Hと低エネルギーのおける透過率の画像Lに係数をかけて加算することにより生成してもよい。例えば、蓄積画像Aは、[数10]式を用いて生成され得る。なお、蓄積画像Aの算出において、一方の係数を0、他方の係数を1としてもよく、画像Hまたは画像Lそのものが蓄積画像Aとして用いられ得る。すなわち、エネルギーサブトラクション処理の対象となる画像と撮影タイミングが実質的に同じであって、エネルギーサブトラクション処理が適用されていない画像が蓄積画像Aとして用いられ得る。 The signal processing unit 133 may generate a stored image A as a display image by multiplying an image H with transmittance at high energy and an image L with transmittance at low energy by a coefficient and adding them together. For example, the stored image A may be generated using the formula [10]. In addition, in calculating the stored image A, one coefficient may be 0 and the other coefficient may be 1, and the image H or image L itself may be used as the stored image A. In other words, an image that has been captured at substantially the same time as the image to be subjected to the energy subtraction process and has not been subjected to the energy subtraction process may be used as the stored image A.

[数10]
A=XF_EVEN/WF_EVEN
=X_High/WF_EVEN+X_Low/WF_EVEN
=H*(W_High/WF_EVEN)+L*(W_Low/WF_EVEN)
図9は、本実施形態に係る蓄積画像Aと骨画像Bとを例示的に示す図である。通常の人体は、軟部組織と骨のみで構成されている。しかしながら、図1に示した放射線撮像システムを用いて、画像下治療(IVR)を行うときは、血管に造影剤が注入される。また、カテーテルやガイドワイヤーを血管内に挿入し、ステントやコイルを留置するなどの処置が行われる。画像下治療(IVR)は、造影剤や医療用デバイスの位置と形状を確認しながら行われる。従って、造影剤や医療用デバイスのみを分離する、又は、軟部組織や骨などの背景を除去することで、視認性が向上する可能性がある。
[Number 10]
A=XF_EVEN/WF_EVEN
=X_High/WF_EVEN+X_Low/WF_EVEN
=H*(W_High/WF_EVEN)+L*(W_Low/WF_EVEN)
FIG. 9 is a diagram showing an example of a stored image A and a bone image B according to the present embodiment. A normal human body is composed of only soft tissues and bones. However, when performing interventional radiology (IVR) using the radiation imaging system shown in FIG. 1, a contrast agent is injected into blood vessels. In addition, a catheter or a guide wire is inserted into a blood vessel, and a stent or a coil is placed. The interventional radiology (IVR) is performed while checking the positions and shapes of the contrast agent and the medical device. Therefore, there is a possibility that visibility can be improved by isolating only the contrast agent or the medical device, or removing the background such as the soft tissue or the bone.

図9に示すように、通常の放射線撮像システムと互換性のある画像、すなわち蓄積画像Aでは、造影剤、ステント、骨の他、軟部組織が表示されてしまう。一方、本実施形態に係る放射線撮像システムにおける骨画像Bでは、軟部組織のコントラストを除去(低減)することができる。 As shown in FIG. 9, in an image compatible with a normal radiation imaging system, i.e., accumulated image A, contrast medium, stent, bone, and soft tissue are displayed. On the other hand, in bone image B in the radiation imaging system according to this embodiment, the contrast of the soft tissue can be removed (reduced).

一方、造影剤の主成分はヨウ素であり、医療用デバイスの主成分はステンレス等の金属である。いずれも、骨の主成分であるカルシウムよりも原子番号が大きいため、骨画像Bには、骨と造影剤と医療用デバイスが表示される。 On the other hand, the main component of the contrast agent is iodine, and the main component of the medical device is a metal such as stainless steel. Both have a higher atomic number than calcium, the main component of bone, so bone image B shows the bone, contrast agent, and medical device.

本願発明者が検討を行ったところ、高エネルギー画像Hと低エネルギー画像Lとに基づいて、水画像Wと造影剤画像Iに分離するなどしても、造影剤画像Iに骨と造影剤と医療用デバイスが表示されていた。他の二物質の組み合わせであっても同様である。また、低エネルギーのX線と高エネルギーX線の管電圧やフィルタを変えても同様である。すなわち、いずれの場合にも、骨画像Bには、骨と造影剤と医療用デバイスが表示されることが確認され、造影剤や医療用デバイスを、骨画像Bから分離することはできなかった。 The inventors of the present application conducted an investigation and found that even when separating a water image W and a contrast agent image I based on a high-energy image H and a low-energy image L, the bone, contrast agent, and medical device were still displayed in the contrast agent image I. The same was true for other combinations of two substances. The same was also true when the tube voltages and filters for low-energy X-rays and high-energy X-rays were changed. That is, in all cases, it was confirmed that the bone image B displayed the bone, contrast agent, and medical device, and it was not possible to separate the contrast agent or medical device from the bone image B.

胸部の画像下治療(IVR)を行うときの肺野部分などのように、軟部組織のコントラストが視認性を低下させている場合は、本実施形態に係る放射線撮像システムにおける骨画像Bを表示することで、造影剤や医療用デバイスの視認性が向上する可能性がある。しかしながら、骨画像Bは蓄積画像Aよりもノイズが大きくなり、画質が劣化し得る。そこで、本実施形態では、エネルギーサブトラクション処理による分離後の画像についてノイズ低減処理を行う構成として、骨画像Bのノイズ低減処理を行う処理例について説明する。尚、以下の説明では、ノイズ低減処理された骨の厚み画像を求める例を説明するが、ノイズ低減処理された軟部組織の厚み画像を求める場合も同様に本実施形態を適用することが可能である。 In cases where the contrast of soft tissue reduces visibility, such as in the lung field during imaging-guided radiology (IVR) of the chest, displaying bone image B in the radiation imaging system according to this embodiment may improve the visibility of the contrast agent and medical devices. However, bone image B may have greater noise than accumulated image A, and image quality may deteriorate. Therefore, in this embodiment, a processing example of noise reduction processing of bone image B will be described as a configuration for performing noise reduction processing on an image separated by energy subtraction processing. Note that in the following description, an example of obtaining a noise-reduced bone thickness image will be described, but this embodiment can also be applied to obtaining a noise-reduced soft tissue thickness image.

(ノイズ低減処理)
信号処理部133は、被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う。信号処理部133は、複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された厚み画像と、複数の情報とを用いて、物質分離処理を行う。
(Noise reduction processing)
The signal processing unit 133 performs a material separation process for separating the image into thickness images of a plurality of materials using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and performing imaging. The signal processing unit 133 performs a material separation process using a thickness image that has been subjected to noise reduction processing using different parameters for a portion of pixels and other pixels specified based on information regarding the difference between the plurality of pieces of information, and the plurality of pieces of information.

信号処理部133は、複数の情報の差に関する情報を、第1の放射線画像Hおよび第2の放射線画像Lの差分により得られた情報と閾値との比較を行うことにより取得する。あるいは、信号処理部133は、複数の情報の差に関する情報を、第1の放射線画像Hおよび前記第2の放射線画像Lの除算により得られた情報と閾値との比較を行うことにより取得する。あるいは、信号処理部133は、複数の情報の差に関する情報を、第1の放射線画像Hの透過率および第2の放射線画像Lの透過率の比較を行うことにより取得する。 The signal processing unit 133 obtains information regarding the differences between the multiple pieces of information by comparing information obtained by subtracting the first radiographic image H and the second radiographic image L with a threshold value. Alternatively, the signal processing unit 133 obtains information regarding the differences between the multiple pieces of information by comparing information obtained by dividing the first radiographic image H and the second radiographic image L with a threshold value. Alternatively, the signal processing unit 133 obtains information regarding the differences between the multiple pieces of information by comparing the transmittance of the first radiographic image H with the transmittance of the second radiographic image L.

図10は、実施形態に係るノイズ低減処理を実現するための信号処理を説明するブロック図である。図9で示した厚みの連続性を利用することで、図6に示した信号処理で得られた画像(物質分離画像)のノイズを低減する構成について説明する。 Figure 10 is a block diagram illustrating signal processing for implementing noise reduction processing according to an embodiment. This explains a configuration for reducing noise in an image (material separation image) obtained by the signal processing shown in Figure 6 by utilizing the thickness continuity shown in Figure 9.

図6で示したエネルギーサブトラクションの信号処理と同様に、信号処理部133は、ブロックMD1において、補正部132から得られる複数の画像を用いて物質分離画像を生成する。すなわち、信号処理部133は、低エネルギーの透過率の画像Lと高エネルギーの透過率の画像Hから、骨の厚みの画像Bと軟部組織の厚みの画像Sを生成する。 Similar to the signal processing of energy subtraction shown in FIG. 6, the signal processing unit 133 generates a material separation image in block MD1 using multiple images obtained from the correction unit 132. That is, the signal processing unit 133 generates a bone thickness image B and a soft tissue thickness image S from an image L with low energy transmittance and an image H with high energy transmittance.

そして、信号処理部133は、ブロックC2において、骨の厚みの画像Bと軟部組織の厚みの画像Sとを加算した厚み画像Tを生成する。厚み画像Tは低エネルギーの透過率の画像Lや高エネルギーの透過率の画像Hよりもノイズが大きくなり、画質が劣化し得る。このため、フィルタ処理により厚み画像Tにおけるノイズを低減する。信号処理部133は、ブロックF1において、厚み画像Tに対してフィルタ処理を施し、ノイズが低減された厚み画像T'を生成する。 Then, in block C2, the signal processing unit 133 generates a thickness image T by adding the bone thickness image B and the soft tissue thickness image S. The thickness image T has more noise than the low-energy transmittance image L and the high-energy transmittance image H, and the image quality may deteriorate. For this reason, noise in the thickness image T is reduced by filtering. In block F1, the signal processing unit 133 applies filtering to the thickness image T to generate a thickness image T' with reduced noise.

信号処理部133は、ブロックC1において、低エネルギーの透過率の画像Lと高エネルギーの透過率の画像Hから、図8の説明と同様の方法で蓄積画像Aを生成する。信号処理部133は、高エネルギーにおける透過率の画像Hと低エネルギーにおける透過率の画像Lに係数をかけて加算することで、蓄積画像Aを生成する。次に、信号処理部133は、ブロックMD2において再分離を行う。すなわち、信号処理部133は、フィルタ処理後の厚みの画像T'と蓄積画像Aとから、ノイズ低減処理された骨の厚みの画像B'を生成する。 In block C1, the signal processing unit 133 generates an accumulated image A from the low-energy transmittance image L and the high-energy transmittance image H in a manner similar to that described in FIG. 8. The signal processing unit 133 generates the accumulated image A by multiplying the high-energy transmittance image H and the low-energy transmittance image L by a coefficient and adding them. Next, the signal processing unit 133 performs re-separation in block MD2. That is, the signal processing unit 133 generates a noise-reduced bone thickness image B' from the filtered thickness image T' and the accumulated image A.

低エネルギーと高エネルギーのX線の和の画像、すなわち蓄積画像AにおけるスペクトルをN(E)、軟部組織の厚みをS、骨の厚みをBとすると、以下の[数11]式が成り立つ。 If the spectrum of an image of the sum of low-energy and high-energy X-rays, i.e., accumulated image A, is N A (E), the thickness of the soft tissue is S, and the thickness of the bone is B, the following formula (11) holds.

Figure 2025023667000011
Figure 2025023667000011

ここで、軟部組織の厚みS及び骨の厚みBの厚みをTとすると、T=B+Sより、[数11]式を変形して以下の[数12]式が成り立つ。 Here, if the thickness of the soft tissue S and the thickness of the bone B are T, then T = B + S, and by transforming [Equation 11], the following [Equation 12] holds true.

Figure 2025023667000012
Figure 2025023667000012

ある画素における蓄積画像の画素値Aと厚み画像Tとを[数12]式に代入して非線形方程式を解くことで、ある画素における骨の厚み画像Bを求めることが可能である。このとき、厚み画像Tの代わりに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くと、ノイズ低減処理された骨の厚み画像B'が得られる。厚み画像Tは蓄積画像Aと比較して連続性が高いため高周波成分が含まれない。従って、フィルタ処理を行ってノイズを除去しても、信号成分が失われにくい。このようにしてノイズ低減処理された厚み画像T'と、元々ノイズが少ない蓄積画像Aを用いることで、ノイズ低減処理された骨の厚み画像B'を得ることができる。 By substituting pixel value A of the accumulated image at a certain pixel and thickness image T into equation (12) and solving the nonlinear equation, it is possible to obtain bone thickness image B at a certain pixel. In this case, by substituting thickness image T' after filtering into equation (12) instead of thickness image T and solving the nonlinear equation, a noise-reduced bone thickness image B' is obtained. Compared to accumulated image A, thickness image T has high continuity and does not contain high-frequency components. Therefore, even if noise is removed by filtering, signal components are unlikely to be lost. In this way, by using thickness image T' that has been subjected to noise reduction processing and accumulated image A, which originally has little noise, a noise-reduced bone thickness image B' can be obtained.

尚、[数12]式ではノイズ低減処理された骨の厚み画像B'を求める例を説明したが、ノイズ低減処理された軟部組織の厚み画像S'を求める場合も同様である。すなわち、信号処理部133は、フィルタの処理後の厚み画像T'と、複数の放射線画像(H、L)の加算に基づいて取得した蓄積画像Aとに基づいて、ノイズ低減処理された軟部組織の厚み画像S'を取得することができる。 Note that, although an example of obtaining a noise-reduced bone thickness image B' has been described in equation (12), the same applies to obtaining a noise-reduced soft tissue thickness image S'. That is, the signal processing unit 133 can obtain a noise-reduced soft tissue thickness image S' based on the thickness image T' after filtering and the accumulated image A obtained based on the addition of multiple radiation images (H, L).

すなわち、図10の信号処理のブロック図及び、図12式を用いた処理を行うことにより、信号処理部133は、フィルタの処理後の厚み画像T'と蓄積画像Aとに基づいて、第1の物質分離画像(骨の厚み画像B)に比べてノイズ低減処理された第1の物質の物質分離画像(骨の厚み画像B')を生成することが可能であり、また、信号処理部133は、第2の物質分離画像(軟部組織の厚み画像S)に比べてノイズ低減処理された第2の物質の物質分離画像(軟部組織の厚み画像S')を生成することが可能である。 That is, by performing processing using the signal processing block diagram of FIG. 10 and the formula of FIG. 12, the signal processing unit 133 can generate a material separation image of the first material (bone thickness image B') that has been subjected to noise reduction processing compared to the first material separation image (bone thickness image B) based on the thickness image T' after filtering and the accumulated image A, and the signal processing unit 133 can generate a material separation image of the second material (soft tissue thickness image S') that has been subjected to noise reduction processing compared to the second material separation image (soft tissue thickness image S).

図10で説明した、信号処理のブロックF1のフィルタ処理として、信号処理部133は、ガウシアンフィルタやイプシロンフィルタなどを用いることが可能である。 As the filter processing of the signal processing block F1 described in FIG. 10, the signal processing unit 133 can use a Gaussian filter, an epsilon filter, or the like.

信号処理部133は、ガウシアンフィルタのカーネルサイズを変更することにより設定した、一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理を行う。例えば、ガウシアンフィルタをフィルタ処理に用いる場合には、信号処理部133は、まずガウス分布の関数を用いて、フィルタの中心からの距離に応じた重みを計算し、ガウシアンフィルタのカーネルを生成する。さらに、ガウシアンフィルタのカーネルの全ての重みを足したときに1となるように正規化する。そして、厚み画像Tに対してガウシアンフィルタのカーネルを適用して、ノイズ低減後の厚み画像T'を生成すればよい。 The signal processing unit 133 performs noise reduction processing using parameters that are different between some pixels and other pixels, which are set by changing the kernel size of the Gaussian filter. For example, when using a Gaussian filter for filtering, the signal processing unit 133 first uses a Gaussian distribution function to calculate weights according to the distance from the center of the filter, and generates a Gaussian filter kernel. Furthermore, it normalizes the sum of all weights of the Gaussian filter kernel to be 1. Then, the Gaussian filter kernel is applied to the thickness image T to generate a thickness image T' after noise reduction.

信号処理部133は、イプシロンフィルタの閾値を変更することにより設定した、一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理を行う。例えば、イプシロンフィルタをフィルタ処理に用いる場合には、信号処理部133は、まずガウス分布の関数を用いて、中央からの距離に応じた重みを計算し、ガウシアンフィルタのカーネルを生成する。また、フィルタを適用する画素(注目画素)を選択し、厚み画像Tにおける注目画素とその周囲の画素の差分dを計算する。差分dが予め定めた閾値εを超えた場合、被写体の構造があると判定し、エッジ判定のカーネルの重みを0とする。差分dが予め定めた閾値εを下回る場合、被写体の構造がないと判定し、エッジ判定のカーネルの重みを1とする。次に、ガウシアンフィルタのカーネルとエッジ判定のカーネルをフィルタの要素ごとに乗算することで、イプシロンフィルタのカーネルを生成する。さらに、イプシロンフィルタカーネルの全ての重みを足したときに1となるように正規化する。そして、厚み画像Tに対してイプシロンフィルタのカーネルを適用して、ノイズ低減後の厚み画像T'を生成すればよい。 The signal processing unit 133 performs noise reduction processing using parameters that are different between some pixels and other pixels, which are set by changing the threshold value of the epsilon filter. For example, when using an epsilon filter for filtering, the signal processing unit 133 first uses a Gaussian distribution function to calculate a weight according to the distance from the center, and generates a Gaussian filter kernel. In addition, a pixel to which the filter is applied (a pixel of interest) is selected, and a difference d between the pixel of interest and its surrounding pixels in the thickness image T is calculated. If the difference d exceeds a predetermined threshold ε, it is determined that there is a structure of the subject, and the weight of the edge determination kernel is set to 0. If the difference d is below a predetermined threshold ε, it is determined that there is no structure of the subject, and the weight of the edge determination kernel is set to 1. Next, the kernel of the Gaussian filter and the kernel of the edge determination are multiplied for each element of the filter to generate an epsilon filter kernel. Furthermore, the weights of all the epsilon filter kernels are normalized so that the sum of the weights is 1. Then, the kernel of the epsilon filter is applied to the thickness image T to generate a thickness image T' after noise reduction.

なお、信号処理部133は、[数12]式の演算処理結果を内部メモリのテーブルに予め記憶しておき、[数12]式の演算処理の際にテーブルを参照することで、フィルタの処理後の厚み画像T'及び蓄積画像Aに対応する骨の厚み画像B'(軟部組織の厚み画像S')を取得することが可能である。これにより、信号処理部133は、静止画撮影の他、画像下治療(IVR)のような動画撮影においても、ノイズ低減処理された各物質の物質分離画像(B'、S')を短時間で取得することが可能になる。 The signal processing unit 133 stores the calculation results of equation (12) in a table in its internal memory in advance, and by referring to the table during calculation of equation (12), it is possible to obtain the thickness image T' after filtering and the bone thickness image B' (soft tissue thickness image S') corresponding to the accumulated image A. This makes it possible for the signal processing unit 133 to obtain noise-reduced material separation images (B', S') of each material in a short time, not only for still image capture, but also for video capture such as imaging-guided therapy (IVR).

表示制御部135は、ノイズ低減処理された、第1の物質の厚み画像(骨の厚み画像B')及び第1の物質とは異なる第2の物質の厚み画像(軟部組織の厚み画像S')のうち少なくともいずれか一方を、表示装置137に表示させる表示制御を行う。表示制御部135は、操作装置138を介し入力される指示に基づいて、表示装置137に表示させる画像(骨の厚み画像B'または軟部組織の厚み画像S')を切り替える表示制御、または、両画像(骨の厚み画像B'及び軟部組織の厚み画像S')を並べて表示させる表示制御を行う。 The display control unit 135 performs display control to display at least one of the noise-reduced thickness image of the first material (bone thickness image B') and the thickness image of the second material different from the first material (soft tissue thickness image S') on the display device 137. Based on an instruction input via the operation device 138, the display control unit 135 performs display control to switch the image to be displayed on the display device 137 (bone thickness image B' or soft tissue thickness image S'), or to display both images (bone thickness image B' and soft tissue thickness image S') side by side.

記憶部136には、図10のブロック図のフィルタ処理F1で用いるフィルタパラメータが予め記憶されている。記憶部136に記憶されているフィルタパラメータは撮影条件(曝射条件)に応じて最適化されたフィルタパラメータである。フィルタ処理F1では、撮影条件に応じてフィルタパラメータが記憶部136から取得される。 The storage unit 136 stores in advance the filter parameters used in the filter process F1 in the block diagram of FIG. 10. The filter parameters stored in the storage unit 136 are filter parameters optimized according to the imaging conditions (exposure conditions). In the filter process F1, the filter parameters are acquired from the storage unit 136 according to the imaging conditions.

画像下治療(IVR)における被写体の撮影において、操作者は、表示装置137の表示を見ながら、操作装置138を介した指示によりフィルタパラメータの調整を行うことが可能である。撮影条件に応じて設定された、ノイズ低減処理におけるパラメータは、操作装置138を介した指示により調整することが可能である。表示制御部135は、調整されたパラメータに基づいてノイズ低減処理された画像を表示装置137に表示させる表示制御を行う。 When imaging a subject for imaging-guided therapy (IVR), the operator can adjust filter parameters by issuing instructions via the operation device 138 while viewing the display on the display device 137. Parameters for noise reduction processing set according to imaging conditions can be adjusted by issuing instructions via the operation device 138. The display control unit 135 performs display control to display on the display device 137 an image that has been subjected to noise reduction processing based on the adjusted parameters.

(モーションアーチファクトの低減処理の説明)
図11は、本実施形態で解決しようとしているモーションアーチファクト(エネルギーサブトラクションのモーションアーチファクト)を例示的に説明する図である。ここでは、高エネルギーの透過率の画像Hと低エネルギーの透過率の画像Lとから骨画像Bを生成する場合を例示的に説明する。前提として、高エネルギーの透過率の画像H、低エネルギーの透過率の画像Lは、図4の駆動タイミングで取得しているものとする。ここでは、画像下治療(IVR)における被写体の撮影を例とするもので、被写体は骨、軟部組織、ワイヤーである。骨画像Bは軟部組織が分離され、骨とワイヤーのみの画像となる。
(Description of Motion Artifact Reduction Processing)
FIG. 11 is a diagram for illustratively explaining a motion artifact (motion artifact of energy subtraction) that is to be solved in this embodiment. Here, an example will be described in which a bone image B is generated from an image H with high energy transmittance and an image L with low energy transmittance. As a premise, the image H with high energy transmittance and the image L with low energy transmittance are acquired at the drive timing of FIG. 4. Here, an example is taken of an image of a subject in interventional radiology (IVR), where the subject is bone, soft tissue, and wire. The soft tissue is separated from the bone image B, and the image is only of the bone and wire.

この例において画像取得時にワイヤーが一定以上のはやさで動いた場合、高エネルギーの透過率の画像Hと低エネルギーの透過率の画像Lとでワイヤーの領域は変化し得る。図4の駆動タイミングでは、高エネルギーのX線402の蓄積時間に比べて、低エネルギーのX線401、403の蓄積時間は前後に長い期間が設定されているため、図11のように低エネルギーの透過率の画像Lはワイヤーがブレたような(太くなった)画像になる。すなわち、高エネルギーの透過率の画像Hと低エネルギーの透過率の画像Lとで被写体の座標の不一致が生じ得る。 In this example, if the wire moves at a certain speed or faster during image acquisition, the wire area may change between the high-energy transmittance image H and the low-energy transmittance image L. In the drive timing of FIG. 4, the accumulation times of the low-energy X-rays 401 and 403 are set to be longer before and after compared to the accumulation time of the high-energy X-rays 402, so that the low-energy transmittance image L appears as an image with a blurred (thickened) wire, as shown in FIG. 11. In other words, a mismatch in the coordinates of the subject may occur between the high-energy transmittance image H and the low-energy transmittance image L.

図6で示したエネルギーサブトラクションの信号処理では、高エネルギー画像Hと低エネルギー画像Lの全画素に対し、同じ座標の画素値をそれぞれ参照し計算が行われる。したがって、不一致が生じた座標の画素では図6の信号処理が正しく行われない。信号処理が正しく行われない画素では図11の骨画像Bのようなモーションアーチファクトが生じ得る。モーションアーチファクトは高い画素出力を示し、画像上では被写体の輪郭に沿った輝点となる。その結果、ちらつきのような画像違和感となり画質を低下させ得る。 In the signal processing of energy subtraction shown in Figure 6, calculations are performed by referencing the pixel values of the same coordinates for all pixels in the high-energy image H and the low-energy image L. Therefore, the signal processing in Figure 6 is not performed correctly for pixels with coordinates where a mismatch occurs. Pixels for which signal processing is not performed correctly can result in motion artifacts such as bone image B in Figure 11. Motion artifacts indicate high pixel output, and appear as bright spots along the contours of the subject on the image. This can result in an unnatural image, such as flickering, which can reduce image quality.

本願発明者が検討したところ、図10で説明したフィルタ処理F1のフィルタパラメータを調整するとモーションアーチファクトが低減することが分かった。 The inventors of the present application have found that adjusting the filter parameters of the filter process F1 described in Figure 10 reduces motion artifacts.

フィルタパラメータとしては、例えば、カーネルサイズや被写体の構造判定を行うための閾値εなどがある。カーネルサイズを大きくする、すなわち、構造判定の閾値を高くすると、モーションアーチファクトが低減する。しかしながら、モーションアーチファクト用に全画素に対してフィルタパラメータを変更すると、画像全体のノイズ低減効果が低下しすぎるために画質が劣化し得る。通常、フィルタパラメータはノイズ低減に適した、画質に対して最適な値を用いるためである。そこで、本実施形態ではモーションアーチファクトが発生した画素を検知し、検知した画素のフィルタパラメータを変更する。 Examples of filter parameters include the kernel size and a threshold value ε for determining the structure of the subject. Increasing the kernel size, i.e., raising the threshold value for determining the structure, reduces motion artifacts. However, changing the filter parameters for all pixels for motion artifacts can result in a deterioration in image quality because the noise reduction effect for the entire image is too low. This is because filter parameters are typically set to values that are optimal for image quality and suitable for noise reduction. Therefore, in this embodiment, pixels in which motion artifacts have occurred are detected, and the filter parameters for the detected pixels are changed.

図12は、本実施形態に係る画素のフィルタパラメータを変更する処理の流れを説明する図であり、図13は、本実施形態に係るモーションアーチファクトの検知画像Mを例示する図である。 Figure 12 is a diagram explaining the process flow for changing pixel filter parameters according to this embodiment, and Figure 13 is a diagram illustrating a motion artifact detection image M according to this embodiment.

S1201において、信号処理部133は、モーションアーチファクトが発生した画素の座標(位置)を示す検知画像Mを生成(取得)する。信号処理部133は、一例として、高エネルギーの透過率の第1の放射線画像H及び低エネルギーの透過率の第2の放射線画像Lの差分により得られた情報と閾値との比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。あるいは、信号処理部133は、第1の放射線画像Hおよび第2の放射線画像Lの除算により得られた情報と閾値との比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。あるいは、信号処理部133は、第1の放射線画像Hの透過率および第2の放射線画像Lの透過率の比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。信号処理部133は、上記の処理により特定した一部の画素を、モーションアーチファクトが検知された画素として設定した検知画像Mを取得する。 In S1201, the signal processing unit 133 generates (acquires) a detection image M indicating the coordinates (position) of a pixel where a motion artifact has occurred. As an example, the signal processing unit 133 can identify a pixel where a motion artifact has occurred by comparing information obtained by subtracting the first radiographic image H with a high energy transmittance and the second radiographic image L with a low energy transmittance with a threshold value. Alternatively, the signal processing unit 133 can identify a pixel where a motion artifact has occurred by comparing information obtained by dividing the first radiographic image H and the second radiographic image L with a threshold value. Alternatively, the signal processing unit 133 can identify a pixel where a motion artifact has occurred by comparing the transmittance of the first radiographic image H with the transmittance of the second radiographic image L. The signal processing unit 133 acquires a detection image M in which some of the pixels identified by the above process are set as pixels where a motion artifact has been detected.

次に、S1202で、信号処理部133は、検知画像Mに基づいて、信号処理におけるフィルタ処理F1において、各画素のモーションアーチファクトの発生有無を判定する。信号処理部133は、フィルタ処理F1(ノイズ低減処理)に入力された厚み画像Tの各画素と検知画像Mに設定されている画素(画素の位置情報)との比較により、厚み画像Tにおいてモーションアーチファクトが検知されている画素の位置を特定する。すなわち、フィルタ処理F1の入力画像は厚み画像Tであり、信号処理部133は、厚み画像Tの各画素に対して、モーションアーチファクトが検知されているか否かを判定する。信号処理部133は、厚み画像Tの各画素に対応する検知画像Mの画素値に基づいて、モーションアーチファクトが検知されているか否かを判定する。 Next, in S1202, the signal processing unit 133 determines whether or not a motion artifact has occurred for each pixel in the filter process F1 in the signal processing based on the detection image M. The signal processing unit 133 identifies the position of a pixel in the thickness image T where a motion artifact has been detected by comparing each pixel of the thickness image T input to the filter process F1 (noise reduction process) with the pixel (pixel position information) set in the detection image M. That is, the input image of the filter process F1 is the thickness image T, and the signal processing unit 133 determines whether or not a motion artifact has been detected for each pixel of the thickness image T. The signal processing unit 133 determines whether or not a motion artifact has been detected based on the pixel value of the detection image M corresponding to each pixel of the thickness image T.

以下の処理において、信号処理部133は、モーションアーチファクトが検知されている画素として特定された一部の画素(検知画素)に対して第1のフィルタパラメータを用いたノイズ低減処理を行い、他の画素(未検知画素)に対して、第1のフィルタパラメータよりも小さい第2のフィルタパラメータを用いてノイズ低減処理を行う。 In the following processing, the signal processing unit 133 performs noise reduction processing using a first filter parameter on some pixels (detected pixels) identified as pixels in which motion artifacts are detected, and performs noise reduction processing using a second filter parameter smaller than the first filter parameter on the other pixels (undetected pixels).

S1202の判定処理で、モーションアーチファクト検知の場合(S1202-検知)、S1203において、信号処理部133は、該当画素に対してモーションアーチファクト低減用のフィルタパラメータ(第1のフィルタパラメータ)を用いてフィルタ処理を行う。一方、S1202の判定処理で、モーションアーチファクト未検知の場合(S1202-未検知)、S1204において、信号処理部133は、通常のフィルタ処理で用いるフィルタパラメータ(第2のフィルタパラメータ)を用いてフィルタ処理を行う。 If a motion artifact is detected in the determination process of S1202 (S1202-detected), in S1203 the signal processing unit 133 performs filtering on the relevant pixel using filter parameters for reducing motion artifacts (first filter parameters). On the other hand, if a motion artifact is not detected in the determination process of S1202 (S1202-not detected), in S1204 the signal processing unit 133 performs filtering on the relevant pixel using filter parameters (second filter parameters) used in normal filtering.

検知画像Mを用いた判定処理を厚み画像Tの全画素に適用することで、ノイズ低減後の厚み画像T'を取得する(S1204)。さらに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くことで、モーションアーチファクトを低減しつつ、ノイズ低減処理された骨の厚み画像B'が得られる。 A noise-reduced thickness image T' is obtained by applying the determination process using the detection image M to all pixels of the thickness image T (S1204). Furthermore, a noise-reduced thickness image B' of the bone is obtained by substituting the filtered thickness image T' into equation (12) and solving the nonlinear equation while reducing motion artifacts.

図13に示すように、モーションアーチファクトの検知画像Mは、モーションアーチファクトが発生した座標(位置情報)を示す画像である。モーションアーチファクトの検知画像Mの画素値は、検知画素を識別する情報として「1」、未検知画素を識別する情報として「0」の2値に割り当てる等、検知画素/未検知画素を明確に区別する。なお、検知画像Mにおける画素値の割り当ては、「1」、「0」の2値に限られず、検知画素と、未検知画素とを識別できる識別情報であればよい。 As shown in FIG. 13, the motion artifact detection image M is an image showing the coordinates (position information) where the motion artifact occurred. The pixel values of the motion artifact detection image M are assigned binary values of "1" to identify a detected pixel and "0" to identify an undetected pixel, to clearly distinguish between detected pixels and undetected pixels. Note that the assignment of pixel values in the detection image M is not limited to the binary values of "1" and "0", and may be any identification information that can identify a detected pixel from an undetected pixel.

モーションアーチファクトの検知画像Mは、例えば高エネルギーの透過率の画像H及び低エネルギーの透過率の画像Lの間で減算(差分)を行い、差分により得られた情報に対して、閾値との比較(閾値判定)を行うことで生成してもよい。この他、モーションアーチファクトの検知画像Mは、例えば高エネルギーの透過率の画像H及び低エネルギーの透過率の画像Lの間で除算を行い、除算により得られた情報に対して、閾値との比較(閾値判定)を行うことで、図13のモーションアーチファクトの検知画像Mと同様の画像を生成することができる。閾値判定において、所定の閾値を越えた画素をモーションアーチファクト発生画素として登録する。なお、所定の閾値の設定は、操作装置138を介して行うことが可能である。高エネルギーの画像Hの透過率は、低エネルギーの画像Lの透過率に比べて高くなり得る。高エネルギーの透過率の画像H及び低エネルギーの透過率の画像Lの間で除算を行う場合、上限側の閾値を設定するか、下限側の閾値を設定するかを切り替えることにより、画像H/画像Lによる除算を行ってもよいし、画像L/画像Hによる除算を行ってもよい。 The motion artifact detection image M may be generated by, for example, performing subtraction (difference) between the image H with high energy transmittance and the image L with low energy transmittance, and comparing the information obtained by the subtraction with a threshold (threshold judgment). In addition, the motion artifact detection image M may be generated by, for example, performing division between the image H with high energy transmittance and the image L with low energy transmittance, and comparing the information obtained by the division with a threshold (threshold judgment), to generate an image similar to the motion artifact detection image M in FIG. 13. In the threshold judgment, pixels that exceed a predetermined threshold are registered as motion artifact occurrence pixels. The predetermined threshold can be set via the operation device 138. The transmittance of the high energy image H may be higher than that of the low energy image L. When performing division between the image H with high energy transmittance and the image L with low energy transmittance, division by image H/image L or image L/image H may be performed by switching between setting an upper limit threshold or a lower limit threshold.

本実施形態において、異常画素とは、本来あり得ない値(絶対値)を示す画素をいう。高エネルギー画像H(第1の放射線画像)の透過率および低エネルギー画像L(第2の放射線画像)の透過率の比較を行い、例えば、高エネルギー画像Hの透過率(ゲイン補正後の画素値)が低エネルギー画像Lの透過率(ゲイン補正後の画素値)を下回るような異常画素値を示す画素を、モーションアーチファクトが検知された画素(モーションアーチファクト検知画素)として登録してもよい。 In this embodiment, an abnormal pixel refers to a pixel that exhibits an impossible value (absolute value). The transmittance of the high-energy image H (first radiographic image) and the transmittance of the low-energy image L (second radiographic image) are compared, and a pixel exhibiting an abnormal pixel value, for example, where the transmittance (pixel value after gain correction) of the high-energy image H is lower than the transmittance (pixel value after gain correction) of the low-energy image L, may be registered as a pixel in which a motion artifact is detected (motion artifact detection pixel).

通常、高エネルギー画像Hの透過率は低エネルギー画像Lの透過率に比べて高くなる。しかし、被写体の座標の不一致が生じた場合はその限りではなく、低エネルギー画像Lの透過率の方が高エネルギー画像Hの透過率に比べて高くなる場合がある。そういった、モーションアーチファクトが発生している可能性の高い異常な画素値を示す画素をモーションアーチファクト検知画素として登録してもよい。 Normally, the transmittance of the high-energy image H is higher than that of the low-energy image L. However, this is not the case when a mismatch occurs in the coordinates of the subject, and the transmittance of the low-energy image L may be higher than that of the high-energy image H. Such pixels that show abnormal pixel values that are likely to indicate the occurrence of motion artifacts may be registered as motion artifact detection pixels.

また、モーションアーチファクトを検知するための検知画像Mは、高エネルギーの透過率の画像H、低エネルギーの透過率の画像L以外の画像を用いて取得(生成)してもよい。例えば、図10のノイズ低減前の骨画像Bや軟部組織の厚み画像Sを用いてもよい。あるいは、フィルタパラメータの調整を行わずにノイズ低減処理後の骨画像B'を一度生成し、モーションアーチファクト検知画像Mを生成してもよい。このときのモーションアーチファクトの検知方法として、画素の差分について閾値判定を行うことや、異常画素値判定をすること等が挙げられる。ここで、異常画素値判定では、例えば、画像単体として、ノイズ低減前の骨画像Bや軟部組織の厚み画像Sやノイズ低減処理後の骨画像B'に着目し、骨や軟部組織の厚みが負の値を示すなど、通常では有りえない値を示す画素を異常画素と判定してもよい。画素の差分を用いた閾値判定では閾値の設定等により異常検出できない場合も生じ得るが、異常画素値判定によれば、画像単体から取得できる情報を用いて、本来あり得ない値(絶対値)を示す画素を検出することができる。 The detection image M for detecting motion artifacts may be obtained (generated) using an image other than the high-energy transmittance image H and the low-energy transmittance image L. For example, the bone image B before noise reduction or the soft tissue thickness image S in FIG. 10 may be used. Alternatively, the bone image B' after noise reduction may be generated once without adjusting the filter parameters, and the motion artifact detection image M may be generated. In this case, the motion artifact detection method may include performing a threshold judgment on the pixel difference or performing an abnormal pixel value judgment. Here, in the abnormal pixel value judgment, for example, the bone image B before noise reduction, the soft tissue thickness image S, and the bone image B' after noise reduction may be focused on as an image alone, and a pixel showing an abnormal value, such as a negative value for the thickness of the bone or soft tissue, may be judged as an abnormal pixel. In the threshold judgment using the pixel difference, there may be cases where an abnormality cannot be detected due to the threshold setting, etc., but according to the abnormal pixel value judgment, a pixel showing an impossible value (absolute value) can be detected using information that can be obtained from the image alone.

本実施形態によれば、ノイズの増加を抑制しつつ、モーションアーチファクトを低減したエネルギーサブトラクション画像を取得することができ、優れた画質の画像を取得することが可能になる。 According to this embodiment, it is possible to obtain energy subtraction images with reduced motion artifacts while suppressing an increase in noise, making it possible to obtain images with excellent image quality.

(第2実施形態)
第2実施形態では、フィルタ処理のフィルタパラメータを複数パターン(例えば、3パターン)以上に拡張することで、モーションアーチファクトを低減しつつノイズを低減し、さらに画像違和感を低減した骨画像(エネルギーサブトラクション画像)を生成する構成について説明する。第2実施形態は、図10の信号処理までは、第1実施形態と同様である。ただし、第2実施形態では、図10の信号処理において、ブロックF1のフィルタ処理の内容が異なる。
Second Embodiment
In the second embodiment, a configuration will be described in which the filter parameters of the filter processing are expanded to a plurality of patterns (e.g., three patterns) or more, thereby reducing motion artifacts and noise, and generating a bone image (energy subtraction image) with reduced image discomfort. The second embodiment is similar to the first embodiment up to the signal processing of Fig. 10. However, in the second embodiment, the content of the filter processing of block F1 in the signal processing of Fig. 10 is different.

以下の処理において、信号処理部133は、一部の画素(検知画素)に対して第1のフィルタパラメータを用いたノイズ低減処理を行い、他の画素(未検知画素)に対して、第1のフィルタパラメータよりも小さい第2のフィルタパラメータを用いてノイズ低減処理を行う。本実施形態では、他の画素(未検知画素)のうち、一部の画素(検知画素)の位置を基準として所定の範囲に位置する周辺画素に対して、第1のフィルタパラメータよりも小さく、かつ、第2のフィルタパラメータよりも大きい、第3のフィルタパラメータを用いてノイズ低減処理を行う。 In the following processing, the signal processing unit 133 performs noise reduction processing using a first filter parameter for some pixels (detection pixels), and performs noise reduction processing using a second filter parameter smaller than the first filter parameter for other pixels (undetection pixels). In this embodiment, noise reduction processing is performed using a third filter parameter smaller than the first filter parameter and larger than the second filter parameter for peripheral pixels located within a predetermined range based on the position of the some pixels (detection pixels) among the other pixels (undetection pixels).

図14は、第2実施形態に係る画素のフィルタパラメータを変更する処理の流れを説明する図であり、図15は、第2実施形態に係るモーションアーチファクトの検知画像Mを例示する図である。 FIG. 14 is a diagram explaining the flow of processing for changing pixel filter parameters according to the second embodiment, and FIG. 15 is a diagram illustrating an example of a motion artifact detection image M according to the second embodiment.

S1401において、信号処理部133は、モーションアーチファクトが発生した画素の座標(位置)およびその周辺に位置する周辺画素の座標(位置)を示す検知画像Mを生成する。本実施形態において、周辺画素の座標(位置)の特定は、例えば、図13で説明したように、検知画素、及び未検知画素に分けたのち、検知画素の位置を基準として、例えば、検知画素に対する画素の座標情報や位置情報を用いて、検知画素から所定の範囲に位置する周辺画素を特定するものである。 In S1401, the signal processing unit 133 generates a detection image M showing the coordinates (position) of a pixel where a motion artifact has occurred and the coordinates (positions) of surrounding pixels located therearound. In this embodiment, the coordinates (positions) of the surrounding pixels are identified by, for example, dividing the pixels into detected pixels and undetected pixels as described in FIG. 13, and then using the position of the detected pixel as a reference, identifying surrounding pixels located within a predetermined range from the detected pixel, for example, using pixel coordinate information and position information for the detected pixel.

ここで、周辺画素には、モーションアーチファクトが発生した画素の座標(位置)に隣接する位置の隣接画素や、隣接画素を含む所定の範囲内に位置する画素が含まれ得る。所定の範囲は、検知画素(一部の画素)に対して隣接する位置の画素を少なくとも含む位置情報として、操作装置138を介して調整可能である。隣接画素を含む所定の範囲を示す情報(検知画素に対する座標情報や位置情報)を、例えば、操作装置138を介して予め記憶部136に記憶しておき、検知画像Mを生成する際に、記憶部136を参照して、モーションアーチファクトが検知された画素(検知画素)の周辺に位置する周辺画素の座標(位置)を特定するようにしてもよい。あるいは、操作者が表示装置137に表示された画像を見て、操作装置138を介して所定の範囲を示す情報(検知画素に対する座標情報や位置情報)を調整することが可能である。隣接画素を含む所定の範囲の設定を変えることにより、周辺画素の範囲を調整することができる。 Here, the surrounding pixels may include adjacent pixels adjacent to the coordinates (position) of the pixel where the motion artifact occurs, or pixels located within a predetermined range including the adjacent pixels. The predetermined range can be adjusted via the operation device 138 as position information including at least pixels adjacent to the detection pixel (part of the pixels). Information indicating the predetermined range including the adjacent pixels (coordinate information or position information for the detection pixel) may be stored in advance in the storage unit 136 via the operation device 138, for example, and when generating the detection image M, the storage unit 136 may be referenced to identify the coordinates (positions) of the surrounding pixels located around the pixel where the motion artifact was detected (detection pixel). Alternatively, the operator can view the image displayed on the display device 137 and adjust the information indicating the predetermined range (coordinate information or position information for the detection pixel) via the operation device 138. The range of the surrounding pixels can be adjusted by changing the setting of the predetermined range including the adjacent pixels.

モーションアーチファクトが発生した画素の特定は第1実施形態の処理(S1201)と同様であり、信号処理部133は、一例として、高エネルギーの透過率の第1の放射線画像H及び低エネルギーの透過率の第2の放射線画像Lの差分により得られた情報と閾値との比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。あるいは、信号処理部133は、第1の放射線画像Hおよび第2の放射線画像Lの除算により得られた情報と閾値との比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。あるいは、信号処理部133は、第1の放射線画像Hの透過率および第2の放射線画像Lの透過率の比較を行うことにより、モーションアーチファクトが発生した画素を特定することができる。 Identification of pixels where motion artifacts have occurred is similar to the process (S1201) of the first embodiment, and the signal processing unit 133 can, for example, identify pixels where motion artifacts have occurred by comparing information obtained by subtracting the first radiographic image H with a high energy transmittance and the second radiographic image L with a low energy transmittance with a threshold value. Alternatively, the signal processing unit 133 can identify pixels where motion artifacts have occurred by comparing information obtained by dividing the first radiographic image H and the second radiographic image L with a threshold value. Alternatively, the signal processing unit 133 can identify pixels where motion artifacts have occurred by comparing the transmittance of the first radiographic image H with the transmittance of the second radiographic image L.

信号処理部133は、モーションアーチファクトが検知された画素(検知画素)に対して、検知画素を識別する情報として画素値「2」を設定する。また、差分と所定の閾値との比較により、モーションアーチファクトが検知されていない画素(未検知画素)に対して、未検知画素を識別する情報として画素値「0」を設定する。そして、信号処理部133は、モーションアーチファクトが検知された画素(検知画素)の周辺に位置する周辺画素の座標(位置)を特定し、周辺画素を識別する情報として画素値「1」を設定する。 The signal processing unit 133 sets a pixel value of "2" for pixels where a motion artifact is detected (detection pixels) as information for identifying the detection pixels. In addition, by comparing the difference with a predetermined threshold, the signal processing unit 133 sets a pixel value of "0" for pixels where a motion artifact is not detected (undetected pixels) as information for identifying the undetected pixels. The signal processing unit 133 then identifies the coordinates (positions) of surrounding pixels located around the pixel where a motion artifact is detected (detection pixels), and sets a pixel value of "1" as information for identifying the surrounding pixels.

次に、S1402で、信号処理部133は、検知画像Mに基づいて、信号処理におけるフィルタ処理F1において、各画素のモーションアーチファクトの発生有無を判定する。信号処理部133は、フィルタ処理F1(ノイズ低減処理)に入力された厚み画像Tの各画素と検知画像Mに設定されている画素(画素の位置情報)との比較により、厚み画像Tにおいてモーションアーチファクトが検知されている画素の位置を特定する。 Next, in S1402, the signal processing unit 133 determines whether or not a motion artifact occurs at each pixel in the filter process F1 in the signal processing based on the detection image M. The signal processing unit 133 identifies the position of a pixel in the thickness image T where a motion artifact is detected by comparing each pixel of the thickness image T input to the filter process F1 (noise reduction process) with the pixel (pixel position information) set in the detection image M.

フィルタ処理F1の入力画像は厚み画像Tであり、信号処理部133は、厚み画像Tの各画素に対して、モーションアーチファクトが検知されているか否かを判定する。第2実施形態ではモーションアーチファクトの検知画像Mを用いた判定処理が3パターンに分岐する。図14及び図15の例において、第1のパターンは、モーションアーチファクトを検知した検知画素に対してフィルタ処理を行うパターン(S1403)である。また、第2のパターンは、周辺画素に対してフィルタ処理を行うパターン(S1406)であり、第3のパターンは、その他の画素に対してフィルタ処理を行うパターン(S1407)である。 The input image for the filter process F1 is a thickness image T, and the signal processing unit 133 determines whether or not a motion artifact is detected for each pixel of the thickness image T. In the second embodiment, the determination process using the motion artifact detection image M branches into three patterns. In the examples of Figures 14 and 15, the first pattern is a pattern (S1403) in which a filter process is performed on a detection pixel in which a motion artifact is detected. The second pattern is a pattern (S1406) in which a filter process is performed on surrounding pixels, and the third pattern is a pattern (S1407) in which a filter process is performed on other pixels.

S1402の判定処理で、モーションアーチファクト検知の場合(S1402-検知)、S1403において、信号処理部133は、該当画素に対してモーションアーチファクト低減用のフィルタパラメータ(第1のフィルタパラメータ)を用いてフィルタ処理を行う。 If a motion artifact is detected in the determination process of S1402 (S1402-detected), in S1403, the signal processing unit 133 performs filtering on the corresponding pixel using filter parameters for reducing motion artifacts (first filter parameters).

一方、S1402の判定処理で、モーションアーチファクト未検知の場合(S1402-未検知)、S1205において、信号処理部133は、該当画素は検知画素の周辺に位置する周辺画素か否かを判定する。 On the other hand, if a motion artifact is not detected in the determination process of S1402 (S1402-not detected), in S1205, the signal processing unit 133 determines whether the corresponding pixel is a surrounding pixel located in the vicinity of the detected pixel.

S1405の判定処理で、該当画素が検知画素の周辺に位置する周辺画素である場合(S1405-YES)、S1406において、信号処理部133は、該当画素に対して中間フィルタパラメータ(第3のフィルタパラメータ)を用いてフィルタ処理を行う。 If the determination process of S1405 determines that the pixel in question is a peripheral pixel located in the vicinity of the detected pixel (S1405-YES), then in S1406, the signal processing unit 133 performs filtering on the pixel in question using the intermediate filter parameters (third filter parameters).

ここで、中間フィルタパラメータ(第3のフィルタパラメータ)とは、ノイズ低減特性が、モーションアーチファクト低減用のフィルタパラメータ(第1のフィルタパラメータ)のノイズ低減特性よりも低く、通常のフィルタ処理で用いるフィルタパラメータ(第2のフィルタパラメータ)のノイズ低減特性よりも高いノイズ低減特性を有するフィルタパラメータである。中間フィルタパラメータ(第3のフィルタパラメータ)は、モーションアーチファクト低減用のフィルタパラメータ(第1のフィルタパラメータ)と通常のフィルタ処理で用いるフィルタパラメータ(第2のフィルタパラメータ)とは異なる値のフィルタパラメータであり、その値はモーションアーチファクト低減用パラメータ(第1のフィルタパラメータ)と通常のフィルタ処理で用いるフィルタパラメータ(第2のフィルタパラメータ)との間の値を用いることが好ましい。 Here, the intermediate filter parameter (third filter parameter) is a filter parameter having a noise reduction characteristic lower than that of the filter parameter for motion artifact reduction (first filter parameter) and higher than that of the filter parameter for normal filter processing (second filter parameter). The intermediate filter parameter (third filter parameter) is a filter parameter having a value different from that of the filter parameter for motion artifact reduction (first filter parameter) and the filter parameter for normal filter processing (second filter parameter), and it is preferable to use a value between that of the parameter for motion artifact reduction (first filter parameter) and the filter parameter for normal filter processing (second filter parameter).

一方、S1405の判定処理において、該当画素が検知画素の周辺に位置する周辺画素でない場合(S1405-NO)、S1407において、信号処理部133は、該当画素に対して通常のフィルタ処理で用いるフィルタパラメータ(第2のフィルタパラメータ)を用いてフィルタ処理を行う。 On the other hand, if it is determined in the determination process of S1405 that the pixel in question is not a surrounding pixel located in the vicinity of the detected pixel (S1405-NO), in S1407, the signal processing unit 133 performs filtering on the pixel in question using the filter parameters (second filter parameters) used in normal filtering.

図15に示すように、モーションアーチファクトの検知画像Mは、モーションアーチファクトが発生した座標(位置情報)を示す画像である。モーションアーチファクトの検知画像Mの画素値は、検知画素の画素値を「2」、未検知かつ検知画素の周辺に位置する周辺画素の画素値を「1」、その他の画素の画素値を「0」の3値に割り当てる等して、検知画素/未検知かつ検知画素の周辺に位置する周辺画素/その他の画素を明確に区別する。 As shown in FIG. 15, the motion artifact detection image M is an image showing the coordinates (position information) where the motion artifact occurred. The pixel values of the motion artifact detection image M are assigned three values: the pixel value of the detected pixel is "2", the pixel value of the undetected surrounding pixels around the detected pixel is "1", and the pixel value of the other pixels is "0", to clearly distinguish between the detected pixel, the undetected surrounding pixels around the detected pixel, and the other pixels.

信号処理部133は、検知画像Mを用いた判定処理を厚み画像Tの全画素に適用することで、ノイズ低減後の厚み画像T'を取得する(S1404)。 The signal processing unit 133 applies the determination process using the detection image M to all pixels of the thickness image T to obtain a noise-reduced thickness image T' (S1404).

さらに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くことで、モーションアーチファクトを低減しつつ、ノイズ低減され、更に画像の違和感を低減した骨の厚み画像B'が得られる。 Furthermore, by substituting the filtered thickness image T' into equation [12] and solving the nonlinear equation, a bone thickness image B' is obtained that has reduced noise and motion artifacts, and further reduces the sense of incongruity in the image.

なお、図14、図15の説明では、3つのフィルタパラメータを使用する例を示したが、開示の技術は、この例に限られず、フィルタパラメータを4つ以上に増やしてもよい。本実施形態では、モーションアーチファクト未検知の画素を2パターン(S1406、S1407)に分岐しているが、開示の技術は、この例に限られない。例えば、該当画素についてモーションアーチファクトの発生が検知された場合(S1402-検知)、モーションアーチファクトを検知した画素に対して、例えば、複数の検知閾値を用いるなどして処理を分岐するようにしてもよい。 Note that in the explanation of Figures 14 and 15, an example in which three filter parameters are used is shown, but the disclosed technology is not limited to this example, and the number of filter parameters may be increased to four or more. In this embodiment, pixels in which motion artifacts are not detected are branched into two patterns (S1406, S1407), but the disclosed technology is not limited to this example. For example, if the occurrence of a motion artifact is detected for the pixel in question (S1402-detected), the processing may be branched for the pixel in which a motion artifact is detected, for example, by using multiple detection thresholds.

本実施形態によれば、モーションアーチファクトの発生が検知された検知画素の位置情報を用いて、フィルタパラメータを複数パターン(例えば、3パターン)以上に拡張することにより、モーションアーチファクトを低減しつつ、ノイズを低減し、さらに画像違和感を低減したエネルギーサブトラクション画像を取得することができる。これにより、優れた画質の画像を取得することが可能になる。 According to this embodiment, by expanding the filter parameters to multiple patterns (e.g., three or more patterns) using the position information of the detection pixel where the occurrence of a motion artifact is detected, it is possible to obtain an energy subtraction image that reduces motion artifacts, noise, and image discomfort. This makes it possible to obtain an image with excellent image quality.

(第3実施形態)
本実施形態では、第1実施形態及び第2実施形態に係る開示の技術を動画に適用する構成を説明する。
Third Embodiment
In this embodiment, a configuration in which the techniques disclosed in the first and second embodiments are applied to a moving image will be described.

・フレーム内の処理
図16は、第3実施形態のモーションアーチファクトの検知画像を示す図である。図16では、図4の駆動タイミングで第1~第nフレームを撮影した場合の高エネルギーの透過率の画像H(H_ti)と低エネルギーの透過率の画像L(L_ti)および、モーションアーチファクトの検知画像M(M_ti)のセットを時間方向(横軸方向)に並べたものである。
Intra-frame processing Fig. 16 is a diagram showing a motion artifact detection image of the third embodiment. Fig. 16 shows a set of a high-energy transmittance image H (H_ti), a low-energy transmittance image L (L_ti), and a motion artifact detection image M (M_ti) arranged in the time direction (horizontal axis direction) when the first to nth frames are captured with the drive timing of Fig. 4.

本実施形態において、信号処理部133は、動画撮影の各フレームにおいて、複数の情報の差に関する情報に基づいて特定した一部の画素(検知画素)と他の画素(未検知画素)とで異なるパラメータを用いてノイズ低減処理を行う。例えば、信号処理部133は、同一フレームにおける高エネルギー画像H(第1の放射線画像)および低エネルギー画像L(第2の放射線画像)を用いてモーションアーチファクトの検知処理を行う。信号処理部133は、複数の情報の差に関する情報に基づいて特定した一部の画素(検知画素)を、モーションアーチファクトが検知された画素として設定した検知画像を取得(生成)する。 In this embodiment, the signal processing unit 133 performs noise reduction processing using different parameters for some pixels (detection pixels) identified based on information regarding the differences between multiple pieces of information and other pixels (undetection pixels) in each frame of video capture. For example, the signal processing unit 133 performs motion artifact detection processing using a high-energy image H (first radiographic image) and a low-energy image L (second radiographic image) in the same frame. The signal processing unit 133 acquires (generates) a detection image in which some pixels (detection pixels) identified based on information regarding the differences between multiple pieces of information are set as pixels in which motion artifacts are detected.

図16において、画像1601は第1フレーム(時間t1)における高エネルギー画像H_t1であり、画像1602は第1フレーム(時間t2)における低エネルギー画像L_t1である。フレーム内で得た画像(H_t1、L_t1)を用いて第1フレーム(時間t1)におけるモーションアーチファクトの検知画像M_t1が生成される。信号処理部133は、同様の処理を各フレームにおいて行うことにより、動画撮影におけるフレーム毎の検知画像Mを生成する。 In FIG. 16, image 1601 is a high-energy image H_t1 in the first frame (time t1), and image 1602 is a low-energy image L_t1 in the first frame (time t2). A motion artifact detection image M_t1 in the first frame (time t1) is generated using the images (H_t1, L_t1) obtained within the frame. The signal processing unit 133 performs the same processing for each frame, thereby generating a detection image M for each frame in the video capture.

なお、図16の処理例では、検知画像M(M_ti)の生成において、各フレームにおける高エネルギー画像H(H_ti)、低エネルギー画像L(L_ti)を用いる例を説明しているが、この例に限られず、例えば、各フレームで得たノイズ低減前の骨画像B(B_ti)や軟部組織の厚み画像S(S_ti)等に対して異常画素値判定を用いて検知画像M(M_ti)を生成してもよい。 In the processing example of FIG. 16, an example is described in which the high-energy image H (H_ti) and the low-energy image L (L_ti) in each frame are used to generate the detection image M (M_ti), but this is not limited to the example. For example, the detection image M (M_ti) may be generated by using abnormal pixel value judgment on the bone image B (B_ti) before noise reduction and the soft tissue thickness image S (S_ti) obtained in each frame.

本実施形態では、エネルギーサブトラクション処理により取得した各フレームにおける厚み画像Tを、T_t1、T_t2、...T_tnとし、ノイズ低減処理された骨の厚み画像B'を、B'_t1、B'_t2、...B'_tnとする。 In this embodiment, the thickness images T in each frame obtained by energy subtraction processing are denoted as T_t1, T_t2, ... T_tn, and the noise-reduced bone thickness images B' are denoted as B'_t1, B'_t2, ... B'_tn.

信号処理部133は、処理対象のフレームで取得した情報を用いて生成した検知画像Mを用いてフィルタ処理F1(ノイズ低減処理)を行う。例えば、処理対象のフレームが第1フレームである場合には、第1フレームで取得した情報を用いて生成した検知画像M(M_t1)を用いてフィルタ処理F1(ノイズ低減処理)を行い、処理対象のフレームが第nフレームである場合には、第nフレームで取得した情報を用いて生成した検知画像M(M_tn)を用いてフィルタ処理F1(ノイズ低減処理)を行う。 The signal processing unit 133 performs filter processing F1 (noise reduction processing) using a detection image M generated using information acquired in the frame to be processed. For example, if the frame to be processed is the first frame, filter processing F1 (noise reduction processing) is performed using a detection image M (M_t1) generated using information acquired in the first frame, and if the frame to be processed is the nth frame, filter processing F1 (noise reduction processing) is performed using a detection image M (M_tn) generated using information acquired in the nth frame.

信号処理部133は、フィルタ処理F1(ノイズ低減処理)に入力された厚み画像Tの各画素と検知画像Mに設定されている画素との比較により、厚み画像Tにおいてモーションアーチファクトが検知されている画素の位置として特定して、ノイズ低減処理を行う。 The signal processing unit 133 performs noise reduction processing by comparing each pixel of the thickness image T input to the filter processing F1 (noise reduction processing) with the pixels set in the detection image M to identify the positions of pixels in the thickness image T where motion artifacts are detected.

信号処理部133は、各フレームの情報を用いることにより取得した検知画像Mを用いた判定処理を、各フレームの厚み画像(T_t1、T_t2、...T_tn)の全画素に適用することで、ノイズ低減後の厚み画像T'(T'_t1、T'_t2、...T'_tn)を取得する。さらに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くことで、モーションアーチファクトを低減しつつ、ノイズ低減処理された骨の厚み画像B'(B'_t1、B'_t2、...B'_tn)、すなわちエネルギーサブトラクション動画を取得することができる。 The signal processing unit 133 applies a determination process using the detection image M acquired by using the information of each frame to all pixels of the thickness image (T_t1, T_t2, ... T_tn) of each frame to acquire a noise-reduced thickness image T' (T'_t1, T'_t2, ... T'_tn). Furthermore, by substituting the filtered thickness image T' into equation [12] and solving the nonlinear equation, it is possible to acquire a noise-reduced bone thickness image B' (B'_t1, B'_t2, ... B'_tn), i.e., an energy subtraction video, while reducing motion artifacts.

・フレーム間の処理
図16では、フレーム内で得た画像として、同一フレームにおける高エネルギーの透過率の画像H及び低エネルギーの透過率の画像Lの差分等を用いて、各フレームにおける検知画像Mを取得する例を説明したが、動画においてモーションアーチファクトを検知する場合には、同一フレーム内の情報に基づいて取得された検知画像Mに加えて、前後フレーム間(一のフレームと、一のフレームに続く他のフレームとの間)の情報を用いてもよい。前後フレーム間で情報が変化する場合、例えば、フレーム間で画素値が大きく変化した画素は被写体が大きく動いた可能性が高い。そのような画素を、同一フレーム内の処理により取得した、モーションアーチファクトの検知画像M(検知画素)に加えてもよい。
Inter-frame processing In FIG. 16, an example is described in which a detection image M in each frame is obtained by using the difference between an image H with high energy transmittance and an image L with low energy transmittance in the same frame as an image obtained within the frame, but when detecting motion artifacts in a video, information between previous and next frames (between one frame and another frame following the first frame) may be used in addition to the detection image M obtained based on information within the same frame. When information changes between previous and next frames, for example, a pixel whose pixel value has changed significantly between frames is likely to have caused a large movement of the subject. Such a pixel may be added to the detection image M (detection pixel) of the motion artifact obtained by processing within the same frame.

図17は、本実施形態におけるモーションアーチファクトの検知処理を説明する図である。なお、開示の技術は、図16で説明した検知画像Mの取得方法と図17で説明する検知画像Mの取得方法とを組み合わせてもよいし、夫々単独の取得方法により、検知画像Mを取得してもよい。 Figure 17 is a diagram illustrating the motion artifact detection process in this embodiment. Note that the disclosed technology may combine the method of acquiring the detection image M described in Figure 16 and the method of acquiring the detection image M described in Figure 17, or may acquire the detection image M by each of the acquisition methods independently.

フレーム間の処理を行う場合に、信号処理部133は、同一種類の画像を用いて情報の差を取得する。例えば、高エネルギー画像H(第1の放射線画像)を用いる場合に、信号処理部133は、複数の情報の差に関する情報を、動画撮影における一のフレーム(例えば、第1フレーム)で得た第1の放射線エネルギーに対応した第1の放射線画像、一のフレーム(例えば、第1フレーム)に続く他のフレーム(例えば、第2フレーム)で得た第1の放射線画像、の差分により得られた情報と閾値との比較を行うことにより取得する。 When processing between frames, the signal processing unit 133 obtains the difference in information using the same type of image. For example, when using a high-energy image H (first radiation image), the signal processing unit 133 obtains information regarding the difference in multiple pieces of information by comparing the information obtained by the difference between a first radiation image corresponding to a first radiation energy obtained in one frame (e.g., the first frame) in video capture and a first radiation image obtained in another frame (e.g., the second frame) following the one frame (e.g., the first frame) with a threshold value.

また、低エネルギー画像L(第2の放射線画像)を用いる場合に、信号処理部133は、一のフレーム(例えば、第1フレーム)で得た第2の放射線エネルギーに対応した第2の放射線画像、および他のフレーム(例えば、第2フレーム)で得た第2の放射線画像、の差分により得られた情報と閾値との比較を行うことにより取得する。 In addition, when a low-energy image L (second radiation image) is used, the signal processing unit 133 obtains the information obtained by subtracting the second radiation image corresponding to the second radiation energy obtained in one frame (e.g., the first frame) from the second radiation image obtained in another frame (e.g., the second frame) by comparing the information with a threshold value.

信号処理部133は、前後フレーム間(例えば、一のフレームと、一のフレームに続く他のフレームとの間)で特定した一部の画素(検知画素)を、一のフレーム及び他のフレームのうち少なくとも一方のフレームにおいて取得された検知画像M(検知画素)に加える。すなわち、信号処理部133は、前後フレーム間(一のフレームと他のフレームとの間)で特定した一部の画素を、一のフレーム及び他のフレームのうち少なくとも一方のフレームにおいて特定された一部の画素(検知画素)に加える。 The signal processing unit 133 adds some pixels (detection pixels) identified between previous and next frames (e.g., between one frame and another frame following the first frame) to the detection image M (detection pixels) acquired in at least one of the first frame and the other frame. In other words, the signal processing unit 133 adds some pixels (detection pixels) identified between previous and next frames (between one frame and the other frame) to some pixels (detection pixels) identified in at least one of the first frame and the other frame.

図17で説明する検知画像Mの取得方法では、フレーム間(前後フレーム間)の情報の差分を用いた閾値判定により、モーションアーチファクトが発生していると判定された画素位置を、前後フレームの検知画像Mに追加するものである。なお、画素位置を追加するフレームは、前フレーム(一のフレーム)内の処理により取得された検知画像Mだけでもよいし、前フレーム(一のフレーム)に続く、後フレーム(他のフレーム)内の処理により取得された検知画像Mだけでもよい。あるいは、前フレーム(一のフレーム)及び後フレーム(他のフレーム)のそれぞれの処理により取得された検知画像Mでもよい。画素位置を追加するフレームの設定は、操作装置138を介して行うことが可能である。 In the method of acquiring the detection image M described in FIG. 17, a pixel position determined to have a motion artifact by threshold determination using the difference in information between frames (between previous and next frames) is added to the detection image M of the previous and next frames. Note that the frame to which the pixel position is added may be only the detection image M acquired by processing in the previous frame (one frame), or only the detection image M acquired by processing in the subsequent frame (another frame) following the previous frame (one frame). Alternatively, it may be the detection image M acquired by processing each of the previous frame (one frame) and the subsequent frame (another frame). The frame to which the pixel position is added can be set via the operation device 138.

図17において、T1-T2、T2-T3、T(n-1)-Tnは、前後フレームの情報の差分を示している。ここで、前後フレームの情報の差分は、同一種類の画像の差分であり、例えば、T1-T2は、第1フレームの高エネルギー画像H_t1と第2フレームの高エネルギー画像H_t2との差分でもよいし、第1フレームの低エネルギー画像L_t1と第2フレームの低エネルギー画像L_t2との差分でもよい。 In FIG. 17, T1-T2, T2-T3, and T(n-1)-Tn indicate the difference between information of previous and next frames. Here, the difference between information of previous and next frames is the difference between images of the same type. For example, T1-T2 may be the difference between the high-energy image H_t1 of the first frame and the high-energy image H_t2 of the second frame, or the difference between the low-energy image L_t1 of the first frame and the low-energy image L_t2 of the second frame.

信号処理部133は、時間的に連続した前後フレームの情報の差分を用いて特定された検知画素を、前後フレームのうち少なくとも一方の検知画像M(検知画素)に加える。例えば、図17の第1フレーム及び第2のフレームのフレーム間を例とすると、時間的に連続する前後フレームの情報の差分(T1-T2)を用いて特定された検知画素を、前フレーム(第1フレーム)内の処理により取得された検知画像(検知画素)に加えてもよい。あるいは、特定された検知画素を、後フレーム(第2フレーム)内の処理により取得された検知画像(検知画素)に加えてもよい。あるいは、特定された検知画素を、前フレーム(第1フレーム)及び後フレーム(第2フレーム2)のそれぞれの処理により取得された検知画像M(検知画素)に加えてもよい。 The signal processing unit 133 adds the detection pixel identified using the difference between the information of the temporally consecutive previous and next frames to the detection image M (detection pixel) of at least one of the previous and next frames. For example, taking the first and second frames in FIG. 17 as an example, the detection pixel identified using the difference (T1-T2) between the information of the temporally consecutive previous and next frames may be added to the detection image (detection pixel) acquired by processing in the previous frame (first frame). Alternatively, the identified detection pixel may be added to the detection image (detection pixel) acquired by processing in the subsequent frame (second frame). Alternatively, the identified detection pixel may be added to the detection image M (detection pixel) acquired by processing each of the previous frame (first frame) and the subsequent frame (second frame 2).

信号処理部133は、フレーム内で得た情報及び前後フレームの情報を用いることにより取得した検知画像Mを用いたフィルタ処理F1を各フレームにおいて行う。信号処理部133は、フレーム内で得た情報及び前後フレームの情報を用いることにより取得した検知画像Mを用いた判定処理を、各フレームの厚み画像(T_t1、T_t2、...T_tn)の全画素に適用することで、ノイズ低減後の厚み画像T'(T'_t1、T'_t2、...T'_tn)を取得する。さらに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くことで、モーションアーチファクトを低減しつつ、ノイズ低減処理された骨の厚み画像B'(B'_t1、B'_t2、...B'_tn)、すなわち、エネルギーサブトラクション動画を取得することができる。 The signal processing unit 133 performs a filter process F1 for each frame using the detection image M acquired by using the information obtained within the frame and the information of the previous and next frames. The signal processing unit 133 applies a judgment process using the detection image M acquired by using the information obtained within the frame and the information of the previous and next frames to all pixels of the thickness image (T_t1, T_t2, ... T_tn) of each frame to acquire a noise-reduced thickness image T' (T'_t1, T'_t2, ... T'_tn). Furthermore, by substituting the filtered thickness image T' into [Equation 12] and solving the nonlinear equation, it is possible to acquire a noise-reduced bone thickness image B' (B'_t1, B'_t2, ... B'_tn), i.e., an energy subtraction video, while reducing motion artifacts.

(変形例)
図18は、変形例に係るノイズ低減処理を実現するための信号処理を説明するブロック図である。図18の信号処理を説明するブロック図で用いる符号は、図10と同一のものであるが、フィルタ処理F1の入力画像が、軟部組織の厚み画像Sであり、フィルタ処理F1により出力される画像が、ノイズ低減後の軟部組織の厚み画像S'である点において相違する。
(Modification)
Fig. 18 is a block diagram for explaining signal processing for realizing noise reduction processing according to a modified example. The symbols used in the block diagram for explaining the signal processing in Fig. 18 are the same as those in Fig. 10, but differ in that the input image of the filter processing F1 is a soft tissue thickness image S, and the image output by the filter processing F1 is a soft tissue thickness image S' after noise reduction.

第1実施形態では、[数11]式を変形した[数12]の非線形方程式において、図9で示した厚みの連続性を利用して、厚み画像T(=B+S)の代わりに、フィルタ処理後の厚み画像T'を[数12]式に代入して非線形方程式を解くことにより、ノイズ低減処理された骨の厚み画像B'を取得する構成について説明した。 In the first embodiment, a configuration was described in which the nonlinear equation of [Equation 12], which is a modification of [Equation 11], utilizes the thickness continuity shown in FIG. 9 to substitute the filtered thickness image T' into [Equation 12] instead of the thickness image T (= B + S) and solve the nonlinear equation to obtain a noise-reduced bone thickness image B'.

本変形例の構成では、ある画素における蓄積画像の画素値Aと軟部組織の厚みSとを[数11]式に代入して非線形方程式を解くことで、ある画素における骨の厚みBを求めることが可能である。このとき、軟部組織の厚みSの代わりに、図18に示すフィルタ処理後の軟部組織の厚みS'を[数11]式に代入して非線形方程式を解くことにより、ノイズ低減処理された骨の厚み画像B'が得られる。なお、本変形例の説明では、ノイズ低減処理された骨の厚み画像B'を求める例を説明したが、ノイズ低減処理された軟部組織の厚み画像S'を求める場合も同様に本変形例を適用することが可能である。変形例の構成によれば、[数12]の非線形方程式を用いる処理に比べて演算負荷を低減することが可能であり、第1実施形態の構成に比べて、画質よりも処理速度を優先して、簡易的にノイズ低減処理された骨の厚み画像B'(または、ノイズ低減処理された軟部組織の厚み画像S')を得ることができる。 In the configuration of this modification, the pixel value A of the accumulated image at a pixel and the thickness S of the soft tissue are substituted into the formula [11] to solve the nonlinear equation, and the bone thickness B at a pixel can be obtained. At this time, instead of the soft tissue thickness S, the soft tissue thickness S' after the filter processing shown in FIG. 18 is substituted into the formula [11] to solve the nonlinear equation, and a noise-reduced bone thickness image B' is obtained. In the description of this modification, an example of obtaining a noise-reduced bone thickness image B' has been described, but this modification can also be applied to the case of obtaining a noise-reduced soft tissue thickness image S'. According to the configuration of the modification, it is possible to reduce the calculation load compared to the processing using the nonlinear equation of [12], and compared to the configuration of the first embodiment, the processing speed is prioritized over the image quality, and a noise-reduced bone thickness image B' (or a noise-reduced soft tissue thickness image S') can be obtained simply.

なお、本実施形態では、X線撮像装置104は蛍光体を用いた間接型のX線センサとした。しかしながら開示の技術はこのような形態に限定されない。例えばCdTe等の直接変換材料を用いた直接型のX線センサを用いてもよい。 In this embodiment, the X-ray imaging device 104 is an indirect X-ray sensor that uses a phosphor. However, the disclosed technology is not limited to this form. For example, a direct X-ray sensor that uses a direct conversion material such as CdTe may be used.

また、本実施形態では、X線発生装置101の管電圧を変化させていた。しかしながら開示の技術はこのような形態に限定されない。X線発生装置101のフィルタを時間的に切り替えるなどして、X線撮像装置104に曝射されるX線のエネルギーを変化させてもよい。 In addition, in this embodiment, the tube voltage of the X-ray generating device 101 is changed. However, the disclosed technology is not limited to this form. The energy of the X-rays irradiated to the X-ray imaging device 104 may be changed by, for example, switching the filter of the X-ray generating device 101 over time.

また、本実施形態では、X線のエネルギーを変化させることで、異なるエネルギーの画像を得ていた。しかしながら開示の技術はこのような形態に限定されない。複数の蛍光体105および二次元検出器106を重ねる積層型とすることで、X線の入射方向に対して前面の二次元検出器と背面の二次元検出器から、異なるエネルギーの画像を得る構成としてもよい。二次元検出器106は医療用に限定されるものではなく、工業用の二次元検出器であってもよい。 In addition, in this embodiment, images of different energies were obtained by changing the energy of the X-rays. However, the disclosed technology is not limited to this form. By stacking multiple phosphors 105 and two-dimensional detectors 106, images of different energies may be obtained from the two-dimensional detectors on the front and back sides relative to the direction of incidence of the X-rays. The two-dimensional detector 106 is not limited to medical use, and may be an industrial two-dimensional detector.

また、本実施形態では、放射線撮像システムの撮像制御装置103を用いてエネルギーサブトラクション処理を行っていた。しながら開示の技術はこのような形態に限定されない。撮像制御装置103で取得した画像を別のコンピュータに転送して、エネルギーサブトラクション処理を行ってもよい。例えば、取得した画像を医療用のPACSを介して別の画像処理装置(画像ビューア)に転送し、エネルギーサブトラクション処理を行ってから表示する構成としてもよい。 In addition, in this embodiment, energy subtraction processing is performed using the imaging control device 103 of the radiation imaging system. However, the disclosed technology is not limited to this form. The image acquired by the imaging control device 103 may be transferred to another computer and energy subtraction processing may be performed thereon. For example, the acquired image may be transferred to another image processing device (image viewer) via a medical PACS, and displayed after energy subtraction processing.

本明細書の開示は、以下の画像処理装置、放射線撮像システム、画像処理方法及びプログラムを含む。
(項目1) 被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う処理手段を備え、
前記処理手段は、前記複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された前記厚み画像と、前記複数の情報とを用いて、前記物質分離処理を行う画像処理装置。
(項目2) 前記複数の放射線エネルギーのうち第1の放射線エネルギーに対応した情報には第1の放射線画像が含まれ、前記第1の放射線エネルギーとは異なる第2の放射線エネルギーに対応した情報には第2の放射線画像が含まれる項目1に記載の画像処理装置。
(項目3) 前記第1の放射線画像には、前記撮影によって得られた電気信号の信号値と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれ、前記第2の放射線画像には、前記撮影によって得られた電気信号の信号値と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれる項目2に記載の画像処理装置。
(項目4) 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像および前記第2の放射線画像の差分により得られた情報と閾値との比較を行うことにより取得する項目2または3に記載の画像処理装置。
(項目5) 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像および前記第2の放射線画像の除算により得られた情報と閾値との比較を行うことにより取得する項目2または3に記載の画像処理装置。
(項目6) 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像の透過率および前記第2の放射線画像の透過率の比較を行うことにより取得する項目2または3に記載の画像処理装置。
(項目7) 前記処理手段は、動画撮影の各フレームにおいて、前記複数の情報の差に関する情報に基づいて特定した前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う項目1乃至6のいずれか1項に記載の画像処理装置。
(項目8) 前記処理手段は、前記複数の情報の差に関する情報を、
前記動画撮影における一のフレームで得た第1の放射線エネルギーに対応した第1の放射線画像、および前記一のフレームに続く他のフレームで得た前記第1の放射線画像、の差分により得られた情報と閾値との比較を行うことにより取得する、または、
前記一のフレームで得た前記第1の放射線エネルギーとは異なる第2の放射線エネルギーに対応した第2の放射線画像、および前記他のフレームで得た前記第2の放射線画像、の差分により得られた情報と前記閾値との比較を行うことにより取得する項目7に記載の画像処理装置。
(項目9) 前記処理手段は、前記一のフレームと前記他のフレームとの間で特定した前記一部の画素を、前記一のフレーム及び前記他のフレームのうち少なくとも一方のフレームにおいて特定された前記一部の画素に加える項目8に記載の画像処理装置。
(項目10) 前記処理手段は、前記複数の情報の差に関する情報に基づいて特定した前記一部の画素を、モーションアーチファクトが検知された画素として設定した検知画像を取得し、
前記ノイズ低減処理に入力された前記厚み画像の各画素と前記検知画像に設定されている前記画素との比較により、前記厚み画像において前記モーションアーチファクトが検知されている画素の位置として特定する項目1乃至9のいずれか1項に記載の画像処理装置。
(項目11) 前記処理手段は、ガウシアンフィルタまたはイプシロンフィルタを用いて前記ノイズ低減処理を行う項目1乃至10のいずれか1項に記載の画像処理装置。
(項目12) 前記処理手段は、前記ガウシアンフィルタのカーネルサイズを変更することにより設定した、前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う、または、
前記イプシロンフィルタの閾値を変更することにより設定した、前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う項目11に記載の画像処理装置。
(項目13) 前記処理手段は、前記一部の画素に対して第1のフィルタパラメータを用いた前記ノイズ低減処理を行い、前記他の画素に対して、前記第1のフィルタパラメータよりも小さい第2のフィルタパラメータを用いて前記ノイズ低減処理を行う項目1乃至12のいずれか1項に記載の画像処理装置。
(項目14) 前記処理手段は、前記一部の画素の位置から所定の範囲に位置する周辺画素に対して、前記第1のフィルタパラメータよりも小さく、かつ、前記第2のフィルタパラメータよりも大きい、第3のフィルタパラメータを用いて前記ノイズ低減処理を行う項目13に記載の画像処理装置。
(項目15) 前記所定の範囲は、前記一部の画素に対して隣接する位置の画素を少なくとも含む位置情報として、操作手段を介して調整可能である項目14に記載の画像処理装置。
(項目16) 表示手段に画像を表示させる表示制御手段を更に備え、
前記表示制御手段は、前記ノイズ低減処理された、第1の物質の厚み画像及び前記第1の物質とは異なる第2の物質の厚み画像のうち少なくともいずれか一方を、前記表示手段に表示させる表示制御を行い、
操作手段を介し入力される指示に基づいて、前記第1の物質の厚み画像または前記第2の物質の厚み画像を切り替える表示制御、または、前記第1の物質の厚み画像、及び前記第2の物質の厚み画像を並べて表示させる表示制御、を行う項目1乃至15のいずれか1項に記載の画像処理装置。
(項目17) 撮影条件に応じて設定された、前記ノイズ低減処理における前記パラメータは、前記操作手段を介した指示により調整することが可能であり、
前記表示制御手段は、前記調整された前記パラメータに基づいて前記ノイズ低減処理された前記画像を前記表示手段に表示させる表示制御を行う項目16に記載の画像処理装置。
(項目18) 二次元検出器を含む放射線撮像装置と、
前記二次元検出器で検出された複数の放射線エネルギーに対応した複数の情報を用いてノイズ低減処理された画像を取得する項目1乃至17のいずれか1項に記載の画像処理装置と、
を備える放射線撮像システム。
(項目19) 被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う工程と、
前記複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された前記厚み画像と、前記複数の情報とを用いて、前記物質分離処理を行う工程と、
を有する画像処理方法。
(項目20) コンピュータに、項目19に記載の画像処理方法を実行させるプログラム。
The disclosure of this specification includes the following image processing device, radiation imaging system, image processing method, and program.
(Item 1) A processing unit is provided for performing a material separation process for separating a plurality of material thickness images using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and performing imaging,
The processing means is an image processing device that performs the material separation processing using the thickness image that has been subjected to noise reduction processing using parameters that differ between some pixels identified based on information regarding the differences between the multiple pieces of information and other pixels, and the multiple pieces of information.
(Item 2) The image processing device according to item 1, wherein the information corresponding to a first radiation energy among the plurality of radiation energies includes a first radiation image, and the information corresponding to a second radiation energy different from the first radiation energy includes a second radiation image.
(Item 3) The image processing device according to item 2, wherein the first radiographic image includes data in which signal values of electrical signals obtained by the imaging correspond to position information indicating a two-dimensional arrangement of the signal values, and the second radiographic image includes data in which signal values of electrical signals obtained by the imaging correspond to position information indicating a two-dimensional arrangement of the signal values.
(Item 4) The image processing device according to item 2 or 3, wherein the processing means acquires information relating to a difference between the plurality of pieces of information by comparing information obtained by subtracting the first radiographic image and the second radiographic image with a threshold value.
(Item 5) The image processing device according to item 2 or 3, wherein the processing means acquires information relating to a difference between the plurality of pieces of information by comparing information obtained by dividing the first radiographic image and the second radiographic image with a threshold value.
(Item 6) The image processing device according to item 2 or 3, wherein the processing means acquires information relating to the difference between the plurality of pieces of information by comparing a transmittance of the first radiographic image with a transmittance of the second radiographic image.
(Item 7) The image processing device according to any one of items 1 to 6, wherein the processing means performs the noise reduction process using different parameters for the part of pixels identified based on information relating to differences in the plurality of pieces of information and the other pixels in each frame of moving image shooting.
(Item 8) The processing means is configured to:
The information obtained by subtracting a first radiation image corresponding to a first radiation energy obtained in one frame during the video capture from the first radiation image obtained in another frame subsequent to the first frame is compared with a threshold value, or
8. The image processing device according to item 7, wherein the image is acquired by comparing information obtained by subtracting a second radiographic image corresponding to a second radiation energy different from the first radiation energy acquired in the one frame and the second radiographic image acquired in the other frame with the threshold value.
(Item 9) The image processing device according to item 8, wherein the processing means adds the portion of pixels identified between the one frame and the other frame to the portion of pixels identified in at least one of the one frame and the other frame.
(Item 10) The processing means acquires a detection image in which the part of pixels specified based on information regarding the difference between the plurality of pieces of information is set as pixels in which a motion artifact is detected,
An image processing device according to any one of items 1 to 9, which identifies the position of a pixel in the thickness image where the motion artifact is detected by comparing each pixel of the thickness image input to the noise reduction process with the pixel set in the detection image.
(Item 11) The image processing device according to any one of items 1 to 10, wherein the processing means performs the noise reduction process using a Gaussian filter or an epsilon filter.
(Item 12) The processing means performs the noise reduction process using different parameters for the some pixels and the other pixels, the parameters being set by changing a kernel size of the Gaussian filter; or
12. The image processing device according to item 11, wherein the noise reduction process is performed using different parameters for the some pixels and the other pixels, the parameters being set by changing a threshold value of the epsilon filter.
(Item 13) The image processing device according to any one of items 1 to 12, wherein the processing means performs the noise reduction process on the some of the pixels using a first filter parameter, and performs the noise reduction process on the other pixels using a second filter parameter that is smaller than the first filter parameter.
(Item 14) The image processing device according to item 13, wherein the processing means performs the noise reduction process on surrounding pixels located within a predetermined range from the position of the partial pixel by using a third filter parameter that is smaller than the first filter parameter and larger than the second filter parameter.
(Item 15) The image processing device according to item 14, wherein the predetermined range is adjustable via an operation unit as position information including at least pixels adjacent to the certain pixels.
(Item 16) The device further includes a display control unit for causing the display unit to display an image,
the display control means performs display control to cause the display means to display at least one of the noise-reduced thickness image of a first material and the thickness image of a second material different from the first material;
An image processing device described in any one of items 1 to 15, which performs display control to switch between the thickness image of the first substance and the thickness image of the second substance, or display control to display the thickness image of the first substance and the thickness image of the second substance side by side, based on instructions input via an operation means.
(Item 17) The parameters in the noise reduction process that are set according to the shooting conditions can be adjusted by an instruction via the operation means,
17. The image processing device according to item 16, wherein the display control means performs display control to cause the display means to display the image on which the noise reduction process has been performed based on the adjusted parameters.
(Item 18) A radiation imaging device including a two-dimensional detector;
18. The image processing device according to any one of claims 1 to 17, which acquires an image that has been subjected to noise reduction processing using a plurality of pieces of information corresponding to a plurality of radiation energies detected by the two-dimensional detector;
A radiation imaging system comprising:
(Item 19) A step of performing a material separation process for separating a plurality of material thickness images using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and performing imaging;
performing the material separation process using the thickness image that has been subjected to noise reduction processing using parameters that differ between a portion of pixels identified based on information regarding the difference between the plurality of pieces of information and the other pixels, and the plurality of pieces of information;
An image processing method comprising the steps of:
(Item 20) A program for causing a computer to execute the image processing method according to item 19.

[その他の実施形態]
開示の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The disclosed technology can also be realized by a process in which a program for realizing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. Also, the disclosed technology can be realized by a circuit (e.g., ASIC) for realizing one or more of the functions.

開示の技術は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The disclosed technology is not limited to the above-described embodiments, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

101:X線発生装置、102:X線制御装置、103:撮像制御装置(画像処理装置)、104:X線撮像装置、106:二次元検出器 101: X-ray generator, 102: X-ray control device, 103: Imaging control device (image processing device), 104: X-ray imaging device, 106: Two-dimensional detector

Claims (20)

被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う処理手段を備え、
前記処理手段は、前記複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された前記厚み画像と、前記複数の情報とを用いて、前記物質分離処理を行う画像処理装置。
a processing means for performing a material separation process for separating a plurality of material thickness images using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and performing imaging,
The processing means is an image processing device that performs the material separation processing using the thickness image that has been subjected to noise reduction processing using parameters that differ between some pixels identified based on information regarding the differences between the multiple pieces of information and other pixels, and the multiple pieces of information.
前記複数の放射線エネルギーのうち第1の放射線エネルギーに対応した情報には第1の放射線画像が含まれ、前記第1の放射線エネルギーとは異なる第2の放射線エネルギーに対応した情報には第2の放射線画像が含まれる請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the information corresponding to a first radiation energy among the plurality of radiation energies includes a first radiation image, and the information corresponding to a second radiation energy different from the first radiation energy includes a second radiation image. 前記第1の放射線画像には、前記撮影によって得られた電気信号の信号値と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれ、前記第2の放射線画像には、前記撮影によって得られた電気信号の信号値と、当該信号値の二次元の配列を示す位置情報とが対応づけられたデータが含まれる請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the first radiographic image includes data in which the signal values of the electrical signals obtained by the imaging correspond to position information indicating a two-dimensional arrangement of the signal values, and the second radiographic image includes data in which the signal values of the electrical signals obtained by the imaging correspond to position information indicating a two-dimensional arrangement of the signal values. 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像および前記第2の放射線画像の差分により得られた情報と閾値との比較を行うことにより取得する請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the processing means acquires information regarding the difference between the plurality of pieces of information by comparing information obtained by subtracting the first radiographic image and the second radiographic image with a threshold value. 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像および前記第2の放射線画像の除算により得られた情報と閾値との比較を行うことにより取得する請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the processing means acquires information regarding the difference between the plurality of pieces of information by comparing information obtained by dividing the first radiographic image and the second radiographic image with a threshold value. 前記処理手段は、前記複数の情報の差に関する情報を、前記第1の放射線画像の透過率および前記第2の放射線画像の透過率の比較を行うことにより取得する請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the processing means acquires information regarding the difference between the plurality of pieces of information by comparing the transmittance of the first radiographic image with the transmittance of the second radiographic image. 前記処理手段は、動画撮影の各フレームにおいて、前記複数の情報の差に関する情報に基づいて特定した前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the processing means performs the noise reduction process using different parameters for the part of pixels identified based on information relating to the differences in the plurality of pieces of information and the other pixels in each frame of the video capture. 前記処理手段は、前記複数の情報の差に関する情報を、
前記動画撮影における一のフレームで得た第1の放射線エネルギーに対応した第1の放射線画像、および前記一のフレームに続く他のフレームで得た前記第1の放射線画像、の差分により得られた情報と閾値との比較を行うことにより取得する、または、
前記一のフレームで得た前記第1の放射線エネルギーとは異なる第2の放射線エネルギーに対応した第2の放射線画像、および前記他のフレームで得た前記第2の放射線画像、の差分により得られた情報と前記閾値との比較を行うことにより取得する請求項7に記載の画像処理装置。
The processing means processes information regarding the difference between the plurality of pieces of information as follows:
The information obtained by subtracting a first radiation image corresponding to a first radiation energy obtained in one frame during the video capture from the first radiation image obtained in another frame subsequent to the first frame is compared with a threshold value, or
8. The image processing device according to claim 7, wherein the image is acquired by comparing information obtained by subtracting a second radiographic image corresponding to a second radiation energy different from the first radiation energy acquired in the one frame and the second radiographic image acquired in the other frame with the threshold value.
前記処理手段は、前記一のフレームと前記他のフレームとの間で特定した前記一部の画素を、前記一のフレーム及び前記他のフレームのうち少なくとも一方のフレームにおいて特定された前記一部の画素に加える請求項8に記載の画像処理装置。 The image processing device according to claim 8, wherein the processing means adds the portion of pixels identified between the one frame and the other frame to the portion of pixels identified in at least one of the one frame and the other frame. 前記処理手段は、前記複数の情報の差に関する情報に基づいて特定した前記一部の画素を、モーションアーチファクトが検知された画素として設定した検知画像を取得し、
前記ノイズ低減処理に入力された前記厚み画像の各画素と前記検知画像に設定されている前記画素との比較により、前記厚み画像において前記モーションアーチファクトが検知されている画素の位置として特定する請求項1に記載の画像処理装置。
The processing means acquires a detection image in which the part of pixels identified based on information regarding the difference between the plurality of pieces of information is set as pixels in which a motion artifact is detected,
The image processing device according to claim 1 , wherein the position of a pixel where the motion artifact is detected in the thickness image is identified by comparing each pixel of the thickness image input to the noise reduction processing with the pixel set in the detection image.
前記処理手段は、ガウシアンフィルタまたはイプシロンフィルタを用いて前記ノイズ低減処理を行う請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the processing means performs the noise reduction process using a Gaussian filter or an epsilon filter. 前記処理手段は、前記ガウシアンフィルタのカーネルサイズを変更することにより設定した、前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う、または、
前記イプシロンフィルタの閾値を変更することにより設定した、前記一部の画素と前記他の画素とで異なるパラメータを用いて前記ノイズ低減処理を行う請求項11に記載の画像処理装置。
The processing means performs the noise reduction process using different parameters for the part of pixels and the other pixels, the parameters being set by changing a kernel size of the Gaussian filter; or
The image processing device according to claim 11 , wherein the noise reduction process is performed using different parameters for the some pixels and the other pixels, the parameters being set by changing a threshold value of the epsilon filter.
前記処理手段は、前記一部の画素に対して第1のフィルタパラメータを用いた前記ノイズ低減処理を行い、前記他の画素に対して、前記第1のフィルタパラメータよりも小さい第2のフィルタパラメータを用いて前記ノイズ低減処理を行う請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the processing means performs the noise reduction process using a first filter parameter for the part of pixels, and performs the noise reduction process using a second filter parameter smaller than the first filter parameter for the other pixels. 前記処理手段は、前記一部の画素の位置から所定の範囲に位置する周辺画素に対して、前記第1のフィルタパラメータよりも小さく、かつ、前記第2のフィルタパラメータよりも大きい、第3のフィルタパラメータを用いて前記ノイズ低減処理を行う請求項13に記載の画像処理装置。 The image processing device according to claim 13, wherein the processing means performs the noise reduction process on surrounding pixels located within a predetermined range from the position of the partial pixel using a third filter parameter that is smaller than the first filter parameter and larger than the second filter parameter. 前記所定の範囲は、前記一部の画素に対して隣接する位置の画素を少なくとも含む位置情報として、操作手段を介して調整可能である請求項14に記載の画像処理装置。 The image processing device according to claim 14, wherein the predetermined range is adjustable via an operation means as position information including at least pixels adjacent to the portion of pixels. 表示手段に画像を表示させる表示制御手段を更に備え、
前記表示制御手段は、前記ノイズ低減処理された、第1の物質の厚み画像及び前記第1の物質とは異なる第2の物質の厚み画像のうち少なくともいずれか一方を、前記表示手段に表示させる表示制御を行い、
操作手段を介し入力される指示に基づいて、前記第1の物質の厚み画像または前記第2の物質の厚み画像を切り替える表示制御、または、前記第1の物質の厚み画像、及び前記第2の物質の厚み画像を並べて表示させる表示制御、を行う請求項1に記載の画像処理装置。
Further comprising a display control means for causing the display means to display an image,
the display control means performs display control to cause the display means to display at least one of the noise-reduced thickness image of a first material and the thickness image of a second material different from the first material;
2. The image processing device according to claim 1, further comprising: display control for switching between the thickness image of the first substance and the thickness image of the second substance, or display control for displaying the thickness image of the first substance and the thickness image of the second substance side by side, based on instructions input via an operating means.
撮影条件に応じて設定された、前記ノイズ低減処理における前記パラメータは、前記操作手段を介して調整することが可能であり、
前記表示制御手段は、前記調整された前記パラメータに基づいて前記ノイズ低減処理された前記画像を前記表示手段に表示させる表示制御を行う請求項16に記載の画像処理装置。
the parameters in the noise reduction process, which are set according to the shooting conditions, can be adjusted via the operation means;
17. The image processing apparatus according to claim 16, wherein the display control means performs display control to cause the display means to display the image that has been subjected to the noise reduction process based on the adjusted parameters.
二次元検出器を含む放射線撮像装置と、
前記二次元検出器で検出された複数の放射線エネルギーに対応した複数の情報を用いてノイズ低減処理された画像を取得する請求項1乃至17のいずれか1項に記載の画像処理装置と、
を備える放射線撮像システム。
a radiation imaging device including a two-dimensional detector;
18. The image processing device according to claim 1 , further comprising: a processor for processing the image by a noise reduction process using a plurality of pieces of information corresponding to a plurality of radiation energies detected by the two-dimensional detector;
A radiation imaging system comprising:
被写体に放射線を照射して撮影を行うことで得られた互いに異なる複数の放射線エネルギーに対応した複数の情報を用いて複数の物質の厚み画像に分離する物質分離処理を行う工程と、
前記複数の情報の差に関する情報に基づいて特定した一部の画素と他の画素とで異なるパラメータを用いてノイズ低減処理された前記厚み画像と、前記複数の情報とを用いて、前記物質分離処理を行う工程と、
を有する画像処理方法。
performing a material separation process for separating the image into a plurality of material thickness images using a plurality of pieces of information corresponding to a plurality of different radiation energies obtained by irradiating a subject with radiation and taking an image;
performing the material separation process using the thickness image that has been subjected to noise reduction processing using parameters that differ between a portion of pixels identified based on information regarding the difference between the plurality of pieces of information and the other pixels, and the plurality of pieces of information;
An image processing method comprising the steps of:
コンピュータに、請求項19に記載の画像処理方法を実行させるプログラム。 A program for causing a computer to execute the image processing method according to claim 19.
JP2023128002A 2023-08-04 2023-08-04 IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM Pending JP2025023667A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023128002A JP2025023667A (en) 2023-08-04 2023-08-04 IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023128002A JP2025023667A (en) 2023-08-04 2023-08-04 IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (1)

Publication Number Publication Date
JP2025023667A true JP2025023667A (en) 2025-02-17

Family

ID=94629927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023128002A Pending JP2025023667A (en) 2023-08-04 2023-08-04 IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP2025023667A (en)

Similar Documents

Publication Publication Date Title
JP7085043B2 (en) Image processing equipment, image processing methods and programs
US20220167935A1 (en) Image processing apparatus, radiation imaging system, image processing method, and non-transitory computer-readable storage medium
JP7352687B2 (en) Radiography system, radiography control device and method
JP4462349B2 (en) Radiation imaging apparatus and radiation detection signal processing method
JP7161297B2 (en) Radiation imaging system, image processing device, imaging control device and its operation method, program
US12217401B2 (en) Image processing apparatus, image processing method, and storage medium
JP2025023667A (en) IMAGE PROCESSING APPARATUS, RADIATION IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
US20230263492A1 (en) Image processing apparatus, image processing method, and computer-readable medium
WO2022181022A1 (en) Image processing device and method, radiography system, and program
JP2006334085A (en) Radiation imaging apparatus and radiation detection signal processing method
JP7431602B2 (en) Image processing device and image processing method
JP7425619B2 (en) Image processing device and image processing method
US20230401677A1 (en) Image processing apparatus, radiation imaging system, image processing method, and non-transitory computer-readable storage medium
JP4706705B2 (en) Radiation imaging apparatus and radiation detection signal processing method
WO2022185693A1 (en) Image processing device, radiographic imaging system, image processing method, and program
WO2022071024A1 (en) Image processing device, image processing method, and program