[go: up one dir, main page]

JP3658324B2 - Image processing apparatus, image processing system, image processing method, and storage medium - Google Patents

Image processing apparatus, image processing system, image processing method, and storage medium Download PDF

Info

Publication number
JP3658324B2
JP3658324B2 JP2001005572A JP2001005572A JP3658324B2 JP 3658324 B2 JP3658324 B2 JP 3658324B2 JP 2001005572 A JP2001005572 A JP 2001005572A JP 2001005572 A JP2001005572 A JP 2001005572A JP 3658324 B2 JP3658324 B2 JP 3658324B2
Authority
JP
Japan
Prior art keywords
value
image processing
image
partial
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001005572A
Other languages
Japanese (ja)
Other versions
JP2002218202A (en
Inventor
仁司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001005572A priority Critical patent/JP3658324B2/en
Priority to US10/041,447 priority patent/US7003147B2/en
Priority to EP02250213A priority patent/EP1223555A3/en
Publication of JP2002218202A publication Critical patent/JP2002218202A/en
Application granted granted Critical
Publication of JP3658324B2 publication Critical patent/JP3658324B2/en
Priority to US11/271,881 priority patent/US7545968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、X線等の放射線が被写体内部を透過した量(放射線透過量)を画像化するための放射線撮影装置或いはシステムに用いられる、画像処理装置、画像処理システム、画像処理方法、及びそれを実施するための処理ステップをコンピュータが読出可能に格納した記憶媒体に関するものである。
【0002】
【従来の技術】
従来より例えば、被写体内部(人体内部等)を透過したX線量を画像化するX線撮影装置としては、被写体を透過したX線の強度の空間分布を、大判のX線センサパネルにより直接電気信号に変換し、当該電気信号を、アナログ/ディジタル(A/D)変換によりディジタル値に変換することで、被写体のX線画像をディジタル画像として、画像保存、画像処理、及び画像観察等に利用できるようになされた装置がある。
【0003】
上記のX線センサパネルとしては、例えば、被写体が人体胸部であり、この人体胸部を一度にX線撮影しようとする場合、40cm×40cm程度の大きさのセンサパネルが用いられる。このようなX線センサパネルを、人体胸部に対してほぼ接触させ、人体の対向する方向からX線を照射することで、1度のX線撮影で、人体胸部を透過したX線の強度分布に基づいたディジタル画像が得られる。
【0004】
また、人体の細密な構造をX線撮影しようとする場合、画素分解能が0.1〜0.2mm程度の細かさであるX線センサパネルが用いられる。この場合、X線センサパネルは、2000×2000画素〜4000×4000画素サイズ程度の非常に大きなものとなる。
【0005】
ここで、上述したような大型のX線センサパネルから、画像情報を高速且つ安定して読み取る方法としては、例えば、次のような2つの方法が考えられる。
▲1▼比較的小さな部分センサパネルをタイル状に組み合わせて、1つの大型センサパネルを構成する。それぞれのセンサパネルを並行して駆動し、これにより得られた画像情報(電気信号)を、A/D変換器によりディジタル化する。
▲2▼画像情報収集を高速に行うため、若しくはセンサパネル上の実質的な情報配線長を短縮するために、1枚の大型センサパネルを小部分で分割駆動し、これにより得られた画像情報(電気信号)を、それぞれ独立したアンプ及びA/D変換器によりディジタル化する。
【0006】
【発明が解決しようとする課題】
しかしながら、上述したような従来のX線撮影装置では、上記▲1▼や▲2▼の方法のように、単一の系ではなく、それぞれを独立した複数の系でセンサパネルを駆動して、被写体のX線画像情報を収集しようとすると、それぞれの部分パネルの出力である電気信号を扱うアンプやA/D変換器等の特性をも独立して変動(環境による変化、経時変化など)することになる。このため、次のような問題があった。
【0007】
例えば、1枚のセンサパネルを4つの部分に分割し、それぞれの部分パネルを独立して駆動するように構成した場合、先ず、被写体を透過したX線がセンサパネルに対して入射すると、センサパネルの4つの部分パネルから出力される電気信号は、それぞれ独立したアンプ及びA/D変換器によりディジタル化され、4つの部分画像データとして一旦保持される。
このとき、被写体へのX線の放射タイミングに合わせて、センサパネルの4つの部分パネルが駆動制御される。
【0008】
次に、X線を放射させない状態で、上記の撮影動作と同様の動作を行うことで、オフセット的な固定パタンのデータをメモリに保持する。
このとき、当該メモリには、予め、センサパネルの4つの部分パネルにおける、画素毎のゲインのばらつきのデータが格納されている。この情報は、被写体が存在しない状態でX線をセンサパネルヘ向けて曝射し、その画像情報を取得することで得られる。
【0009】
そして、先に取得した4つの部分画像データから、上記メモリに保持した固定パタンデータを差し引き、さらに、ゲインばらつきデータにより、画素毎の補正を行う。
【0010】
ここで、画素毎のゲインばらつきデータは、被写体が存在しない状態でX線を曝射して得られるものであり、例えば、通常の医療現場では、X線撮影毎に取得することは非常に困難であることにより、1日1回のX線撮影で取得される。
また、固定パタンデータについても、X線撮影に非常に近接した時間で取得されるが、同時ではない。
【0011】
上述のようなデータ取得の時間差があることにより、すなわちデータ取得時の環境(温度や湿度等)の差が生じることにより、センサパネル、若しくはその4つの部分に対して設けられたアンプ等の特性に差が生じる可能性がでてくる。
このため、部分画像毎に異なる特性が現れ、部分画像毎にはっきりとした境界が発生してしまうことになる。
【0012】
そこで、上記の問題を解決するために、例えば、特開2000−132663等には、上述のような部分画像の境界近辺で境界方向につながる特徴を有する成分を抽出し、当該特徴成分を取り除く構成が提案されている。この構成によれば、部分画像の変動が比較的小さな場合に非常に有効であり、境界近辺のみを滑らかにすることができ、この結果、画像全体に渡る補正が不要となる。
【0013】
しかしながら、上記の構成では、補正量が大きくなり、部分的な補正のみでは画像全体的な違和感を吸収しきれない場合があった。また、部分画像の境界付近において、境界に沿った形で重要な画像情報が存在する場合、その画像情報が損傷を受けるという問題もあった。
【0014】
そこで、本発明は、上記の欠点を除去するために成されたもので、複数の部分画像の集合で1枚の画像を取得する場合、部分画像の変動を安定して補正する構成により、良好な状態の当該画像を取得できる、画像処理装置、画像処理システム、画像処理方法、及びそれを実施するための処理ステップをコンピュータが読出可能に格納した記憶媒体を提供することを目的とする。
【0015】
【課題を解決するための手段】
斯かる目的下において、第1の発明は、互いに重なり合わない複数の部分画像から1枚の画像を構成するための処理を実行する画像処理装置であって、境界部分領域を介して隣り合う前記部分画像間ごとに複数の段差値を算出し、該複数の段差値ごとから統計値を算出し、該統計値に基づいて前記部分画像間の段差を補正する補正手段とを備えることを特徴とする。
【0016】
第2の発明は、上記第1の発明において、上記複数の部分画像を独立して取得する画像取得手段を備えることを特徴とする。
【0017】
第3の発明は、上記第2の発明において、上記画像取得手段は、1枚のセンサパネルを構成する複数の部分パネルを含むことを特徴とする。
【0018】
第4の発明は、上記第3の発明において、上記センサパネルは、X線センサパネルを含み、上記X線センサパネルで得られる画像を構成する画素値は、上記X線センサパネルヘ入射したX線強度に比例するものであることを特徴とする。
【0019】
第5の発明は、上記第3の発明において、上記センサパネルは、X線センサパネルを含み、上記X線センサパネルで得られる画像を構成する画素値は、上記X線センサパネルヘ入射したX線強度の対数値に比例するものであることを特徴とする。
【0020】
第6の発明は、上記第1〜第5のいずれか一つの発明において、前記段差値は、前記隣り合う部分画像を横切る線分上の該部分画像の傾きを、各部分画像の前記境界部分領域に接する一辺から一定距離内の領域ごとに算出し、該傾きに基づいて前記段差値として算出されることを特徴とする。
【0021】
第7の発明は、上記第1〜第6のいずれか一つの発明において、前記補正手段は、前記複数の段差値ごとの最頻値又は平均値を前記統計値として算出することを特徴とする。
【0022】
第8の発明は、上記第1の発明において、前記補正手段は、対象部分画像を基準として、他の部分画像の補正値を求める際に、前記統計値が補正後に0に近づく様に該補正値を算出することを特徴とする。
【0023】
第9の発明は、上記第8の発明において、前記統計値の合計値が0でない場合には、補正後の前記統計値の絶対値が一定値となるように前記補正値を算出することを特徴とする。
【0024】
第10の発明は、上記第1〜第9のいずれか一つの発明において、前記補正手段は、前記X線センサパネルの入出力特性が線形である範囲の画素値のみを用いて、前記段差値を求めることを特徴とする。
【0025】
第11の発明は、上記第10の発明において、前記補正手段は、前記X線センサパネルに対してX線照射が行われなかった部分と、X線が被写体を透過せずに直接前記X線センサパネルに照射された部分とを除く部分の画素値を、前記X線センサパネルの入出力特性が線形である範囲の画素値とすることを特徴とする。
【0026】
第12の発明は、上記第1の発明において、前記補正手段は、前記複数の部分画像の境界部分領域に実質的な隙間がある場合、前記補正後に、当該隙間部分の画素を補間により生成することを特徴とする。
【0027】
第13の発明は、上記第1の発明において、前記補正手段は、前記補正後に、前記隣り合う部分画像における段差値を再度算出し、該段差を横切る線分上の画素であり、各部分画像の前記境界部分に接する一辺から一定距離内の領域の画素にそれぞれ補正値を加算することで補正することを特徴とする。
【0028】
第14の発明は、上記第13の発明において、前記補正値は、前記再度算出した段差値と前記一辺からの距離で定まる値であり、前記一辺からの距離が大きくなるに従い絶対値が減少することを特徴とする。
【0029】
第15の発明は、複数の機器が互いに通信可能に接続されてなる画像処理システムであって、上記複数の機器のうち少なくとも1つの機器は、請求項1乃至14の何れか1項に記載の画像処理装置の機能を有することを特徴とする。
【0030】
第16の発明は、互いに重なり合わない複数の部分画像から1枚の画像を構成するための画像処理方法であって、境界部分領域を介して隣り合う前記部分画像間ごとに複数の段差値を算出し、該複数の段差値ごとから統計値を算出し、該統計値に基づいて前記部分画像間の段差を補正する補正ステップを含むことを特徴とする。
【0031】
第17の発明は、請求項1乃至14の何れか1項に記載の画像処理装置の機能、又は請求項15記載の画像処理システムの機能をコンピュータに実現させるためのプログラムをコンピュータ読取可能な記憶媒体に記録したことを特徴とする。
【0032】
第18の発明は、請求項16記載の画像処理方法の処理ステップをコンピュータに実行させるためのプログラムをコンピュータ読出可能な記憶媒体に記録したことを特徴とする。
【0033】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
【0034】
<第1の実施の形態>
本発明は、例えば、図1に示すようなX線撮影装置100に適用される。
本実施の形態のX線撮影装置100の具体的な説明の前に、このX線撮影装置100で実施される特徴的な機能について説明する。
【0035】
X線撮影装置100は、1枚のセンサパネルの分割駆動により得られる複数の部分画像の集合から1枚の画像を得るようになされた装置であり、特に、部分画像毎の境界の実質的な段差値を統計的に解釈し、部分画像内の画素値全体に対する補正値(オフセットもしくはゲイン)を定めて、画像補正する機能を有する。また、X線撮影装置100は、上記画像補正を実行した後に、再び、部分画像毎の境界の段差値を求め、上記画像補正では完全に補正しきれない部分を、再度補正することで、部分画像の境界の補正を安定して行えるように構成されている。
以下、X線撮影装置100の特徴とする機能について具体的に説明する。
【0036】
(1)先ず、部分画像毎の境界の実質的な段差値を、次のようにして求める。
【0037】
画像の1次元に着目し、例えば、図2に示すように、部分画像1と、部分画像1に隣接する部分画像2との間には、g画素分の隙間があることを想定しており、部分画像1の画素値を、x(0),x(1),…,x(n)とし、部分画像2の画素値を、x(n+g),x(n+g+1),…とする。
また、部分画像1と部分画像2は、1枚のセンサパネルを分割駆動することで、被写体をX線撮影して得られた部分画像であるため、部分画像1の画素nと、部分画像2の画素(n+g)はオフセット値に誤差が存在し、段差として認識される可能性がある。
【0038】
しかし、両部分画像は同一の被写体を撮影しているため、部分画像1の画素nと、部分画像2の画素(n+g)とは、傾きが連続した関係にあるため、部分画像1の画素値x(0),x(1),…,x(n)から求めた傾きと、部分画像2の画素値x(n+g),x(n+2),…から求めた傾きとの平均を被写体画像情報の傾きとして“K”とする。
【0039】
部分画像1の画素値x(i+p)と、部分画像2の画素値x(i+p)との、境界をまたいだ差分は、
x(i+p)―x(i)
であり、傾きを上記“K”とし、期待される差分を“pK”となるが、このpKの値と、x(i+p)―x(i)の値との差が、実質的な段差の期待値(段差値)dとなる。すなわち、部分画像1,2毎の境界の実質的な段差値dは、
d=PK−x(i+P)+x(i) …(1)
なる式(1)で求められる。
【0040】
段差値dの求め方としては、上記の方法の他、微分値の求め方に依存した様々な方法が考えられる。その一例を次に挙げる。
【0041】
例えば、部分画像1の傾きを、画素値x(n)を基準として求め、部分画像2の傾きを、画素値x(n+g)を基準として求め、それぞれの傾きを、m点の画素値を用いて平均して、傾きKとする。
この場合の傾きKは、
【0042】
【数1】

Figure 0003658324
【0043】
なる式(2)で表される。
【0044】
また、部分画像1の画素値x(i+p)と、部分画像2の画素値x(i)との、境界をまたいだ差分を、境界に対して対称に考え、x(n+g)−x(n),x(n+g+1)−x(n−1),x(n+g+2)−x(n−2),…,x(n+g+m)−x(n−m)とする。
この場合、部分画像毎の境界の実質的な段差値dは、
【0045】
【数2】
Figure 0003658324
【0046】
なる式(3)で表される。
【0047】
上述のような演算処理により、1つの境界をまたぐラインでの実質的な段差値dを得ることができる。また、当該演算処理は、実質的に画素値に規定の係数を乗じて累積をとる累積加算の演算に集約される。
【0048】
ここで、画像像には複数のライン(0〜L)が存在するため、実際には、1つの境界で連続する実質的な段差値列d(i)(i=0〜L)が得られることになる。また、部分画像には、隣接する他の部分画像との境界が複数存在するため、段差値列d(i)も、1つの部分画像につき、複数存在することになる。
ここでは、このような段差値列d(i)から、処理対象となる部分画像(対象部分画像)に対する画素値の変更を統計的に求める。
このための処理方法は、対象部分画像の形態により様々な方法が適用可能であり、ケースバイケースで考える必要がある。
【0049】
その一例として、例えば、1枚のセンサパネルを4つに分割して駆動した場合を考えると、図3に示すように、4つの部分画像A,B,C,Dが「田の字」状に接続される。この場合の境界は、上記図3のa,b,c,dで示される4本現われることになる。それぞれの境界a,b,c,dについて、上述した方法で求めた段差値を、d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))とする。
尚、ここでは、画像中心を原点として、位置を“±”で表す。
【0050】
このとき、部分画像A,B,C,Dのデータが、X線強度に比例するものであれば、段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))は、オフセット値に対応する。したがって、この場合、対数的な変換処理を実行することで、段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))は、ゲインのばらつきに相当することになる。
【0051】
段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))、すなわちゲインのばらつきを用いた補正方法としては、ケースバイケースで様々な方法が考えられるが、その一例として、部分画像A,B,C,Dに対する補正を一定値の加減算で行う補正方法を、以下に説明する。
【0052】
一定値を用いる場合、境界a,b,c,dにおける段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))は、ある1つの値に集約される。このため、段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))からそれぞれ1つづつ、値D0,D1,D2,D3を導き出す。
【0053】
値D0,D1,D2,D3の導き方としては、段差値d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))のそれぞれの平均値を、値D0,D1,D2,D3として求める方法でもよいが、例えば、平均的に補正するのではなく、できるだけ多くの範囲を補正するのであれば、例えば、図4の示すように、値D0,D1,D2,D3として、最頻値(ヒストグラムのピーク)を用いる。
【0054】
当然のことながら、
D0+D1+D2+D3=0
となるはずであるが、計算の誤差、画像ノイズの影響、オフセット値が一定ではないこと等により、一般的には、
D0+D1+D2+D3=ε(≠0)
と考える必要がある。
【0055】
それぞれの部分画像A,B,C,Dのデータに対して、補正値F0,F1,F2,F3を加算することで、境界の段差を補正する。
例えば、部分画像Aを基準とし、F0=0とする。この場合、仮に、
D0+D1+D2+D3=0
であれば、時計周りでも反時計周りで考えても、同様の結果が得られ、補正値F0,F1,F2,F3は、
F0=0
F1=D1=−D0−D3−D2
F2=D1+D2=−D0−D3
F3=D1+D2+D3=−D0
で表される。
【0056】
一方、仮に、
D0+D1+D2+D3=ε(≠0)
である場合、時計周りと反時計周りの平均を以って、この矛盾を回避する。すなわち、この場合の、補正値F0,F1,F2,F3は、
F0=0
F1=(D1−D0−D3−D2)/2
F2=(D1+D2−D0−D3)/2
F3=(D1+D2+D3−D0)/2
で表される。これは、誤差を全体に均一にばらまくことに相当する。
【0057】
上記の矛盾を回避する方法としては、値D0〜D3の中で絶対値が最小のものを、他の値の和の符号を反転させたもので置き換える方法等も適用可能である。また、補正値F0〜F3を全て正の値にするようにしたほうが、結果的に画像の画素値を負にする恐れがなくなるため、補正値F0〜F3の中で最小の値を全てに加えるようしてもよい。
【0058】
(2)次に、1枚の画像全体が複数の部分画像A,B,C,Dの集合であるという違和感を、ユーザ(観察者)へ与えないようにするための処理を、次のようにして実行する。
【0059】
まず、当該処理は、部分画像A,B,C,Dの境界a,b,c,d近辺に対する処理であるため、例えば、特開2000−132663等に記載の方法のように、境界a,b,c,dに対して、境界近辺で境界方向につながる特徴を有する成分を抽出し、境界近辺で当該特徴成分を取り除くことで、境界a,b,c,dを目立たないようにする方法等が適用可能である。しかしながら、特定の画像では問題が発生してしまう場合がある。
【0060】
例えば、図5(a)は、部分画像A,B,C,Dの中の2つの部分画像(部分画像1、部分画像2とする)に着目して、これらの実質的な境界の段差が残留した様子を模式的に示したものである。
【0061】
上記図5(a)において、“51”は、部分画像1の断面を示し、“52”は、部分画像2の断面を示したものである。これらの線51,52は、境界方向にある程度の移動平均をとったものであり、段差の形状を示したものになっている。
【0062】
上記図5(b)は、特開2000−132663等に記載の方法により、部分画像1と部分画像2の境界に対して、境界近辺で境界方向につながる特徴を有する成分を抽出し、境界近辺で当該特徴成分を取り除くことで、境界を目立たないようにした場合の、境界の状態を示したものである。
上記図5(b)では、境界方向に並行して細かな画像変動がないことを前提として、“53”で示されるように補修が行なわれる。しかしながら、上記図5(b)に示すように、移動平均をとった境界方向のデータに細かな変動が残っているため、境界方向に並行した細かな画像変動が生じ、この部分の情報が失われている。
【0063】
上記図5(c)は、同図の“54”で示されるように、段差の前後W画素分だけに滑らかな(同図では直線)修正成分を加え、境界方向に並行した細かな画像変動情報を保持するように、部分画像1と部分画像2を接続した状態を示したものである。
この方法について、以下、具体的に説明する。
【0064】
先ず、一旦補正処理を施した境界のそれぞれに対して、上記式(3)を用いた、境界の実質的な段差値dを求める処理を再度実行する。これにより、再び、d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))で示される段差系列が得られることになる。
【0065】
今回の段差系列d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))は、平均的に“0”になっているはずであるが、部分的に段差が残存していると共に、画像ノイズが加わっている。
【0066】
そこで、段差系列d0(0〜L−1)、d1(0〜(L−1))、d2(−1〜−(L−1))、及びd3(−1〜−(L−1))の移動平均をとり、この結果を、dm0(0〜L−1)、dm1(0〜(L−1))、dm2(−1〜−(L−1))、及びdm3(−1〜−(L−1))とする。
尚、移動平均をとった後に、差分演算を行っても同様の結果となる。すなわち、計算順序によらない。
【0067】
そして、上記図4に示した境界aに関して、部分画像Aのデータへ、
A0(x,y)=dm0(y)(−x/W+1)/2 …(4)
x:0〜W
なる式(4)で示されるA0(x,y)を加える。
また、部分画像Dへ、
D0(x,y)=dm0(y)(x/W+1)/2 …(5)
x:−1〜W
なる式(5)で示されるD0(x,y)を加える。
【0068】
また、上記図4に示した境界bに関しても同様に、部分画像Aのデータへ、
A1(x,y)=dm1(x)(−y/W+1)/2 …(6)
y:0〜W
なる式(6)で示されるA1(x,y)を加える。
また、部分画像Bへ、
B1(x,y)=dm1(x)(y/W+1)/2 …(7)
y:−1〜W
なる式(7)で示されるB1(x,y)を加える。
【0069】
また、上記図4に示した境界cに関しても同様に、部分画像Bのデータへ、
B2(x,y)=dm2(y)(−x/W+1)/2 …(8)
x:0〜W
なる式(8)で示されるB2(x,y)を加える。
また、部分画像Cへ、
C2(x,y)=dm2(y)(x/W+1)/2 …(9)
x:−1〜W
なる式(9)で示されるC2(x,y)を加える。
【0070】
また、上記図4に示した境界dに関しても同様に、部分画像Cのデータへ、
C3(x,y)=dm3(x)(−y/W+1)/2 …(10)
x:0〜W
なる式(10)で示されるC3(x,y)を加える。
また、部分画像Bへ、
B3(x,y)=dm3(x)(y/W+1)/2 …(11)
x:−1〜W
なる式(11)で示されるB3(x,y)を加える。
【0071】
上述のようにして、A0(x,y)、A1(x,y)、B1(x,y)、B2(x,y)、C2(x,y)、C3(x,y)、及びD3(x,y)、のそれぞれの関数を、部分画像A,B,C,Dに加えることで、局所的な段差が線形に補正され、境界での段差をなくすことができる。
【0072】
尚、実質的な段差が、部分画像A,B,C,Dのデータの傾きが考慮されていることにより、画像自体を損傷する恐れが少ないが、余りに大きな値であれば補正はしないようにする工夫を行なうようにしてもよい。
【0073】
以上が、本実施の形態のX線撮影装置100で実施される特徴的な機能についての説明である。以下、X線撮影装置100の構成及び動作について具体的に説明する。
【0074】
[X線撮影装置100の全体構成]
X線撮影装置100は、上記図1に示すように、部分パネル101a〜101d、アンプ102a〜102d、A/D変換器103a〜103d、DMAコントローラ104a〜104d、CPU109、メモリ105〜108,110,116、記憶部111、及び曝射制御部112を備えている。
そして、CPU109、メモリ105〜108,110,116、大容量記憶部111、及び曝射制御部112は、バス115を介して互いに通信可能なように接続されている。
【0075】
[X線撮影装置100の一連の動作]
CPU(中央処理装置)109は、X線撮影装置100全体の動作制御を司るものである。
例えば、メモリ116(プログラムメモリ)には、図6のフローチャートに従った処理プログラムが予め格納されている。CPU109は、プログラムメモリ116から当該処理プログラムを読み出して実行することで、X線撮影装置100全体の動作を制御する。これにより、以下に説明するような、X線撮影装置100の動作が実施される。
【0076】
ステップS201:
被写体114(ここでは、人体)のX線撮影が開始されると、先ず、曝射制御部112がX線管球113を制御することで、X線管球113から放射されたX線は、被写体(人体)114を透過して、部分パネル101a〜101dに対して入射する。
【0077】
ステップS202:
部分パネル101a〜101dは、1枚のセンサパネルを4分割して得られるパネルであり、X線管球113のX線発生のタイミングに基づいて、それぞれ独立して駆動(不図示のスイッチングトランジスタの順次駆動等)される。
これにより、 部分パネル101a〜101dからは、画素に対応する電気信号が出力する。
【0078】
アンプ102a〜102dはそれぞれ、部分パネル101a〜101dの対応する部分パネルから出力される電気信号を受けて増幅して出力する。
A/D変換器103a〜103dはそれぞれ、アンプ102a〜102dの対応するアンプから出力される電気信号を受けてディジタル化して出力する。
【0079】
ステップS203:
DMAコントローラ104a〜104dはそれぞれ、A/D変換器103a〜103dの対応するA/D変換器から出力されるデータ(部分画像データ)をメモリ105(デュアルポートメモリ)にストアする。
デュアルポートメモリ105は、バス115を介して、一連のアドレスを以って該当する部分画像データを読み出せるように構成されている。
【0080】
ステップS204:
デュアルポートメモリ105にストアされた部分画像データは、CPU109若しくはバス115上のDMAコントローラ(不図示)により、メモリ106(フレームメモリ)に格納される。
【0081】
ステップS205、ステップS206:
次に、X線管球113でX線を曝射しない状態で、上記と同様の動作を行う。これにより得られた部分画像データは、オフセット的な固定パタンのデータとして、デュアルポートメモリ105を介して、メモリ107に格納される。
【0082】
ステップS207、ステップS208:
このとき、メモリ108には、予め、ゲインばらつきの情報が格納されている。
具体的には、被写体114が存在しない状態で、X線管球113でX線を部分パネル101a〜101dに向けて曝射し、これにより得られた部分画像データを、部分パネル101a〜101dの画素毎のゲインばらつきの情報として、メモリ108に格納する。
【0083】
したがって、CPU109は、フレームメモリ106内の部分画像データから、メモリ107内の固定パタンデータを差し引き、この結果に対して、メモリ108内のゲインばらつき情報を用いた画素毎の画像全体に対する補正処理を実行し、この結果を、メモリ117に格納する。
【0084】
尚、上記補正処理には除算処理が含まれるが、当該除算処理を、例えば、参照テーブル(Look Up Table:LUT)を用いた対数変換による減算処理として扱うようにしてもよい。
【0085】
また、CPU109は、上記補正処理において、ゲインばらつき情報では補正できない画素(欠陥画素でありデータが得られないような画素等)の位置に関する情報を、メモリ118に格納する。
そして、CPU109は、メモリ117内の補正後の画像データにおいて、メモリ118内の情報により示される画素(欠陥画素)の周辺画素(欠陥画素ではない画素)のデータから類推した画素値を、当該欠陥画素の値として決定する。例えば、周辺画素の平均値を、当該欠陥画素の値として決定する。
【0086】
ステップS209:
上述のような処理が施された画像データは、被写体114の画像データとして、メモリ110ヘ格納される。
このとき、メモリ110を用いずに、メモリ117へ上記画像データを上書きするようにしてもよい。これにより、メモリを有効に使用することができる。
【0087】
尚、上記画像データは、例えば、記憶部111(磁気記憶装置や大容量不揮発性記憶装置等)にファイルとして保存される場合もある。或は、インターフェース(不図示)により、外部の表示装置や記録装置、或は記憶装置等へ出力されることもある。
この場合、上述したような、メモリ107内のデータ(オフセット的な固定パタンデータ)及びメモリ108内のデータ(ゲインばらつき情報)等を用いた処理により、それぞれ独立して得られた部分画像データが正規化され、部分画像であることがユーザからは認識不能になる。
【0088】
[X線撮影装置100の特徴とする動作]
図7は、上述のような動作により、メモリ110に格納された被写体114の画像データの状態を示したものである。
上記図2に示すように、メモリ110には、部分パネル101a〜101dに対応する部分画像A,B,C,Dの各でデータが格納されている。また、部分画像A,B,C,Dの画像間は、g画素分の隙間(以下、「隙間g」と言う)があるものとしている。この隙間は、見方によれば欠陥画素であるが、部分画像A,B,C,Dの間にオフセット的な段差がある場合、平均的な画素補正を行っても無意味である。本実施の形態では、このような場合に後述する各部分画像毎の補正を行った後、平均値を以って画素の補正を行う。
【0089】
具体的には、先ず、ここでは一例として、隙間g=1であるものとする。上述した式(3)式に従って、実質的な段差値dを求める。
ここでの式(3)では、m=3とし、画素値x(n−2)〜x(n+4)にかかる係数を、図8に示す表に従って求める。当該表では、値qにおける微分Kを求める係数と、段差値dを算出する係数とに分け、最終段で総和をとる。
したがって、実質的な段差値dは、
【0090】
【数3】
Figure 0003658324
【0091】
なる式(12)により得られる。
【0092】
上記式(12)により、部分画像の境界x(n+1)をはさむ1次元データ系列に施せば、実質的な段差値列d(i)が、画像データの傾きを考慮した上で得られる。
尚、上記式(12)における“i”は、部分画像の境界に並行した方向のインデックスである。
【0093】
図9及び図10は、上述のような段差値列d(i)を用いた補正処理を示したものである。当該補正処理は、例えば、CPU109が、プログラムメモリ116に予め格納された上記図9及び図10のフローチャートに従った処理プログラムを実行することで実施される。
【0094】
ステップS301〜ステップS304:上記図9参照
上記式(12)により、部分画像A,B,C,Dの境界におけるd0(0)〜d0(n)、a1(n+2)〜d1(M−1)、d2(n+2)〜d2(M−1)、d3(0)〜d3(n)の4つの系列を作成する。
具体的には例えば、図11に示すように、“21”に示す画素のアドレスに従って、境界にまたがって画素値を取り出して上記式(12)の演算処理を行うことで、段差値列d0(i)を求める。このような演算処理を、全ての境界について実行する。
【0095】
ステップS305〜ステップS308:
ステップS301〜ステップS304で求めたd0(0)〜d0(n)、a1(n+2)〜d1(M−1)、d2(n+2)〜d2(M−1)、d3(0)〜d3(n)のそれぞれの最頻値を、D0,D1,D2,D3として求める。
尚、D0,D1,D2,D3としては、例えば、平均値や中央値等の分布を代表する値を用いるようにしてもよい。
【0096】
ステップS309〜ステップS312:
部分画像Aに加えるオフセット値F0を“0”とし、その他の部分画像B,C,Dに加えるオフセット値F1,F2,F3を“(D1−D0−D3−D2)/2”とする。
【0097】
ステップS313〜ステップS317:
ステップS309〜ステップS312でのオフセット値F0〜F3を全て正の値とする。これは、画像の画素値は基本的に正の値であるため、演算後も正の値であることを保証するためである。
具体的には例えば、オフセット値F0〜F3の最小値を“MV”として、それぞれの値に“MV”を加える。
【0098】
ステップS318〜ステップS321:
ステップS313〜ステップS317で求めたオフセット値F0〜F3を、部分画像A〜Dにそれぞれ加える。
この結果をメモリ110へ格納する。
【0099】
上述のようにしてメモリ110に格納された画像は、部分画像A〜D全体にオフセット的な補正のみを行った結果である。しかしながら、実際には、部分画像A〜Dの変動は均一なオフセットとは限らず、現状までの補正では不十分である場合が多い。
そこで、以下に説明するステップS322からの処理により、メモリ110へ格納された画像の境界近辺のみの補正を行い、画像全体が複数部分画像の集合であるという違和感を観察者へ与えないような処理を実行する。ここでの補正は、その一例として、上記図5(c)で示される方法を用いる。
【0100】
ステップS322〜ステップS325:上記図10参照
上記図9のステップS301〜ステップS304と同様にして、実質的な段差値列d0(0)〜d0(n)、a1(n+2)〜d1(M−1)、d2(n+2)〜d2(M−1)、d3(0)〜d3(n)を求める。
【0101】
ステップS326〜ステップS329:
ステップS322〜ステップS325で求めた段差列d0(0)〜d0(n)、a1(n+2)〜d1(M−1)、d2(n+2)〜d2(M−1)、d3(0)〜d3(n)を、移動平均等により滑らかな数値列に変換する。これは、段差列d0(0)〜d0(n)、a1(n+2)〜d1(M−1)、d2(n+2)〜d2(M−1)、d3(0)〜d3(n)が多くのノイズによる影響を受けているためである。
【0102】
ステップS330〜ステップS333:
上述した式(4)〜式(11)により示される、段差成分の局部的な補正処理を実行する。
【0103】
すなわち、境界aに関しては、上記式(4)及び(5)の原点を変更したものを用い、部分画像Aに対しては、“dm0(y)(−x/W+1)/2”(x:n+1〜n+1+W、y:0〜n)を加え、部分画像Dに対しては、“dm0(y)(x/W+1)/2” (x:n−W〜n、y:0〜n)を加える。
また、境界bに関しても同様に、上記式(6)及び(7)の原点を変更したものを用い、部分画像Aに対しては、“dm1(x)(−y/W+1)/2”(x:n+1〜M−1、y:n−W〜n)を加え、部分画像Bに対しては、“B1(x,y)=dm1(x)(y/W+1)/2”(x:n+1〜M−1、y:n+1〜n+1+W)を加える。
また、境界cに関しても同様に、上記式(8)及び(9)の原点を変更したものを用い、部分画像Bに対しては、“B2(x,y)=dm2(y)(−x/W+1)/2”(x:n+1〜n+1+W、y:n+1〜M−1)を加え、部分画像Cに対しては、“C2(x,y)=dm2(y)(x/W+1)/2”(x:n−W〜n、y:n+1〜M−1)を加える。
また、境界dに関しても同様に、上記式(10)及び(11)の原点を変更したものを用い、部分画像Cに対しては、“C3(x,y)=dm3(x)(−y/W+1)/2” (x:0〜n、y:n−W〜n)を加え、部分画像Bに対しては、“B3(x,y)=dm3(x)(y/W+1)/2”(x:0〜n、y:n+1〜n+1+W)を加える。
【0104】
ステップS334:
ステップS330〜ステップS333により、部分画像A,B,C,Dについて、局所的な段差が線形に補正され境界での段差がなくなると、最後に残った境界部分の画素を、近傍の欠陥では無い画素で補間する。ここで補間された画素の領域は、境界部分に1画素分だけ画素のない領域があり、従来では部分画像毎の補正を行わなければ補間処理ができなかった領域である。
【0105】
尚、本実施の形態では、上述したような動作を、計算機システムにおけるプログラミングで実現するように構成したが、これに限られることはなく、例えば、ハードウェアにより実現するようにしてもよい。或いは、ハードウェア及びプログラム環境とを混合した構成で実現するようにしてもよい。
【0106】
<第2の実施の形態>
第1の実施の形態では、1枚のセンサパネルを4分割した部分パネル101a〜101dにより得られた4つの部分画像を独立した系で並列に処理する構成としたが、本実施の形態では、さらに多くの部分画像を独立した系で並列に処理する。
【0107】
例えば、図12(a)に示すように、9つの部分画像(00),(01),(02),(10),(11),(12),(20),(21),(22)の集合で1枚の画像を構成するものとした場合、部分画像(00),(01),(02),(10),(11),(12),(20),(21),(22)の境界は、12個存在することになる。
【0108】
この場合、部分画像(00),(01),(02),(10),(11),(12),(20),(21),(22)に対して、上記図12(b)の矢印で示す方向に、実質的な段差値dを、第1の実施の形態と同様にして求める。
この段差値dは、それぞれ独立して求めたものであり、全てが矛盾ないとは限らない。したがって、あらゆるルートでの段差値の和の平均値から、それぞれの部分画像へ加える補正オフセット値を求める必要がある。
【0109】
具体手には、上記図12(a)に示す部分画像(00),(01),(02),(10),(11),(12),(20),(21),(22)のつながりは、同図(b)に示すようなセル(部分画像)間をめぐる巡回問題になる。
ここで、ある1つのセルから出発して、接続線上にある段差値を加算してゆき、元のセルに到達した時の値がどのルートを通っても“0”にならなければ、この系は矛盾していることになる。ここでは、この矛盾を解決する方法を実現する。
【0110】
例えば、部分画像(00)に加えるオフセット値を基準としてF00=“0”とする。次の部分画像(01)のオフセット値F01は、部分画像(00)からスタートして部分画像(01)に至る全てのパスを通るオフセット値の平均で求める。
この場合、上記図12(b)の破線で示すような4つのルートが、最も少ないルートで全てをカバーするようになると考えられる。このときのオフセット値F01は、
F01=(d0001+3・d0010+2・d1020+2
・d2021+d2122−d1222−2・d0212−2
・d0102−d1121−d0111)/4
なる演算により求めることができる。
【0111】
尚、上記の方法では、通るパスによって、何度も用いる段差値があり、平均に偏りができてしまう恐れがある。このパスは、演えき的に考えてもなかなか求まらない。最適なルート(なるべく均等に全てのパスを通過するルート)を求めるには、ダイナミックプログラミング等の特殊な手法を用いることが好ましい。
【0112】
上述のようにして、部分画像(00)から他の全ての部分画像(01),(02),(10),(11),(12),(20),(21),(22)にまで至る全てのルートの探索が終了すると、これについての情報を記憶する。そして、段差値を計算した後に、それぞれの部分画像(00),(01),(02),(10),(11),(12),(20),(21),(22)に加算する補正オフセット値F01,F02,F10,F11,F12,F20,F21,F22を矛盾なく求める。最終的に、全ての補正オフセット値が正になるように最小値を加えるようにしてもよい。
その後、全て境界において、第1の実施の形態と同様の段差の補正処理を実行する。
【0113】
<第3の実施の形態>
本実施の形態では、上記図1のX線撮影装置100により得られた被写体114の画像が、すなわちメモリ110に格納された画像が、例えば、図13に示すような画像であるとする。
【0114】
上記図13において、“41”は、X線照射がなされていない部分であり、“42”は、X線管球113から発せられるX線をコリメータにより絞った部分であり、“43”は、被写体114が投影された部分である。
すなわち、部分41には、ほとんど若しくは全くX線照射が無い画素が存在し、これとは逆に、部分42(被写体114の無い部分)には、被写体114を透過しなかった非常に強いX線照射による画素が存在する。そして、部分43(被写体114の部分)には、これらの中間的なX線強度による画素が存在する。
【0115】
ここで、X線のセンサパネルの出力(電気信号)では、一般的に、入射したX線強度に比例するものとなるが、そのエネルギー変換の過程若しくは電気信号の変換過程(増幅やインピーダンス変換等)において、X線強度と出力電気信号の線形性(リニアリティー)が、センサパネルの感度領域において全て一定であるとは限らない。
特に、X線強度が非常に強い部分では、次第に電気系の出力飽和領域に近づくための非線形性が現れる。また、X線照射が弱い部分では、ノイズの影響や電気回路の超低電圧での挙動の不安定性等からの非線形性が現れる。
【0116】
上述のような非線形性が現れる部分の画像情報は、ほとんどの場合、無意味な情報であり、通常では当該画像情報が存在しても問題はない。
しかしながら、部分画像の一部分の統計的な挙動から部分画像全体のオフセット成分(例えば、X線に比例する画像データであればオフセット、対数に比例する画像データであればゲイン)を導きだす場合において、上述のような非線形性による誤差の大きな部分がかなりの面積を占める場合、その誤差に画像全体の結果が引きずられる結果になり、正確なオフセット成分の抽出には至らない。
【0117】
そこで、本実施の形態では、予め、センサパネル101a〜101dの感度範囲の中で、リニアリティーが信頼できる区間を定め、実質的な段差値dを算出する前、若しくは同時に近辺の平均値等の代表的な値が信頼できる区間にある場合のみ、その段差値dを採用することで、必要な領域での段差値dを求める。
このため、上記図9のステップS301〜ステップS308の処理を、次のような処理とする。
【0118】
例えば、医療用X線撮影の場合、被写体114を透過してセンサパネル101a〜101dに至るX線量は、予めX線量を被写体114に照射する、或いはフォトタイマーと呼ばれるX線量を測定することによって、適当な線量値になった時点でX線を遮断するようになされている。これにより、X線量は、常に最適に調整され、被写体情報がある部分でのリニアリティーが常に最適である場合が多い。
【0119】
このため、本実施の形態では、境界をはさむデータの平均値m(i)を、
【0120】
【数4】
Figure 0003658324
【0121】
なる式(13)により求め、平均値m(i)が、信頼できる区間の最小値V0及び最大値V1を以って、
V0≦m(i)≦V1
なる条件を満たす場合に、上述した式(12)により得られる段差値d(i)を採用してヒストグラム作成に加える。
【0122】
尚、本発明の目的は、第1〜第3の実施の形態のホスト及び端末の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が第1〜第3の実施の形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
また、コンピュータが読みだしたプログラムコードを実行することにより、第1〜第3の実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって第1〜第3の実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって第1〜第3の実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0123】
【発明の効果】
以上説明したように本発明によれば、複数の部分画像の集合で1枚の画像を構成する場合、部分画像間の境界付近の画素値の統計的性質に基づいて、当該部分画像間の段差を補正するように構成したので、境界部分での実質的な段差値を統計的に処理することができるため、個々の部分画像の変動を安定して補正することができる。したがって、良好な画質の1枚の画像を提供できる。
【図面の簡単な説明】
【図1】第1の実施の形態において、本発明を適用したX線撮影装置の構成を示すブロック図である。
【図2】部分画像の段差の様子を1次元で模式的に説明するための図である。
【図3】4枚の部分画像を説明するための図である。
【図4】部分画像の補正方法の一例を模式的に説明するための図である。
【図5】部分画像の境界部分の補修方法の一例を模式的に説明するための図である。
【図6】上記X線撮影装置の全体動作を説明するためのフローチャートである。
【図7】上記X線撮影装置の部分パネルで得られる部分画像を説明するための図である。
【図8】部分画像の実質的な段差を求める際に用いる表を説明するための図である。
【図9】上記X線撮影装置において、部分画像間のオフセット差を求める処理を説明するためのフローチャートである。
【図10】上記X線撮影装置において、部分画像の境界部分の補修を行う処理を説明するためのフローチャートである。
【図11】上記実質的な段差値の求め方を具体的に説明するための図である。
【図12】第2の実施の形態における、複数枚の部分画像を説明するための図である。
【図13】第2の実施の形態における、4枚の部分画像を説明するための図である。
【符号の説明】
100 X線撮影装置
101a〜101d 部分パネル
102a〜102d アンプ
103a〜103d A/D変換器
104a〜104d DMAコントローラ
105〜108,110,116 メモリ
109 CPU
111 記憶部
112 曝射制御部
115 バス[0001]
BACKGROUND OF THE INVENTION
The present invention provides, for example, an image processing apparatus, an image processing system, an image processing method used in a radiation imaging apparatus or system for imaging an amount of radiation (amount of radiation transmission) transmitted through the inside of a subject, such as X-rays, In addition, the present invention relates to a storage medium in which processing steps for carrying it out are stored in a computer-readable manner.
[0002]
[Prior art]
Conventionally, for example, as an X-ray imaging apparatus that images an X-ray dose that has passed through a subject (such as the inside of a human body), the spatial distribution of the intensity of the X-ray that has passed through the subject is directly converted into an electric signal by a large-format X-ray sensor panel. By converting the electric signal into a digital value by analog / digital (A / D) conversion, the X-ray image of the subject can be used as a digital image for image storage, image processing, image observation, etc. There is a device made so.
[0003]
As the X-ray sensor panel, for example, when the subject is a human chest and the human chest is to be radiographed at a time, a sensor panel having a size of about 40 cm × 40 cm is used. By making such an X-ray sensor panel almost in contact with the human chest and irradiating the X-ray from the opposite direction of the human body, the intensity distribution of the X-ray transmitted through the human chest in one X-ray imaging A digital image based on the above is obtained.
[0004]
Further, when X-ray imaging is performed on a fine structure of the human body, an X-ray sensor panel having a pixel resolution of about 0.1 to 0.2 mm is used. In this case, the X-ray sensor panel has a very large size of about 2000 × 2000 pixels to 4000 × 4000 pixels.
[0005]
Here, as a method of reading image information at high speed and stably from the large X-ray sensor panel as described above, for example, the following two methods are conceivable.
(1) A relatively large partial sensor panel is combined in a tile shape to constitute one large sensor panel. Each sensor panel is driven in parallel, and image information (electric signal) obtained thereby is digitized by an A / D converter.
(2) Image information obtained by dividing and driving a large sensor panel in small parts in order to collect image information at high speed or to shorten the substantial information wiring length on the sensor panel. The (electrical signal) is digitized by an independent amplifier and A / D converter.
[0006]
[Problems to be solved by the invention]
However, in the conventional X-ray imaging apparatus as described above, the sensor panel is driven not by a single system but by a plurality of independent systems, as in the methods (1) and (2), When trying to collect X-ray image information of the subject, the characteristics of the amplifiers, A / D converters, etc. that handle the electrical signals that are the output of each partial panel also vary independently (changes due to the environment, changes over time, etc.) It will be. For this reason, there were the following problems.
[0007]
For example, when one sensor panel is divided into four parts and each part panel is driven independently, first, when X-rays transmitted through the subject are incident on the sensor panel, the sensor panel The electric signals output from the four partial panels are digitized by independent amplifiers and A / D converters and temporarily held as four partial image data.
At this time, the four partial panels of the sensor panel are driven and controlled in accordance with the X-ray emission timing to the subject.
[0008]
Next, in a state where X-rays are not emitted, an operation similar to the above-described imaging operation is performed to hold offset fixed pattern data in the memory.
At this time, the memory stores in advance gain variation data for each pixel in the four partial panels of the sensor panel. This information can be obtained by exposing X-rays toward the sensor panel in the absence of a subject and acquiring the image information.
[0009]
Then, the fixed pattern data held in the memory is subtracted from the previously acquired four partial image data, and further, pixel-by-pixel correction is performed using the gain variation data.
[0010]
Here, the gain variation data for each pixel is obtained by exposing X-rays in the absence of a subject. For example, it is very difficult to obtain for each X-ray imaging in a normal medical field. Therefore, it is acquired by X-ray imaging once a day.
Also, the fixed pattern data is acquired at a time very close to the X-ray imaging, but not at the same time.
[0011]
Due to the time difference in data acquisition as described above, that is, due to the difference in environment (temperature, humidity, etc.) at the time of data acquisition, characteristics of the sensor panel or amplifiers provided for the four parts thereof There is a possibility that a difference will occur.
For this reason, different characteristics appear for each partial image, and a clear boundary is generated for each partial image.
[0012]
In order to solve the above problem, for example, Japanese Patent Application Laid-Open No. 2000-132663, etc., extracts a component having a feature connected to the boundary direction in the vicinity of the boundary of the partial image as described above and removes the feature component. Has been proposed. According to this configuration, it is very effective when the variation of the partial image is relatively small, and only the vicinity of the boundary can be smoothed. As a result, correction for the entire image becomes unnecessary.
[0013]
However, in the above configuration, the correction amount becomes large, and there are cases where the entire image cannot be absorbed by only partial correction. In addition, when important image information exists in a form along the boundary in the vicinity of the boundary of the partial image, the image information is damaged.
[0014]
Therefore, the present invention was made to eliminate the above-described drawbacks, and when acquiring a single image from a set of a plurality of partial images, it is preferable to stably correct the variation of the partial images. An object of the present invention is to provide an image processing apparatus, an image processing system, an image processing method, and a storage medium in which processing steps for implementing the image can be read by a computer.
[0015]
[Means for Solving the Problems]
Under such an object, the first invention is an image processing apparatus that executes a process for composing one image from a plurality of partial images that do not overlap with each other, and is adjacent to each other via a boundary partial region. Correction means for calculating a plurality of step values for each partial image, calculating a statistical value from each of the plurality of step values, and correcting the step between the partial images based on the statistical value; To do.
[0016]
According to a second aspect, in the first aspect, the image processing device further includes image acquisition means for acquiring the plurality of partial images independently.
[0017]
According to a third aspect, in the second aspect, the image acquisition means includes a plurality of partial panels constituting one sensor panel.
[0018]
In a fourth aspect based on the third aspect, the sensor panel includes an X-ray sensor panel, and a pixel value constituting an image obtained by the X-ray sensor panel is an X value incident on the X-ray sensor panel. It is proportional to the line intensity.
[0019]
In a fifth aspect based on the third aspect, the sensor panel includes an X-ray sensor panel, and a pixel value constituting an image obtained by the X-ray sensor panel is an X value incident on the X-ray sensor panel. It is proportional to the logarithmic value of the line intensity.
[0020]
In a sixth aspect based on any one of the first to fifth aspects, the step value is an inclination of the partial image on a line segment crossing the adjacent partial images, and the boundary portion of each partial image. It is calculated for each region within a certain distance from one side in contact with the region, and is calculated as the step value based on the inclination.
[0021]
In a seventh aspect based on any one of the first to sixth aspects, the correction means calculates a mode value or an average value for each of the plurality of step values as the statistical value. .
[0022]
In an eighth aspect based on the first aspect, when the correction means obtains a correction value of another partial image with reference to the target partial image, the correction value is adjusted so that the statistical value approaches 0 after correction. A value is calculated.
[0023]
In a ninth aspect based on the eighth aspect, when the total value of the statistical values is not 0, the correction value is calculated so that the absolute value of the corrected statistical value becomes a constant value. Features.
[0024]
In a tenth aspect based on any one of the first to ninth aspects, the correction means uses only the pixel value in a range where the input / output characteristics of the X-ray sensor panel are linear. It is characterized by calculating | requiring.
[0025]
In an eleventh aspect based on the tenth aspect, the correcting means includes a portion where the X-ray sensor panel is not irradiated with X-rays, and the X-rays directly without passing through the subject. The pixel value of the portion excluding the portion irradiated to the sensor panel is set to a pixel value in a range where the input / output characteristics of the X-ray sensor panel are linear.
[0026]
In a twelfth aspect based on the first aspect, when there is a substantial gap in a boundary area between the plurality of partial images, the correction means generates a pixel of the gap after interpolation after interpolation. It is characterized by that.
[0027]
In a thirteenth aspect based on the first aspect, after the correction, the correction means recalculates a step value in the adjacent partial image, and is a pixel on a line segment that crosses the step, and each partial image Correction is performed by adding a correction value to each pixel in a region within a certain distance from one side in contact with the boundary portion.
[0028]
In a fourteenth aspect based on the thirteenth aspect, the correction value is a value determined by the step value calculated again and the distance from the one side, and the absolute value decreases as the distance from the one side increases. It is characterized by that.
[0029]
A fifteenth aspect of the present invention is an image processing system in which a plurality of devices are communicably connected to each other, and at least one of the plurality of devices is described in any one of claims 1 to 14. It has a function of an image processing apparatus.
[0030]
A sixteenth aspect of the invention is an image processing method for constructing one image from a plurality of partial images that do not overlap with each other, and a plurality of step values are set for each of the partial images adjacent to each other through a boundary partial region. And calculating a statistic value from each of the plurality of step values, and correcting a step between the partial images based on the statistic value.
[0031]
A seventeenth aspect of the invention is a computer-readable storage for storing a program for causing a computer to realize the function of the image processing apparatus according to any one of claims 1 to 14 or the function of the image processing system according to claim 15. It is recorded on a medium.
[0032]
According to an eighteenth aspect, a program for causing a computer to execute the processing steps of the image processing method according to claim 16 is recorded on a computer-readable storage medium.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0034]
<First Embodiment>
The present invention is applied to, for example, an X-ray imaging apparatus 100 as shown in FIG.
Prior to specific description of the X-ray imaging apparatus 100 of the present embodiment, characteristic functions implemented by the X-ray imaging apparatus 100 will be described.
[0035]
The X-ray imaging apparatus 100 is an apparatus configured to obtain one image from a set of a plurality of partial images obtained by dividing and driving a single sensor panel. In particular, the X-ray imaging apparatus 100 has a substantial boundary of each partial image. It has a function of statistically interpreting the step value, determining a correction value (offset or gain) for the entire pixel value in the partial image, and correcting the image. In addition, the X-ray imaging apparatus 100 again obtains the step value of the boundary for each partial image after executing the image correction, and corrects the portion that cannot be completely corrected by the image correction, thereby correcting the partial The image boundary is corrected stably.
Hereinafter, functions that are characteristic of the X-ray imaging apparatus 100 will be described in detail.
[0036]
(1) First, a substantial step value at the boundary for each partial image is obtained as follows.
[0037]
Focusing on one dimension of the image, for example, as shown in FIG. 2, it is assumed that there is a gap of g pixels between the partial image 1 and the partial image 2 adjacent to the partial image 1. , X (0), x (1),..., X (n) and pixel values of partial image 2 are x (n + g), x (n + g + 1),.
Further, since the partial image 1 and the partial image 2 are partial images obtained by X-ray imaging of the subject by driving one sensor panel in a divided manner, the pixel n of the partial image 1 and the partial image 2 The pixel (n + g) has an offset value error and may be recognized as a step.
[0038]
However, since both partial images are taken of the same subject, the pixel n of the partial image 1 and the pixel (n + g) of the partial image 2 are in a continuous relationship, so that the pixel value of the partial image 1 The average of the inclination obtained from x (0), x (1),..., x (n) and the inclination obtained from the pixel values x (n + g), x (n + 2),. Let “K” be the slope of the angle.
[0039]
The difference across the boundary between the pixel value x (i + p) of the partial image 1 and the pixel value x (i + p) of the partial image 2 is
x (i + p) −x (i)
The slope is “K” and the expected difference is “pK”. The difference between the value of pK and the value of x (i + p) −x (i) is a substantial step difference. Expected value (step value) d. That is, the substantial step value d of the boundary for each of the partial images 1 and 2 is
d = PK−x (i + P) + x (i) (1)
It is calculated by the following formula (1).
[0040]
As a method of obtaining the step value d, various methods depending on the method of obtaining the differential value can be considered in addition to the above method. An example is given below.
[0041]
For example, the inclination of the partial image 1 is obtained on the basis of the pixel value x (n), the inclination of the partial image 2 is obtained on the basis of the pixel value x (n + g), and each inclination is used as the pixel value of m points. Averaged to be the slope K.
The slope K in this case is
[0042]
[Expression 1]
Figure 0003658324
[0043]
It is represented by the following formula (2).
[0044]
Further, the difference across the boundary between the pixel value x (i + p) of the partial image 1 and the pixel value x (i) of the partial image 2 is considered symmetrically with respect to the boundary, and x (n + g) −x (n ), X (n + g + 1) −x (n−1), x (n + g + 2) −x (n−2),..., X (n + g + m) −x (n−m).
In this case, the substantial step value d of the boundary for each partial image is
[0045]
[Expression 2]
Figure 0003658324
[0046]
It is represented by the following formula (3).
[0047]
By the arithmetic processing as described above, it is possible to obtain a substantial step value d in a line that crosses one boundary. In addition, the calculation process is summarized as a calculation of cumulative addition that is obtained by multiplying the pixel value by a specified coefficient to obtain a cumulative value.
[0048]
Here, since there are a plurality of lines (0 to L) in the image image, a substantial step value sequence d (i) (i = 0 to L) continuous in one boundary is actually obtained. It will be. In addition, since a partial image has a plurality of boundaries with other adjacent partial images, a plurality of step value sequences d (i) also exist for each partial image.
Here, a change in pixel value for a partial image (target partial image) to be processed is statistically obtained from such a step value sequence d (i).
As a processing method for this purpose, various methods can be applied depending on the form of the target partial image, and it is necessary to consider on a case-by-case basis.
[0049]
As an example, for example, when considering a case where one sensor panel is divided into four and driven, as shown in FIG. 3, four partial images A, B, C, and D are in a “field shape”. Connected to. In this case, four boundaries indicated by a, b, c, and d in FIG. 3 appear. For each of the boundaries a, b, c, and d, the step values obtained by the above-described method are expressed as d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L -1)), and d3 (-1 to-(L-1)).
Here, the position is represented by “±” with the center of the image as the origin.
[0050]
At this time, if the data of the partial images A, B, C, and D are proportional to the X-ray intensity, the step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (−1 to − (L−1)) and d3 (−1 to − (L−1)) correspond to offset values. Accordingly, in this case, by performing logarithmic conversion processing, the step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)). , And d3 (−1 to − (L−1)) correspond to variations in gain.
[0051]
Step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and d3 (-1 to-(L-1)), Various correction methods using gain variations are conceivable on a case-by-case basis. As an example, a correction method for correcting the partial images A, B, C, and D by adding and subtracting a constant value is as follows. Explained.
[0052]
When using a constant value, the step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)) at the boundaries a, b, c and d, And d3 (−1 to − (L−1)) are aggregated into one value. Therefore, the step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and d3 (-1 to-(L-1). ), Values D0, D1, D2 and D3 are derived one by one.
[0053]
As the method of deriving the values D0, D1, D2, and D3, the step values d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and The average value of each of d3 (−1 to − (L−1)) may be obtained as values D0, D1, D2, and D3. For example, the average value is not corrected on the average, but as many ranges as possible are obtained. For correction, for example, as shown in FIG. 4, mode values (histogram peaks) are used as values D0, D1, D2, and D3.
[0054]
As a matter of course,
D0 + D1 + D2 + D3 = 0
In general, due to calculation error, image noise influence, offset value is not constant, etc.
D0 + D1 + D2 + D3 = ε (≠ 0)
It is necessary to think.
[0055]
The boundary steps are corrected by adding correction values F0, F1, F2, and F3 to the data of the partial images A, B, C, and D, respectively.
For example, the partial image A is used as a reference, and F0 = 0. In this case,
D0 + D1 + D2 + D3 = 0
If this is the case, the same result can be obtained regardless of whether it is clockwise or counterclockwise, and the correction values F0, F1, F2, F3 are
F0 = 0
F1 = D1 = -D0-D3-D2
F2 = D1 + D2 = -D0-D3
F3 = D1 + D2 + D3 = −D0
It is represented by
[0056]
On the other hand,
D0 + D1 + D2 + D3 = ε (≠ 0)
If this is the case, avoid this contradiction with an average of clockwise and counterclockwise. That is, the correction values F0, F1, F2, and F3 in this case are
F0 = 0
F1 = (D1-D0-D3-D2) / 2
F2 = (D1 + D2-D0-D3) / 2
F3 = (D1 + D2 + D3-D0) / 2
It is represented by This corresponds to distributing the error uniformly throughout.
[0057]
As a method for avoiding the above contradiction, a method in which the absolute value among the values D0 to D3 is replaced with a value obtained by inverting the sign of the sum of the other values can be applied. In addition, if all the correction values F0 to F3 are set to positive values, there is no possibility that the pixel values of the image are negative as a result. Therefore, the smallest value among the correction values F0 to F3 is added to all. You may do it.
[0058]
(2) Next, a process for preventing the user (observer) from feeling uncomfortable that an entire image is a set of a plurality of partial images A, B, C, and D is as follows. And run.
[0059]
First, since the process is a process for the vicinity of the boundaries a, b, c, and d of the partial images A, B, C, and D, for example, as in the method described in JP-A-2000-132663, the boundaries a, A method of extracting components having features connected to the boundary direction in the vicinity of the boundary with respect to b, c, and d, and removing the feature components in the vicinity of the boundary, thereby making the boundaries a, b, c, and d inconspicuous. Etc. are applicable. However, there may be a problem with a specific image.
[0060]
For example, in FIG. 5A, focusing on two partial images (partial image 1 and partial image 2) in the partial images A, B, C, and D, the difference in the substantial boundary between them is shown. The state of remaining is schematically shown.
[0061]
In FIG. 5A, “51” indicates a cross section of the partial image 1, and “52” indicates a cross section of the partial image 2. These lines 51 and 52 take a certain moving average in the boundary direction, and show the shape of the step.
[0062]
FIG. 5 (b) is a method in which a component having a feature connected to the boundary direction in the vicinity of the boundary is extracted from the boundary between the partial image 1 and the partial image 2 by the method described in Japanese Patent Laid-Open No. 2000-132663. 3 shows the state of the boundary when the feature component is removed to make the boundary inconspicuous.
In FIG. 5B, the repair is performed as indicated by “53” on the premise that there is no fine image variation in parallel with the boundary direction. However, as shown in FIG. 5B, since fine fluctuations remain in the data in the boundary direction obtained by taking the moving average, fine image fluctuations in parallel with the boundary direction occur, and this portion of information is lost. It has been broken.
[0063]
In FIG. 5C, as indicated by “54” in FIG. 5, a smooth (straight line in FIG. 5) correction component is added only to the W pixels before and after the step, and fine image fluctuations parallel to the boundary direction. A state in which the partial image 1 and the partial image 2 are connected so as to retain information is shown.
This method will be specifically described below.
[0064]
First, the process of obtaining the substantial step value d of the boundary using the above equation (3) is executed again for each of the boundaries once subjected to the correction process. Thereby, d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and d3 (-1 to-(L-1)) again. ) Will be obtained.
[0065]
The current step series d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and d3 (-1 to-(L-1)) Should be “0” on average, but a step remains partially and image noise is added.
[0066]
Therefore, the step series d0 (0 to L-1), d1 (0 to (L-1)), d2 (-1 to-(L-1)), and d3 (-1 to-(L-1)). Dm0 (0 to L-1), dm1 (0 to (L-1)), dm2 (-1 to-(L-1)), and dm3 (-1 to-). (L-1)).
It should be noted that the same result can be obtained by calculating the difference after taking the moving average. That is, it does not depend on the calculation order.
[0067]
Then, with respect to the boundary a shown in FIG.
A0 (x, y) = dm0 (y) (− x / W + 1) / 2 (4)
x: 0 to W
A0 (x, y) represented by the following formula (4) is added.
Also, to partial image D,
D0 (x, y) = dm0 (y) (x / W + 1) / 2 (5)
x: -1 to W
D0 (x, y) represented by the following formula (5) is added.
[0068]
Similarly, with respect to the boundary b shown in FIG.
A1 (x, y) = dm1 (x) (− y / W + 1) / 2 (6)
y: 0 to W
A1 (x, y) represented by the following formula (6) is added.
Also, to partial image B,
B1 (x, y) = dm1 (x) (y / W + 1) / 2 (7)
y: -1 to W
B1 (x, y) represented by the following formula (7) is added.
[0069]
Similarly, the boundary c shown in FIG.
B2 (x, y) = dm2 (y) (− x / W + 1) / 2 (8)
x: 0 to W
B2 (x, y) represented by the following formula (8) is added.
Also, to partial image C,
C2 (x, y) = dm2 (y) (x / W + 1) / 2 (9)
x: -1 to W
C2 (x, y) represented by the following formula (9) is added.
[0070]
Similarly, with respect to the boundary d shown in FIG.
C3 (x, y) = dm3 (x) (− y / W + 1) / 2 (10)
x: 0 to W
C3 (x, y) represented by the following formula (10) is added.
Also, to partial image B,
B3 (x, y) = dm3 (x) (y / W + 1) / 2 (11)
x: -1 to W
B3 (x, y) represented by the following formula (11) is added.
[0071]
As described above, A0 (x, y), A1 (x, y), B1 (x, y), B2 (x, y), C2 (x, y), C3 (x, y), and D3 By adding each function of (x, y) to the partial images A, B, C, and D, the local step is corrected linearly, and the step at the boundary can be eliminated.
[0072]
The substantial step is less likely to damage the image itself because the inclination of the data of the partial images A, B, C, and D is taken into account, but if the value is too large, the correction is not performed. You may make it perform the device to do.
[0073]
This completes the description of the characteristic functions performed by the X-ray imaging apparatus 100 of the present embodiment. Hereinafter, the configuration and operation of the X-ray imaging apparatus 100 will be specifically described.
[0074]
[Overall configuration of X-ray imaging apparatus 100]
As shown in FIG. 1, the X-ray imaging apparatus 100 includes partial panels 101a to 101d, amplifiers 102a to 102d, A / D converters 103a to 103d, DMA controllers 104a to 104d, a CPU 109, memories 105 to 108, 110, 116, a storage unit 111, and an exposure control unit 112.
The CPU 109, the memories 105 to 108, 110, 116, the large capacity storage unit 111, and the exposure control unit 112 are connected via a bus 115 so that they can communicate with each other.
[0075]
[A series of operations of the X-ray imaging apparatus 100]
A CPU (central processing unit) 109 controls operation of the entire X-ray imaging apparatus 100.
For example, a processing program according to the flowchart of FIG. 6 is stored in advance in the memory 116 (program memory). The CPU 109 controls the overall operation of the X-ray imaging apparatus 100 by reading out the processing program from the program memory 116 and executing it. Thereby, the operation of the X-ray imaging apparatus 100 as described below is performed.
[0076]
Step S201:
When X-ray imaging of the subject 114 (here, a human body) is started, first, the exposure control unit 112 controls the X-ray tube 113 so that X-rays emitted from the X-ray tube 113 are The light passes through the subject (human body) 114 and enters the partial panels 101a to 101d.
[0077]
Step S202:
The partial panels 101a to 101d are panels obtained by dividing one sensor panel into four, and are driven independently based on the X-ray generation timing of the X-ray tube 113 (switching transistors (not shown)). Sequentially driven).
As a result, electrical signals corresponding to the pixels are output from the partial panels 101a to 101d.
[0078]
Each of the amplifiers 102a to 102d receives and amplifies and outputs an electric signal output from the corresponding partial panel of the partial panels 101a to 101d.
Each of the A / D converters 103a to 103d receives an electrical signal output from a corresponding amplifier of the amplifiers 102a to 102d, digitizes it, and outputs it.
[0079]
Step S203:
Each of the DMA controllers 104a to 104d stores data (partial image data) output from the corresponding A / D converters of the A / D converters 103a to 103d in the memory 105 (dual port memory).
The dual port memory 105 is configured to be able to read the corresponding partial image data through a bus 115 with a series of addresses.
[0080]
Step S204:
The partial image data stored in the dual port memory 105 is stored in the memory 106 (frame memory) by the CPU 109 or the DMA controller (not shown) on the bus 115.
[0081]
Step S205, Step S206:
Next, the same operation as described above is performed in a state where the X-ray tube 113 does not emit X-rays. The partial image data obtained as a result is stored in the memory 107 via the dual port memory 105 as offset fixed pattern data.
[0082]
Step S207, Step S208:
At this time, gain variation information is stored in the memory 108 in advance.
Specifically, in the state where the subject 114 does not exist, the X-ray tube 113 exposes X-rays toward the partial panels 101a to 101d, and the partial image data obtained thereby is displayed on the partial panels 101a to 101d. Information on gain variation for each pixel is stored in the memory 108.
[0083]
Therefore, the CPU 109 subtracts the fixed pattern data in the memory 107 from the partial image data in the frame memory 106, and corrects the entire image for each pixel using the gain variation information in the memory 108 for this result. Execute and store the result in the memory 117.
[0084]
The correction process includes a division process. However, the division process may be handled as a subtraction process by logarithmic conversion using a reference table (Look Up Table: LUT), for example.
[0085]
Further, the CPU 109 stores, in the memory 118, information related to the position of a pixel (such as a pixel that is a defective pixel and for which data cannot be obtained) that cannot be corrected by the gain variation information.
Then, the CPU 109 calculates the pixel value analogized from the data of peripheral pixels (non-defective pixels) of the pixel (defective pixel) indicated by the information in the memory 118 in the corrected image data in the memory 117. Determined as pixel value. For example, the average value of the peripheral pixels is determined as the value of the defective pixel.
[0086]
Step S209:
The image data that has been subjected to the processing described above is stored in the memory 110 as image data of the subject 114.
At this time, the image data may be overwritten in the memory 117 without using the memory 110. Thereby, the memory can be used effectively.
[0087]
The image data may be stored as a file in the storage unit 111 (such as a magnetic storage device or a large-capacity nonvolatile storage device), for example. Alternatively, the data may be output to an external display device, recording device, storage device, or the like through an interface (not shown).
In this case, partial image data obtained independently by the processing using the data in the memory 107 (offset fixed pattern data), the data in the memory 108 (gain variation information), and the like as described above. It is normalized and the user cannot recognize that it is a partial image.
[0088]
[Operations Characteristic of X-ray Imaging Apparatus 100]
FIG. 7 shows the state of the image data of the subject 114 stored in the memory 110 by the operation as described above.
As shown in FIG. 2, the memory 110 stores data for each of the partial images A, B, C, and D corresponding to the partial panels 101a to 101d. Further, it is assumed that there is a gap corresponding to g pixels (hereinafter referred to as “gap g”) between the images of the partial images A, B, C, and D. Although this gap is a defective pixel according to the viewpoint, if there is an offset step between the partial images A, B, C, and D, it is meaningless to perform average pixel correction. In this embodiment, after correcting each partial image described later in such a case, the pixels are corrected using an average value.
[0089]
Specifically, first, as an example, it is assumed that the gap g = 1. A substantial step value d is obtained according to the above-described equation (3).
In the expression (3) here, m = 3, and the coefficients related to the pixel values x (n−2) to x (n + 4) are obtained according to the table shown in FIG. The table is divided into a coefficient for obtaining the differential K at the value q and a coefficient for calculating the step value d, and the sum is obtained at the final stage.
Therefore, the substantial step value d is
[0090]
[Equation 3]
Figure 0003658324
[0091]
The following equation (12) is obtained.
[0092]
By applying the above equation (12) to a one-dimensional data series sandwiching the boundary x (n + 1) of the partial images, a substantial step value sequence d (i) can be obtained in consideration of the inclination of the image data.
Note that “i” in the above equation (12) is an index in a direction parallel to the boundary of the partial images.
[0093]
9 and 10 show the correction process using the step value sequence d (i) as described above. The correction process is performed, for example, by the CPU 109 executing a processing program according to the flowcharts of FIGS. 9 and 10 stored in advance in the program memory 116.
[0094]
Steps S301 to S304: See FIG. 9 above.
From the above equation (12), d0 (0) to d0 (n), a1 (n + 2) to d1 (M-1), d2 (n + 2) to d2 (M−) at the boundaries of the partial images A, B, C, and D. 1) Four series of d3 (0) to d3 (n) are created.
Specifically, for example, as shown in FIG. 11, the step value sequence d0 () is obtained by extracting the pixel value across the boundary according to the address of the pixel indicated by “21” and performing the calculation process of the above equation (12). i). Such a calculation process is executed for all the boundaries.
[0095]
Step S305 to Step S308:
D0 (0) to d0 (n), a1 (n + 2) to d1 (M-1), d2 (n + 2) to d2 (M-1), d3 (0) to d3 (n) obtained in steps S301 to S304. ) Are determined as D0, D1, D2, and D3.
As D0, D1, D2, and D3, for example, a value representing a distribution such as an average value or a median value may be used.
[0096]
Step S309 to Step S312:
The offset value F0 applied to the partial image A is set to “0”, and the offset values F1, F2, and F3 applied to the other partial images B, C, and D are set to “(D1-D0-D3-D2) / 2”.
[0097]
Step S313 to Step S317:
The offset values F0 to F3 in steps S309 to S312 are all positive values. This is because the pixel value of the image is basically a positive value, so that it is ensured that it is a positive value even after the calculation.
Specifically, for example, the minimum value of the offset values F0 to F3 is “MV”, and “MV” is added to each value.
[0098]
Step S318 to Step S321:
The offset values F0 to F3 obtained in steps S313 to S317 are added to the partial images A to D, respectively.
This result is stored in the memory 110.
[0099]
The image stored in the memory 110 as described above is a result of performing only offset correction on the entire partial images A to D. However, in practice, the fluctuations in the partial images A to D are not always uniform offsets, and correction up to the present is often insufficient.
Therefore, the processing from step S322 described below is performed so that only the vicinity of the boundary of the image stored in the memory 110 is corrected so as not to give the observer the uncomfortable feeling that the entire image is a set of a plurality of partial images. Execute. As an example of the correction here, the method shown in FIG. 5C is used.
[0100]
Steps S322 to S325: See FIG. 10 above.
Similar to steps S301 to S304 in FIG. 9 above, substantial step value sequences d0 (0) to d0 (n), a1 (n + 2) to d1 (M-1), d2 (n + 2) to d2 (M -1) and d3 (0) to d3 (n) are obtained.
[0101]
Step S326 to Step S329:
Step sequences d0 (0) to d0 (n), a1 (n + 2) to d1 (M-1), d2 (n + 2) to d2 (M-1), d3 (0) to d3 obtained in steps S322 to S325. (N) is converted into a smooth numerical sequence by moving average or the like. This is because there are many step rows d0 (0) to d0 (n), a1 (n + 2) to d1 (M-1), d2 (n + 2) to d2 (M-1), and d3 (0) to d3 (n). This is because of the influence of noise.
[0102]
Step S330 to Step S333:
The local correction processing of the step component indicated by the above-described equations (4) to (11) is executed.
[0103]
That is, the boundary a is obtained by changing the origins of the above formulas (4) and (5). For the partial image A, “dm0 (y) (− x / W + 1) / 2” (x: n + 1 to n + 1 + W, y: 0 to n), and “dm0 (y) (x / W + 1) / 2” (x: n−W to n, y: 0 to n) is applied to the partial image D. Add.
Similarly, with respect to the boundary b, the above-described equations (6) and (7) with the origin changed are used, and for the partial image A, “dm1 (x) (− y / W + 1) / 2” ( x: n + 1 to M−1, y: n−W to n), and for the partial image B, “B1 (x, y) = dm1 (x) (y / W + 1) / 2” (x: n + 1 to M-1, y: n + 1 to n + 1 + W).
Similarly, for the boundary c, the above-described equations (8) and (9) with the origin changed are used, and for the partial image B, “B2 (x, y) = dm2 (y) (− x / W + 1) / 2 ”(x: n + 1 to n + 1 + W, y: n + 1 to M−1), and for partial image C,“ C2 (x, y) = dm2 (y) (x / W + 1) / 2 ″ (x: n−W˜n, y: n + 1˜M−1) is added.
Similarly, for the boundary d, the above-described equations (10) and (11) with the origin changed are used, and for the partial image C, “C3 (x, y) = dm3 (x) (− y / W + 1) / 2 ”(x: 0 to n, y: n−W to n), and for partial image B,“ B3 (x, y) = dm3 (x) (y / W + 1) / 2 "(x: 0 to n, y: n + 1 to n + 1 + W) is added.
[0104]
Step S334:
When the local steps are linearly corrected in step S330 to step S333 and the step at the boundary disappears, the pixel at the last remaining boundary is not a defect in the vicinity. Interpolate with pixels. The interpolated pixel area is an area where there is no pixel corresponding to one pixel at the boundary, and conventionally, the interpolation processing cannot be performed unless correction for each partial image is performed.
[0105]
In the present embodiment, the above-described operation is configured to be realized by programming in the computer system. However, the present invention is not limited to this, and may be realized by hardware, for example. Or you may make it implement | achieve by the structure which mixed hardware and the program environment.
[0106]
<Second Embodiment>
In the first embodiment, the four partial images obtained by the partial panels 101a to 101d obtained by dividing one sensor panel into four parts are processed in parallel in an independent system. However, in the present embodiment, Furthermore, many partial images are processed in parallel in an independent system.
[0107]
For example, as shown in FIG. 12A, nine partial images (00), (01), (02), (10), (11), (12), (20), (21), (22 ) Is a single image, the partial images (00), (01), (02), (10), (11), (12), (20), (21), There are 12 boundaries of (22).
[0108]
In this case, for the partial images (00), (01), (02), (10), (11), (12), (20), (21), (22), FIG. A substantial step value d is obtained in the direction indicated by the arrow in the same manner as in the first embodiment.
The step values d are obtained independently of each other and are not necessarily consistent. Therefore, it is necessary to obtain a correction offset value to be added to each partial image from the average value of the sum of the step values in all routes.
[0109]
Specifically, the partial images (00), (01), (02), (10), (11), (12), (20), (21), (22) shown in FIG. Is a cyclic problem involving cells (partial images) as shown in FIG.
Here, starting from one cell, the step value on the connection line is added, and if the value when reaching the original cell does not become “0” through any route, this system Are contradictory. Here, a method for solving this contradiction is realized.
[0110]
For example, F00 = “0” is set with reference to the offset value added to the partial image (00). The offset value F01 of the next partial image (01) is obtained as an average of the offset values passing through all the paths starting from the partial image (00) and reaching the partial image (01).
In this case, it is considered that the four routes as shown by the broken lines in FIG. 12B cover all with the least number of routes. The offset value F01 at this time is
F01 = (d0001 + 3 · d0010 + 2 · d1020 + 2
・ D2021 + d2122-d1222-2 ・ d0212-2
D0102-d1121-d0111) / 4
Can be obtained by the following calculation.
[0111]
In the above method, there is a step value that is used many times depending on the path that passes, and there is a risk that the average may be biased. This pass is hard to find even if you think deductively. It is preferable to use a special method such as dynamic programming in order to obtain an optimum route (a route that passes through all the paths as evenly as possible).
[0112]
As described above, from the partial image (00) to all other partial images (01), (02), (10), (11), (12), (20), (21), (22). When the search for all the routes up to is completed, information about this is stored. After the step value is calculated, it is added to each partial image (00), (01), (02), (10), (11), (12), (20), (21), (22). Correction offset values F01, F02, F10, F11, F12, F20, F21, and F22 to be obtained are obtained without contradiction. Finally, a minimum value may be added so that all correction offset values are positive.
Thereafter, the same level difference correction processing as that in the first embodiment is executed at all boundaries.
[0113]
<Third Embodiment>
In the present embodiment, it is assumed that the image of the subject 114 obtained by the X-ray imaging apparatus 100 in FIG. 1, that is, the image stored in the memory 110 is, for example, an image as shown in FIG.
[0114]
In FIG. 13, “41” is a portion where X-ray irradiation is not performed, “42” is a portion where X-rays emitted from the X-ray tube 113 are focused by a collimator, and “43” is This is the portion on which the subject 114 is projected.
That is, in the portion 41, there is a pixel with little or no X-ray irradiation, and on the contrary, the portion 42 (the portion without the subject 114) has a very strong X-ray that has not passed through the subject 114. There are pixels due to irradiation. In the portion 43 (the portion of the subject 114), there are pixels having these intermediate X-ray intensities.
[0115]
Here, the output (electric signal) of the X-ray sensor panel is generally proportional to the incident X-ray intensity, but the energy conversion process or electric signal conversion process (amplification, impedance conversion, etc.) ), The X-ray intensity and the linearity of the output electric signal are not always constant in the sensitivity region of the sensor panel.
In particular, in a portion where the X-ray intensity is very strong, nonlinearity for gradually approaching the output saturation region of the electric system appears. Further, in the portion where the X-ray irradiation is weak, nonlinearity appears due to the influence of noise or the instability of the behavior of the electric circuit at an extremely low voltage.
[0116]
In most cases, the image information where the nonlinearity appears as described above is meaningless information, and there is usually no problem even if the image information exists.
However, in the case of deriving an offset component of the entire partial image from the statistical behavior of a part of the partial image (for example, an offset if the image data is proportional to X-rays, a gain if the image data is proportional to the logarithm), When a large portion of error due to nonlinearity as described above occupies a considerable area, the result of the entire image is dragged to the error, and an accurate offset component cannot be extracted.
[0117]
Therefore, in the present embodiment, a section in which the linearity is reliable is determined in advance in the sensitivity range of the sensor panels 101a to 101d, and a representative value such as an average value in the vicinity is calculated before or at the same time as calculating the substantial step value d. The step value d in the necessary region is obtained by adopting the step value d only when the typical value is in the reliable section.
For this reason, the process of step S301 to step S308 of FIG. 9 is as follows.
[0118]
For example, in the case of medical X-ray imaging, the X-ray dose that passes through the subject 114 and reaches the sensor panels 101a to 101d is obtained by irradiating the subject 114 with the X-ray dose in advance or measuring the X-ray dose called a phototimer. X-rays are cut off when an appropriate dose value is reached. As a result, the X-ray dose is always optimally adjusted, and the linearity in a portion where subject information is present is always optimal.
[0119]
For this reason, in this embodiment, the average value m (i) of the data sandwiching the boundary is
[0120]
[Expression 4]
Figure 0003658324
[0121]
The average value m (i) is obtained by the following equation (13), and the minimum value V0 and the maximum value V1 of the reliable section are obtained.
V0 ≦ m (i) ≦ V1
When the above condition is satisfied, the step value d (i) obtained by the above equation (12) is adopted and added to the histogram creation.
[0122]
An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the host and terminal according to the first to third embodiments to a system or apparatus, and the computer of the system or apparatus. Needless to say, this can also be achieved by (or CPU or MPU) reading and executing the program code stored in the storage medium.
In this case, the program code itself read from the storage medium realizes the functions of the first to third embodiments, and the storage medium storing the program code constitutes the present invention.
A ROM, floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, or the like can be used as a storage medium for supplying the program code.
Further, by executing the program code read by the computer, not only the functions of the first to third embodiments are realized, but also an OS running on the computer based on the instruction of the program code. Needless to say, the present invention includes a case where the functions of the first to third embodiments are realized by performing part or all of the actual processing.
Further, after the program code read from the storage medium is written to the memory provided in the extension function board inserted in the computer or the function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or function expansion unit performs part or all of the actual processing, and the functions of the first to third embodiments are realized by the processing.
[0123]
【The invention's effect】
As described above, according to the present invention, when one image is constituted by a set of a plurality of partial images, the level difference between the partial images based on the statistical properties of the pixel values near the boundary between the partial images. Since the substantial step value at the boundary portion can be statistically processed, fluctuations in individual partial images can be stably corrected. Therefore, it is possible to provide a single image with good image quality.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an X-ray imaging apparatus to which the present invention is applied in a first embodiment.
FIG. 2 is a diagram for schematically explaining a level difference of a partial image in one dimension.
FIG. 3 is a diagram for explaining four partial images.
FIG. 4 is a diagram for schematically explaining an example of a partial image correction method;
FIG. 5 is a diagram for schematically explaining an example of a method for repairing a boundary portion of a partial image.
FIG. 6 is a flowchart for explaining the overall operation of the X-ray imaging apparatus.
FIG. 7 is a diagram for explaining a partial image obtained by a partial panel of the X-ray imaging apparatus.
FIG. 8 is a diagram for explaining a table used when obtaining a substantial level difference of a partial image.
FIG. 9 is a flowchart for explaining processing for obtaining an offset difference between partial images in the X-ray imaging apparatus.
FIG. 10 is a flowchart for explaining processing for repairing a boundary portion of a partial image in the X-ray imaging apparatus.
FIG. 11 is a diagram for specifically explaining how to obtain the substantial step value.
FIG. 12 is a diagram for explaining a plurality of partial images in the second embodiment.
FIG. 13 is a diagram for explaining four partial images in the second embodiment;
[Explanation of symbols]
100 X-ray equipment
101a-101d partial panel
102a to 102d amplifier
103a to 103d A / D converter
104a to 104d DMA controller
105-108,110,116 memory
109 CPU
111 storage unit
112 Exposure control unit
115 bus

Claims (18)

互いに重なり合わない複数の部分画像から1枚の画像を構成するための処理を実行する画像処理装置であって、
境界部分領域を介して隣り合う前記部分画像間ごとに複数の段差値を算出し、該複数の段差値ごとから統計値を算出し、該統計値に基づいて前記部分画像間の段差を補正する補正手段とを備えることを特徴とする画像処理装置。
An image processing apparatus that executes processing for composing one image from a plurality of partial images that do not overlap each other,
A plurality of step values are calculated for each of the partial images adjacent to each other via the boundary partial region, a statistical value is calculated for each of the plurality of step values, and a step between the partial images is corrected based on the statistical value. An image processing apparatus comprising: a correction unit.
前記複数の部分画像を独立して取得する画像取得手段を備えることを特徴とする請求項1記載の画像処理装置。  The image processing apparatus according to claim 1, further comprising an image acquisition unit that acquires the plurality of partial images independently. 前記画像取得手段は、1枚のセンサパネルを構成する複数の部分パネルを含むことを特徴とする請求項2記載の画像処理装置。  The image processing apparatus according to claim 2, wherein the image acquisition unit includes a plurality of partial panels constituting one sensor panel. 前記センサパネルは、X線センサパネルを含み、前記X線センサパネルで得られる画像を構成する画素値は、前記X線センサパネルヘ入射したX線強度に比例するものであることを特徴とする請求項3記載の画像処理装置。  The sensor panel includes an X-ray sensor panel, and pixel values constituting an image obtained by the X-ray sensor panel are proportional to the X-ray intensity incident on the X-ray sensor panel. The image processing apparatus according to claim 3. 前記センサパネルは、X線センサパネルを含み、前記X線センサパネルで得られる画像を構成する画素値は、前記X線センサパネルヘ入射したX線強度の対数値に比例するものであることを特徴とする請求項3記載の画像処理装置。  The sensor panel includes an X-ray sensor panel, and a pixel value constituting an image obtained by the X-ray sensor panel is proportional to a logarithmic value of the X-ray intensity incident on the X-ray sensor panel. The image processing apparatus according to claim 3, wherein: 前記段差値は、前記隣り合う部分画像を横切る線分上の該部分画像の傾きを、各部分画像の前記境界部分領域に接する一辺から一定距離内の領域ごとに算出し、該傾きに基づいて前記段差値として算出されることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。  The step value is calculated by calculating the inclination of the partial image on a line segment that crosses the adjacent partial images for each region within a certain distance from one side in contact with the boundary partial region of each partial image. The image processing apparatus according to claim 1, wherein the image processing apparatus is calculated as the step value. 前記補正手段は、前記複数の段差値ごとの最頻値又は平均値を前記統計値として算出することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the correction unit calculates a mode value or an average value for each of the plurality of step values as the statistical value. 前記補正手段は、対象部分画像を基準として、他の部分画像の補正値を求める際に、前記統計値が補正後に0に近づく様に該補正値を算出することを特徴とする請求項1記載の画像処理装置。  2. The correction unit according to claim 1, wherein the correction value is calculated so that the statistical value approaches 0 after correction when the correction value of another partial image is obtained using the target partial image as a reference. Image processing apparatus. 前記統計値の合計値が0でない場合には、補正後の前記統計値の絶対値が一定値となるように前記補正値を算出することを特徴とする請求項8記載の画像処理装置。  9. The image processing apparatus according to claim 8, wherein when the total value of the statistical values is not 0, the correction value is calculated so that an absolute value of the corrected statistical value becomes a constant value. 前記補正手段は、前記X線センサパネルの入出力特性が線形である範囲の画素値のみを用いて、前記段差値を求めることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。  The said correction | amendment means calculates | requires the said level | step difference value only using the pixel value of the range whose input-output characteristic of the said X-ray sensor panel is linear, The any one of Claim 1 thru | or 9 characterized by the above-mentioned. Image processing device. 前記補正手段は、前記X線センサパネルに対してX線照射が行われなかった部分と、X線が被写体を透過せずに直接前記X線センサパネルに照射された部分とを除く部分の画素値を、前記X線センサパネルの入出力特性が線形である範囲の画素値とすることを特徴とする請求項10記載の画像処理装置。  The correction means is a pixel in a portion excluding a portion where X-ray irradiation is not performed on the X-ray sensor panel and a portion where the X-ray is directly irradiated on the X-ray sensor panel without passing through the subject. The image processing apparatus according to claim 10, wherein the value is a pixel value in a range in which an input / output characteristic of the X-ray sensor panel is linear. 前記補正手段は、前記複数の部分画像の境界部分領域に実質的な隙間がある場合、前記補正後に、当該隙間部分の画素を補間により生成することを特徴とする請求項1記載の画像処理装置。  The image processing apparatus according to claim 1, wherein when there is a substantial gap in a boundary partial area of the plurality of partial images, the correction unit generates a pixel of the gap part by interpolation after the correction. . 前記補正手段は、前記補正後に、前記隣り合う部分画像における段差値を再度算出し、該段差を横切る線分上の画素であり、各部分画像の前記境界部分に接する一辺から一定距離内の領域の画素にそれぞれ補正値を加算することで補正することを特徴とする請求項1記載の画像処理装置。  The correction means, after the correction, recalculates a step value in the adjacent partial images, is a pixel on a line segment that crosses the step, and is an area within a certain distance from one side that contacts the boundary portion of each partial image The image processing apparatus according to claim 1, wherein correction is performed by adding a correction value to each of the pixels. 前記補正値は、前記再度算出した段差値と前記一辺からの距離で定まる値であり、前記一辺からの距離が大きくなるに従い絶対値が減少することを特徴とする請求項13記載の画像処理装置。  The image processing apparatus according to claim 13, wherein the correction value is a value determined by the step value calculated again and a distance from the one side, and an absolute value decreases as the distance from the one side increases. . 複数の機器が互いに通信可能に接続されてなる画像処理システムであって、
前記複数の機器のうち少なくとも1つの機器は、請求項1乃至14の何れか1項に記載の画像処理装置の機能を有することを特徴とする画像処理システム。
An image processing system in which a plurality of devices are communicably connected to each other,
The image processing system according to claim 1, wherein at least one of the plurality of devices has the function of the image processing apparatus according to claim 1.
互いに重なり合わない複数の部分画像から1枚の画像を構成するための画像処理方法であって、
境界部分領域を介して隣り合う前記部分画像間ごとに複数の段差値を算出し、該複数の段差値ごとから統計値を算出し、該統計値に基づいて前記部分画像間の段差を補正する補正ステップを含むことを特徴とする画像処理方法。
An image processing method for composing one image from a plurality of partial images that do not overlap each other,
A plurality of step values are calculated for each of the partial images adjacent to each other via the boundary partial region, a statistical value is calculated for each of the plurality of step values, and a step between the partial images is corrected based on the statistical value. An image processing method comprising a correction step.
請求項1乃至14の何れか1項に記載の画像処理装置の機能、又は請求項15記載の画像処理システムの機能をコンピュータに実現させるためのプログラムを記録したコンピュータ読取可能な記憶媒体。  A computer-readable storage medium storing a program for causing a computer to realize the function of the image processing apparatus according to any one of claims 1 to 14 or the function of the image processing system according to claim 15. 請求項16記載の画像処理方法の処理ステップをコンピュータに実行させるためのプログラムを記録したコンピュータ読取可能な記憶媒体。  A computer-readable storage medium storing a program for causing a computer to execute the processing steps of the image processing method according to claim 16.
JP2001005572A 2001-01-12 2001-01-12 Image processing apparatus, image processing system, image processing method, and storage medium Expired - Fee Related JP3658324B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001005572A JP3658324B2 (en) 2001-01-12 2001-01-12 Image processing apparatus, image processing system, image processing method, and storage medium
US10/041,447 US7003147B2 (en) 2001-01-12 2002-01-10 Image processing apparatus
EP02250213A EP1223555A3 (en) 2001-01-12 2002-01-11 Image processing apparatus
US11/271,881 US7545968B2 (en) 2001-01-12 2005-11-14 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001005572A JP3658324B2 (en) 2001-01-12 2001-01-12 Image processing apparatus, image processing system, image processing method, and storage medium

Publications (2)

Publication Number Publication Date
JP2002218202A JP2002218202A (en) 2002-08-02
JP3658324B2 true JP3658324B2 (en) 2005-06-08

Family

ID=18873605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001005572A Expired - Fee Related JP3658324B2 (en) 2001-01-12 2001-01-12 Image processing apparatus, image processing system, image processing method, and storage medium

Country Status (1)

Country Link
JP (1) JP3658324B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102626315A (en) * 2011-02-07 2012-08-08 富士胶片株式会社 Radiographic imaging system and radiographic imaging method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4942455B2 (en) * 2006-11-02 2012-05-30 株式会社日立メディコ Radiation measurement equipment
JP6072096B2 (en) 2015-01-30 2017-02-01 キヤノン株式会社 Radiation imaging system, control method, control method, and program
JP6513068B2 (en) * 2016-12-26 2019-05-15 キヤノン株式会社 Radiation imaging system, control device, control method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102626315A (en) * 2011-02-07 2012-08-08 富士胶片株式会社 Radiographic imaging system and radiographic imaging method
CN102626315B (en) * 2011-02-07 2015-11-18 富士胶片株式会社 Radiographic imaging system and radiograph formation method

Also Published As

Publication number Publication date
JP2002218202A (en) 2002-08-02

Similar Documents

Publication Publication Date Title
US6961478B2 (en) Image processing apparatus, image processing method, and recording medium
EP1223555A2 (en) Image processing apparatus
US9836830B2 (en) Radiographic image processing device, method, and recording medium
US20100232725A1 (en) Temperature artifact correction
JPS60210087A (en) X-ray diagnostic equipment
JP2006272013A (en) Radiation image processing equipment, image processing system, radiation image processing method, storage medium, and program
CN101897176B (en) Method of processing images arising from a photosensitive detector and photosensitive detector
JP2016077904A (en) Image capturing method, image processing apparatus, computer-readable medium, method, apparatus, and system
JP3658324B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US4538179A (en) Image processing for unsharp masking of image
JP3667234B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
CN113643446A (en) Automatic marking method and device for mandibular neural tube and electronic equipment
CN111080740B (en) Image correction method, device, equipment and medium
JP5146797B2 (en) Pattern defect inspection apparatus, method thereof, and computer-readable recording medium recording the program
US20160093025A1 (en) Radiation image processing device, method, and program
WO2023231141A1 (en) Incoherent aperture synthesis aberration correction method and apparatus
JP2000350032A (en) Image reading method and device and storage medium
CN118280533B (en) Arrival time parameter imaging method, device and product for ultrasound contrast imaging video
JP2020091799A (en) Image conversion device, image conversion program, and image conversion method
JPS6122343B2 (en)
JP2003037769A (en) Signal processing unit, imaging device and signal processing method
JPH11149549A (en) Picture processor
JP2003126057A (en) Image processing system
JPS58163341A (en) X-ray diagnostic apparatus
JP2004336662A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080318

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090318

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110318

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120318

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130318

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140318

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees