JP4202671B2 - Standardized image generation method and apparatus - Google Patents
Standardized image generation method and apparatus Download PDFInfo
- Publication number
- JP4202671B2 JP4202671B2 JP2002120234A JP2002120234A JP4202671B2 JP 4202671 B2 JP4202671 B2 JP 4202671B2 JP 2002120234 A JP2002120234 A JP 2002120234A JP 2002120234 A JP2002120234 A JP 2002120234A JP 4202671 B2 JP4202671 B2 JP 4202671B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- fluorescent
- normalized
- correction
- standardized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、光の照射により生体組織から発生した互いに異なる波長帯域の再輻射光を画像として検出し、その互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、そのオフセットの付加された互いに異なる画像の比を求めることにより規格化画像を生成する規格化画像生成方法および装置に関するものである。
【0002】
【従来の技術】
従来より、生体内在色素の励起光波長領域にある励起光を生体組織に照射した場合に、正常組織と病変組織とでは発する蛍光強度が異なることを利用して、生体組織に所定波長領域の励起光を照射し、生体内在色素が発する蛍光を検出することにより病変組織の局在、浸潤範囲を認識する蛍光検出装置が提案されている。
【0003】
通常、励起光を照射すると、図10に実線で示すように正常組織からは強い蛍光が発せられ、病変組織からは破線で示すように正常組織から発せられる蛍光より弱い蛍光が発せられるため、蛍光強度を測定することにより、生体組織が正常であるか病変状態にあるかを判定することができる。
【0004】
さらに、励起光による蛍光を撮像素子などにより撮像し、蛍光の強度に応じた蛍光画像を表示することにより生体組織が正常であるか病変状態にあるかを判定する方法も提案されている。この技術においては、生体組織には凹凸があるため、生体組織に照射される励起光の強度は均一でなく、生体組織から発せられる蛍光強度は光源と生体組織との距離の2乗に比例して低下する。また、その蛍光の検出手段と生体組織との距離についても、その2乗に比例して低下する。そのため、光源または検出手段から遠くにある正常組織からよりも近くにある病変組織からの方が、強い蛍光を受光する場合があり、励起光による蛍光の強度の情報だけでは生体組織の組織性状を正確に識別することができない。このような不具合を低減するために、異なる波長帯域(480nm付近の狭帯域と430nm近傍から730nm近傍の広帯域)から取得した2種類の蛍光強度に基づく蛍光画像の比率を除算により求め、その除算値に基づく規格化蛍光画像を生成する方法、すなわち、生体の組織性状を反映した蛍光スペクトルの形状の違いに基づいた規格化画像生成方法が提案されている。また、異なる波長帯域の蛍光画像の除算値に色の情報を割り当て、その色の違いにより生体組織の病変状態を色画像として示す方法や、さらに、種々の生体組織に対して一様な吸収を受ける近赤外光を参照光として生体組織に照射し、この参照光の照射による生体組織からの反射光の強度に基づく参照画像を検出し、その参照画像に輝度の情報を割り当てることにより得られた輝度画像を上記色画像と合成することにより、生体組織の形状も画像に反映させた凹凸感のある画像を示す方法なども提案されている。
【0005】
また、上記のように異なる波長帯域の蛍光画像の除算値に基づいて規格化蛍光画像を生成する場合、その規格化演算に用いられる生体組織からの蛍光強度は微弱であるため、この蛍光強度に基づく上記規格化蛍光画像のS/Nは非常に低いものとなる。これを改善するため異なる波長帯域の蛍光画像の少なくとも1つにオフセットを付加して上記除算値を演算することにより、上記規格化蛍光画像のS/Nを向上させる方法が提案されている。
【0006】
【発明が解決しようとする課題】
しかしながら、上記のようにオフセットを付加して除算値を求める際、良好なS/Nを得るためにはオフセットの値を大きくすればよいが、蛍光強度はその検出手段と生体組織との距離に依存して大きさが変化するため、オフセット値を大きくし過ぎると、検出手段から遠点にある生体組織と近点にある生体組織とが同じ性状でもその除算値が大きく異なる場合が生じる。そのため、病変部の生体組織と正常部の生体組織との区別が困難となる。例として、図8に所定の正常部の生体組織および病変部の生体組織について、狭帯域蛍光画像とオフセットを付加した広帯域蛍光画像の除算値(狭帯域蛍光画像/(広帯域蛍光画像+オフセット))を算出したときのその除算値と上記距離との関係を示す。オフセットの値は5、10、15および20を使用し、正常部の生体組織についての除算値は白抜き記号で示し、病変部の生体組織についての除算値は黒塗り記号で示している。図示のとおり除算値が上記距離によって変化し、オフセットの値が大きいほど上記距離が大きくなると正常部と病変部との除算値の差がより小さくなりその識別が困難になることがわかる。また、逆にオフセットの値が小さくすると、距離による除算値の変化は少なくなるが、当然、そのオフセット付加による規格化蛍光画像のS/Nの向上の効果が十分に得られない問題が生じる。さらに、図9(A)、(B)に所定の生体組織について、検出手段と生体組織との距離が大きい(遠点)ときの上記除算値に基づく規格化蛍光画像(図9(A))と距離が小さい(近点)ときの上記除算値に基づく規格化蛍光画像(図9(B))を示す。なお、このときのオフセットは20であり、各画像において周辺画像よりも比較的暗い部分が病変部の画像を意味する。図示のとおり、本来遠点と近点との画像ではその病変部の画像同志、またはその正常部の画像同志がともに同じ明るさで表示されなければならないが、遠点の画像の方が近点の画像より暗く、正常部と病変部の画像のコントラストも小さいため、その識別がつきにくくなっている。
【0007】
本発明は、上記のような従来技術の問題点に鑑みて、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加して規格化演算を行なって規格化画像を生成する規格化画像生成方法および装置において、検出手段と生体組織との距離に依存することなく、その距離が変化した場合においても一定の規格化演算値をとることができる規格化画像生成方法および装置を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明の規格化画像生成方法は、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像を画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成方法において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成することを特徴とする。
【0009】
ここで、上記「画像検出手段」とは、例えば、励起光の照射により生体組織から発せられる蛍光を検出する蛍光内視鏡において、生体内に挿入される内視鏡挿入部、内視鏡挿入部により導光された蛍光を撮像する撮像素子およびその撮像素子までの導光部を含めたものを意味する。そして、互いに異なる波長帯域の画像について、撮像素子や導光部などの一部をそれぞれ別個に設けてもよいし、共通にしてもよい。
【0010】
また、上記「互いに異なる波長帯域の画像に所望のオフセットを付加する」とは、各画像の各画素値にオフセット値を加えることを意味する。各画像にオフセット値を付加することにより、規格化演算後の規格化画像の画素値のバラツキが小さくなり、規格化画像のS/Nを向上させることができる。オフセット値を付加する部分は、各画像全体でなくても良く、特に画像が暗い部分、つまりS/Nの低い部分にのみに付加しても良い。すなわち、各画像の比に基づいて規格化演算を行なったときに、組織性状の識別の精度が向上するように規格化画像のS/Nを向上させることができる程の大きさのオフセット値を付加すればよい。
【0011】
また、上記「画像の比」とは、互いに異なる波長帯域の画像の各画像において、同じ座標上にある各画素値同志の比を意味するものであり、また「画像の比に基づいて規格化画像を生成する」とは、同じ座標上にある各画素値同志で除算、もしくはそれに類する規格化演算を行なって、その規格化演算された値を画素値とする画像を規格化画像として生成することを意味する。
【0012】
また、上記「生体組織と画像検出手段との距離」とは、検出される画像の画素値の大きさに実質的に影響を及ぼす距離を意味するが、例えば、蛍光内視鏡において、測定対象である生体組織と蛍光内視鏡における内視鏡挿入部の先端との距離を意味する。さらに、生体組織に励起光を照射する励起光照射手段も生体組織との位置関係において移動するような場合には、この移動によっても蛍光画像の画素値が異なるため、上記距離はこの励起光照射手段と生体組織との距離も含むものとする。
【0013】
また、上記「規格化画像の変動量」とは規格化画像の画素値の変動量を意味する。
【0014】
また、上記「距離に起因する規格化画像の変動量を補正する」とは、上記規格化画像の画素値が上記距離に依存して変動しないように画素値の大きさを補正することを意味する。
【0015】
また、本発明の規格化画像生成方法は、励起光の照射により生体組織から発生する蛍光に基づいて互いに異なる波長帯域の蛍光画像を蛍光画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の蛍光画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の蛍光画像の比に基づいて規格化演算を行なって規格化蛍光画像を生成する規格化画像生成方法において、規格化蛍光画像に所定の補正関数を用いて生体組織と蛍光画像検出手段との距離に起因する規格化蛍光画像の変動量を補正する距離補正を施して補正規格化蛍光画像を生成することを特徴とする。
【0016】
また、上記互いに異なる波長帯域の蛍光画像を、狭帯域蛍光画像および広帯域蛍光画像とすることができる。
【0017】
また、上記補正関数を、性状が既知である所定の生体組織についての広帯域蛍光画像および狭帯域蛍光画像の少なくとも1つに基づいて算出するようにすることができる。
【0018】
また、参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により検出し、補正関数を、その参照画像に基づいて算出するようにすることができる。
【0019】
ここで、上記「参照光画像検出手段」とは、例えば、蛍光内視鏡において生体内に挿入される内視鏡挿入部、内視鏡挿入部により導光された参照光の照射による反射光を撮像する撮像素子およびその撮像素子までの導光部を含めたものを意味する。なお、参照光画像検出手段と蛍光画像検出手段とは、共通の内視鏡挿入部および導光部であることが望ましいが、波長帯域が異なるので各画像の波長帯域を選択する光学フィルタをそれぞれ設ける必要がある。また、撮像素子も共通にする場合には露光するタイミングをずらして撮像するようにすればよい。
【0020】
また、補正関数を参照画像に基づいて算出する場合には、参照画像検出手段と生体組織との距離と蛍光画像検出手段と生体組織との距離を等しくすることが望ましい。
【0021】
また、補正関数を、次の(5)式で表されるものとし、補正規格化蛍光画像を、次の(6)式により算出するようにすることができる。
【0022】
(nir+os2)/nir …(5)
{n/(w+os1)}×{(nir+os2)/nir} …(6)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
ここで、上記n、wおよびnirはそれぞれ狭帯域蛍光画像、広帯域蛍光画像および参照画像の画素値を意味する。また、knirは参照画像の画素値を生体組織と参照画像検出手段との距離で除算したものであり、つまり単位距離あたりの参照画像の画素値を意味する。また、kwは広帯域蛍光画像の画素値を生体組織と蛍光画像検出手段との距離で除算したものであり、つまり単位距離あたりの広帯域蛍光画像の画素値を意味する。さらに、補正係数os2は上式のとおりオフセット、knirおよびkwから算出されるものである。
【0023】
また、上記os2は、正常部の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときのknirおよびkwに基づいて算出されるようにすることができる。
【0024】
また、上記os2は、病変部の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときのknirおよびkwに基づいて算出されるようにすることができる。
【0025】
また、上記os2は、正常部から病変部までの進行度をs段階に分割したときの各段階の生体組織を参照画像検出手段および蛍光画像検出手段により撮像したときの各knirおよび各kwに基づいてそれぞれ算出されるようにすることができる。
【0026】
また、上記s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となる規格化蛍光画像に距離補正を施して基準となるs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定し、一方、生体組織の規格化蛍光画像にs個の補正関数を用いて距離補正を施すことにより補正規格化蛍光画像をそれぞれ算出し、そのs個の補正規格化蛍光画像について境界値を用いてs段階の生体組織に応じた領域を抽出し、その抽出されたs個の領域を重ね合わせて表示するようにすることができる。
【0027】
ここで、上記「s段階」のsは2以上の自然数を意味する。
【0028】
また、上記「基準となる規格化蛍光画像」とは、上記境界値を設定するためs段階の生体組織をそれぞれサンプルとして撮像し算出された規格化蛍光画像であり、上記「基準となる補正規格化蛍光画像」とはこの基準となる規格化蛍光画像にそれぞれの生体組織について算出された補正関数を用いて距離補正が施されたものを意味する。
【0029】
また、上記「生体組織の規格化蛍光画像」とは、実際に画像診断等を行なう生体組織を撮像し、算出された規格化蛍光画像である。
【0030】
本発明の規格化画像生成装置は、生体組織に光を照射する光照射手段と、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像をそれぞれ検出する画像検出手段と、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成手段とを備えた規格化画像生成装置において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成する補正手段を備えたことを特徴とするものである。
【0031】
また、本発明による規格化画像生成装置は、生体組織に励起光を照射する励起光照射手段と、励起光の照射により生体組織から発生する蛍光に基づいて互いに異なる波長帯域の蛍光画像をそれぞれ検出する蛍光画像検出手段と、互いに異なる波長帯域の蛍光画像の少なくとも1つに所望のオフセットを付加し、その少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の蛍光画像の比に基づいて規格化演算を行なって規格化蛍光画像を生成する規格化蛍光画像生成手段とを備えた規格化画像生成装置において、規格化蛍光画像に所定の補正関数を用いて生体組織と蛍光画像検出手段との距離に起因する規格化蛍光画像の変動量を補正する距離補正を施して補正規格化蛍光画像を生成する補正手段を備えたことを特徴とするものである。
【0032】
また、補正手段が、s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となるs個の規格化蛍光画像に距離補正を施しs個の基準となる補正規格化蛍光画像を算出するものであり、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定する境界値設定手段と、補正手段により生体組織の規格化蛍光画像についてs個の補正関数を用いて算出されたs個の補正規格化蛍光画像から境界値を用いてそれぞれs段階の生体組織に応じた領域を抽出する領域抽出手段と、領域抽出手段により抽出されたs個の補正規格化蛍光画像の領域を重ね合わせて表示する表示手段とを備えたことを特徴とするものである。
【0033】
【発明の効果】
本発明による規格化画像生成方法および装置によれば、光の照射により生体組織から発生する再輻射光に基づいて互いに異なる波長帯域の画像を画像検出手段によりそれぞれ検出し、互いに異なる波長帯域の画像の少なくとも1つに所望のオフセットを付加し、少なくとも1つに所望のオフセットが付加された互いに異なる波長帯域の画像の比に基づいて規格化画像を生成する規格化画像生成方法において、規格化画像に所定の補正関数を用いて生体組織と画像検出手段との距離に起因する規格化画像の変動量を補正する距離補正を施して補正規格化画像を生成するようにしたので、オフセットの付加による上記規格化演算値のS/Nの向上を図ることができるとともに、上記画像検出手段と生体組織との距離に依存することなく、その距離が変化した場合においても一定の上記規格化演算値をとることができるので、生体組織の組織性状の識別をより正確に行なうことができる。
【0034】
また、上記互いに異なる波長帯域の画像を、狭帯域蛍光画像および広帯域蛍光画像とし、上記補正関数を、広帯域蛍光画像および狭帯域蛍光画像の少なくとも1つに基づいて算出するようにした場合には、特に補正関数を求めるための機構を設けることなく、演算処理のみより補正関数を容易に得ることができる。
【0035】
また、参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により検出し、補正関数を、その参照画像に基づいて算出するようにした場合には、参照画像は生体組織の性状に依存せず、生体組織と参照画像検出手段との距離をそのまま反映したものとなるので、より確度の高い距離補正を施すことができる。
【0036】
また、補正関数を、次の(7)式で表されるものとし、補正規格化蛍光画像を、次の(8)式により算出するようにした場合には、より簡易な演算処理にて補正関数を求めることができる。
【0037】
(nir+os2)/nir …(7)
{n/(w+os1)}×{(nir+os2)/nir} …(8)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離
また、s段階のそれぞれの生体組織に応じたos2に基づくs個の補正関数を用いてs段階のそれぞれの生体組織の基準となる規格化蛍光画像に距離補正を施して基準となるs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の基準補正規格化蛍光画像に基づいて境界値を設定し、一方、生体組織の規格化蛍光画像にs個の補正関数を用いて距離補正を施すことによりs個の補正規格化蛍光画像をそれぞれ算出し、そのs個の補正規格化蛍光画像について境界値を用いてs段階の生体組織に応じた領域を抽出し、その抽出されたs個の領域を重ね合わせて表示するようにした場合には、同一の生体組織について病体の進行度をより明確に画像により確認することができる。
【0038】
【発明の実施の形態】
以下、本発明の具体的な実施の形態について図面を用いて説明する。図1は、本発明の規格化画像生成方法を実施する規格化画像生成装置を適用した蛍光内視鏡の第1の実施の形態の概略構成を示す図である。
【0039】
本実施の形態による蛍光内視鏡は、患者の病巣と疑われる部位に挿入される内視鏡挿入部100と、内視鏡挿入部100により生体組織から得られた情報を画像信号として処理する画像信号処理部1と、画像信号処理部1で処理された信号を可視画像として表示するモニタ600とから構成される。
【0040】
画像信号処理部1は、通常画像用白色光Lw、自家蛍光画像用励起光Lr、および参照画像用参照光Lsをそれぞれ射出する3つの光源を備えた照明ユニット110と、この励起光の照射により生体組織9から発生した自家蛍光像Zjと、参照光の照射により生体組織9から発生した参照像Zsを撮像し、デジタル値に変換して2次元画像データとして出力する画像検出ユニット300と、画像検出ユニット300から出力された自家蛍光像の2次元画像データから規格化演算を行って、その規格化演算値に色情報を割り当て、参照像の2次元画像データに輝度情報を割り当てて、2つの画像情報を合成して出力する画像演算ユニット400と、通常像をデジタル値に変換して2次元画像データとし、その2次元画像データおよび画像演算ユニット400の出力信号をビデオ信号に変換して出力する表示信号処理ユニット500と、各ユニットに接続され動作タイミングなどの制御を行う制御用コンピュータ200と、後述する通常画像表示状態と合成画像表示状態を切り換えるフットスイッチ2から構成される。
【0041】
内視鏡挿入部100は、内部に先端まで延びるライトガイド101と、イメージファイバ102を備えている。ライトガイド101の先端部、即ち内視鏡挿入部100の先端部には、照明レンズ103を備えている。また、イメージファイバ102は多成分ガラスファイバであり、その先端部には励起光フィルタ104と集光レンズ105を備えている。ライトガイド101は、多成分ガラスファイバである白色光ライトガイド101aおよび石英ガラスファイバである励起光ライトガイド101bがバンドルされ、ケーブル状に一体化されており、白色光ライトガイド101aおよび励起光ライトガイド101bは照明ユニット110へ接続されている。なお、励起光ライトガイド101bは参照光を導光するライトガイドでもある。イメージファイバ102の一端は、画像検出ユニット300へ接続されている。
【0042】
照明ユニット110は、自家蛍光画像用の励起光Lrを発するGaN系半導体レーザ111、GaN系半導体レーザ111に電気的に接続される半導体レーザ用電源112、通常画像用の白色光Lwを発する白色光源114 、その白色光源114に電気的に接続される白色光用電源115、参照画像用の参照光Lsを発する参照光源117、参照光源117に電気的に接続される参照光源用電源118、およびGaN系半導体レーザ111から出力される励起光Lrを透過し、参照光源117から出力される参照光Lsを直角方向に反射するダイクロイックミラー120から構成される。
【0043】
画像検出ユニット300には、イメージファイバ102が接続され、イメージファイバ102により伝搬された自家蛍光像、通常像、参照像を結像するコリメートレンズ301、コリメートレンズ301を透過した通常像を直角方向に全反射し、コリメートレンズ301を透過した蛍光像および参照像は、破線で示す位置に移動し通過させる可動ミラー302、コリメートレンズ301を透過した蛍光像(750nm以下の波長の光)を直角方向に反射するダイクロイックミラー303、ダイクロイックミラー303を反射した自家蛍光像の光量の50%を透過し、50%を直角方向に反射するハーフミラー308、ハーフミラー308を透過した自家蛍光像を直角方向に反射する蛍光像用ミラー313、蛍光像用ミラー313を直角方向に反射した自家蛍光像を結像させる広帯域蛍光像用集光レンズ304、広帯域蛍光像用集光レンズ304を透過した自家蛍光像から430nm〜730nmの波長を選択する広帯域バンドパスフィルタ305、広帯域バンドパスフィルタ305を透過した自家蛍光像を撮像する広帯域蛍光画像用高感度撮像素子306、広帯域蛍光画像用高感度撮像素子306により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器307、ハーフミラー308を直角方向に反射した自家蛍光像を結像させる狭帯域蛍光像用集光レンズ309、狭帯域蛍光像用集光レンズ309により結像された自家蛍光像から430nm〜530nmの波長を取り出す狭帯域バンドパスフィルタ310、狭帯域バンドパスフィルタ310を透過した自家蛍光像を撮像する狭帯域蛍光画像用高感度撮像素子311、狭帯域蛍光画像用高感度撮像素子311により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器312、ダイクロイックミラー303を透過した参照像を結像させる参照像用集光レンズ314、参照像用集光レンズ314により結像された参照像を撮像する参照画像用撮像素子315、および参照画像用撮像素子315により撮像された参照像をデジタル値に変換して2次元画像データとして出力するAD変換器316を備えている。
【0044】
画像演算ユニット400は、デジタル化された自家蛍光画像信号データを記憶する自家蛍光画像用メモリ401と、参照画像信号データを記憶する参照画像用メモリ402、自家蛍光画像用メモリ401に記憶された2つの波長帯域の自家蛍光画像の各画素値に予め設定されたオフセット値を付加し、そのオフセットの付加された各画素値の比率に応じた演算を行って各画素の規格化演算値を算出する規格化蛍光画像生成手段403、参照画像用メモリ402に記憶された参照画像の画素値に基づいて後述する補正関数を演算し、その補正関数を用いて規格化蛍光画像生成手段403から出力された規格化演算値に補正を施して補正規格化演算値を算出する補正手段404、補正手段404により算出された補正規格化演算値に色情報を割り当てる色画像演算手段405、参照画像用メモリ402に記憶された参照画像の各画素値に輝度情報を割り当てる輝度画像演算手段406、および色画像演算手段405から出力される色情報をもった画像信号と輝度画像演算手段406から出力される輝度情報をもった画像信号を合成して合成画像を生成し出力する画像合成手段407を備えている。
【0045】
自家蛍光画像用メモリ401は、図示省略した広帯域自家蛍光画像記憶領域および狭帯域自家蛍光画像記憶領域から構成され、広帯域蛍光画像用高感度撮像素子306により撮像された広帯域自家蛍光画像は、広帯域自家蛍光画像記憶領域に保存され、狭帯域蛍光画像用高感度撮像素子311により撮像された狭帯域蛍光画像は狭帯域蛍光画像記憶領域に保存される。
【0046】
規格化蛍光画像生成手段403は、自家蛍光画像用メモリ401に記憶された自家蛍光画像の画素値にオフセット値を付加し、下式(9)に従って狭帯域自家蛍光画像と広帯域自家蛍光画像との比を算出する。なお、本実施の形態では、オフセット値は、下式(9)のとおり広帯域自家蛍光画像のみに付加するものとし、予め規格化蛍光画像生成手段403に記憶された所定の値である。
【0047】
n/(w+os1) … (9)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
補正手段404は、規格化蛍光画像生成手段403により算出された規格化演算値に下式(10)により演算された補正関数を掛ける合わせることにより補正規格化演算値を算出する。つまり、補正規格化演算値を下式(11)に従って算出する。本実施の形態では、補正関数は下式(10)のとおり参照画像から算出されるものであり、補正手段404は参照画像用メモリ402に記憶された参照画像の画素値から補正関数を算出する。また、os2は下式(12)に従って算出されるものであり、knirは、参照画像の画素値を、その参照画像検出時における内視鏡挿入部100の先端から生体組織9までの距離で割ったものであり、また、kwは、広帯域自家蛍光画像の画素値を、その広帯域自家蛍光画像検出時における内視鏡挿入部100の先端から生体組織9までの距離で割ったものである。
【0048】
(nir+os2)/nir … (10)
nir:参照画像
os2:補正係数
{n/(w+os1)}×{(nir+os2)/nir} …(11)
os2=os1×knir/kw … (12)
knir:参照画像/内視鏡挿入部100の先端から生体組織9までの距離
kw:広帯域蛍光画像/内視鏡挿入部100の先端から生体組織9までの距離
色画像演算手段405は、補正手段404により算出された補正画素値の大きさに応じた色情報を割り当て色画像を生成する。
【0049】
輝度画像演算手段406は、参照画像用メモリ402に記憶された画素値の大きさに応じて輝度情報を割り当て輝度画像を生成する。
【0050】
画像合成手段407は、色画像演算手段405から出力された色画像と輝度画像演算手段406から出力された輝度画像を合成して後述する表示信号処理ユニット500のビデオ信号処理回路506に出力する。
【0051】
表示信号処理ユニット500は、可動ミラー302により反射された通常像を直角方向に反射する通常像用ミラー501、通常像用ミラー501に反射された通常像を結像する通常像用集光レンズ502、通常像用集光レンズ502で結像された通常像を撮像する通常画像用撮像素子503、通常画像用撮像素子503により撮像された参照像をデジタル値に変換して2次元画像データとして出力するAD変換器504、デジタル化された通常画像信号を保存する通常画像用メモリ505、通常画像用メモリ505から出力された通常画像信号および画像合成部405から出力された合成画像信号をビデオ信号に変換して出力するビデオ信号処理回路506を備えている。モニタ600は、通常画像と合成画像を切り換えて表示するものである。
【0052】
次に、上記実施の形態における蛍光内視鏡の作用について説明する。まず、異なる2つの波長帯域の自家蛍光画像と参照画像を撮像し、これらの画像から合成画像を生成して表示する場合の作用について説明する。
【0053】
上記合成画像表示時には、制御用コンピュータ200からの信号に基づき半導体レーザ用電源112によりGaN系半導体レーザ111から励起光Lrが射出され、励起光Lrは、励起光用集光レンズ113を透過し、ダイクロイックミラー120を透過し、励起光ライトガイド101bに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103 から生体組織9へ照射される。励起光Lrの照射により生じる生体組織9からの自家蛍光像は、集光レンズ105により集光され、励起光カットフィルタ104を透過してイメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタ104は、波長420nm以上の全蛍光を透過するロングパスフィルタである。励起光Lrの波長は410nmであるため、生体組織9で反射された励起光は、この励起光カットフィルタ104でカットされる。コリメートレンズ301を透過した自家蛍光像は、ダイクロイックミラー303にて直角方向に反射される。そして、ハーフミラー308で50%の透過率で透過し、50%の反射率で反射される。ハーフミラー308を透過した自家蛍光像は、蛍光像用ミラー313を直角方向に反射し、広帯域蛍光像用集光レンズ304により結像され、広帯域蛍光像用集光レンズ304を透過した自家蛍光像は、広帯域バンドパスフィルタ305を透過して、広帯域蛍光画像用高感度撮像素子306により撮像され、広帯域蛍光画像用高感度撮像素子306からの映像信号はAD変換器307へ入力され、デジタル化された後、自家蛍光画像用メモリ401の広帯域自家蛍光画像記憶領域に保存される。
【0054】
また、ダイクロイックミラー303で反射し、ハーフミラー308により反射された自家蛍光像は、狭帯域蛍光像用集光レンズ309により結像され、狭帯域バンドパスフィルタ310を透過して、狭帯域蛍光画像用高感度撮像素子311により撮像され、狭帯域蛍光画像用高感度撮像素子311からの映像信号はAD変換器312へ入力され、デジタル化された後、自家蛍光画像用メモリ401の狭帯域自家域蛍光画像領域に保存される。なお、広帯域蛍光画像用高感度撮像素子306により撮像された自家蛍光像のデジタルデータと狭帯域蛍光画像用高感度撮像素子311により撮像された自家蛍光像のデジタルデータはそれぞれ異なる領域に保存される。なお、このとき可動ミラー302は、自家蛍光像の光軸に対して平行な破線位置になっているものとする。
【0055】
また、参照光源用電源118により参照光源117から参照光Lsが射出され、この参照光Lsは、参照光用集光レンズ119を透過し、ダイクロイックミラー120を直角方向に反射して、励起光ライトガイド101bに入射され、内視鏡先端部まで導光された後、照明レンズ103から生体組織9へ照射される。参照光Lsの照射により生じる生体組織9からの参照像は、集光レンズ105により集光され、集光レンズ105を透過した参照像は、励起光カットフィルタ104を透過し、イメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタは、波長420nm以上の参照像を透過するロングパスフィルタである。コリメートレンズ301を透過した参照像は、ダイクロイックミラー303を透過し、参照像用集光レンズ314により結像され、参照画像用撮像素子315により撮像され、参照画像用撮像素子315からの映像信号はAD変換器316へ入力され、デジタル化された後、参照画像用メモリ402に保存される。なお、このとき可動ミラー302は、参照像の光軸に対して平行な破線位置になっているものとする。
【0056】
自家蛍光用画像メモリ401に保存された2つの波長帯域の自家蛍光画像は、規格化蛍光画像生成手段403において、広帯域自家蛍光画像のみにその各画素値にオフセットos1が付加される。そして、狭帯域自家蛍光画像との比が下式(13)に従って算出される。なお、os1は予め規格化蛍光画像生成手段403に設定された所定の値である。
【0057】
n/(w+os1) … (13)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
そして、規格化蛍光画像生成手段403で算出された規格化演算値は補正手段404に出力され、補正手段404により下式(14)に従って補正規格化演算値が算出される。
【0058】
{n/(w+os1)}×{(nir+os2)/nir} …(14)
os2=os1×knir/kw
knir:参照画像/内視鏡挿入部100の先端から生体組織までの距離
kw:広帯域自家蛍光画像/内視鏡挿入部100の先端から生体組織までの距離なお、補正関数(nir+os2)/nirは予め本実施の形態の蛍光内視鏡により検出された所定の生体組織についての参照画像および広帯域自家蛍光画像から算出されたものであり、補正手段404に予め記憶されているものである。本実施の形態では上記所定の生体組織として正常な生体組織を用いて参照画像および広帯域自家蛍光画像を撮像し、上記補正関数を算出している。上記のように補正関数を予め設定した後、実際に正常部と病変部とを持つ生体組織の自家蛍光画像および参照画像を撮像したときの補正規格化演算値と内視鏡挿入部100の先端から生体組織9までの距離との関係を図2に示す。図2においては、白丸が正常部の生体組織について算出された補正規格化演算値、黒丸が病変部の生体組織について算出された補正規格化演算値を示している。本実施の形態では、上記のように正常部の生体組織について補正関数を算出するようにしたので、図示のとおり正常部の生体組織について算出された補正規格化演算値は上記距離に依存することなく略一定の値をとるようにすることができる。従って、このとき例えば、白丸で示す補正規格化演算値に基づいて境界値を求め、この境界値以上の補正規格化演算値に応じた生体組織は正常部と判定し、この境界値未満である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、例えば、上記白丸で示した補正規格化演算値の平均値を複数種類(複数の患者)の正常部の生体組織について求め、その標準偏差σを求め、平均値−2σまたは平均値−3σを境界値とすればよい。−2σまたは−3σにするかは病変部の生体組織の補正規格化演算値との関係で決めればよい。
【0059】
また、本実施の形態のように正常部の生体組織について上記補正関数を算出するのではなく、病変部の生体組織について上記補正関数を算出するようにしてもよく、この場合には、病変部の生体組織について算出された補正規格化演算値が上記距離に依存することなく略一定の値をとるようにすることができる。従って、このときは例えば、上記同様に補正規格化演算値に基づいて境界値を求め、この境界値より大きい補正規格化演算値に応じた生体組織は正常部と判定し、この境界値以下である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、例えば、病変部の生体組織の補正規格化演算値の平均値を複数種類(複数の患者)の正常部の生体組織について求め、その標準偏差σを求め、平均値+2σまたは平均値+3σを境界値とすればよい。
【0060】
そして、色画像演算手段405により上記のようにして補正規格化演算値について2値判定された結果に基づいて各画素に色情報が割り当てられ、色画像信号として画像合成手段407に出力される。一方、参照画像用メモリ402に保存された参照画像は、輝度画像演算手段406で、各画素値に輝度情報を割り当て、輝度画像信号を生成し出力する。色画演算手段405と輝度画像演算手段406から出力された2つの画像信号は、画像合成手段407で合成される。画像合成手段407で合成された合成画像は、ビデオ信号処理回路506によってDA変換後にモニタ600に入力され、合成画像が表示される。
【0061】
次に、通常画像を表示する場合の作用について説明する。まず、制御用コンピュータ200からの信号に基づき白色光源用電源115により白色光源114から白色光Lwが射出され、白色光Lwは、白色光用集光レンズ116を経て白色光ライトガイド101aに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103から生体組織9へ照射される。白色光Lwの反射光は集光レンズ105によって集光され、励起光フィルタ104を透過して、イメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ301に入射する。励起光カットフィルタ104は、波長420nm以上の可視光を透過するロングパスフィルタである。コリメートレンズ301を透過した反射光は、可動ミラー302および通常像用ミラー501で反射し、通常像用集光レンズ502に入射される。通常像用集光レンズ502を透過した通常像は、通常画像用撮像素子503に結像される。通常画像用撮像素子503からの映像信号はAD変換器504へ入力され、デジタル化された後、通常画像用メモリ505に保存される。その通常画像用メモリ505により保存された通常画像信号は、ビデオ信号処理回路506によってDA変換後にモニタ600に入力され、そのモニタ600に可視画像として表示される。
【0062】
上記合成画像表示の作用および通常画像表示の作用に関する一連の動作は、制御用コンピュータ200により制御される。
【0063】
また、上記合成画像表示状態と通常画像表示状態の切り換えは、フットスイッチ2を押下することにより行なわれる。
【0064】
本発明による規格化画像生成方法および装置を適用した上記実施の形態における蛍光内視鏡よれば、規格化蛍光画像(規格化演算値)に上記補正関数を用いて生体組織9と内視鏡挿入部100の先端との距離に起因する規格化蛍光画像(規格化演算値)の変動量を補正する距離補正を施して補正規格化蛍光画像(補正規格化演算値)を生成するようにしたので、オフセットの付加による上記規格化蛍光画像(規格化演算値)のS/Nの向上を図ることができるとともに、内視鏡挿入部100の先端と生体組織9との距離に依存することなく、その距離が変化した場合においても一定の規格化演算値をとることができるので、生体組織における正常部と病変部の画像による識別をより正確に行なうことができる。
【0065】
例えば、図9(A)、(B)に示した同一のサンプルについての遠点および近点の画像に上記補正関数を用いて距離補正を施した場合の画像を図3(A)、(B)に示す。なお、本画像は上記実施の形態のように2値判定した結果を表示したものでなく、補正規格化演算値の大きさに応じて輝度を割り当て輝度画像として表示させたものである。図示のとおり、図9(A)、(B)と比較すると遠点の画像(図3(A))と近点の画像(図3(B))とで正常部の画像の明るさの差が小さく、正常部と病変部のコントラストの違いも小さくなっていることがわかる。
【0066】
また、上記第1の実施の形態では、式(9),(10)に従って、参照画像に基づいた補正関数を用いて補正規格化演算値を算出するようにしたが、上記実施の形態とは別の方法で参照画像に基づいて補正関数を求め、この補正関数を用いて補正規格化演算値を算出する方法を以下に示す。
【0067】
まず、上記実施の形態と同様に、補正関数を求めるために予め正常部の生体組織について狭帯域自家蛍光画像、広帯域自家蛍光画像および参照画像を撮像し、各画像の画素値を自家蛍光画像用メモリ401、参照画像用メモリ402に記憶する。そして、自家蛍光用画像メモリ401に保存された2つの波長帯域の自家蛍光画像は、規格化蛍光画像生成手段403において、広帯域自家蛍光画像のみにその各画素値に上記os1が付加される。そして、狭帯域自家蛍光画像との比が下式(15)に従って算出される。なお、os1は予め規格化蛍光画像生成手段403に設定された所定の値である。
【0068】
n/(w+os1) … (15)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
規格化蛍光画像生成手段403で算出された規格化演算値は補正手段404に出力される。一方、参照画像用メモリ402に記憶された参照画像の画素値が補正手段404に出力される。補正手段404は、規格化蛍光画像生成手段403から出力された規格化演算値と参照画像用メモリ402から出力された参照画像の画素値に基づいて図4(A)に示すような補正関数hnf(NIR)を求め、記憶する。ここで、hnfとは、このとき撮像された参照画像の画素値の逆数の2乗に基づく関数であり、この関数は内視鏡挿入部100の先端と生体組織との距離NIRを変数とするものである。なお、距離NIRとは、上記参照画像の画素値の逆数の2乗から算出されるものである。参照画像は、生体組織への吸収がほとんどない参照光の照射による反射光に基づいて撮像されるものなので、その画素値の大きさは内視鏡挿入部100の先端と生体組織との距離に依存する大きさである。従って、この参照画像の画素値の逆数の2乗に基づく関数であるhnfは上記距離をそのまま反映したものといえる。
【0069】
そして、実際の生体組織の撮像時には、実際に撮像された狭帯域自家蛍光画像、広帯域自家蛍光画像から規格化蛍光画像生成手段403にて上式(15)に従って規格化演算値が算出される。そして、その規格化演算値および参照画像の画素値が補正手段404に出力され、下式(16)に従って補正規格化演算値が出力される。
【0070】
nf×hnf(0)/hnf(NIR) … (16)
ここで、nfは上記実際に撮像された自家蛍光画像に基づく規格化演算値である。
【0071】
上記のように補正関数を用いて補正規格化演算値を求めることにより、図4(B)に示すように距離に依存する実際の規格化演算値(破線)を距離に依存しない補正規格化演算値(実線)に補正することができる。この補正規格化演算値を算出した後の作用については上記第1の実施の形態と同様である。
【0072】
次に、本発明の規格化画像生成方法を実施する規格化画像生成装置を適用した蛍光内視鏡の第2の実施の形態について説明する。図5は本実施の形態の概略構成を示す図である。なお、本実施の形態について、第1の実施の形態と同様の要素については同じ番号を付し、特に必要のない限りその説明を省略する。
【0073】
本実施の形態による蛍光内視鏡は、第1の実施の形態における参照光を利用しない構成としたものである。
【0074】
画像信号処理部3は、通常画像用白色光Lw、自家蛍光画像用励起光Lrをそれぞれ射出する2つの光源を備えた照明ユニット120と、この励起光の照射により生体組織9から発生した自家蛍光像Zjを撮像し、デジタル値に変換して2次元画像データとして出力する画像検出ユニット310と、画像検出ユニット310から出力された自家蛍光像の2次元画像データから規格化演算を行って、その規格化演算値に色情報を割り当てて色画像信号として出力する画像演算ユニット410と、通常像をデジタル値に変換して2次元画像データとし、その2次元画像データおよび画像演算ユニット410の出力信号をビデオ信号に変換して出力する表示信号処理ユニット500と、各ユニットに接続され動作タイミングなどの制御を行う制御用コンピュータ210と、後述する通常画像表示状態と色画像表示状態を切り換えるフットスイッチ2から構成される。
【0075】
照明ユニット120は、自家蛍光画像用の励起光Lrを発するGaN系半導体レーザ121、GaN系半導体レーザ111に電気的に接続される半導体レーザ用電源122、通常画像用の白色光Lwを発する白色光源124 、および白色光源124に電気的に接続される白色光用電源125から構成される。
【0076】
画像検出ユニット310には、イメージファイバ102が接続され、イメージファイバ102により伝搬された自家蛍光像、通常像を結像するコリメートレンズ331、コリメートレンズ331を透過した通常像を直角方向に全反射し、コリメートレンズ331を透過した蛍光像は、破線で示す位置に移動し通過させる可動ミラー332、コリメートレンズ331を透過した自家蛍光像(750nm以下の波長の光)の光量の50%を透過し、50%を直角方向に反射するハーフミラー323、ハーフミラー323を透過した自家蛍光像を結像させる狭帯域蛍光像用集光レンズ324、狭帯域蛍光像用集光レンズ324により結像された自家蛍光像から430nm〜530nmの波長を取り出す狭帯域バンドパスフィルタ325、狭帯域バンドパスフィルタ325を透過した自家蛍光像を撮像する狭帯域蛍光画像用高感度撮像素子326、狭帯域蛍光画像用高感度撮像素子326により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器327、ハーフミラー323を直角方向に反射した自家蛍光像を再び直角方向に反射する蛍光像用ミラー318、蛍光像用ミラー318を直角方向に反射した自家蛍光像を結像させる広帯域蛍光像用集光レンズ319、広帯域蛍光像用集光レンズ319を透過した自家蛍光像から430nm〜730nmの波長を選択する広帯域バンドパスフィルタ320、広帯域バンドパスフィルタ320を透過した自家蛍光像を撮像する広帯域蛍光画像用高感度撮像素子321、および広帯域蛍光画像用高感度撮像素子321により撮像された自家蛍光像をデジタル値に変換して2次元画像データとして出力するAD変換器322を備えている。
【0077】
画像演算ユニット410は、デジタル化された広帯域自家蛍光画像信号データを記憶する広帯域自家蛍光用メモリ411と、狭帯域自家蛍光画像信号データを記憶する狭帯域自家蛍光用メモリ412、広帯域自家蛍光用メモリ411に記憶された広帯域自家蛍光画像の各画素値に予め設定されたオフセット値を付加し、そのオフセットの付加された画素値と狭帯域自家蛍光画像の画素値の比率に応じた演算を行って各画素の規格化演算値を算出する規格化蛍光画像生成手段413、広帯域自家蛍光用メモリ411に記憶された広帯域自家蛍光画像の画素値に基づいて後述する補正関数を演算し、その補正関数を用いて規格化蛍光画像生成手段413から出力された規格化演算値に補正を施して補正規格化演算値を算出する補正手段414、および補正手段414により算出された補正規格化演算値に色情報を割り当てて色画像信号を出力する色画像演算手段415を備えている。
【0078】
規格化蛍光画像生成手段413は、広帯域自家蛍光用メモリ411に記憶された自家蛍光画像の画素値にオフセット値を付加し、下式(17)に従って狭帯域自家蛍光画像と広帯域自家蛍光画像との比を算出する。なお、本実施の形態では、オフセット値は、予め規格化蛍光画像生成手段413に記憶された所定の値である。
【0079】
n/(w+os1) … (17)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
補正手段414は、広帯域自家蛍光画像の画素値と上記規格化蛍光画像生成手段413により算出された規格化演算値に基づいて補正関数を求め、上記規格化演算値に距離の補正を施して補正規格化演算値を出力するものであるが、その詳細は後述する。
【0080】
色画像演算手段415は、補正手段414により算出された補正画素値の大きさに応じた色情報を割り当て色画像を生成する。
【0081】
次に、上記実施の形態における蛍光内視鏡の作用について説明する。まず、異なる2つの波長帯域の自家蛍光画像を撮像し、これらの画像から色画像を生成して表示する場合の作用について説明する。
【0082】
上記色画像表示時には、制御用コンピュータ200からの信号に基づき半導体レーザ用電源122によりGaN系半導体レーザ121から励起光Lrが射出され、励起光Lrは、励起光用集光レンズ123を透過し、励起光ライトガイド101bに入射され、内視鏡挿入部100の先端部まで導光された後、照明レンズ103 から生体組織9へ照射される。励起光Lrの照射により生じる生体組織9からの自家蛍光像は、集光レンズ105により集光され、励起光カットフィルタ104を透過してイメージファイバ102の先端に入射され、イメージファイバ102を経て、コリメートレンズ331に入射する。励起光カットフィルタ104は、波長420nm以上の全蛍光を透過するロングパスフィルタである。励起光Lrの波長は410nmであるため、生体組織9で反射された励起光は、この励起光カットフィルタ104でカットされる。コリメートレンズ331を透過した自家蛍光像は、ハーフミラー313で50%の透過率で透過し、50%の反射率で反射される。ハーフミラー313を反射した自家蛍光像は、蛍光像用ミラー318を直角方向に反射し、広帯域蛍光像用集光レンズ319により結像され、広帯域蛍光像用集光レンズ319を透過した自家蛍光像は、広帯域バンドパスフィルタ320を透過して、広帯域蛍光画像用高感度撮像素子321により撮像され、広帯域蛍光画像用高感度撮像素子321からの映像信号はAD変換器322へ入力され、デジタル化された後、広帯域自家蛍光用メモリ411に保存される。
【0083】
また、ハーフミラー313を透過した自家蛍光像は、狭帯域蛍光像用集光レンズ314により結像され、狭帯域バンドパスフィルタ315を透過して、狭帯域蛍光画像用高感度撮像素子316により撮像され、狭帯域蛍光画像用高感度撮像素子316からの映像信号はAD変換器317へ入力され、デジタル化された後、狭帯域自家蛍光用メモリ412に保存される。なお、広帯域蛍光画像用高感度撮像素子321により撮像された自家蛍光像のデジタルデータと狭帯域蛍光画像用高感度撮像素子316により撮像された自家蛍光像のデジタルデータはそれぞれ共通のメモリの異なる領域に保存されるようにしてもよい。なお、このとき可動ミラー332は、自家蛍光像の光軸に対して平行な破線位置になっているものとする。
【0084】
ここで、本実施の形態では上記実施の形態と同様に、補正関数を求めるために予め正常部の生体組織について狭帯域自家蛍光画像および広帯域自家蛍光画像を撮像し、各画像の画素値を広帯域蛍光用メモリ411、狭帯域蛍光用メモリ412に記憶する。そして、広帯域蛍光用メモリ411に保存された広帯域自家蛍光画像は、規格化蛍光画像生成手段413において、その各画素値に上記os1が付加される。そして、狭帯域自家蛍光画像との比が下式(18)に従って算出される。なお、os1は予め規格化蛍光画像生成手段413に設定された所定の値である。
【0085】
n/(w+os1) … (18)
n:狭帯域自家蛍光画像
w:広帯域自家蛍光画像
os1:オフセット
規格化蛍光画像生成手段413で算出された規格化演算値は補正手段414に出力される。一方、広帯域蛍光用メモリ411に記憶された広帯域自家蛍光画像の画素値が補正手段414に出力される。補正手段414は、規格化蛍光画像生成手段413から出力された規格化演算値と広帯域蛍光用メモリ411から出力された広帯域自家蛍光画像の画素値に基づいて図6(A)に示すような補正関数hnf(w)を求め、記憶する。ここで、wとは、このとき撮像された,広帯域自家蛍光画像の画素値である。なお、w∞とは内視鏡挿入部100の先端と生体組織9との距離が略0である場合(非常に近接している場合)における広帯域自家蛍光画像の画素値の大きさであり、十分に大きな値である。
【0086】
そして、実際の生体組織の撮像時には、実際に撮像された狭帯域自家蛍光画像、広帯域自家蛍光画像から規格化蛍光画像生成手段413にて上式(18)に従って規格化演算値が算出される。そして、その規格化演算値および広帯域自家蛍光画像の画素値が補正手段414に出力され、下式(19)に従って補正規格化演算値が出力される。
【0087】
nf×hnf(w∞)/hnf(w) … (19)
ここで、nfは上記実際に撮像された自家蛍光画像に基づく規格化演算値であり、hnf(w)は実際に撮像された広帯域自家蛍光画像の画素値wにおける補正関数hnf(w)の値である。
【0088】
上記のように補正関数を用いて補正規格化演算値を求めることにより、図6(B)に示すように距離に依存する実際の規格化演算値(破線)を距離に依存しない補正規格化演算値(実線)に補正することができる。
【0089】
本実施の形態では、上記のように正常部の生体組織について補正関数を算出するようにしたので、上記第1の実施の形態と同様に補正規格化演算値に基づいて境界値を求め、この境界値以上の補正規格化演算値に応じた生体組織は正常部と判定し、この境界値未満である補正規格化演算値に応じた生体組織は病変部と判定するようにすればよい。上記境界値は、上記第1の実施の形態と同様にして求めるようにすればよい。また、病変部の生体組織について上記補正関数を算出する場合の境界値の求め方も上記第1の実施の形態と同様である。
【0090】
そして、色画像演算手段415により上記のようにして補正規格化演算値について2値判定された結果に基づいて各画素に色情報が割り当てられ、色画像信号が生成される。色画像信号はビデオ信号処理回路506によってDA変換後にモニタ600に入力され、色画像が表示される。その他の作用については上記第1の実施の形態と同様である。
【0091】
また、上記第2の実施形態においては、補正関数を自家蛍光画像に基づく規格化演算値と広帯域自家蛍光画像の画素値との関係から求めるようにしたが、これに限らず狭帯域自家蛍光画像の画素値と上記規格化演算値の関係、または、広帯域自家蛍光画像および狭帯域自家蛍光画像の画素値の和と上記規格化演算値との関係から補正関数を求めるようにしてもよい。
【0092】
また、上記第1および第2の実施の形態においては、正常部または病変部の生体組織に基づいて補正関数を求め、その補正関数を用いて補正規格化演算値を算出し、この補正規格化演算値に基づいて境界値を設定して2値判定するようにしたが、補正関数を、正常部から病変部までの進行度をs段階に分割したときの各段階のそれぞれの生体組織に基づいて求め、この補正関数に基づいて基準となるs個の補正規格化演算値をそれぞれ算出し、この基準となるs個の補正規格化演算値に基づいて境界値を設定するようにしてもよい。この場合、実際に撮像された生体組織について上記s段階のそれぞれの生体組織に応じたs個の補正関数を用いてそれぞれ補正規格化演算値を算出し、このs個の補正規格化演算値について、上記境界値を用いてs段階の生体組織に応じた領域をs個の補正規格化蛍光画像から抽出し、このs個の領域について、例えばそれぞれ異なる色画像を割り当てて、この色画像を重ねて表示するようにしてもよい。この場合、例えば、第1の実施の形態に適用する場合には、図6に示すように補正手段404と色画像算出手段405の間に境界値設定手段420および領域抽出手段421を設けるようにし、画像合成手段407において色画像算出手段405から出力されたs段階の生体組織に応じた領域を重ね合わせるようにすればよい。
【0093】
また、上記第1および第2の実施の形態では、正常部の生体組織または病変部の生体組織を用いて補正関数を算出するが、この生体組織として複数の患者の生体組織を利用するようにしてもよい。また、補正関数は、実際の画像診断などの前に予め算出し設定するようにしてもよいし、実際の画像診断などの途中で算出し設定したり、または、更新したりするようにしてもよい。
【0094】
また、上記第1および第2の実施の形態では1つのモニタで合成画像および通常画像または色画像および通常画像をそれぞれ切り換えて表示するようにしているが、別々のモニタで表示するようにしてもよい。また、1つのモニタで切り換える方法も上記実施の形態のようにフットスイッチによらず制御コンピュータより時系列で自動的に行ってもよい。
【0095】
また、GaN系半導体レーザ114および白色光源111を別個の構成としたが、適当な光学透過フィルタを利用して、単一の光源を励起光源と白色光源とで兼用することもできる。
【0096】
また、励起光源は、波長として400nmから420nm程度のいずれのものを選んでも良い。
【0097】
また、上記第1および第2の実施の形態においては、励起光の照射により生体組織から発せられる自家蛍光に基づいて規格化蛍光画像を生成する際に、本発明の規格化画像生成方法を適用した実施の形態を説明したが、上記のように自家蛍光に基づいて規格化蛍光画像を生成する際に限らず、例えば、生体組織への白色光の照射により反射光される反射光に基づいて生体組織の酸素飽和度を算出し、この酸素飽和度に基づいて規格化画像を生成する際にも、本発明の規格化画像生成方法を適用することができる。具体的には以下に説明する。
【0098】
まず、上記酸素飽和度を算出する方法について説明する。上記のような蛍光内視鏡の内視鏡挿入部100から白色光を生体組織9に照射する。そして、このとき生体組織から反射される反射光を、異なる波長帯域λ1,λ2のバンドパスフィルタを介して撮像素子により撮像することにより、異なる波長帯域λ1,λ2の反射画像r1,r2を得る。そして、この2つの反射画像r1,r2について、各画素値と生体組織の照射された白色光の強度に基づいて、各画素毎の吸光度を算出する。
【0099】
ここで、上記吸光度は生体組織の酸素飽和度に応じて変化するため、上記吸光度から酸素飽和度を算出することができるが、上記吸光度は生体組織の脈動により異なる。したがって、例えば、脈拍計などを設け、この脈拍計により計測された脈動に基づいて、例えば、吸光度が最も大きくなる時刻T1と吸光度が最も小さくなる時刻T2とを求め、この時刻T1と時刻T2における吸光度の変化分を算出し、この変化分に基づいて酸素飽和度を算出する。
【0100】
つまり、各画素毎に、時刻T1における波長帯域λ1の照射光に対する吸光度Iλ1(T1)が時刻T1における反射画像r1に基づいて求められ、時刻T1における波長帯域λ2の照射光に対する吸光度Iλ2(T1)が時刻T1における反射画像r2に基づいて求められ、時刻T2における波長帯域λ1の照射光に対する吸光度Iλ1(T2)が時刻T2における反射画像r1’に基づいて求められ、時刻T2における波長帯域λ2の照射光に対する吸光度Iλ2(T2)が時刻T2における反射画像r2’に基づいて求められ、吸光度の変化分ΔIλ1およびΔIλ2が以下のようにして求められる。
【0101】
ΔIλ1=Iλ1(T1)−Iλ(T2)
ΔIλ2=Iλ2(T1)−Iλ(T2)
そして、上記2つの波長帯域λ1,λ2に対する吸光度の時間変化分ΔIλ1、ΔIλ2に基づいて酸素飽和度SaO2が以下の式により求められる。
【0102】
SaO2=f(Φ12)
Φ12=ΔIλ1/ΔIλ2
なお、fは実験により得られたΦ12とSaO2との関係に基づいて得られた関数である。
【0103】
ここで、上記吸光度の変化分ΔIλ1、ΔIλ2は、上記自家蛍光と同様に非常に小さい値であるため、これらに基づいてΦ12を求めて酸素飽和度SaO2を算出してこれを画像化した場合には、S/Nが悪い画像となってしまう。したがって、上記自家蛍光を画像化する場合と同様に、例えば、以下のようにオフセットを付加してΦ12’を求めることが考えられる。
【0104】
Φ12’=ΔIλ1/(ΔIλ2+os3)
ただし、os3:オフセット
しかしながら、上記のようにオフセットを付加してΦ12’を求めた場合、自家蛍光画像についてオフセットを付加して規格化蛍光画像を演算した場合と同様に、Φ12’の値が内視鏡挿入部100の先端と生体組織との距離によって異なる値となるため、Φ12’に基づいて生体組織の酸素飽和度を適切に示すことは困難である。したがって、上記実施の形態と同様に、Φ12’を補正関数により補正し、この補正された値に基づいて酸素飽和度SaO2を算出して画像化することにより、内視鏡挿入部100の先端と生体組織との距離に依存せず、酸素飽和度が適切に示された画像を表示するようにすることができる。また、上記補正関数としては、例えば、下式(20)のようなものを利用し、式(21)、式(22)によの演算を行なうことにより、Φ12’を補正するようにすればよい。
【0105】
(Wir+os4)/Wir … (20)
Wir:参照光を照射したときの吸光度
os4:補正係数
{ΔIλ1/(ΔIλ2+os3)×{(Wir+os4)/Wir} …(21)
os4=os3×hir/hw … (22)
hir:参照光を照射したときの吸光度/内視鏡挿入部100の先端から生体組織9までの距離
hw:ΔIλ2/内視鏡挿入部100の先端から生体組織9までの距離
また、上式(20)のような補正関数に限らず、上記実施の形態において説明したその他の補正関数を適用するようにしてもよい。
【0106】
また、上記異なる波長帯域λ1,λ2の反射画像r1,r2を得る方法としては、波長帯域λ1,λ2のバンドパスフィルタからなる面順次フィルタを使用して2つの反射画像r1,r2を時系列に得るようにしてもよいし、波長帯域λ1,λ2のバンドパスフィルタからなるモザイクフィルタを使用して2つの反射画像r1,r2を同時に得るようにしてもよい。
【0107】
また、上記反射画像r1,r2の撮像は、生体組織に白色光を照射する通常画像の撮像時に行なってもよい。
【図面の簡単な説明】
【図1】本発明による規格化画像生成方法および装置を適用した蛍光内視鏡の第1の実施の形態の概略構成図
【図2】正常部と病変部とを持つ生体組織の自家蛍光画像および参照画像を撮像したときの補正規格化演算値と内視鏡挿入部の先端から生体組織までの距離との関係を示す図
【図3】図9に示す遠点の画像(A)および近点の画像(B)について補正関数を用いて距離補正を施したときの画像を示す図
【図4】狭帯域自家蛍光画像と広帯域自家蛍光画像に基づく規格化演算値と参照画像の画素値の逆数NIRとの関係(A)および補正関数による補正(B)を示す図
【図5】本発明による規格化画像生成方法および装置を適用した蛍光内視鏡の第2の実施の形態の概略構成図
【図6】狭帯域自家蛍光画像と広帯域自家蛍光画像に基づく規格化演算値と広帯域自家蛍光画像の画素値との関係(A)および補正関数による補正(B)を示す図
【図7】補正手段により算出されたs段階の生体組織に応じた補正規格化演算値に基づいて境界値設定手段により境界値を設定し、この境界値に基づいて領域抽出手段によりs段階の生体組織に応じた領域を抽出し、この領域についてそれぞれ異なる色画像を割り当てて色画像を生成する場合の各手段の構成図
【図8】正常部の生体組織および病変部の生体組織について、オフセットを付加して規格化演算値を求めたときのその規格化演算値と検出手段と生体組織との距離の関係を示す図
【図9】同一のサンプルについて、検出手段と生体組織との距離が大きい(遠点)ときの除算値に基づく画像(A)と距離が小さい(近点)ときの除算値に基づく画像(B)を示す図
【図10】正常部と病変部の生体組織の蛍光スペクトルの強度分布を示す説明図
【符号の説明】
1 蛍光診断装置
2 フットスイッチ
9 生体組織
100 内視鏡挿入部
101 ライトガイド
101a 白色光ライトガイド
101b 励起光ライトガイド
102 イメージファイバ
103 照明レンズ
104 励起光カットフィルタ
105 対物レンズ
110,120 照明ユニット
111,121 GaN系半導体レーザ
112,122 半導体レーザ用電源
113,123 励起光用集光レンズ
114,124 白色光源
115,125 半導体レーザ用電源
116,126 白色光用集光レンズ
200,210 制御用コンピュータ
300,310 画像検出ユニット
301 コリメートレンズ
302 可動ミラー
303 ダイクロイックミラー
304,319広帯域蛍光像用集光レンズ
305,320 広帯域バンドパスフィルタ
306,321 広帯域蛍光画像用高感度撮像素子
307,312,316,322,327,504 AD変換器
308,323 ハーフミラー
309,324 狭帯域蛍光像用ミラー
310,325 狭帯域バンドパスフィルタ
311,326 狭帯域蛍光画像用高感度撮像素子
313 蛍光像用ミラー
314 参照像用集光レンズ
315 参照画像用撮像素子
331 コリメートレンズ
332 可動ミラー
400 画像演算ユニット
401 自家蛍光画像用メモリ
402 参照画像用メモリ
403,413 規格化蛍光画像生成手段
404,414 補正手段
405,415 色画像演算手段
406 輝度画像演算手段
407 画像合成手段
500 表示信号処理ユニット
501 通常像用ミラー
502 通常像用集光レンズ
503 通常画像用撮像素子
505 通常画像用メモリ
506 ビデオ信号処理回路
600 モニタユニット[0001]
BACKGROUND OF THE INVENTION
The present invention detects re-radiation light of different wavelength bands generated from a living tissue by light irradiation as an image, adds a desired offset to at least one of the images of different wavelength bands, and adds the offset The present invention relates to a normalized image generation method and apparatus for generating a normalized image by obtaining a ratio of different images.
[0002]
[Prior art]
Conventionally, when the living tissue is irradiated with excitation light in the excitation light wavelength region of the living dye, the fluorescence intensity emitted between the normal tissue and the diseased tissue is different, thereby exciting the living tissue in the predetermined wavelength region. There has been proposed a fluorescence detection apparatus that recognizes the localization and infiltration range of a diseased tissue by irradiating light and detecting fluorescence emitted from a living body dye.
[0003]
Normally, when excitation light is irradiated, strong fluorescence is emitted from normal tissue as shown by a solid line in FIG. 10, and weaker fluorescence is emitted from lesion tissue than fluorescence emitted from normal tissue as shown by a broken line. By measuring the strength, it is possible to determine whether the living tissue is normal or in a lesion state.
[0004]
Furthermore, a method has been proposed in which fluorescence from excitation light is imaged by an imaging element or the like, and a fluorescence image corresponding to the intensity of the fluorescence is displayed to determine whether the living tissue is normal or in a lesion state. In this technique, since the living tissue has irregularities, the intensity of the excitation light irradiated to the living tissue is not uniform, and the fluorescence intensity emitted from the living tissue is proportional to the square of the distance between the light source and the living tissue. Will drop. Further, the distance between the fluorescence detection means and the living tissue also decreases in proportion to the square thereof. For this reason, strong fluorescence may be received from a lesion tissue closer to a normal tissue far from the light source or the detection means, and the tissue properties of the living tissue can be determined only by information on the intensity of the fluorescence from the excitation light. It cannot be accurately identified. In order to reduce such inconveniences, the ratio of fluorescence images based on two types of fluorescence intensities acquired from different wavelength bands (narrow band near 480 nm and wide band near 430 nm to 730 nm) is obtained by division, and the division value A standardized image generation method based on the difference in the shape of the fluorescence spectrum that reflects the tissue properties of a living body has been proposed. In addition, color information is assigned to the division values of fluorescence images in different wavelength bands, and the lesion state of a living tissue is indicated as a color image by the difference in color, and further, uniform absorption is performed for various living tissues. It is obtained by irradiating a living tissue with the received near-infrared light as reference light, detecting a reference image based on the intensity of reflected light from the living tissue due to irradiation of this reference light, and assigning luminance information to the reference image. A method has also been proposed in which a luminance image is combined with the color image to show an image with a sense of unevenness in which the shape of a living tissue is also reflected in the image.
[0005]
In addition, when a normalized fluorescence image is generated based on the division values of fluorescence images in different wavelength bands as described above, the fluorescence intensity from the living tissue used for the normalization calculation is weak, so this fluorescence intensity The S / N of the normalized fluorescent image based on the above is very low. In order to improve this, there has been proposed a method for improving the S / N of the normalized fluorescence image by adding the offset to at least one of the fluorescence images in different wavelength bands and calculating the division value.
[0006]
[Problems to be solved by the invention]
However, when obtaining a division value by adding an offset as described above, the offset value may be increased in order to obtain a good S / N. However, the fluorescence intensity depends on the distance between the detection means and the living tissue. Therefore, if the offset value is excessively increased, even if the biological tissue at the far point and the biological tissue at the near point are the same, the division value may be greatly different. Therefore, it becomes difficult to distinguish between the living tissue of the lesioned part and the living tissue of the normal part. As an example, FIG. 8 shows a division value of a narrow-band fluorescence image and a wide-band fluorescence image to which an offset is added (a narrow-band fluorescence image / (broadband fluorescence image + offset)) for a predetermined normal body tissue and a lesion tissue. The relationship between the division value and the above-mentioned distance when? The offset values are 5, 10, 15, and 20. The division value for the normal living tissue is indicated by a white symbol, and the division value for the lesion biological tissue is indicated by a black symbol. As shown in the figure, the division value varies with the distance, and the larger the offset value, the smaller the difference in the division value between the normal part and the lesioned part, making it difficult to identify. On the other hand, if the offset value is reduced, the change of the division value due to the distance is reduced, but naturally there is a problem that the effect of improving the S / N of the normalized fluorescent image by adding the offset cannot be obtained sufficiently. 9A and 9B, the normalized fluorescence image based on the division value when the distance between the detection means and the biological tissue is large (far point) for a predetermined biological tissue (FIG. 9A). FIG. 9B shows a normalized fluorescence image (FIG. 9B) based on the division value when the distance is small (near point). Note that the offset at this time is 20, and in each image, a portion that is relatively darker than the surrounding image means an image of a lesioned part. As shown in the figure, in the image of the far point and the near point, the image of the lesioned part or the image of the normal part must be displayed with the same brightness, but the far point image is closer to the near point. It is darker than the above image and the contrast between the normal part and the lesion part is also small, so that it is difficult to distinguish them.
[0007]
In view of the above-described problems of the prior art, the present invention adds a desired offset to at least one of images in different wavelength bands and performs a normalization operation to generate a standardized image. In a generation method and apparatus, a normalized image generation method and apparatus capable of taking a constant normalized calculation value even when the distance changes without depending on the distance between the detection means and the living tissue. It is intended.
[0008]
[Means for Solving the Problems]
The normalized image generation method of the present invention detects images of different wavelength bands based on re-radiated light generated from a living tissue by light irradiation, and detects at least one of images of different wavelength bands. In a standardized image generation method for generating a standardized image based on a ratio of images in different wavelength bands to which a desired offset is added to at least one of the predetermined offsets, A corrected normalized image is generated by performing a distance correction for correcting a variation amount of the normalized image caused by the distance between the living tissue and the image detecting means using the correction function.
[0009]
Here, the “image detection means” refers to, for example, an endoscope insertion portion that is inserted into a living body, an endoscope insertion in a fluorescence endoscope that detects fluorescence emitted from a living tissue by irradiation of excitation light. This means an image sensor that captures an image of the fluorescence guided by the unit and a light guide unit up to the image sensor. And about an image of a mutually different wavelength band, you may provide one part each, such as an image pick-up element and a light guide part, respectively, and may make it common.
[0010]
Further, “adding a desired offset to images in different wavelength bands” means adding an offset value to each pixel value of each image. By adding an offset value to each image, the variation in the pixel value of the normalized image after the normalization calculation is reduced, and the S / N of the normalized image can be improved. The portion to which the offset value is added may not be the entire image, and may be added only to a portion where the image is dark, that is, a portion having a low S / N. That is, when the normalization calculation is performed based on the ratio of each image, an offset value large enough to improve the S / N of the standardized image so as to improve the accuracy of identifying the tissue property. Add it.
[0011]
The “image ratio” means a ratio of pixel values on the same coordinates in images of different wavelength bands, and “normalized based on the image ratio”. “Generate an image” means to divide by each pixel value on the same coordinate or perform a standardization operation similar to it, and generate an image having the normalized value as a pixel value as a standardized image Means that.
[0012]
In addition, the above-mentioned “distance between the living tissue and the image detection means” means a distance that substantially affects the size of the pixel value of the detected image. Is the distance between the living tissue and the distal end of the endoscope insertion portion in the fluorescence endoscope. Furthermore, when the excitation light irradiating means for irradiating the biological tissue with the excitation light also moves in the positional relationship with the biological tissue, the pixel value of the fluorescence image varies depending on the movement, so the above distance is determined by the excitation light irradiation. The distance between the means and the living tissue is also included.
[0013]
In addition, the “variation amount of the standardized image” means a variation amount of the pixel value of the standardized image.
[0014]
Further, “correcting the amount of fluctuation of the standardized image due to the distance” means correcting the magnitude of the pixel value so that the pixel value of the standardized image does not vary depending on the distance. To do.
[0015]
Further, the normalized image generation method of the present invention detects fluorescence images in different wavelength bands based on fluorescence generated from a living tissue by irradiation of excitation light, respectively, and detects fluorescence images in different wavelength bands. A standard that adds a desired offset to at least one of the two and performs a normalization operation based on a ratio of fluorescent images in different wavelength bands to which the desired offset is added to at least one of the two to generate a normalized fluorescent image In the normalized image generation method, the normalized fluorescence image is subjected to a distance correction that corrects a variation amount of the normalized fluorescence image caused by the distance between the living tissue and the fluorescence image detection unit using a predetermined correction function, thereby correcting the normalized fluorescence image An image is generated.
[0016]
In addition, the fluorescent images having different wavelength bands can be a narrow-band fluorescent image and a broadband fluorescent image.
[0017]
In addition, the correction function can be calculated based on at least one of a broadband fluorescent image and a narrowband fluorescent image for a predetermined biological tissue whose property is known.
[0018]
Further, a reference image by reflected light reflected from a predetermined biological tissue whose property is known by reference light irradiation is detected by a reference image detection means, and a correction function is calculated based on the reference image. Can do.
[0019]
Here, the “reference light image detection means” refers to, for example, an endoscope insertion portion that is inserted into a living body in a fluorescence endoscope, and reflected light that is emitted by reference light guided by the endoscope insertion portion. Means that includes an image pickup device that picks up an image and a light guide portion up to the image pickup device. The reference light image detection means and the fluorescence image detection means are preferably a common endoscope insertion part and a light guide part, but since the wavelength bands are different, an optical filter for selecting the wavelength band of each image is provided. It is necessary to provide it. If the image sensor is also used in common, the exposure timing may be shifted to capture an image.
[0020]
Further, when the correction function is calculated based on the reference image, it is desirable that the distance between the reference image detecting unit and the living tissue and the distance between the fluorescent image detecting unit and the living tissue are equal.
[0021]
Further, the correction function can be expressed by the following equation (5), and the corrected normalized fluorescence image can be calculated by the following equation (6).
[0022]
(Nir + os2) / nir (5)
{N / (w + os1)} × {(nir + os2) / nir} (6)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
Here, n, w, and mir mean the pixel values of the narrow-band fluorescent image, the broadband fluorescent image, and the reference image, respectively. Further, knir is obtained by dividing the pixel value of the reference image by the distance between the living tissue and the reference image detecting means, that is, the pixel value of the reference image per unit distance. Kw is obtained by dividing the pixel value of the broadband fluorescent image by the distance between the living tissue and the fluorescent image detecting means, that is, the pixel value of the broadband fluorescent image per unit distance. Further, the correction coefficient os2 is calculated from the offset, knir and kw as shown in the above equation.
[0023]
Further, the os2 can be calculated based on knir and kw when the biological tissue of the normal part is imaged by the reference image detection unit and the fluorescence image detection unit.
[0024]
The os2 can be calculated based on knir and kw when the biological tissue of the lesion is imaged by the reference image detection unit and the fluorescence image detection unit.
[0025]
The os2 is based on each knir and each kw when the biological tissue at each stage when the progress from the normal part to the lesioned part is divided into s stages is imaged by the reference image detection unit and the fluorescence image detection unit. Can be calculated respectively.
[0026]
In addition, using the s correction functions based on os2 corresponding to each of the s-stage biological tissues, distance correction is performed on the standardized fluorescent image serving as a reference for each of the s-stage biological tissues, and s pieces are used as the reference. Are calculated, and boundary values are set based on the s reference correction normalized fluorescent images, while distance correction is performed on the normalized fluorescent image of the living tissue using s correction functions. To calculate a corrected standardized fluorescent image, extract a region corresponding to the s-stage biological tissue using the boundary value for the s corrected standardized fluorescent images, and extract the extracted s regions Can be superimposed and displayed.
[0027]
Here, s in the “s stage” means a natural number of 2 or more.
[0028]
The “standardized fluorescent image as a reference” is a standardized fluorescent image calculated by imaging an s-stage living tissue as a sample in order to set the boundary value. The “standardized fluorescence image” means an image obtained by subjecting the standardized fluorescence image as a reference to distance correction using a correction function calculated for each living tissue.
[0029]
The “normalized fluorescent image of the biological tissue” is a normalized fluorescent image calculated by imaging a biological tissue that is actually subjected to image diagnosis or the like.
[0030]
The normalized image generating apparatus of the present invention includes a light irradiating unit that irradiates light to a living tissue and an image detecting unit that detects images in different wavelength bands based on re-radiated light generated from the living tissue by light irradiation. And a standard that generates a standardized image based on a ratio of images in different wavelength bands to which a desired offset is added to at least one of images in different wavelength bands and a desired offset is added to at least one of the images. In a standardized image generation apparatus including a standardized image generation unit, distance correction is performed to correct a variation amount of the standardized image caused by the distance between the living tissue and the image detection unit using a predetermined correction function for the standardized image. And a correction means for generating a corrected standardized image.
[0031]
In addition, the normalized image generation apparatus according to the present invention detects excitation light irradiation means for irradiating biological tissue with excitation light and fluorescence images in different wavelength bands based on fluorescence generated from the biological tissue by irradiation of excitation light. And a fluorescent image detecting means for adding a desired offset to at least one of the fluorescent images in different wavelength bands and a ratio of the fluorescent images in different wavelength bands to which the desired offset is added to at least one of the fluorescent images. In a standardized image generating apparatus including a standardized fluorescent image generating unit that performs a standardization operation to generate a standardized fluorescent image, a normal tissue and a fluorescent image detecting unit are used by using a predetermined correction function for the standardized fluorescent image. And a correction means for generating a corrected standardized fluorescent image by performing a distance correction for correcting the fluctuation amount of the standardized fluorescent image caused by the distance of It is.
[0032]
Further, the correction means performs distance correction on s standardized fluorescent images serving as a reference for each biological tissue in the s stage using s correction functions based on os2 corresponding to each biological tissue in the s stage. s number of corrected standardized fluorescent images to be used as a reference, boundary value setting means for setting a boundary value based on the s reference corrected standardized fluorescent images, and normalization of living tissue by the correcting means A region extraction unit that extracts regions corresponding to s stages of biological tissue using boundary values from s correction standardized fluorescence images calculated using s correction functions for the fluorescence image, and a region extraction unit. It is characterized by comprising display means for displaying the extracted areas of the s corrected standardized fluorescent images in a superimposed manner.
[0033]
【The invention's effect】
According to the normalized image generation method and apparatus of the present invention, images in different wavelength bands are detected by the image detection means based on re-radiated light generated from the living tissue by light irradiation, and images in different wavelength bands are detected. A standardized image generation method for generating a standardized image based on a ratio of images of different wavelength bands to which a desired offset is added to at least one and a desired offset is added to at least one. Since a corrected standardized image is generated by performing a distance correction that corrects the variation amount of the standardized image due to the distance between the living tissue and the image detecting means using a predetermined correction function, by adding an offset The S / N of the normalized calculation value can be improved, and the distance is not dependent on the distance between the image detection means and the living tissue. It is possible to take certain of the normalized calculated values even when the change can be performed to identify the tissue state of the biological tissue more accurately.
[0034]
Further, when the images of different wavelength bands are a narrow-band fluorescent image and a broadband fluorescent image, and the correction function is calculated based on at least one of the broadband fluorescent image and the narrow-band fluorescent image, In particular, the correction function can be easily obtained only from the arithmetic processing without providing a mechanism for obtaining the correction function.
[0035]
In addition, when the reference image detection unit detects a reference image by reflected light reflected from a predetermined biological tissue whose properties are known by irradiation of the reference light, and the correction function is calculated based on the reference image In this case, the reference image does not depend on the properties of the living tissue and reflects the distance between the living tissue and the reference image detection unit as it is, so that it is possible to perform distance correction with higher accuracy.
[0036]
When the correction function is expressed by the following equation (7) and the corrected standardized fluorescence image is calculated by the following equation (8), the correction is performed by a simpler calculation process. A function can be obtained.
[0037]
(Nir + os2) / nir (7)
{N / (w + os1)} × {(nir + os2) / nir} (8)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
In addition, the s number of correction functions based on os2 corresponding to the respective biological tissues in the s stage are subjected to distance correction to the standardized fluorescent image serving as the reference for the respective biological tissues in the s stage, and are used as the reference. Each of the corrected normalized fluorescent images is calculated, and a boundary value is set based on the s reference corrected normalized fluorescent images. On the other hand, distance correction is performed on the normalized fluorescent image of the living tissue using s correction functions. S corrected standardized fluorescent images are respectively calculated, and a region corresponding to the s-stage biological tissue is extracted from the s corrected standardized fluorescent images using boundary values, and the extracted s pieces When the regions are superimposed and displayed, the progress of the diseased body can be more clearly confirmed on the same living tissue by an image.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of a first embodiment of a fluorescence endoscope to which a standardized image generating apparatus that implements a standardized image generating method of the present invention is applied.
[0039]
The fluorescence endoscope according to the present embodiment processes an
[0040]
The image
[0041]
The
[0042]
The
[0043]
An
[0044]
The
[0045]
The
[0046]
The normalized fluorescence image generation means 403 adds an offset value to the pixel value of the autofluorescence image stored in the
[0047]
n / (w + os1) (9)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The
[0048]
(Nir + os2) / nir (10)
nir: reference image
os2: Correction coefficient
{N / (w + os1)} × {(nir + os2) / nir} (11)
os2 = os1 × knir / kw (12)
knir: distance from the distal end of the reference image /
kw: Broadband fluorescent image / distance from the distal end of the
The color
[0049]
The luminance
[0050]
The
[0051]
The display
[0052]
Next, the operation of the fluorescence endoscope in the above embodiment will be described. First, an operation when an autofluorescence image and a reference image in two different wavelength bands are captured, and a composite image is generated and displayed from these images will be described.
[0053]
At the time of displaying the composite image, excitation light Lr is emitted from the GaN-based
[0054]
In addition, the autofluorescence image reflected by the
[0055]
Further, reference light Ls is emitted from the
[0056]
In the autofluorescence image of the two wavelength bands stored in the
[0057]
n / (w + os1) (13)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
Then, the normalized calculation value calculated by the normalized fluorescence
[0058]
{N / (w + os1)} × {(nir + os2) / nir} (14)
os2 = os1 × knir / kw
knir: distance from the tip of the reference image /
kw: Broadband autofluorescence image / distance from the distal end of the
[0059]
In addition, instead of calculating the correction function for the normal tissue of the normal part as in the present embodiment, the correction function may be calculated for the biological tissue of the lesioned part. The corrected standardization calculation value calculated for the living tissue can take a substantially constant value without depending on the distance. Therefore, at this time, for example, as described above, a boundary value is obtained based on the corrected normalized calculation value, and the living tissue corresponding to the corrected normalized calculation value larger than the boundary value is determined to be a normal part, and below this boundary value A living tissue corresponding to a certain correction normalization calculation value may be determined as a lesioned part. The boundary value is obtained, for example, by obtaining an average value of correction normalization calculation values of a living tissue of a lesioned part for a plurality of types (a plurality of patients) of normal tissues, obtaining a standard deviation σ, and calculating an average value + 2σ or an average The value + 3σ may be used as the boundary value.
[0060]
Then, color information is assigned to each pixel based on the result of the binary determination of the corrected normalized calculation value as described above by the color
[0061]
Next, the operation when displaying a normal image will be described. First, the
[0062]
A series of operations relating to the combined image display operation and the normal image display operation are controlled by the
[0063]
The composite image display state and the normal image display state are switched by pressing the foot switch 2.
[0064]
According to the fluorescence endoscope in the above-described embodiment to which the normalized image generation method and apparatus according to the present invention is applied, the living tissue 9 and the endoscope are inserted using the correction function in the normalized fluorescence image (standardized calculation value). Since the correction of the normalized fluorescence image (corrected normalized calculation value) is performed by performing the distance correction for correcting the fluctuation amount of the normalized fluorescence image (normalized calculation value) due to the distance from the tip of the
[0065]
For example, images obtained when distance correction is performed on the far point and near point images of the same sample shown in FIGS. 9A and 9B using the above correction function are shown in FIGS. ). Note that this image does not display the result of the binary determination as in the above-described embodiment, but is an image in which luminance is assigned according to the magnitude of the corrected standardization calculation value and displayed as a luminance image. As shown in the figure, compared to FIGS. 9A and 9B, the brightness difference between the image of the normal part between the image at the far point (FIG. 3A) and the image at the near point (FIG. 3B). It can be seen that the difference in contrast between the normal part and the lesion part is small.
[0066]
In the first embodiment, the correction standardization calculation value is calculated using the correction function based on the reference image according to the equations (9) and (10). A method for obtaining a correction function based on the reference image by another method and calculating a correction normalization calculation value using this correction function will be described below.
[0067]
First, as in the above embodiment, in order to obtain a correction function, a narrow-band autofluorescence image, a broadband autofluorescence image, and a reference image are captured in advance with respect to a normal tissue, and pixel values of each image are used for the autofluorescence image. The data is stored in the
[0068]
n / (w + os1) (15)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The normalized calculation value calculated by the normalized fluorescent
[0069]
When an actual biological tissue is imaged, the normalized calculation value is calculated according to the above equation (15) by the normalized fluorescence image generation means 403 from the actually captured narrowband autofluorescence image and broadband autofluorescence image. Then, the normalized calculation value and the pixel value of the reference image are output to the correcting
[0070]
nf × hnf (0) / hnf (NIR) (16)
Here, nf is a normalized calculation value based on the self-fluorescent image actually captured.
[0071]
By obtaining the correction standardization calculation value using the correction function as described above, as shown in FIG. 4B, the actual standardization calculation value (broken line) that depends on the distance is corrected without depending on the distance. It can be corrected to a value (solid line). The operation after calculating the corrected normalization calculation value is the same as that in the first embodiment.
[0072]
Next, a second embodiment of the fluorescence endoscope to which the standardized image generating apparatus that performs the standardized image generating method of the present invention is applied will be described. FIG. 5 is a diagram showing a schematic configuration of the present embodiment. In addition, about this Embodiment, the same number is attached | subjected about the element similar to 1st Embodiment, and the description is abbreviate | omitted unless there is particular need.
[0073]
The fluorescence endoscope according to the present embodiment has a configuration that does not use the reference light in the first embodiment.
[0074]
The image
[0075]
The
[0076]
The
[0077]
The
[0078]
The normalized fluorescence image generation means 413 adds an offset value to the pixel value of the autofluorescence image stored in the
[0079]
n / (w + os1) (17)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The
[0080]
The color
[0081]
Next, the operation of the fluorescence endoscope in the above embodiment will be described. First, an operation in the case where autofluorescence images in two different wavelength bands are taken and a color image is generated from these images and displayed will be described.
[0082]
At the time of displaying the color image, the excitation light Lr is emitted from the GaN-based
[0083]
The self-fluorescent image transmitted through the
[0084]
Here, in the present embodiment, as in the above-described embodiment, in order to obtain a correction function, a narrowband autofluorescence image and a broadband autofluorescence image are captured in advance for a normal tissue, and the pixel value of each image is set to a wideband. The data is stored in the
[0085]
n / (w + os1) (18)
n: Narrow-band autofluorescence image
w: Broadband autofluorescence image
os1: Offset
The normalized calculation value calculated by the normalized fluorescent
[0086]
When an actual biological tissue is imaged, a normalized calculation value is calculated by the normalized fluorescence
[0087]
nf × hnf (w ∞ ) / Hnf (w) (19)
Here, nf is a normalized calculation value based on the actually captured autofluorescence image, and hnf (w) is a value of the correction function hnf (w) in the pixel value w of the actually captured broadband autofluorescence image. It is.
[0088]
By obtaining the correction standardization calculation value using the correction function as described above, as shown in FIG. 6B, the actual standardization calculation value (broken line) depending on the distance is corrected and the correction standardization calculation independent of the distance It can be corrected to a value (solid line).
[0089]
In the present embodiment, since the correction function is calculated for the living tissue of the normal part as described above, the boundary value is obtained based on the correction normalization calculation value as in the first embodiment, and this The biological tissue corresponding to the corrected standardized calculation value equal to or greater than the boundary value may be determined as a normal part, and the biological tissue corresponding to the corrected standardized calculation value that is less than the boundary value may be determined as a lesioned part. The boundary value may be obtained in the same manner as in the first embodiment. Further, the method for obtaining the boundary value when calculating the correction function for the living tissue of the lesioned part is the same as that in the first embodiment.
[0090]
Then, color information is assigned to each pixel based on the result of the binary determination of the corrected normalized calculation value as described above by the color image calculation means 415, and a color image signal is generated. The color image signal is input to the
[0091]
In the second embodiment, the correction function is obtained from the relationship between the normalized calculation value based on the autofluorescence image and the pixel value of the wideband autofluorescence image. The correction function may be obtained from the relationship between the pixel value and the normalized calculation value, or the relationship between the sum of the pixel values of the broadband autofluorescence image and the narrowband autofluorescence image and the normalized calculation value.
[0092]
In the first and second embodiments, a correction function is obtained based on the living tissue of a normal part or a lesioned part, a correction normalization calculation value is calculated using the correction function, and this correction normalization is performed. Although the binary value is determined by setting the boundary value based on the calculated value, the correction function is based on the biological tissue at each stage when the progress from the normal part to the lesioned part is divided into s stages. S correction standardization calculation values serving as a reference may be calculated based on the correction function, and boundary values may be set based on the s correction standardization calculation values serving as a reference. . In this case, with respect to the actually captured biological tissue, correction standardization calculation values are calculated using s correction functions corresponding to the respective biological tissues in the s stages, and the s correction standardization calculation values are calculated. The region corresponding to the s-stage biological tissue is extracted from the s corrected standardized fluorescent images using the boundary values, and different color images are assigned to the s regions, for example, and the color images are overlaid. May be displayed. In this case, for example, when applied to the first embodiment, a boundary
[0093]
In the first and second embodiments, the correction function is calculated using the normal tissue or the diseased tissue, and a plurality of patient tissues are used as the living tissue. May be. The correction function may be calculated and set in advance before actual image diagnosis, or may be calculated and set during actual image diagnosis, or may be updated. Good.
[0094]
In the first and second embodiments, the composite image and the normal image or the color image and the normal image are switched and displayed on one monitor, but may be displayed on separate monitors. Good. Further, the method of switching with one monitor may be automatically performed in time series from the control computer without using the foot switch as in the above embodiment.
[0095]
In addition, although the GaN-based
[0096]
The excitation light source may be any wavelength of about 400 nm to 420 nm.
[0097]
In the first and second embodiments, the normalized image generation method of the present invention is applied when generating a normalized fluorescence image based on autofluorescence emitted from a biological tissue by irradiation with excitation light. However, the present invention is not limited to the case where the standardized fluorescence image is generated based on the autofluorescence as described above, but, for example, based on the reflected light reflected by the irradiation of the white light to the living tissue. The normalized image generation method of the present invention can also be applied when calculating the oxygen saturation of a living tissue and generating a normalized image based on the oxygen saturation. Specifically, this will be described below.
[0098]
First, a method for calculating the oxygen saturation will be described. The living tissue 9 is irradiated with white light from the
[0099]
Here, since the absorbance changes according to the oxygen saturation of the living tissue, the oxygen saturation can be calculated from the absorbance. However, the absorbance varies depending on the pulsation of the living tissue. Therefore, for example, a pulse meter is provided, and based on the pulsation measured by the pulse meter, for example, a time T1 at which the absorbance is the largest and a time T2 at which the absorbance is the smallest are obtained, and the time T1 and the time T2 are obtained. The change in absorbance is calculated, and the oxygen saturation is calculated based on this change.
[0100]
That is, for each pixel, the absorbance Iλ1 (T1) with respect to the irradiation light in the wavelength band λ1 at time T1 is obtained based on the reflected image r1 at time T1, and the absorbance Iλ2 (T1) with respect to the irradiation light in the wavelength band λ2 at time T1. Is obtained based on the reflected image r2 at time T1, and the absorbance Iλ1 (T2) for the irradiation light in the wavelength band λ1 at time T2 is obtained based on the reflected image r1 ′ at time T2, and the irradiation in the wavelength band λ2 at time T2. Absorbance Iλ2 (T2) with respect to light is obtained based on reflection image r2 ′ at time T2, and absorbance changes ΔIλ1 and ΔIλ2 are obtained as follows.
[0101]
ΔIλ1 = Iλ1 (T1) −Iλ (T2)
ΔIλ2 = Iλ2 (T1) −Iλ (T2)
Then, the oxygen saturation SaO based on the time variation ΔIλ1 and ΔIλ2 of the absorbance for the two wavelength bands λ1 and λ2. 2 Is obtained by the following equation.
[0102]
SaO 2 = F (Φ12)
Φ12 = ΔIλ1 / ΔIλ2
Note that f is Φ12 and SaO obtained by experiment. 2 It is a function obtained based on the relationship.
[0103]
Here, since the absorbance changes ΔIλ1 and ΔIλ2 are very small values as in the case of the autofluorescence, Φ12 is obtained based on these values to obtain the oxygen saturation SaO. 2 When this is calculated and imaged, an image with a poor S / N is obtained. Therefore, as in the case of imaging the autofluorescence, for example, it is conceivable to obtain Φ12 ′ by adding an offset as follows.
[0104]
Φ12 ′ = ΔIλ1 / (ΔIλ2 + os3)
However, os3: Offset
However, when Φ12 ′ is obtained by adding an offset as described above, the value of Φ12 ′ is set to the
[0105]
(Wir + os4) / Wir (20)
Wir: Absorbance when irradiated with reference light
os4: Correction coefficient
{ΔIλ1 / (ΔIλ2 + os3) × {(Wir + os4) / Wir} (21)
os4 = os3 × hir / hw (22)
hir: Absorbance when the reference light is irradiated / Distance from the distal end of the
hw: ΔIλ2 / distance from the distal end of the
In addition, the correction function is not limited to the above equation (20), and other correction functions described in the above embodiments may be applied.
[0106]
As a method for obtaining the reflection images r1 and r2 of the different wavelength bands λ1 and λ2, the two reflection images r1 and r2 are time-sequentially used by using a field sequential filter including bandpass filters of the wavelength bands λ1 and λ2. Alternatively, two reflection images r1 and r2 may be obtained simultaneously using a mosaic filter composed of bandpass filters of wavelength bands λ1 and λ2.
[0107]
The reflected images r1 and r2 may be captured at the time of capturing a normal image that irradiates a living tissue with white light.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a first embodiment of a fluorescence endoscope to which a normalized image generation method and apparatus according to the present invention is applied.
FIG. 2 shows a relationship between a corrected normalization calculation value and a distance from a distal end of an endoscope insertion portion to a living tissue when an autofluorescence image and a reference image of a living tissue having a normal part and a lesioned part are captured. Figure
3 is a diagram illustrating an image when distance correction is performed using a correction function for the far-point image (A) and the near-point image (B) illustrated in FIG. 9;
FIG. 4 is a diagram showing a relationship (A) between a normalized calculation value based on a narrowband autofluorescence image and a broadband autofluorescence image and a reciprocal NIR of a pixel value of a reference image, and correction by a correction function (B).
FIG. 5 is a schematic configuration diagram of a second embodiment of a fluorescence endoscope to which a normalized image generation method and apparatus according to the present invention is applied.
FIG. 6 is a diagram showing a relationship (A) between a normalized calculation value based on a narrowband autofluorescence image and a broadband autofluorescence image and a pixel value of the broadband autofluorescence image, and correction (B) using a correction function.
FIG. 7 sets a boundary value by a boundary value setting unit based on a corrected standardized calculation value corresponding to an s-stage biological tissue calculated by the correction unit, and based on the boundary value, the region extraction unit sets an s-stage. Configuration diagram of each means when extracting a region corresponding to a living tissue and assigning different color images to this region to generate a color image
FIG. 8 is a diagram showing the relationship between the normalized calculation value and the distance between the detection means and the biological tissue when the normalized calculation value is obtained by adding an offset to the normal tissue and the lesion biological tissue;
FIG. 9 shows an image (A) based on a division value when the distance between the detection means and the living tissue is large (far point) and an image based on a division value when the distance is small (near point) (B Figure showing
FIG. 10 is an explanatory view showing the intensity distribution of the fluorescence spectrum of the living tissue of the normal part and the lesion part.
[Explanation of symbols]
1 Fluorescence diagnostic equipment
2 Foot switch
9 Living tissue
100 Endoscope insertion part
101 Light guide
101a White light guide
101b Excitation light guide
102 Image fiber
103 Illumination lens
104 Excitation light cut filter
105 Objective lens
110, 120 lighting unit
111,121 GaN semiconductor laser
112,122 Power supply for semiconductor laser
113, 123 Condensing lens for excitation light
114,124 White light source
115,125 Power supply for semiconductor laser
116,126 Condensing lens for white light
200, 210 Control computer
300, 310 Image detection unit
301 collimating lens
302 Movable mirror
303 Dichroic Mirror
304,319 condenser lens for broadband fluorescent image
305, 320 Wideband bandpass filter
306,321 High-sensitivity image sensor for broadband fluorescent image
307, 312, 316, 322, 327, 504 AD converter
308,323 half mirror
309,324 Mirror for narrow band fluorescent image
310,325 Narrowband bandpass filter
311 and 326 High-sensitivity image sensor for narrow-band fluorescence image
313 Mirror for fluorescent image
314 Condensing lens for reference image
315 Image sensor for reference image
331 Collimating lens
332 Movable mirror
400 Image arithmetic unit
401 Self-fluorescent image memory
402 Reference image memory
403, 413 Normalized fluorescent image generation means
404, 414 Correction means
405,415 color image calculation means
406 Luminance image calculation means
407 Image composition means
500 Display signal processing unit
501 Normal image mirror
502 Condensing lens for normal image
503 Image sensor for normal images
505 Normal image memory
506 Video signal processing circuit
600 Monitor unit
Claims (9)
参照光の照射により性状が既知である所定の生体組織から反射される反射光による参照画像を参照画像検出手段により予め検出し、
該検出した参照画像に基づいて、次の(1)式で表わされる補正関数を算出し、
次の(2)式で表わされる補正規格化蛍光画像を生成することを特徴とする規格化画像生成方法。
(nir+os2)/nir …(1)
{n/(w+os1)}×{(nir+os2)/nir} …(2)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離 Based on the fluorescence generated from the living tissue by the irradiation of the excitation light , a broadband fluorescent image and a narrow-band fluorescent image are detected by the fluorescent image detection means, respectively, and a desired offset is added to the broadband fluorescent image, and the desired offset In a standardized image generation method for generating a standardized fluorescent image based on a ratio between the broadband fluorescent image to which is added and the narrowband fluorescent image ,
A reference image detection unit that detects a reference image by reflected light reflected from a predetermined biological tissue whose properties are known by irradiation of reference light is detected in advance.
Based on the detected reference image, a correction function represented by the following equation (1) is calculated:
A standardized image generating method characterized by generating a corrected standardized fluorescent image represented by the following equation (2).
(Nir + os2) / nir ... (1)
{N / (w + os1)} × {(nir + os2) / nir} ... (2)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
参照光を性状が既知である所定の生体組織に照射する参照光照射手段と、
前記参照光照射手段による参照光の照射により前記性状が既知である生体組織から反射される反射光に基づいて参照画像を予め検出する参照画像検出手段とを有し、
前記参照画像検出手段により予め検出された参照画像に基づいて算出された、次の(1 )式で表わされる補正関数を用いて、次の(2)式で表わされる補正規格化蛍光画像を生成する補正手段を備えたことを特徴とする規格化画像生成装置。
(nir+os2)/nir …(1)
{n/(w+os1)}×{(nir+os2)/nir} …(2)
ただし、
n:狭帯域蛍光画像
w:広帯域蛍光画像
nir:参照画像
os1:オフセット
os2:補正係数、os2=os1×knir/kw
knir:参照画像/生体組織と参照画像検出手段との距離
kw:広帯域蛍光画像/生体組織と蛍光画像検出手段との距離 An excitation light irradiating means for irradiating the living tissue with excitation light, and a fluorescence image detecting means for detecting a broadband fluorescent image and a narrowband fluorescent image , respectively, based on the fluorescence generated from the biological tissue by the irradiation of the excitation light; A standardized fluorescent image generating means for adding a desired offset to the broadband fluorescent image and generating a standardized fluorescent image based on a ratio between the broadband fluorescent image to which the desired offset is added and the narrowband fluorescent image ; In the standardized image generating apparatus provided,
A reference light irradiating means for irradiating a predetermined biological tissue whose property is known;
Reference image detection means for detecting a reference image in advance based on reflected light reflected from a biological tissue whose properties are known by irradiation of reference light by the reference light irradiation means;
Using the correction function represented by the following equation (1 ) calculated based on the reference image detected in advance by the reference image detecting means , a corrected standardized fluorescent image represented by the following equation (2) is generated. A standardized image generating apparatus comprising a correcting unit that performs the correction.
(Nir + os2) / nir ... (1)
{N / (w + os1)} × {(nir + os2) / nir} ... (2)
However,
n: Narrow-band fluorescence image
w: Broadband fluorescence image
nir: reference image
os1: Offset
os2: correction coefficient, os2 = os1 × knir / kw
knir: distance between reference image / biological tissue and reference image detection means
kw: Broadband fluorescent image / distance between biological tissue and fluorescent image detection means
該s個の基準補正規格化蛍光画像に基づいて境界値を設定する境界値設定手段と、
前記補正手段により前記生体組織の前記規格化蛍光画像について前記s個の補正関数を用いて算出されたs個の前記補正規格化蛍光画像から前記境界値を用いてそれぞれ前記s段階の生体組織に応じた領域を抽出する領域抽出手段と、
該領域抽出手段により抽出された前記s個の補正規格化蛍光画像の領域を重ね合わせて表示する表示手段とを備えたことを特徴とする請求項8記載の規格化画像生成装置。The correction means uses the s correction functions based on the os2 corresponding to the s-stage biological tissues to generate s standardized fluorescent images serving as a reference for the s-stage biological tissues. Performing the distance correction and calculating the corrected standardized fluorescence image as the s number of references,
Boundary value setting means for setting a boundary value based on the s reference correction normalized fluorescent images;
From the s corrected normalized fluorescent images calculated using the s correction functions for the normalized fluorescent image of the biological tissue by the correcting means, the s-stage biological tissue is respectively obtained using the boundary value. Area extracting means for extracting a corresponding area;
9. The normalized image generating apparatus according to claim 8, further comprising display means for displaying the s corrected normalized fluorescent image areas extracted by the area extracting means in a superimposed manner.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002120234A JP4202671B2 (en) | 2001-04-27 | 2002-04-23 | Standardized image generation method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001-132421 | 2001-04-27 | ||
JP2001132421 | 2001-04-27 | ||
JP2002120234A JP4202671B2 (en) | 2001-04-27 | 2002-04-23 | Standardized image generation method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003036436A JP2003036436A (en) | 2003-02-07 |
JP4202671B2 true JP4202671B2 (en) | 2008-12-24 |
Family
ID=26614471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002120234A Expired - Fee Related JP4202671B2 (en) | 2001-04-27 | 2002-04-23 | Standardized image generation method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4202671B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5461753B2 (en) | 2004-07-30 | 2014-04-02 | オリンパス株式会社 | Endoscope device |
JP4564331B2 (en) * | 2004-10-26 | 2010-10-20 | オリンパス株式会社 | Image generation device |
JP5393215B2 (en) | 2009-03-24 | 2014-01-22 | オリンパス株式会社 | Fluorescence observation apparatus, fluorescence observation system, and operation method of fluorescence observation apparatus |
JP5393216B2 (en) | 2009-03-24 | 2014-01-22 | オリンパス株式会社 | Fluorescence observation system and method of operating fluorescence observation system |
JP5572326B2 (en) * | 2009-03-26 | 2014-08-13 | オリンパス株式会社 | Image processing apparatus, imaging apparatus, image processing program, and image processing method |
JP5555002B2 (en) * | 2010-02-10 | 2014-07-23 | オリンパス株式会社 | Fluorescence endoscope device |
JP5444377B2 (en) | 2010-02-10 | 2014-03-19 | オリンパス株式会社 | Fluorescence endoscope device |
JP5506443B2 (en) * | 2010-02-10 | 2014-05-28 | オリンパス株式会社 | Fluorescence observation equipment |
JP5558178B2 (en) * | 2010-04-07 | 2014-07-23 | オリンパス株式会社 | Fluorescence observation equipment |
JP5737899B2 (en) * | 2010-10-07 | 2015-06-17 | Hoya株式会社 | Diagnostic system |
JP5611891B2 (en) * | 2011-05-24 | 2014-10-22 | 富士フイルム株式会社 | Endoscope system and method for operating endoscope system |
WO2013015120A1 (en) * | 2011-07-22 | 2013-01-31 | オリンパス株式会社 | Fluorescence endoscopy system |
JP5816486B2 (en) | 2011-08-18 | 2015-11-18 | オリンパス株式会社 | Fluorescence observation apparatus, fluorescence observation system, and fluorescence image processing method of fluorescence observation apparatus |
EP2754378B1 (en) * | 2011-09-05 | 2023-03-22 | FUJIFILM Corporation | ENDOSCOPE SYSTEM and PROCESSOR DEVICE THEREOF |
JP5926909B2 (en) | 2011-09-07 | 2016-05-25 | オリンパス株式会社 | Fluorescence observation equipment |
JP6533358B2 (en) * | 2013-08-06 | 2019-06-19 | 三菱電機エンジニアリング株式会社 | Imaging device |
JP6129686B2 (en) * | 2013-08-23 | 2017-05-17 | 富士フイルム株式会社 | Endoscope system, processor device, operation method, and table creation method |
JP6030035B2 (en) * | 2013-09-27 | 2016-11-24 | 富士フイルム株式会社 | Fluorescence observation apparatus, endoscope system, processor apparatus, and operation method |
JP6109695B2 (en) | 2013-09-27 | 2017-04-05 | 富士フイルム株式会社 | Endoscope system, processor device, operation method, and distance measuring device |
JP6247530B2 (en) * | 2013-12-27 | 2017-12-13 | キヤノン株式会社 | Imaging device |
-
2002
- 2002-04-23 JP JP2002120234A patent/JP4202671B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003036436A (en) | 2003-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4202671B2 (en) | Standardized image generation method and apparatus | |
US7123756B2 (en) | Method and apparatus for standardized fluorescence image generation | |
JP4311607B2 (en) | Fluorescence diagnostic information generation method and apparatus | |
JP3731814B2 (en) | Fluorescent image display device | |
JP5616303B2 (en) | Electronic endoscope system and method for operating electronic endoscope system | |
JP5604248B2 (en) | Endoscopic image display device | |
JP3862582B2 (en) | Fluorescence image acquisition method, apparatus and program | |
JP5222934B2 (en) | Endoscope system, processor device for endoscope system, and method for operating endoscope system | |
JP6234375B2 (en) | Observation device | |
CN108366717B (en) | Endoscope device | |
JP5914496B2 (en) | ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM | |
JP2006175052A (en) | Fluorescent image capturing apparatus | |
WO2002007587A2 (en) | Compact fluorescent endoscopy video system | |
WO2008048402A2 (en) | Apparatus for caries detection | |
CN103167822B (en) | Diagnostic system | |
JP2004024656A (en) | Fluorescent endoscope equipment | |
JP2001258820A (en) | Fluorescent image display method and apparatus | |
JP2021035549A (en) | Endoscope system | |
JP2002336187A (en) | Method and apparatus for forming normalized fluorescent image | |
JP2003111716A (en) | Standard light source, correction coefficient calculating method and device, and fluorescent image forming method and device | |
JP4109132B2 (en) | Fluorescence determination device | |
JP2003126017A (en) | Surgical microscope system | |
US20170354315A1 (en) | Endoscopic diagnosis apparatus, image processing method, program, and recording medium | |
JP2003159209A (en) | Method for displaying fluorescent diagnostic image and display unit thereof | |
JP4109133B2 (en) | Fluorescence determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050207 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080708 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080829 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081007 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081009 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111017 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121017 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121017 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131017 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |