[go: up one dir, main page]

JP5591570B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5591570B2
JP5591570B2 JP2010065925A JP2010065925A JP5591570B2 JP 5591570 B2 JP5591570 B2 JP 5591570B2 JP 2010065925 A JP2010065925 A JP 2010065925A JP 2010065925 A JP2010065925 A JP 2010065925A JP 5591570 B2 JP5591570 B2 JP 5591570B2
Authority
JP
Japan
Prior art keywords
light image
image
special light
unit
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010065925A
Other languages
English (en)
Other versions
JP2011194111A5 (ja
JP2011194111A (ja
Inventor
恵仁 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010065925A priority Critical patent/JP5591570B2/ja
Priority to CN201110070851.XA priority patent/CN102201114B/zh
Priority to US13/069,817 priority patent/US9095269B2/en
Publication of JP2011194111A publication Critical patent/JP2011194111A/ja
Publication of JP2011194111A5 publication Critical patent/JP2011194111A5/ja
Application granted granted Critical
Publication of JP5591570B2 publication Critical patent/JP5591570B2/ja
Priority to US14/792,100 priority patent/US9629525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラム等に関する。
従来、体腔内の組織に対して回転フィルタを用いてR1、G1、B1の3色の光を順次照射し、それらの反射光画像から作成した画像(通常光画像)を用いて診断を行う面順次式の内視鏡システムが広く使用されている。さらに、体腔内の組織に対して前述の3色の光とは特性が異なる2種類の狭帯域光G2とB2を順次照射し、それらの反射光画像から作成した狭帯域画像(これを特殊光画像と呼ぶ)を用いて診断を行う内視鏡システムが提案されている(例えば、特許文献1)。
特開2006−68113号公報
上述の特許文献1のような特殊光画像を取得する内視鏡システムを用いて診断を行うことで、粘膜表層の毛細血管や粘膜微細模が強調表示されるため、例えば通常光観察による視認が困難な扁平上皮癌等の病変部の発見が容易になることが知られている。
しかしこのような特殊光画像は、病変部が褐色として表示され、一般的に通常光画像と比較してかなり異なる色味を有している。さらに、照明光が不足するため非常に暗い画像となるため、特殊光画像のみを用いて診断を行うことは難しい。
このような理由から、ドクターの診断精度を向上するために、例えば通常光画像と特殊光画像を同時に取得して表示することが考えられる。しかしながら、これらの画像を並べて同時に表示すると、ドクターが常時複数の画像に注目しながら診断を行うこととなり、ドクターの負荷が高くなる。また、一時的に1つの画像のみに注目してしまうことで病変部を見逃すことも考えられる。
本発明の幾つかの態様によれば、通常光の波長領域に対応する通常光画像と特定の波長領域に対応する特殊光画像を取得した上で、特殊光画像を補正し、補正後特殊光画像と通常光画像との、G成分同士、B成分同士を合成する処理を行うことにより、特殊光画像を擬似カラー化した上で合成する場合に比べて、血管等の被写体の視認性を向上させる画像処理装置、画像処理方法及びプログラム等を提供できる。
また本発明の幾つかの態様によれば、通常光画像と特殊光画像を用いた診断を行う際のドクターの負荷等を低減しながら病変部の見逃し等を抑止する画像処理装置、画像処理方法及びプログラム等を提供できる。
本発明の一態様は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、前記特殊光画像の補正処理を行う補正部と、前記通常光画像と、前記補正部により補正された前記特殊光画像である補正後特殊光画像とを合成処理する合成部と、を含み、前記合成部は、前記合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行う画像処理装置に関係する。
本発明の一態様では、通常光画像と特殊光画像を取得する。そして特殊光画像を補正して補正後特殊光画像を取得し、補正後特殊光画像と、通常光画像のG成分同士、B成分同士を合成する。そのため、特殊光画像を擬似カラー化した上で合成する場合に比べて、血管等の被写体の視認性を向上できる画像表示が可能になる。
本発明の他の態様は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、前記特殊光画像の明るさ情報である特殊光明るさ情報に基づいて前記特殊光画像の補正処理を行う補正部と、を含む画像処理装置に関係する。
本発明の他の態様によれば、通常光画像と特殊光画像を取得し、特殊光画像の明るさ情報に基づいて特殊光画像の補正処理を行う。そのため、補正を行わない場合に比べて、特殊光画像を明るくすることが可能になり、視認性が向上する。
本発明の他の態様は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得し、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得し、前記特殊光画像の補正処理を行い、前記通常光画像と、前記補正部により補正された前記特殊光画像である補正後特殊光画像との合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行う画像処理方法に関係する。
本発明の他の態様は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、前記特殊光画像の補正処理を行う補正部と、前記通常光画像と、前記補正部により補正された前記特殊光画像である補正後特殊光画像とを合成処理する合成部として、コンピュータを機能させ、前記合成部は、前記合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行うプログラムに関係する。
本発明の他の態様は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、前記特殊光画像の明るさ情報である特殊光明るさ情報に基づいて前記特殊光画像の補正処理を行う補正部として、コンピュータを機能させるプログラムに関係する。
図1(A)、図1(B)は従来の手法の説明図。 本実施形態の手法の説明図。 本実施形態におけるG成分同士の合成処理の説明図。 本実施形態におけるB成分同士の合成処理の説明図。 本実施形態のシステム構成例。 色フィルタr、g、bの分光特性。 色フィルタg2,b2の分光特性。 色フィルタg2,b2の説明図。 通常光画像取得部の構成例。 特殊光画像取得部の構成例。 出力画像生成部の構成例。 合成部の構成例。 合成部の他の構成例。 図14(A)〜図14(D)はエッジ方向判別に使用する画素と方向の説明図。 ソフトウェア処理で用いられるコンピュータの構成例。 ソフトウェア処理で用いられるコンピュータの構成例。 本実施形態の処理を説明するためのフローチャート。 合成処理を説明するためのフローチャート。 本実施形態におけるG成分同士の合成処理の他の説明図。 本実施形態におけるB成分同士の合成処理の他の説明図。 合成部の他の構成例。 合成処理を説明するための他のフローチャート。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.本実施形態の手法
本実施形態の手法について、図1(A)、図1(B)及び図2を参照して説明する。
図1(A)及び図1(B)は従来の手法を示している。図1(A)は通常光による観察の様子を示したものである。全体に明るく、見やすい画像が得られるが、扁平上皮癌等の一部の病変については視認が困難である。また図1(B)は特殊光(狭帯域光)による観察の様子を示したものである。例えば扁平上皮癌等の病変が褐色で表示されるなど、一部の病変の視認性を通常光観察に比べて高めることが可能になるが、全体に暗く、見づらい画像になってしまう。
このような問題を解決するために、通常光画像と特殊光画像を機器のスイッチ等を操作することで切り替えながら表示し、診断や治療を行う手法も考えられる。しかしこの手法では、内視鏡の挿入部を動かすと同時に機器の操作を行い、さらに画面を参照する必要があり、ドクターに負荷がかかってしまう。さらに表示される通常光画像も特殊光画像も欠点を有しているため、状況に応じて適切に表示画像を選択する必要があり、そのためには熟練を要する可能性が高い。
また、通常光画像と特殊光画像を並べて表示する手法も考えられるが、その場合は2つの画面を同時に参照しなくてはならず、病変部を見落とすおそれがあるなど、やはりドクターの負荷が大きい。
そこで本出願人は図2のようなシステムを提案する。本実施形態では、特殊光画像から粘膜表層の毛細血管、粘膜微細模様を抽出し、抽出された情報を元に通常光画像に合成処理することで、例えば扁平上皮癌等の病変部の視認性を高めている。
これにより、通常光画像の利点である明るく見やすい画像の上に、特殊光画像の利点である病変部の視認性の高さが加わるため、病変部の見落としを抑止し、ドクターの負荷を軽減することで、スムーズな診断・治療を行うことが可能になる。
なお、本実施形態においても、機器のスイッチ等を操作することで、特殊光画像を表示することが可能なのは言うまでもない。これにより、例えば、病変部のサーチには合成処理した通常光画像、病変部の詳細の確認には特殊光画像といったように、画像を適宜使い分けることも可能である。
2.第1の実施形態
まず本実施形態の手法について図3、図4を用いて説明する。
図3はG成分の合成を説明するための図である。特殊光画像はG2,B2の2成分を持っている(ここでは特殊光画像としてNBI画像を想定している)ため、そのうちのG2成分を抽出する。また通常光画像はR,G,Bの3成分を持っているため、G2成分に対応する成分であるG成分を抽出する。
そして通常光画像のG成分の明るさ情報であるwliAveGと、特殊光画像のG2成分の明るさ情報であるnbiAveGの比から後述する式(3)を用いてratioGを求める。求めたratioGを用いて、後述する式(4)により、特殊光画像のG2成分の明るさ補正を行い、補正後特殊光画像(G成分)を取得する。
取得した補正後特殊光画像と、通常光画像のG成分とを合成比blendGを用いて、後述する式(24)により合成することで、出力画像(G成分)を取得する。なお本実施形態の処理の目的は出力画像を取得することであり、以下に説明する処理は合成比blendGを求めるための処理である。
合成比blendGを求めるために、補正後特殊光画像に対してラプラシアンフィルタを適用し、lapImgGを取得する。そしてlapImgGにおいて、後述する式(8)〜(15)を用いてエッジ方向を判別し、エッジ方向の画素値の平均値を取るような方向依存フィルタを適用することでAveG画像を取得する。
さらに、AveG画像に対して後述する式(16)〜(20)のコアリング処理を行うことで、エッジ情報画像であるedgeGを取得する。そしてedgeGに係数K1をかけることで合成比画像blendGを取得し、取得したblendGを合成比として、前述したように通常光画像のG成分と補正後特殊光画像との合成処理を行い、出力画像を取得する。
特殊光画像はB2成分も持っているため、同様に、通常光画像のB成分との合成処理を行う。処理の概要を示したものが図4である。
処理の内容はG成分の合成と同様である。通常光画像のB成分の明るさ情報と、特殊光画像のB2成分の明るさ情報からratioBを求めて、特殊光画像のB2成分の明るさ補正を行う。そして、通常光画像のB成分と、補正後特殊光画像(B成分)とを合成比blendBで合成することで出力画像(B成分)を取得する。
合成比blendBは、補正後特殊光画像に対してラプラシアンフィルタと方向依存フィルタを適用した後、コアリング処理を行ってエッジ情報画像edgeBを求め、edgeBに対して係数K2をかけることで求められる。
なお、特殊光画像にはRチャネルに対応する成分が存在しないため、出力画像のR成分は通常光画像のR成分をそのまま用いる(後述する式(23))。
このようにして得られた出力画像のR成分、B成分、G成分からカラー画像を生成する。生成された画像は、血管等が自然な色味で強調された画像となっているため、血管等の構造や病変部の視認性が向上しており、診断においてドクターの負荷を軽減すること等が可能になる。
以下、システム構成及び上述した処理に関して詳細に説明する。
本実施形態に係る画像処理装置及びこれを含む内視鏡システムについて、図5を参照して説明する。本実施形態に係る内視鏡システムは、光源部100と、挿入部200と、本実施形態の画像処理装置に対応する画像処理部300と、表示部400と、外部I/F部500を備えている。
光源部100は、白色光を発生する白色光源110と白色光をライトガイドファイバ210に集光するための集光レンズ120を備えている。
挿入部200は、例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。挿入部200は、光源部100で集光された光を導くためのライトガイドファイバ210と、ライトガイドファイバ210により先端まで導かれてきた光を拡散させて観察対象に照射する照明レンズ220と、観察対象から戻る反射光を集光する対物レンズ230と、集光した反射光を2つに分離するハーフミラー240と、分離された反射光を検出するための第1撮像素子250と第2撮像素子260を備えている。
第1撮像素子250は通常光画像を撮影するためのベイヤ配列の色フィルタを持つ撮像素子である。第1撮像素子250の色フィルタR,G,Bは例えば図6に示すような分光特性を持っている。第2撮像素子260は特殊光画像を撮影するための撮像素子であり、例えば図8に示すように2種類の狭帯域光G2とB2をそれぞれ透過する2種類の色フィルタg2とb2を市松状に並べたような色フィルタを持つ撮像素子である。第2撮像素子260の色フィルタg2、b2は例えば図7に示すように、b2が390〜445nm、g2が530〜550nmの波長帯域の光を透過させる透過率特性を有している。
画像処理部300(画像処理装置)はAD変換部310a、310bと通常光画像取得部320と特殊光画像取得部330と出力画像生成部340と選択部350と制御部360を備えている。制御部360は通常光画像取得部320、特殊光画像取得部330、出力画像生成部340、選択部350と双方向に接続されていて、これらを制御するようになっている。
外部I/F部500は、この画像処理装置(内視鏡システム)に対するユーザーからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。そして、この外部I/F部500は、入力された情報を、制御部360へ出力するようになっている。
AD変換部310aは、第1撮像素子250から出力されるアナログ信号をデジタル信号に変換して出力する。AD変換部310bは第2撮像素子260から出力されるアナログ信号をデジタル信号に変換して出力する。
通常光画像取得部320は、例えばAD変換部310aから出力されるデジタル信号から通常光画像を取得する。特殊光画像取得部330は、例えばAD変換部310bから出力されるデジタル信号から特殊光画像を取得する。通常光画像取得部320及び特殊光画像取得部330の詳細については後述する。
通常光画像取得部320で取得された通常光画像と、特殊光画像取得部330で取得された特殊光画像は出力画像生成部340に出力される。特殊光画像取得部330で取得された特殊光カラー画像は選択部350に出力される。出力画像生成部340はこれら2枚の画像から1枚の合成画像を生成して選択部350に出力する。選択部350は、表示画像を表示部400に出力する。出力画像生成部340の詳細については後述する。
次に通常光画像取得部320について図9を用いて説明する。通常光画像取得部320は通常光画像生成部321と通常光画像記憶部322を備えている。AD変換部310aは、通常光画像生成部321に接続されている。通常光画像生成部321は、通常光画像記憶部322に接続されている。通常光画像記憶部322は、出力画像生成部340に接続されている。
通常光画像生成部321はAD変換部310aで変換されて入力されるデジタル信号に対して画像処理を行い、通常光画像を生成する。具体的には、既存の補間処理やホワイトバランス、色変換、階調変換等の処理を行い、通常光画像を生成する。通常光画像における座標(x,y)の、R、G、B信号値をそれぞれr(x,y)、g(x,y)、b(x,y)と表記する。通常光画像記憶部322は通常光画像生成部321から出力された通常光画像を記憶する。通常光画像記憶部322に記憶された通常光画像は出力画像生成部340へ出力される。
次に特殊光画像取得部330について図10を用いて説明する。特殊光画像取得部330は特殊光画像生成部331と特殊光画像記憶部332を備えている。AD変換部310bは、特殊光画像生成部331に接続されている。特殊光画像生成部331は、特殊光画像記憶部332と、選択部350に接続されている。特殊光画像記憶部332は、出力画像生成部340に接続されている。
特殊光画像生成部331はAD変換部310bで変換されて入力されるデジタル画像信号に対して画像処理を行い、特殊光画像を生成する。
ここで、特殊光画像生成部331で特殊光画像を生成する方法について説明する。特殊光画像生成部に入力されるデジタル画像信号は、前述したように図8で示す2種類の色フィルタg2とb2を市松状に並べたような画像信号である。このような画像信号に対してまず補間処理を行い、全画素でg2フィルタの信号値を持つG2画像と、全画素でb2フィルタの信号値を持つB2画像を生成する。ここで、特殊光画像における座標(x,y)の、GB信号値をそれぞれg2(x,y)、b2(x,y)と表記する。補間処理で算出される画素値は例えば周辺4画素の平均値とすればよく、例えば図8のg2(1,1)の位置でのb2の画素値b2(1,1)、及びb2(1,2)位置でのg2の画素値g2(1,2)は、下式(1)、(2)のように算出される。
b2(1,1)=[b2(0,1)+b2(1,0)+b2(1,2)+b2(2,1)]/4 ・・・・・(1)
g2(1,2)=[g2(0,2)+g2(1,1)+g2(1,3)+g2(2,2)]/4 ・・・・・(2)
ここで、特殊光画像記憶部332は特殊光画像生成部331から出力された特殊光画像を記憶する。特殊光画像記憶部332に記憶された特殊光画像は出力画像生成部340へ出力される。
次に、出力画像生成部340の具体的な構成について説明する。図11は、第1の実施形態における出力画像生成部340の構成の一例を説明するブロック図である。出力画像生成部340は、補正部341と、合成部342とを備えている。
ここで、通常光画像取得部320からの画像信号は、補正部341と、合成部342に出力される。また、特殊光画像取得部330からの画像信号は、補正部341に出力される。補正部341は、合成部342に接続されている。合成部342は、選択部350に接続されている。合成部342の詳細については後述する。また、制御部360は、補正部341と、合成部342に双方向に接続されていて、これらを制御するようになっている。
補正部341は、制御部360の制御に基づき、特殊光画像内の画素の特徴量と、通常光画像内の画素の特徴量の比に基づいて、特殊光画像の補正処理を行う。ここで、補正処理とは、特殊光画像を通常光画像と同程度の明るさに補正する。ここでは、特徴量として各画像内のG信号を用いる。具体的には、特殊光画像内のG信号の平均値をnbiAveG、通常光画像内のG信号の平均値をwliAveGと表記する。特殊光画像のG信号に対する、通常光画像のG信号の比ratioGは、下式のように算出される。
ratioG = K0 × wliAveG / nbiAveG ・・・・・(3)
K0は定数項である。設定された信号比ratioGを、特殊光画像の全画素のG信号およびB信号に対して乗算する。ここで、信号比を乗算された特殊光画像は、補正後特殊光画像として、座標(x,y)におけるB、G信号をそれぞれg2’(x,y)、b2’(x,y)と表記する。
g2’(x,y) = ratioG ×g2(x,y) ・・・・・(4)
b2’(x,y) = ratioG ×b2(x,y) ・・・・・(5)
また、信号比の算出方法は上記に限らず、特殊光画像内のB信号の平均値と、通常光画像内のB信号の平均値を用い、信号比ratioBを算出し、特殊光画像のB信号に対してはratioBを乗算してもよい。
ratioB = K0 × wliAveB / nbiAveB ・・・・・(6)
b2’(x,y) = ratioB ×b2(x,y) ・・・・・(7)
また、各信号の平均値は、例えばN×M画素の複数の領域に分割し、領域毎に平均値を算出し、領域毎の信号比を算出してもよい。また、領域分割の手法はテクスチャ解析に代表される公知の領域分割アルゴリズムを適用してもよい。補正後特殊光画像は、合成部342へ出力される。
合成部342は、制御部360の制御に基づいて通常光画像に、補正された特殊光画像を合成する。合成部342の具体的な構成について説明する。図12は、第1の実施形態における合成部342の構成の一例を説明するブロック図である。図12に示すように、合成部342は、エッジ抽出部3421と、合成比算出部3422と、合成画像作成部3423とを含んでいる。
ここで、通常光画像取得部320は、エッジ抽出部3421と、合成画像作成部3423に接続されている。また、補正部341は、エッジ抽出部3421に接続されている。エッジ抽出部3421は、合成比算出部3422に接続されている。合成比算出部3422は、合成画像作成部3423に接続されている。合成画像作成部3423は、選択部350に接続されている。また、制御部360は、エッジ抽出部3421と、合成比算出部3422と、合成画像作成部3423とに双方向に接続されていて、これらを制御するようになっている。
エッジ抽出部3421は、制御部360の制御に基づき、補正された特殊光画像内のエッジ情報と、通常光画像内のエッジ情報を抽出する。ここでは、特殊光画像のG信号値と、特殊光画像のB信号値に対して、方向判別エッジ抽出を行う。
ここでは、特殊光画像のG信号に対して処理を行った例を示すが、特殊光画像のB信号に対しても同様の処理を行う。具体的にはまず、特殊光画像のG信号に対してラプラシアンフィルタを適用しエッジ画像lapImgGを作成する。
次に、エッジ画像lapImgGの全画素に対して、エッジ成分がどの方向のエッジに含まれるかを8方向から判定する。図14(A)〜図14(D)はエッジ方向判別に使用する画素と方向である。具体的には注目画素の周辺5×5画素を使って評価値を算出し、最小値を示す方向を判別結果とする。下式(8)〜(15)に注目画素が座標(2,2)の場合の評価式を示す。
e0G(2,2) = |g2’(2,2)-g2’(2,3)|+|g2’(2,2)-g2’(2,4)|
+|g2’(2,2)-g2’(2,1)|+|g2’(2,2)-g2’(2,0)| ・・・・(8)
e1G(2,2) = |g2’(2,2)-g2’(2,3)|+|g2’(2,2)-g2’(1,4)|
+|g2’(2,2)-g2’(2,1)|+|g2’(2,2)-g2’(3,0)| ・・・・(9)
e2G(2,2) = |g2’(2,2)-g2’(1,3)|+|g2’(2,2)-g2’(0,4)|
+|g2’(2,2)-g2’(3,1)|+|g2’(2,2)-g2’(4,0)| ・・・・(10)
e3G(2,2) = |g2’(2,2)-g2’(1,2)|+|g2’(2,2)-g2’(0,3)|
+|g2’(2,2)-g2’(3,2)|+|g2’(2,2)-g2’(4,1)| ・・・・(11)
e4G(2,2) = |g2’(2,2)-g2’(1,2)|+|g2’(2,2)-g2’(0,2)|
+|g2’(2,2)-g2’(3,2)|+|g2’(2,2)-g2’(4,2)| ・・・・(12)
e5G(2,2) = |g2’(2,2)-g2’(1,2)|+|g2’(2,2)-g2’(0,1)|
+|g2’(2,2)-g2’(3,2)|+|g2’(2,2)-g2’(4,3)| ・・・・(13)
e6G(2,2) = |g2’(2,2)-g2’(1,1)|+|g2’(2,2)-g2’(0,0)|
+|g2’(2,2)-g2’(3,3)|+|g2’(2,2)-g2’(4,4)| ・・・・(14)
e7G(2,2) = |g2’(2,2)-g2’(2,1)|+|g2’(2,2)-g2’(1,0)|
+|g2’(2,2)-g2’(2,3)|+|g2’(2,2)-g2’(3,4)| ・・・・(15)
続いて、判別した結果を用いて、ラプラシアンフィルタで作成したエッジ画像lapImgGにエッジ方向に沿ったフィルタを適用する。これによりエッジを保持したままエッジ画像のノイズを低減する。具体的には、エッジ画像に対して、式(8)〜(15)で評価値が最小となった方向の評価値の算出に使用した5個の画素の平均値AveG(x,y)を算出し、方向依存フィルタの出力値とする。
続いて、方向依存フィルタで算出された平均値AveG(x,y)に対してコアリング処理を行うことで、エッジ画像のノイズや方向判別の誤りによるアーティファクトを除去する。ここではコアリング量が平坦部では大きめに、エッジ部では小さめになるように適応的にコアリング量を制御する。
具体的には、上式(8)、(10)、(12)、(14)で算出したe0G(x,y)、e2G(x,y)、e4G(x,y)、e6G(x,y)を比較し、その最大値evaMaxG(x,y)をエッジ量指標として使用する。各画素のコアリング量evaCoreG(x,y)はこのエッジ量指標evaMaxG(x,y)と、予め外部から与えられたパラメータである、最大コアリング量coreMaxG、最小コアリング量coreMinG、傾きslopeG、エッジ量指標の閾値TheGから下式(16)〜(18)で算出する。
evaMaxGがTheGより小さい場合
evaCoreG(x,y)=coreMaxG ・・・・・(16)
evaMaxGがTheG以上の場合
evaCoreG(x,y)=coreMaxG-((evaMaxG(x,y)-TheG)×slopeG) ・・・・・(17)
evaCoreGがcoreMinGより小さい場合
evaCoreG(x,y) = coreMinG ・・・・・(18)
次に、算出されたコアリング量evaCoreG(x,y)を用いて、方向依存フィルタ処理の出力値AveG(x,y)に対して下式(19)、(20)を用いてコアリング処理を行い、エッジ情報edgeG(x,y)を算出する。
AveG(x,y)が0以上の場合
edgeG(x,y) = AveG(x,y) - evaCoreG(x,y) ・・・・・(19)
ここで、edgeG(x,y)が0より小さくなったらedgeG(x,y)に0を代入する。
AveG(x,y)が0より小さい場合
edgeG(x,y) = AveG(x,y) + evaCoreG(x,y) ・・・・・(20)
ここで、edgeG(x,y)が0より大きくなったらedgeG(x,y)に0を代入する
ここでは、エッジ情報として方向判別フィルタを用いたが、これに限らず公知のエッジ抽出手法を用いてもよい。作成された、特殊光画像のG信号値のエッジ画像edgeGと、特殊光画像のB信号値のエッジ画像edgeBは、合成比算出部3422に出力される。
合成比算出部3422は、制御部360の制御に基づき、エッジ抽出部3421で抽出されたエッジ情報に基づき合成比を算出する。具外的には、下式(21)、(22)を用いて合成比blendG、blendBを算出する。
blendG(x,y) = K1×edgeG(x,y) ・・・・・(21)
blendB(x,y) = K2×edgeB(x,y) ・・・・・(22)
K1、K2は定数項である。ここで、合成比blendG(x,y)、blendB(x,y)が、1以上の場合は1、0以下の場合は0を代入する。また、合成比の算出方法は上記に限らず、補正された特殊光画像を領域分割し、領域毎にエッジ情報の平均値edgeAveG、edgeAveBを求め、エッジ情報の平均値を用いて合成比を算出しても良い。算出した合成比blendG、blendBは、合成画像作成部3423に出力される。
合成画像作成部3423は、制御部360の制御に基づき、合成比算出部3422で算出された合成比に基づき、特殊光画像と、通常光画像を合成する。具体的には、合成画像のRGB信号をそれぞれR(x,y)、G(x,y)、B(x,y)と表記して、下式で算出する。
R(x,y)=r(x,y) ・・・・・(23)
G(x,y)=(1-blendG(x,y))×g(x,y)+blendG(x,y)×g2’(x,y) ・・・・・(24)
B(x,y)=(1-blendB(x,y))×b(x,y)+blendB(x,y)×b2’(x,y) ・・・・・(25)
合成画像は、選択部350に出力される。
選択部350は、制御部360の制御に基づき、表示画像の選択を行う。ここでは、外部I/F部500により選択された撮影モードに応じて、特殊光カラー画像と合成画像のどちらかを表示画像として設定する。設定された表示画像は表示部400へ出力される。
なお、合成部342の構成は前述のものに限定されない。例えば図13に示すように、合成部342は、注目領域検出部3425と、合成比算出部3422と、合成画像作成部3423とを含んでもよい。
注目領域検出部3425は、注目すべき領域を検出する。注目すべき領域とは血管等のエッジ情報に限定されず、例えば、病変部等であってもよい。そして合成比算出部3422は、注目領域が検出されたところでは補正後特殊光画像の合成比率を高く設定し、注目領域が検出されなかったところでは補正後特殊光画像の合成比率を低く設定する。
例えばNBI観察においては、G2成分、B2成分をR,G,Bのうちの所定のチャネルに入力し、擬似カラー画像を生成することで、扁平上皮癌等の特定の病変が褐色で表示されることになる。そのため、褐色の領域(例えば色相Hが5〜35の範囲にある領域)を病変部であると認識し、注目領域として検出することができる。
ただし、合成の方法に関しては、前述した式(23)〜(25)を用いる。つまり、通常光画像のG成分と特殊光画像のG2成分、通常光画像のB成分と特殊光画像のB2成分を合成するのであって、通常光画像と擬似カラー化した(R,G,Bの3成分を持っている)特殊光画像を合成するのではない点には注意が必要である。
また、注目領域であることの確からしさを示す信頼度という尺度を導入し、信頼度が高いほど補正後特殊光画像の合成比率を高く設定してもよい。信頼度としては、例えば褐色領域(病変部)の面積などを用いることができる。
また、本実施の形態では、画像処理部300を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、カプセル内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
撮像部とAD変換部を別体とし、AD変換部を除く画像処理部300の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピューターシステムを画像処理装置として用いることができる。そして、画像処理部300の各部が行う処理を実現するためのプログラム(画像処理プログラム)を予め用意し、この画像処理プログラムをコンピューターシステムのCPUが実行することによって実現できる。
図15は、本変形例におけるコンピューターシステム600の構成を示すシステム構成図であり、図16は、このコンピューターシステム600における本体部610の構成を示すブロック図である。図15に示すように、コンピューターシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピューターシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。
また、このコンピューターシステム600における本体部610は、図16に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。
さらに、このコンピューターシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピューターシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。
そして、このコンピューターシステム600は、所定の記録媒体に記録された画像処理プログラム(例えば図17〜図18を参照して後述する処理手順を実現するための画像処理プログラム)を読み出して実行することで画像処理装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピューターシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピューターシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピューターシステム600によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体を含む。
すなわち、画像処理プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピューターシステム600は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピューターシステム600によって実行されることに限定されるものではなく、他のコンピューターシステム(PC)681またはサーバ682が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。
各部が行う処理の一部をソフトウェアで構成する場合の一例として、予め取得された通常光画像と特殊光画像に対して、図11の出力画像生成部340の処理をソフトウェアで実現する場合の処理手順を、図17のフローチャートを用いて説明する。
この処理を開始すると、まず、時系列の通常光画像と、特殊光画像に対して、撮影モードなどのヘッダ情報を入力する(S11)。次に、特殊光画像と通常光画像を予め確保しておいた画像バッファに入力する(S12)。続いて、入力された通常光画像に対し既存の補間処理やホワイトバランス、色変換、階調変換等の処理を行い通常光画像を作成する(S13)。
さらに、入力された特殊光画像に対し式(1)〜(2)で上述した通り、特殊光画像を作成する(S14)。そして、式(3)〜(5)で上述した通り、特殊光画像内の画素の特徴量と、通常光画像内の画素の特徴量の比に基づいて、特殊光画像の補正処理を行う(S15)。その後、後で図18を参照して詳細に説明するように、通常光画像に補正された特殊光画像を合成する(S16)。次に、合成処理された画像信号を出力する(S17)。そして、時系列で最終画像の処理が終了したか否かを判定して(S18)、終了していないと判定した場合にはS12へ戻って次の画像信号について上述したような処理を繰り返して行う。一方、全画像信号の処理が終了していると判定した場合には、この処理を終了する。
次に、図18を参照して、図17のS16における合成処理の詳細について説明する。
この処理を開始すると、まず、式(8)〜(20)で上述した通り、補正された特殊光画像内のエッジ情報を抽出する(S21)。続いて、式(21)〜(22)で上述した通り、抽出されたエッジ情報に基づき合成比を算出する(S22)。次に、式(23)〜(25)で上述した通り、通常光画像のB、G信号に補正された特殊光画像のB、G信号を合成した合成画像を作成する(S23)。
このような処理を行うことで、通常光画像と特殊光画像を単一の画像で表示することが可能となるため、ドクターの負荷を低減しながら病変部の見逃しを抑止する画像処理装置(内視鏡システム)等を提供することが可能となる。
以上の本実施形態では、図5に示す通常光画像取得部320は白色光の波長帯域における情報を有した被写体像を含む画像を取得し、特殊光画像取得部330は特定の波長帯域における情報を有した被写体像を含む画像を取得する。そして図11に示す補正部341は特殊光画像の補正処理を行い、合成部342は通常光画像に対して補正された特殊光画像の合成処理を行う。合成処理とは、通常光画像のG成分と補正後特殊光画像のG成分同士を合成する第1の合成処理(図3におけるC1)と、通常光画像のB成分と補正後特殊光画像のB成分同士を合成する第2の合成処理(図4におけるD1)の少なくとも一方のことである。
ここで、成分とは、AD変換部によりアナログからデジタルに変換された際の出力である、RGBチャネルのデータのことである。
これにより、補正部341により補正された補正後特殊光画像を合成することで、通常光画像に比べて、粘膜表層の毛細血管や粘膜微細模様の視認性が高い画像を得ることができる。また、図3のC1、図4のD1に示したようにG成分同士、B成分同士を合成しているため、自然な色味で血管等の視認性を向上させることができる。よって、例えば内視鏡で生体内を通常光及び特殊光を用いて観察する場合には、通常光では視認が難しい病変部を特殊光観察で的確に捉えたうえで、本実施形態の方法を用いない場合に比べて視認性の高い態様で当該病変部を含む画像を表示することが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
なお、本実施形態での説明において、G成分同士の合成及びB成分同士の合成の両方を行うものとしたが、これに限定されるものではない。G成分同士の合成は行い、B成分同士の合成は行わなくてもよい。また、B成分同士の合成は行い、G成分同士の合成は行わなくてもよい。
また図12に示すように、合成部342は、エッジ抽出部3421と、合成比算出部3422とを含んでもよい。エッジ抽出部3421は補正された特殊光画像内のエッジ情報及び通常光画像のエッジ情報の少なくとも一方を抽出し、合成比算出部3422は抽出されたエッジ情報に基づき合成比を算出する。そして合成部342は、算出された合成比に基づき合成処理を行ってもよい。
具体的には、エッジ情報とは図3におけるedgeGであり、合成比とは上述した式(21)のように、edgeGに係数K1をかけることで求められるblendGである。edgeGは図3で示したように、補正後特殊光画像に対してラプラシアンフィルタ、方向依存フィルタを適用後、コアリング処理をすることで求められる。
ここで、エッジ情報は特殊光画像内の粘膜表層の毛細血管や粘膜微細模様を示す指標である。
これにより、特殊光画像内の粘膜表層の毛細血管や粘膜微細模様の含まれる画素について、病変部の視認性を向上させ、粘膜表層の毛細血管や粘膜微細模様の含まれない画素については従来通りの通常光画像を表示することで、従来の通常光に比べ病変部の視認性を向上させることが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、合成比算出部3422は、補正後特殊光画像内にエッジが多い場合、補正後特殊光画像の合成比率を、エッジが少ない場合の補正後特殊光画像の合成比率と比べて高くしてもよい。具体的にはedgeGの値が大きいほど、補正後特殊光画像の合成比率が高くなる。これは上述した式(21)及び(24)からもわかる。式(24)に示したように補正後特殊光画像の合成比率はblendGであり、式(21)に示したように合成比blendGはedgeGにより決定されるためである。
これにより、粘膜表層の毛細血管や粘膜微細模様が多い部分については、特殊光画像の比率を大きくすることで、病変部の視認性を向上させる。また、粘膜表層の毛細血管や粘膜微細模様が少ない部分については、明るくノイズの少ない通常光画像の比率が高くなることで視認性を向上させることが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、図12のエッジ抽出部3421は、補正後特殊光画像に対して、少なくとも方向依存フィルタを含むエッジ検出フィルタを適用することで、補正後特殊光画像内のエッジ情報を抽出する。具体的には例えば、補正後特殊光画像に対して、ラプラシアンフィルタ及び方向依存フィルタを適用することで、補正後特殊光画像のエッジ情報を抽出する。さらに具体的には図3におけるlapImgG及びAveGを求める処理に対応する。ここで方向依存フィルタとは、エッジ方向に沿った画素の画素値を平滑化するフィルタであってもよい。具体的には図14(A)〜図14(D)で示した8方向について、上述した式(8)〜(15)に基づいてエッジ方向を判別することになる。
これにより、方向依存フィルタを含むエッジ検出フィルタを適用することで、エッジ情報を抽出することができる。具体的には例えば、ラプラシアンフィルタを適用してエッジ画像を取得した上で、方向依存フィルタによりノイズ低減処理を行うことが可能になる。そのため、補正後特殊光画像のエッジ情報として、シャープなエッジを持った画像を取得することができる。
また、エッジ抽出部3421は、通常光画像に対して、ラプラシアンフィルタ及び方向依存フィルタを適用することで、通常光画像のエッジ情報を抽出してもよい。具体的には後述する図19におけるlapImgY及びAveYを求める処理に対応する。
これにより、ラプラシアンフィルタを適用してエッジ画像を取得した上で、方向依存フィルタによりノイズ低減処理を行うことが可能になる。そのため、通常光画像のエッジ情報として、シャープなエッジを持った画像を取得することができる。
また、合成部342は、図13に示すように、注目領域検出部3425と、合成比算出部3422とを含んでもよい。注目領域検出部3425は、補正後特殊光画像内の注目すべき領域である注目領域を検出し、合成比算出部3422は検出された注目領域情報に基づき合成比を算出する。そして合成部342は、算出された合成比に基づき合成処理を行ってもよい。注目領域の検出は、具体的には例えば、特殊光画像のG2、B2信号から擬似カラー画像を生成し、色相Hの値を調べることで実現される。
これにより、特殊光画像内の注目領域(例えば病変部等)について、病変部の視認性を向上させ、注目領域以外の画素については従来通りの通常光画像を表示することで、従来の通常光に比べ病変部の視認性を向上させることが可能になる。
また、図13の合成比算出部3422は、注目領域が検出された場合は、検出されない場合に比べて、補正後特殊光画像の合成比率を高くしてもよい。
これにより、注目領域について特殊光画像の比率を大きくすることで、例えば病変部等の視認性を向上させることができる。また、注目領域以外の領域については、明るくノイズの少ない通常光画像の比率が高くなるため、視認性が向上する。
また、合成部342は、補正後特殊光画像を複数の領域に分割する分割部を含んでもよい。そして合成比算出部3422は、分割された各領域ごとに合成比を算出してもよい。
これにより、画素単位だけではなく、複数の画素を含む領域単位で処理を行うことが可能になる。そのため、計算量を削減することが可能になり、処理の高速化が実現できる。また、領域分割しない場合に比べ、画素毎に合成比が極端に変化することがなく、粘膜表層の毛細血管や粘膜微細模様が有る画素と無い画素が隣接している場合でもアーティファクトが発生しない。そのため病変部の視認性を向上させることが可能となり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、特定の波長帯域とは、白色光の波長帯域よりも狭い帯域である。具体的には通常光画像及び特殊光画像は例えば生体内画像であり、特定の波長帯域とは、例えば血液中のヘモグロビンに吸収される波長の波長帯域である。さらに具体的には、図7に示すように390nm〜445nmまたは530nm〜550nmの波長帯域である。
これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(R,G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとはヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。
また、本実施形態は、図5及び図11に示すように通常光画像取得部320と、特殊光画像取得部330と、補正部341を含む画像処理装置であってもよい。通常光画像取得部320は白色光の波長帯域における情報を有した被写体像を含む画像を取得し、特殊光画像取得部330は特定の波長帯域における情報を有した被写体像を含む画像を取得する。補正部341は、特殊光画像の明るさ情報である特殊光明るさ情報に基づいて、特殊光画像の補正処理を行う。ここで、特殊光明るさ情報とは、図3におけるnbiAveGに対応する。
これにより、特殊光明るさ情報を用いて特殊光画像の明るさ補正を行うことが可能になる。一般的に特殊光画像は非常に暗い画像となるため、明るさ補正を行うことで画像の視認性を高めることができる。
また、図11の補正部341は、特殊光明るさ情報に加えて、通常光画像の明るさ情報である通常光明るさ情報を用いて、特殊光画像の補正処理を行ってもよい。ここで、通常光明るさ情報とは、図3におけるwliAveGに対応する。
これにより、通常光画像の明るさと特殊光画像の明るさとを比較した上で、明るさ補正を行うことが可能になる。
また、補正部341は、補正処理として、特殊光明るさ情報と通常光明るさ情報の明るさを同等にする処理を行ってもよい。
これにより、非常に暗い特殊光画像の明るさを、通常光画像の明るさのレベルまで引き上げることが可能になり、視認性を向上させることができる。
また、補正部341は、特殊光明るさ情報と明るさ検知センサから得られた明るさ情報とに基づいて、特殊光画像の補正処理を行ってもよい。
ここで、明るさ検知センサ(調光センサ)とは、具体的には例えばフォトダイオード等により実現され、光起電力や光伝導等により動作することで、明るさを検知するものである。
これにより、明るさ情報をセンサ情報として取得することが可能になり、センサ情報に基づいて明るさ補正を行うことができる。
また、補正部341は、特殊光画像内の画素値と、通常光画像内の画素値とに基づいて、特殊光画像の補正処理を行ってもよい。
これにより、画素値に基づいた補正処理が可能になる。ここで画素値とは、例えばR,G,Bに1画素あたり各8ビットが割り当てられているような場合には、R,G,Bの各成分が取ることができる0〜255の値のことである。
また、補正部341は、特殊光画像内の画素値に基づいて特殊光明るさ情報を算出するとともに、通常光画像内の画素値に基づいて通常光明るさ情報を算出してもよい。そして、通常光明るさ情報と特殊光明るさ情報に基づいて、特殊光画像の補正処理を行ってもよい。前述したとおり、特殊光明るさ情報は図3のnbiAveGに対応し、通常光明るさ情報は図3のwliAveGに対応する。
これにより、画素値に基づいて明るさ情報を算出することが可能になる。そして、通常光画像の明るさと特殊光画像の明るさとを比較した上で、明るさ補正を行うことができる。
また、補正部341は、特殊光明るさ情報と通常光明るさ情報の比に応じた値を補正係数として算出し、補正係数を特殊光画像内の画素値に乗ずる処理を行う。具体的には例えば上述した式(3)、(4)のような処理が考えられる。
これにより、具体的な補正係数として、特殊光明るさ情報と通常光明るさ情報の比、もしくは比に応じた値を用いて、補正処理を行うことが可能になる。
また、通常光画像は第1〜第Nの画素値の成分を含み(例えばR,G,Bの3成分)、特殊光画像は第1〜第Mの画素値の成分を含む(例えばG2,B2の2成分)。そして補正部341は、第1〜第Mの成分の少なくとも1つの成分に基づいて特殊光明るさ情報を算出する。さらに、特殊光明るさ情報の算出に用いた成分に対応する、通常光画像の対応成分に基づいて通常光明るさ情報を算出する。対応成分とは具体的には例えば、G成分、B成分の少なくとも一方が考えられる。具体的には図3に示すように、特殊光明るさ情報の算出にG2信号が用いられた場合には、対応成分はG成分となる。
これにより、特殊光画像の画素値の成分の少なくとも1つから、特殊光明るさ情報を算出することが可能になる。また、対応する通常光画像の画素値の成分から、通常光明るさ情報を算出することが可能になる。対応成分とは、特殊光明るさ情報の算出にG2成分が用いられた場合は通常光画像のG成分であり、特殊光明るさ情報の算出にB2成分が用いられた場合は通常光画像のB成分である。
また、補正部341は、特殊光画像のG成分(G2成分)に基づいて特殊光明るさ情報を算出し、通常光画像のG成分に基づいて通常光明るさ情報を算出する。そして、特殊光明るさ情報と通常光明るさ情報に基づいて、補正処理を行う。具体的には、特殊光明るさ情報と通常光明るさ情報の比に応じた値を補正係数として算出し、算出した補正係数を特殊光画像のG成分とB成分に乗ずる処理を行ってもよい。さらに具体的には、例えば上述した式(3)〜(5)に対応する処理を行ってもよい。
これにより、特殊光画像の明るさを、人の目の最も比視感度が高いG信号を用いて、通常光画像の明るさと同等程度にすることが可能となる。そのため病変部の視認性を向上させることが可能となり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、補正部341は、特殊光画像のG成分(G2成分)に基づいて第1の特殊光明るさ情報を算出し、通常光画像のG成分に基づいて第1の通常光明るさ情報を算出する。それとともに特殊光画像のB成分(B2成分)に基づいて第2の特殊光明るさ情報を算出し、通常光画像のB成分に基づいて第2の通常光明るさ情報を算出する。そして、第1の特殊光明るさ情報、第1の通常光明るさ情報、第2の特殊光明るさ情報及び第2の通常光明るさ情報に基づいて、補正処理を行ってもよい。
具体的には、第1の特殊光明るさ情報と第1の通常光明るさ情報の比に応じた値を第1の補正係数として算出し、算出した第1の補正係数を特殊光画像のG成分に乗ずる処理を行う。また、第2の特殊光明るさ情報と第2の通常光明るさ情報の比に応じた値を第2の補正係数として算出し、算出した第2の補正係数を特殊光画像のB成分に乗ずる処理を行ってもよい。さらに具体的には、例えば上述した式(3)、(4)、(6)、(7)に対応する処理を行ってもよい。
これにより、G信号とB信号で独立に最適な明るさの補正を行うことができる。そのため従来の病変部の視認性を向上させることが可能となり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、通常光画像のG成分と補正後特殊光画像のG成分同士を合成するとともに、通常光画像のB成分と補正後特殊光画像のB成分同士を合成する処理を行う合成部342を含んでもよい。これは、図3におけるC1及び図4におけるD1に対応する。
これにより、明るさ補正が行われた特殊光画像と、通常光画像とを合成することが可能になる。本来非常に暗い特殊光画像に対して明るさ補正が行われているため、合成処理を行っても通常光画像が暗くなことがなく、病変部の視認性を高めることができる。
また、通常光画像取得部320は、白色光の波長帯域の光源からの光に基づいて通常光画像を取得してもよい。そして、特殊光画像取得部330は、特定の波長帯域の光源からの光に基づいて特殊光画像を取得してもよい。この場合の構成は図5の構成とは異なり、白色光源110の代わりに、白色光源及び特殊光光源の2つが、光源部100に設けられることになる。
これにより、光源の構成により通常光画像と特殊光画像を取得することが可能になる。フィルタ等を適用する必要がなくなるため、挿入部200等の構成の一部を簡略化することができる。
また、通常光画像取得部320は、光源からの光に対して、白色光の波長帯域の光を透過するフィルタを適用することで通常光画像を取得してもよい。また、特殊光画像取得部330は、光源からの光に対して、特定の波長帯域の光を透過するフィルタを適用することで特殊光画像を取得してもよい。具体的には図5に示すような構成が考えられる。撮像素子250は図6に示すような色フィルタから構成され、撮像素子260は図7に示すような色フィルタから構成される。
これにより、フィルタの構成により通常光画像と特殊光画像を取得することが可能になる。そのため、光源としては白色光の波長帯域及び特殊光の波長帯域の両方の波長帯域をカバーするような単一の光源で足りるため、光源部の構成を簡略化できる。
また、本実施形態は、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得し、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得し、特殊光画像の補正処理を行い、通常光画像と、補正後特殊光画像との合成処理として、通常光画像のG成分と補正後特殊光画像のG成分同士を合成する第1の合成処理と、通常光画像のB成分と補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行う画像処理方法であってもよい。
これにより、補正部341により補正された補正後特殊光画像を合成することで、通常光画像に比べて、粘膜表層の毛細血管や粘膜微細模様の視認性が高い画像を得ることができ、かつ、G成分同士、B成分同士を合成しているため、自然な色味で血管等の視認性を向上させることができる画像処理方法を実現することが可能になる。
また、本実施形態は、通常画像取得部と、特殊光画像取得部330と、補正部341と、合成部342としてコンピュータを機能させるプログラムであってもよい。通常光画像取得部320は白色光の波長帯域における情報を有した被写体像を含む画像を取得し、特殊光画像取得部330は特定の波長帯域における情報を有した被写体像を含む画像を取得する。補正部341は、特殊光画像の補正処理を行い、合成部342は、通常光画像と特殊光画像のG成分同士、B成分同士の合成処理の少なくとも一方を行う。
これにより、例えばカプセル型内視鏡などのように、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピューターシステムでソフトウェア的に処理を行うことが可能になる。
また、本実施形態は、通常画像取得部と、特殊光画像取得部330と、補正部341としてコンピュータを機能させるプログラムであってもよい。通常光画像取得部320は白色光の波長帯域における情報を有した被写体像を含む画像を取得し、特殊光画像取得部330は特定の波長帯域における情報を有した被写体像を含む画像を取得する。補正部341は、特殊光明るさ情報に基づいて、特殊光画像の補正処理を行う。
これにより、例えばカプセル型内視鏡などのように、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピューターシステムでソフトウェア的に処理を行うことが可能になる。
また本実施形態は、本実施形態の各部(通常光画像取得部、特殊光画像取得部、補正部、合成部)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。
ここでプログラムコードとは、白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、前記特殊光画像の補正処理を行う補正部と、前記通常光画像と前記補正部により補正された前記特殊光画像である補正後特殊光画像との合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成するとともに、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する処理を行う合成部と、を実現する。
また、コンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。
3.第2の実施形態
まず本実施形態の手法について図19、図20を用いて説明する。
図19はG成分の合成を説明するための図である。特殊光画像はG2,B2の2成分を持っている(ここでは特殊光画像としてNBI画像を想定している)ため、そのうちのG2成分を抽出する。また通常光画像はR,G,Bの3成分を持っているため、G2成分に対応する成分であるG成分を抽出する。
そして通常光画像のG成分の明るさ情報であるwliAveGと、特殊光画像のG2成分の明るさ情報であるnbiAveGの比から前述した式(3)を用いてratioGを求める。求めたratioGを用いて、前述した式(4)により、特殊光画像のG2成分の明るさ補正を行い、補正後特殊光画像(G成分)を取得する。
取得した補正後特殊光画像に対して、通常光画像のエッジ情報画像であるedgeYを用いてノイズ低減処理を行うことでノイズ低減画像wliNrImgを取得する。また、補正後特殊光画像に対して、特殊光画像のエッジ情報画像であるedgeNbiを用いてノイズ低減処理を行うことでノイズ低減画像nbiNrImgを取得する。
そして、wliNrImgとnbiNrImgとを後述する式(30)を用いて合成することでノイズ低減特殊光画像(G成分)を取得する。
ノイズ低減特殊光画像(G成分)と通常光画像(G成分)とを合成比blendGで合成することで出力画像(G成分)を取得することができる。なお本実施形態の処理の目的は出力画像を取得することであり、以下に説明する処理は前述したedgeNbi、edgeY及び合成比blendGを求めるための処理である。
edgeNbiを求めるためには、まず特殊光画像のG成分のエッジ情報画像であるedgeGと、特殊光画像のB成分のエッジ情報画像であるedgeBとを求める必要がある。この処理は第1の実施形態と同様に、ラプラシアンフィルタ、方向依存フィルタを適用後、コアリング処理を行えばよい。得られたedgeGとedgeBとから、後述する式(27)もしくは式(28)を用いてedgeNbiが求められる。また、edgeGに計数K1をかけることで合成比画像blendGを取得できる。
また、edgeYを求めるために、通常光画像のR,G,Bの3成分から、後述する式(26)を用いて輝度画像を取得する。特殊光の場合と同様に、輝度画像に対してラプラシアンフィルタ、方向依存フィルタを適用後、コアリング処理を行うことでエッジ情報画像edgeYが求められる。
B成分についても同様であり、処理の概要を示したものが図20である。特殊光画像のB2成分から補正後特殊光画像(B成分)を取得後、補正後特殊光画像に対してedgeNbi、edgeYでそれぞれノイズ低減処理を行い、ノイズ低減特殊光画像(B成分)を取得する。取得したノイズ低減特殊光画像(B成分)と通常光画像(B成分)とを合成比blendBで合成することで出力画像(B成分)を求めることができる。
R成分については、第1の実施形態と同様に通常光画像のR成分をそのまま用いればよい。
このようにして得られた出力画像のR成分、B成分、G成分からカラー画像を生成する。生成された画像は、血管等が自然な色味で強調され、かつノイズが低減された画像となっており、診断においてドクターの負荷を軽減すること等が可能になる。
以下、システム構成及び上述した処理に関して詳細に説明する。なお第1の実施形態と同様の構成及び処理に関しては詳細な説明は省略する。
本実施形態の構成は、合成部342以外は第1の実施形態と同様である。
合成部342は、制御部360の制御に基づき、通常光画像に補正された特殊光画像を合成する。合成部342の具体的な構成について説明する。図21は、第2の実施形態における合成部342の構成の一例を説明するブロック図である。図21に示すように、第1の実施形態の合成部342に、ノイズ低減部3424を更に含んでいる。
ここで、補正部341は、エッジ抽出部3421と、ノイズ低減部3424に接続されている。エッジ抽出部3421は、合成比算出部3422と、ノイズ低減部3424に接続されている。ノイズ低減部3424は、合成画像作成部3423に接続されている。また、制御部360は、エッジ抽出部3421と、合成比算出部3422と、合成画像作成部3423と、ノイズ低減部3424に双方向に接続されていて、これらを制御するようになっている。
エッジ抽出部3421は、補正された特殊光画像内のエッジ情報と、通常光画像内のエッジ情報を抽出する。ここでは、通常光画像の輝度信号値Yと、特殊光画像のG信号値と、特殊光画像のB信号値に対して、方向判別エッジ抽出を行う。具体的には、まず、通常光画像はRGB信号値から輝度信号値Yを下式(26)で算出する
Y(x,y) = 0.213×r(x,y) + 0.715×g(x,y) + 0.072×b(x,y) ・・・・・(26)
ここからは、第1の実施の形態で説明した特殊光画像のG、B信号に対して行った処理を、通常光画像の輝度信号値Yにも行う。作成された通常光画像の輝度信号値Yのエッジ画像edgeYは、ノイズ低減部3424に出力される。また、同様の処理により作成された、特殊光画像のG信号値のエッジ画像edgeGと、特殊光画像のB信号値のエッジ画像edgeBは、合成比算出部3422と、ノイズ低減部3424に出力される。
ノイズ低減部3424は、制御部360の制御に基づき、通常光画像のエッジ情報edgeY、または補正後の特殊光画像のエッジedgeG及びedgeBに基づき補正後の特殊光画像に対しノイズ低減処理を行う。具体的には、まず特殊光画像のG信号値のエッジ画像edgeGと、特殊光画像のB信号値のエッジ画像edgeBを、下式を用いて合成し、特殊光画像のエッジ画像edgeNbiを作成する。
edgeNbi(x,y) = MAX( edgeG(x,y), edgeB(x,y) ) ・・・・・(27)
ここでMAX(a,b)はaとbの大きい方の値を返す関数である。合成方法は上記に限らず下式のようにしてもよい。
edgeNbi(x,y) = K3×edgeG(x,y) + (1 - K3)×edgeB(x,y) ・・・・・(28)
ここでK3は0〜1の範囲の定数項である。K3は外部から予め入力された値を用いる。
次に、補正された特殊光画像に第1のノイズ低減処理を行う。具体的には、注目画素と近傍画素に対して、注目画素に近い値を持つ近傍画素には大きな重みを付け、注目画素から遠い値を持つ近傍画素には小さな重みをつけて重み付け加算する。さらに、特殊光画像のエッジ画像edgeNbi上で注目画素に近い値を持つ近傍画素には大きな重みを付け、特殊光画像のエッジ画像edgeNbi上で注目画素から遠い値を持つ近傍画素には小さな重みをつけて重み付け加算するようなフィルタを適応した、第1のノイズ低減画像nbiNrImgを作成する。
続いて、ノイズ低減前の補正された特殊光画像に第2のノイズ低減処理を行う。具体的には、ガウシアンフィルタを適用し、注目画素に対応する通常光画像のエッジ画像edgeY上の信号値が大きい場合はガウシアンでフィルタのシグマを小さく、エッジ画像edgeY上の信号値が小さい場合はガウシアンでフィルタのシグマを大きくするようなフィルタを適用した、第2のノイズ低減画像wliNrImgを作成する。
ここで、第2のノイズ低減処理に比べて、第1のノイズ低減処理が複雑な処理となっているのは、第1のノイズ低減処理が特殊光画像のエッジ情報に基づいた処理だからである。特殊光画像は非常に暗くノイズも多いため、処理においてノイズの影響が出ないように、複雑な処理を採用し、慎重にノイズ低減を行っている。それに対し、第1のノイズ低減処理は明るくノイズの少ない通常光画像に基づく処理であるため、ガウシアンフィルタを適用するだけの処理となっている。
続いて、第1のノイズ低減画像nbiNrImgと、第2のノイズ低減画像wliNrImgの合成処理を行う。
K5(x,y) = K4 × edgeNbi(x,y) ・・・・・(29)
nrImg(x,y)=K5(x,y)×nbiNrImg(x,y)+(1-K5(x,y))×wliNrImg(x,y)・・・・(30)
K4は定数項である。K5は0〜1の間の値である。ノイズ低減後の画像nrImgは、合成画像作成部3423に出力される。
ここで、nrImgを求めるために、nbiNrImg及びwliNrImgの両方を用いる理由、及び合成比K5を求める際にedgeNbiを用いる理由について説明する。特殊光画像は通常光画像に比べて、血管等の構造が強調されて表示される。そのため、通常光画像のエッジ情報に比べて、特殊光画像のエッジ情報はより優先して出力画像に反映させるとよい。よって、K5を求める際にedgeNbiが用いられる。しかし、特殊光画像は前述したように非常に暗く、ノイズが多い。特殊光画像のエッジ情報のみを用いて処理を行ったのでは、ノイズにより悪影響が出るおそれがある。そこで明るくノイズの少ない通常光画像のエッジ情報も処理に用いることで、ノイズの影響を低減することができると考えられる。
また、本実施の形態では、画像処理部300を構成する各部をハードウェアで構成することとしたが、第1の実施形態と同様に、予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
この場合、図17の合成処理ステップ(S16)以外は第1の実施形態と同様である。図22を参照して、合成処理の詳細について説明する。
この処理を開始すると、まず、式(8)〜(20)で上述した通り、補正された特殊光画像内と、通常光画像内のエッジ情報を抽出する(S31)。次に、式(29)〜(30)で上述した通り、補正された特殊光画像に対してノイズ低減処理を行う(S32)。続いて、式(21)〜(22)で上述した通り、抽出されたエッジ情報に基づき合成比を算出する(S33)。次に、式(23)〜(25)で上述した通り、通常光画像のB、G信号に補正されたノイズ低減済みの特殊光画像のB、G信号を合成した合成画像を作成する(S34)。
このような処理を行うことで、通常光画像と特殊光画像を単一の画像で表示することが可能となるため、ドクターの負荷を低減しながら病変部の見逃しを抑止する内視鏡システムを提供することが可能となる。
以上の本実施形態では、図21に示すノイズ低減部3424は通常光画像のエッジ情報、または補正された特殊光画像のエッジ情報に基づき、補正された特殊光画像に対しノイズ低減処理を行う。合成部342は、ノイズ低減処理された特殊光画像と前記通常光画像とを合成する。具体的には図19におけるE1及び図20におけるF1に対応する。
これにより、補正処理によってノイズが増えた特殊光画像のノイズレベルを下げることができる。そのため、ノイズレベルの低い特殊光画像を通常光画像に合成することでき、ノイズ低減処理を行わない場合に比べ、ノイズレベルの低い合成画像を作成することで、病変部の視認性を向上させることが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、ノイズ低減部3424は、通常光画像のエッジ情報に基づいて、ノイズ低減処理の強度を制御する。通常光画像のエッジ情報とは、図19及び図20におけるedgeYに対応する。補正後特殊光画像に対してedgeYを用いてノイズ低減処理を行うことでwliNrImgを取得する。
ここで、ノイズ低減処理の強度とは、具体的には例えば、ガウシアンフィルタにおけるシグマの値である。
これにより、通常光画像内に含まれる血管情報を潰さずにノイズを低減することが可能になり、ノイズレベルの低い合成画像を作成することで、病変部の視認性を向上させることが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、ノイズ低減部3424は、補正された特殊光画像のエッジ情報に基づいて、エッジ方向判別のノイズ低減処理を行う。補正された特殊光画像のエッジ情報とは、図19及び図20におけるedgeNbiに対応する。補正後特殊光画像に対してedgeNbiを用いてノイズ低減処理を行うことでnbiNrImgを取得する。
これにより、非常に暗い特殊光画像に対しても、表層の毛細血管や粘膜微細模様を潰さずにノイズを低減することが可能になり、ノイズレベルの低い合成画像を作成することで、病変部の視認性を向上させることが可能になり、ドクターの負荷を軽減し、病変部の見落としを抑止することができる。
また、ノイズ低減部3424は、エッジ方向判別のノイズ低減処理として、処理対象画素に近い値を持つ画素には大きな重みを付け、前記処理対象画素から遠い値を持つ画素には小さな重みを付けて、重み付け加算する処理を行ってもよい。これは図19及び図20において、nbiNrImgを求めるための具体的な処理に対応する。
これにより、非常に暗い特殊光画像に対しても、表層の毛細血管や粘膜微細模様を潰さずに、エッジ方向に基づいたノイズ低減処理を行うことが可能になる。
以上、本発明を適用した2つの実施形態1〜2及びその変形例について説明したが、本発明は、各実施形態1〜2やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態1〜2や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態1〜2や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(例えば、特殊光)と共に記載された用語(例えば、狭帯域光)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
100 光源部、110 白色光源、120 集光レンズ、200 挿入部、
210 ライトガイドファイバ、220 照明レンズ、230 対物レンズ、
240 ハーフミラー、250 撮像素子、260 撮像素子、300 画像処理部、
310a AD変換部、310b AD変換部、320 通常光画像取得部、
321 通常光画像生成部、322 通常光画像記憶部、330 特殊光画像取得部、
331 特殊光画像生成部、332 特殊光画像記憶部、340 出力画像生成部、
341 補正部、342 合成部、350 選択部、360 制御部、400 表示部、
500 外部I/F部、600 コンピューターシステム、610 本体部、
615 ドライブ、616 ポート、617 インターフェース、
618 インターフェース、620 ディスプレイ、621 表示画面、
630 キーボード、640 マウス、650 モデム、670 メモリ、
682 サーバ、683 プリンタ、3421 エッジ抽出部、
3422 合成比算出部、3423 合成処理部、3424 ノイズ低減部、
3425 注目領域検出部

Claims (17)

  1. 白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、
    特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、
    前記特殊光画像の明るさ情報と前記通常光画像の明るさ情報とに基づいて、前記特殊光画像の補正処理を行う補正部と、
    前記通常光画像と、前記補正部により補正された前記特殊光画像である補正後特殊光画像とを合成処理する合成部と、
    を含み、
    前記合成部は、
    少なくとも前記補正後特殊光画像のエッジ情報を抽出するエッジ抽出部と、
    抽出された前記補正後特殊光画像のエッジ情報に基づいて、前記補正後特殊光画像内にエッジが多い場合は、エッジが少ない場合に比べて、前記補正後特殊光画像の合成比率を高くする合成比を算出する合成比算出部と、
    を含み、
    前記合成部は、
    算出された前記合成比に基づいて、前記合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行うことを特徴とする画像処理装置。
  2. 請求項において、
    前記エッジ抽出部は、
    前記補正後特殊光画像に対して、少なくとも方向依存フィルタを含むエッジ検出フィルタを適用することで、前記補正後特殊光画像内のエッジ情報を抽出することを特徴とする画像処理装置。
  3. 請求項において、
    前記エッジ抽出部は、
    前記補正後特殊光画像に対してラプラシアンフィルタを適用した後に方向依存フィルタを適用することで、前記補正後特殊光画像内のエッジ情報を抽出することを特徴とする画像処理装置。
  4. 請求項において、
    前記エッジ抽出部は、
    前記方向依存フィルタとして、エッジ方向に沿った画素の画素値を平滑化するフィルタを適用することを特徴とする画像処理装置。
  5. 請求項において、
    前記エッジ抽出部は、
    前記通常光画像に対してラプラシアンフィルタを適用した後に方向依存フィルタを適用することで、前記通常光画像内のエッジ情報を抽出することを特徴とする画像処理装置。
  6. 請求項において、
    前記合成部は、
    前記補正後特殊光画像を複数の領域に分割する分割部を含み、
    前記合成比算出部は、前記複数の領域の各領域ごとに前記合成比を算出することを特徴とする画像処理装置。
  7. 請求項1において、
    前記合成部は、
    前記通常光画像のエッジ情報及び前記補正後特殊光画像のエッジ情報の少なくとも一方に基づいて、前記補正後特殊光画像に対しノイズ低減処理を行うノイズ低減部を含み、
    前記合成部は、
    ノイズ低減処理された前記補正後特殊光画像と前記通常光画像とを合成することを特徴とする画像処理装置。
  8. 請求項において、
    前記ノイズ低減部は、
    前記通常光画像のエッジ情報に基づいて、ノイズ低減処理の強度を制御することを特徴とする画像処理装置。
  9. 請求項において、
    前記ノイズ低減部は、
    前記補正後特殊光画像のエッジ情報に基づいて、エッジ方向判別のノイズ低減処理を行うことを特徴とする画像処理装置。
  10. 請求項において、
    前記ノイズ低減部は、
    前記ノイズ低減処理として、処理対象画素に近い値を持つ画素には大きな重みを付け、前記処理対象画素から遠い値を持つ画素には小さな重みを付けて、重み付け加算する処理
    を行うことを特徴とする画像処理装置。
  11. 請求項1において、
    前記特定の波長帯域は、
    前記白色光の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。
  12. 請求項11において、
    前記通常光画像及び前記特殊光画像は、
    生体内を写した生体内画像であり、
    前記生体内画像に含まれる前記特定の波長帯域は、
    血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする画像処理装置。
  13. 請求項12において、
    前記波長帯域は、
    390ナノメータ〜445ナノメータ、または530ナノメータ〜550ナノメータであることを特徴とする画像処理装置。
  14. 請求項1において、
    前記通常光画像取得部は、
    前記白色光の波長帯域の光源からの光に基づいて前記通常光画像を取得し、
    前記特殊光画像取得部は、
    前記特定の波長帯域の光源からの光に基づいて前記特殊光画像を取得することを特徴とする画像処理装置。
  15. 請求項1において、
    前記通常光画像取得部は、
    光源からの光に対し、前記白色光の波長帯域の光を透過するフィルタを適用することで、前記通常光画像を取得し、
    前記特殊光画像取得部は、
    光源からの光に対し、前記特定の波長帯域の光を透過するフィルタを適用することで、前記特殊光画像を取得することを特徴とする画像処理装置。
  16. 白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得し、
    特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得し、
    前記特殊光画像の明るさ情報と前記通常光画像の明るさ情報とに基づいて、前記特殊光画像の補正処理を行い、
    補正された前記特殊光画像である補正後特殊光画像のエッジ情報を少なくとも抽出し、
    抽出された前記補正後特殊光画像のエッジ情報に基づいて、前記補正後特殊光画像内にエッジが多い場合は、エッジが少ない場合に比べて、前記補正後特殊光画像の合成比率を高くする合成比を算出し、
    算出された前記合成比に基づいて、前記通常光画像と、前記補正後特殊光画像との合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行うことを特徴とする画像処理方法。
  17. 白色光の波長帯域における情報を有した被写体像を含む通常光画像を取得する通常光画像取得部と、
    特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得する特殊光画像取得部と、
    前記特殊光画像の明るさ情報と前記通常光画像の明るさ情報とに基づいて、前記特殊光画像の補正処理を行う補正部と、
    前記通常光画像と、前記補正部により補正された前記特殊光画像である補正後特殊光画像とを合成処理する合成部として、
    コンピュータを機能させ、
    前記合成部は、
    少なくとも前記補正後特殊光画像のエッジ情報を抽出するエッジ抽出部と、
    抽出された前記補正後特殊光画像のエッジ情報に基づいて、前記補正後特殊光画像内にエッジが多い場合は、エッジが少ない場合に比べて、前記補正後特殊光画像の合成比率を高くする合成比を算出する合成比算出部と、
    を含み、
    前記合成部は、
    算出された前記合成比に基づいて、前記合成処理として、前記通常光画像のG成分と前記補正後特殊光画像のG成分同士を合成する第1の合成処理と、前記通常光画像のB成分と前記補正後特殊光画像のB成分同士を合成する第2の合成処理の少なくとも一方を行うことを特徴とするプログラム。
JP2010065925A 2010-03-23 2010-03-23 画像処理装置、画像処理方法及びプログラム Active JP5591570B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010065925A JP5591570B2 (ja) 2010-03-23 2010-03-23 画像処理装置、画像処理方法及びプログラム
CN201110070851.XA CN102201114B (zh) 2010-03-23 2011-03-23 图像处理装置和图像处理方法
US13/069,817 US9095269B2 (en) 2010-03-23 2011-03-23 Image processing device, image processing method, and program
US14/792,100 US9629525B2 (en) 2010-03-23 2015-07-06 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065925A JP5591570B2 (ja) 2010-03-23 2010-03-23 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014154374A Division JP5940604B2 (ja) 2014-07-30 2014-07-30 画像処理装置、画像処理装置の作動方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2011194111A JP2011194111A (ja) 2011-10-06
JP2011194111A5 JP2011194111A5 (ja) 2012-07-12
JP5591570B2 true JP5591570B2 (ja) 2014-09-17

Family

ID=44656542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065925A Active JP5591570B2 (ja) 2010-03-23 2010-03-23 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (2) US9095269B2 (ja)
JP (1) JP5591570B2 (ja)
CN (1) CN102201114B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5948203B2 (ja) * 2011-10-12 2016-07-06 富士フイルム株式会社 内視鏡システム及びその作動方法
CN102521912B (zh) * 2011-12-19 2015-11-18 山东新北洋信息技术股份有限公司 图像处理方法及装置
JP5427318B1 (ja) * 2012-03-30 2014-02-26 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2014068145A (ja) * 2012-09-25 2014-04-17 Kyocera Corp 携帯端末、表示制御プログラムおよび表示制御方法
JP5869541B2 (ja) * 2013-09-13 2016-02-24 富士フイルム株式会社 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
CN107205618B (zh) 2015-02-10 2019-03-26 奥林巴斯株式会社 图像处理装置、内窥镜系统、图像处理方法以及记录介质
JP6585623B2 (ja) * 2015-12-17 2019-10-02 オリンパス株式会社 生体情報計測装置、生体情報計測方法および生体情報計測プログラム
JP2017118887A (ja) * 2015-12-28 2017-07-06 株式会社システック 体内近赤外光像検出カメラ
JP6507268B2 (ja) 2016-01-22 2019-04-24 富士フイルム株式会社 撮影支援装置及び撮影支援方法
JP6626783B2 (ja) * 2016-06-02 2019-12-25 Hoya株式会社 画像処理装置および電子内視鏡システム
KR102718457B1 (ko) * 2016-07-14 2024-10-17 엘지이노텍 주식회사 영상 처리 장치
JP6690003B2 (ja) * 2016-10-03 2020-04-28 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2018084003A1 (ja) * 2016-11-04 2018-05-11 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
CN110769738B (zh) * 2017-06-21 2022-03-08 奥林巴斯株式会社 图像处理装置、内窥镜装置、图像处理装置的工作方法及计算机可读存储介质
US11744455B2 (en) * 2017-08-01 2023-09-05 Nikon Corporation Image signal output device and method, and image data conversion device, method, and program
EP3685731B1 (en) * 2017-09-22 2023-06-07 FUJIFILM Corporation Medical image processing system, endoscope system, diagnostic support device, and medical task support device
CN109190517B (zh) * 2018-08-14 2022-05-10 北京凌云天润智能科技有限公司 一种手指静脉图像边缘提取及方向矫正方法
US10748290B2 (en) * 2018-10-31 2020-08-18 Fei Company Smart metrology on microscope images
CN109973076A (zh) * 2019-04-10 2019-07-05 中煤科工集团西安研究院有限公司 煤矿井下钻孔内可视探测装置及方法
JP7234086B2 (ja) * 2019-10-04 2023-03-07 株式会社日立製作所 生体情報取得装置およびプログラム
JP7637683B2 (ja) * 2020-07-17 2025-02-28 富士フイルム株式会社 プロセッサ装置、プロセッサ装置の作動方法
WO2024171356A1 (ja) * 2023-02-15 2024-08-22 オリンパスメディカルシステムズ株式会社 内視鏡用画像処理装置および内視鏡用画像処理装置の作動方法
CN117830114B (zh) * 2024-01-02 2024-08-09 瀚湄信息科技(上海)有限公司 基于白光led照明的血红蛋白增强方法、装置及电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5512940A (en) * 1993-03-19 1996-04-30 Olympus Optical Co., Ltd. Image processing apparatus, endoscope image sensing and processing apparatus, and image processing method for performing different displays depending upon subject quantity
JP3917733B2 (ja) * 1997-10-31 2007-05-23 オリンパス株式会社 電子内視鏡装置
JP4370008B2 (ja) * 1998-11-17 2009-11-25 オリンパス株式会社 内視鏡画像処理装置
US7469160B2 (en) * 2003-04-18 2008-12-23 Banks Perry S Methods and apparatus for evaluating image focus
JP4394356B2 (ja) * 2003-02-07 2010-01-06 Hoya株式会社 電子内視鏡装置
US20040225222A1 (en) * 2003-05-08 2004-11-11 Haishan Zeng Real-time contemporaneous multimodal imaging and spectroscopy uses thereof
US7564602B2 (en) * 2003-07-28 2009-07-21 Hoya Corporation Color chart for adjustment of a color printer and a color monitor utilized with an endoscope
US7385767B2 (en) * 2004-03-09 2008-06-10 Olympus Corporation Zoom optical system, and electronic equipment incorporating the same
US7557969B2 (en) * 2004-03-22 2009-07-07 Kabushiki Kaisha Toshiba Color balance correction chart, color balance correction method, and image forming apparatus
KR100895160B1 (ko) * 2004-08-30 2009-05-04 올림푸스 가부시키가이샤 내시경 장치
JP4025764B2 (ja) 2004-08-31 2007-12-26 オリンパス株式会社 内視鏡装置
WO2006120794A1 (ja) * 2005-05-11 2006-11-16 Olympus Medical Systems Corp. 生体観測装置用信号処理装置
JP5057675B2 (ja) * 2006-03-03 2012-10-24 オリンパスメディカルシステムズ株式会社 生体観察装置
JP5121204B2 (ja) * 2006-10-11 2013-01-16 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP4895834B2 (ja) * 2007-01-23 2012-03-14 Hoya株式会社 画像処理装置
WO2008149904A1 (ja) * 2007-06-05 2008-12-11 Olympus Corporation 画像信号処理装置および画像信号処理プログラム
JP2009000236A (ja) * 2007-06-20 2009-01-08 Olympus Medical Systems Corp 画像生成装置
JP5127639B2 (ja) * 2008-09-10 2013-01-23 富士フイルム株式会社 内視鏡システム、およびその作動方法
JP4986965B2 (ja) * 2008-09-30 2012-07-25 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
WO2011129176A1 (ja) * 2010-04-12 2011-10-20 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法

Also Published As

Publication number Publication date
CN102201114A (zh) 2011-09-28
US9095269B2 (en) 2015-08-04
CN102201114B (zh) 2017-04-12
JP2011194111A (ja) 2011-10-06
US20110235877A1 (en) 2011-09-29
US9629525B2 (en) 2017-04-25
US20150305607A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
JP5591570B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5541914B2 (ja) 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
JP5395725B2 (ja) 電子内視鏡システム
JP5658873B2 (ja) 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5452300B2 (ja) 電子内視鏡システム、電子内視鏡用のプロセッサ装置、電子内視鏡システムの作動方法、病理観察装置および病理顕微鏡装置
JP5802364B2 (ja) 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5623348B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP5452242B2 (ja) 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
JP2011218090A (ja) 画像処理装置、内視鏡システム及びプログラム
EP3446617A1 (en) Endoscope system, image processing device, and image processing device operation method
JP2012005512A (ja) 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP2011234844A (ja) 制御装置、内視鏡装置及びプログラム
JPWO2020008834A1 (ja) 画像処理装置、方法及び内視鏡システム
JP2013099509A (ja) 内視鏡システム及び画像生成方法
JP2023099754A (ja) 内視鏡システム、および画像処理方法
JP5715602B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP2014064861A (ja) 内視鏡システム及び画像生成方法
JP7163386B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び内視鏡装置の作動プログラム
JP5940604B2 (ja) 画像処理装置、画像処理装置の作動方法及びプログラム
CN110769738B (zh) 图像处理装置、内窥镜装置、图像处理装置的工作方法及计算机可读存储介质
JP2012110481A (ja) 内視鏡装置、フォーカス制御方法及びプログラム
JP7090705B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP2010213746A (ja) 内視鏡画像処理装置および方法ならびにプログラム
JP7593796B2 (ja) 医用画像処理システム、医用画像処理システムの作動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5591570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250