JP2011156203A - 画像処理装置、内視鏡システム、プログラム及び画像処理方法 - Google Patents
画像処理装置、内視鏡システム、プログラム及び画像処理方法 Download PDFInfo
- Publication number
- JP2011156203A JP2011156203A JP2010021095A JP2010021095A JP2011156203A JP 2011156203 A JP2011156203 A JP 2011156203A JP 2010021095 A JP2010021095 A JP 2010021095A JP 2010021095 A JP2010021095 A JP 2010021095A JP 2011156203 A JP2011156203 A JP 2011156203A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- image
- endoscope
- unit
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000001514 detection method Methods 0.000 claims abstract description 293
- 230000003902 lesion Effects 0.000 claims abstract description 58
- 239000000284 extract Substances 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 103
- 239000002775 capsule Substances 0.000 claims description 81
- 238000001727 in vivo Methods 0.000 claims description 79
- 238000003384 imaging method Methods 0.000 claims description 62
- 238000000605 extraction Methods 0.000 claims description 50
- 238000000034 method Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 15
- 238000013459 approach Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 8
- 102000001554 Hemoglobins Human genes 0.000 claims description 6
- 108010054147 Hemoglobins Proteins 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 6
- 239000008280 blood Substances 0.000 claims description 2
- 210000004369 blood Anatomy 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 210000000056 organ Anatomy 0.000 description 24
- 238000003745 diagnosis Methods 0.000 description 12
- 238000005286 illumination Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 230000001678 irradiating effect Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 210000000813 small intestine Anatomy 0.000 description 6
- 239000003814 drug Substances 0.000 description 5
- 229940079593 drug Drugs 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000010521 absorption reaction Methods 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 208000037062 Polyps Diseases 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000001072 colon Anatomy 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 210000004400 mucous membrane Anatomy 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 239000002344 surface layer Substances 0.000 description 3
- 102000008186 Collagen Human genes 0.000 description 2
- 108010035532 Collagen Proteins 0.000 description 2
- 241000167880 Hirundinidae Species 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000000740 bleeding effect Effects 0.000 description 2
- 229920001436 collagen Polymers 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000001198 duodenum Anatomy 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000001035 gastrointestinal tract Anatomy 0.000 description 2
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 2
- 229960004657 indocyanine green Drugs 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 210000002429 large intestine Anatomy 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 206010041823 squamous cell carcinoma Diseases 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000005718 Stomach Neoplasms Diseases 0.000 description 1
- 208000025865 Ulcer Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 210000004534 cecum Anatomy 0.000 description 1
- 210000001731 descending colon Anatomy 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 238000000799 fluorescence microscopy Methods 0.000 description 1
- 206010017758 gastric cancer Diseases 0.000 description 1
- 210000003405 ileum Anatomy 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010253 intravenous injection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004877 mucosa Anatomy 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 201000011549 stomach cancer Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 231100000397 ulcer Toxicity 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Landscapes
- Endoscopes (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】処置の際に病変などの注目領域の位置情報を医師等に提示できる画像処理装置、内視鏡システム、プログラム及び画像処理方法等を提供すること。
【解決手段】画像処理装置は、取得部135と、第2検出部131と、注目位置情報抽出部132と、を含む。第1の内視鏡装置10の第1検出部103は、第1の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する。第2検出部131は、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、第2基準注目領域を含む画像を検出する。注目位置情報抽出部131は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する。
【選択図】図1
【解決手段】画像処理装置は、取得部135と、第2検出部131と、注目位置情報抽出部132と、を含む。第1の内視鏡装置10の第1検出部103は、第1の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する。第2検出部131は、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、第2基準注目領域を含む画像を検出する。注目位置情報抽出部131は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する。
【選択図】図1
Description
本発明は、画像処理装置、内視鏡システム、プログラム及び画像処理方法等に関する。
近年では、体腔検査において患者が飲み込んで使用するカプセル型内視鏡が普及している。このカプセル型内視鏡は、各臓器を通過する際に体腔内を順次撮影していき、医師は、撮影完了後にその画像をチェックすることで病変の検出や診断を行う。
しかしながら、カプセル型内視鏡は病変の検出を行うものであり、検出した病変の処置にはスコープ型内視鏡を用いるのが一般的である。そのため、医師が処置する際には、カプセル型内視鏡で検出された病変の位置へスコープ型内視鏡を操作する必要があるという課題がある。
例えば、特許文献1には、スコープ型内視鏡やカプセル型内視鏡を使用しながらCT(Computed Tomography)やMRI(Magnetic Resonance Imaging)により体内の3次元画像を生成する手法が開示されている。この手法では、生成した3次元画像から体内での内視鏡の位置情報を取得し、その位置情報を含む種々の情報を医者に提示する。
しかしながら、CTやMRIによる3次元画像の取得と内視鏡の位置情報の取得とを同時に行うため、検査や診断に時間をかけられず、医師が診断を誤る可能性がある。また、CTやMRIを用いる必要があるため、これらの機器の準備の手間が多くかかったり、機器のない病院などでは莫大な設備導入のコストが必要になってしまう。
本発明の幾つかの態様によれば、処置の際に病変などの注目領域の位置情報を医師等に提示できる画像処理装置、内視鏡システム、プログラム及び画像処理方法等を提供できる。
本発明の一態様は、第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する取得部と、第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部と、を含み、前記第1の内視鏡装置の第1検出部は、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、前記第2検出部は、前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、前記注目位置情報抽出部は、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出する画像処理装置に関係する。
本発明の一態様によれば、ユーザが第2の内視鏡装置を用いる際に、注目領域の位置情報を提供することが可能になる。また、第1、第2の基準で注目領域を検出することで、2つの異なる基準での検出処理が可能になる。
また、本発明の他の態様は、第1の内視鏡装置が位置する部位を判別する第1部位判別部と、前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部と、を含み、前記第1部位判別部は、前記第1の内視鏡装置により撮像された画像の特徴量の変化に基づいて、前記第1の内視鏡装置が位置する部位を判別し、前記第1位置情報取得部は、前記第1部位判別部によって判別された結果を、前記第1の内視鏡装置によって画像が撮像された際の前記第1の位置情報として取得し、前記第1の内視鏡装置の第1検出部は、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、前記第2検出部は、前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、前記注目位置情報抽出部は、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出する画像処理装置に関係する。
また、本発明の他の態様は、第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、第1の検出基準を用いて、前記第1の内視鏡装置によって撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を検出する第1検出部と、前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置によって撮像された画像の中から、前記第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を注目位置情報として抽出する注目位置情報抽出部と、を含む内視鏡システムに関係する。
また、本発明の他の態様は、第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する第1検出部と、前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2の検出基準に適合した領域である第2基準注目領域を含む画像を検出する第2検出部と、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を注目位置情報として抽出する注目位置情報抽出部と、第2の内視鏡装置の体内での位置を示す第2の位置情報を取得する第2位置情報取得部と、前記第1位置情報取得部により取得された前記第1の位置情報と、前記第2位置情報取得部により取得された前記第2の位置情報とを対応付ける対応付け部と、前記対応付け部による対応付けの結果に基づく情報を表示部に表示する制御を行う表示制御部と、を含む内視鏡システムに関係する。
また、本発明の他の態様は、第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する取得部と、第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部として、コンピュータを機能させ、前記第1の内視鏡装置の第1検出部は、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、前記第2検出部は、前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、前記注目位置情報抽出部は、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出するプログラムに関係する。
また、本発明の他の態様は、第1の内視鏡装置の第1検出部が、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する場合に、第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得し、前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2の検出基準に適合した領域である前記第2基準注目領域を含む画像を検出し、前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出する画像処理方法に関係する。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.システム構成例
上述のように、カプセル型内視鏡を用いて病変を検出し、その病変の処置をスコープ型内視鏡を用いて行う場合、検出した病変の場所を医師が探す必要があるという課題がある。本実施形態は、カプセル型内視鏡により病変の検出とその位置の取得を行い、取得した病変位置に基づいて医師にナビゲーション情報を表示する。図1に、この本実施形態のシステム構成例を示す。
上述のように、カプセル型内視鏡を用いて病変を検出し、その病変の処置をスコープ型内視鏡を用いて行う場合、検出した病変の場所を医師が探す必要があるという課題がある。本実施形態は、カプセル型内視鏡により病変の検出とその位置の取得を行い、取得した病変位置に基づいて医師にナビゲーション情報を表示する。図1に、この本実施形態のシステム構成例を示す。
なお以下では、第1の内視鏡装置がカプセル型内視鏡であり、第2の内視鏡装置がスコープ型内視鏡である場合を例に説明するが、これらの内視鏡装置は他の内視鏡装置であってもよい。例えば、第1の内視鏡装置はスコープ型内視鏡であってもよい。
このシステム構成例は、第1の内視鏡システム100、第2の内視鏡システム200を含む。そして、第1の内視鏡システム100は、カプセル型内視鏡10(広義には第1の内視鏡装置)、第1の受信機11、第1の受信装置12、画像処理装置13(例えばコンピュータ)、記憶装置14を含む。第2の内視鏡システム200は、スコープ型内視鏡15、第2の受信機16、第2の受信装置17、制御装置18(例えばプロセッサ)、出力装置19(表示装置、表示モニター)を含む。
カプセル型内視鏡10は、患者が飲み込んで用い、消化管の粘膜等を撮影する。このカプセル型内視鏡10は、撮像部101、第1画像取得部102、第1検出部103、発信機104、制御部105を含む。撮像部101は、例えば図示しないレンズ系と、撮像素子、A/D変換回路により構成される。第1画像取得部102は、図示しない同時化補間処理部等で構成される。発信機104は、図示しない音波発信部または電波発信部を有し、音波または電波を発信する。そして、撮像部101は、第1画像取得部102へ接続し、第1画像取得部102は、第1検出部103へ接続し、第1検出部103は、発信機104へ接続する。制御部105は、撮像部101と、第1画像取得部102、第1検出部103、発信機104へ接続する。
受信機11は、図示しない音波受信部または電波受信部を有する複数の受信機で構成され、発信機104からの音波または電波を受信する。この受信機11は、受信装置12の第1位置情報取得部121と記憶部122へ接続する。
受信装置12は、カプセル型内視鏡10からの撮影画像等の受信を行う。この受信装置12は、第1位置情報取得部121、記憶部122、制御部123、I/F部124を含む。そして、第1位置情報取得部121は、記憶部122へ接続し、記憶部122は、コンピュータ13の第2検出部131、注目位置情報抽出部132へ接続し、制御部123は、第1位置情報取得部121、記憶部122へ接続する。I/F部124は、制御部123と双方向に接続する。なお、受信装置12は、USBケーブル等を用いて画像処理装置13に着脱可能であり、記憶部122に保存されているデータを画像処理装置13から読み取ることが可能である。
画像処理装置13は、病変(広義には注目領域)の位置である注目位置を取得する。この画像処理装置13は、第2検出部131、注目位置情報抽出部132、制御部133、I/F部134を含む。そして、第2検出部131は、注目位置情報抽出部132へ接続し、第2検出部131と注目位置情報抽出部132は、記憶装置14へ接続する。但し、記憶装置14は、画像処理装置13の図示しない装置インターフェース等に着脱可能である。制御部133は、第2検出部131、注目位置情報抽出部132へ接続し、I/F部134は、制御部133と双方向に接続する。
記憶装置14は、画像処理装置13からの画像や位置情報を記憶し、例えばフラッシュメモリや磁気ディスク、ネットワーク上のディスクなどのストレージにより実現される。この記憶装置14は、制御装置18の取得部186へ接続する。但し、記憶装置14は制御装置18に着脱可能である。
スコープ型内視鏡15(狭義にはスコープ部)は、例えば下部内視鏡(大腸内視鏡)であり、体腔に挿入して撮影や処置を行う。このスコープ型内視鏡15は、撮像部151、第2画像取得部152、発信機153、制御部154、I/F部155を含む。撮像部151は、例えば図示しないレンズ系と、撮像素子、A/D変換回路で構成される。第2画像取得部152は、図示しない同時化補間処理部等で構成される。発信機153は、例えばスコープ型内視鏡15のスコープの先端部に設けられる。そして、撮像部151は、第2画像取得部152へ接続し、第2画像取得部152は、制御部18の表示制御部183へ接続する。制御部154は、撮像部151と、第2画像取得部152、発信機153へ接続する。I/F部155は、制御部154と双方向に接続する。
受信機16は、図示しない音波受信部または電波受信部を有し、発信機153からの音波または電波を受信する。この受信機16は、受信装置17の第2位置情報取得部171へ接続する。
受信装置17は、音波または電波の受信によりスコープ型内視鏡15の体内位置を取得する。この受信装置17は、第2位置情報取得部171、制御部172、I/F部173を含む。そして、第2位置情報取得部171は、制御装置18の対応付け部182へ接続し、制御部172は、第2位置情報取得部171へ接続し、I/F部173は、制御部172と双方向に接続する。
制御装置18は、ナビゲーション情報の生成や、第2の内視鏡システム200の制御、画像の表示制御等を行う。この制御装置18は、マップ生成部181、対応付け部182、表示制御部183(提示部)、制御部184、I/F部185、取得部186を含む。そして、取得部186は、マップ生成部181へ接続し、マップ生成部181は、対応付け部182へ接続する。対応付け部182は、表示制御部183へ接続し、表示制御部183は、出力装置19へ接続する。制御部184は、マップ生成部181と、対応付け部182、表示制御部183へ接続する。I/F部185は、制御部184と双方向に接続する。
出力装置19は、内視鏡10、15の撮像画像や、ナビゲーション情報(例えば体内マップ、注目位置、警告表示)等を表示する。出力装置19は、例えば液晶表示装置等により構成される。
なお、上述の制御部105、123、133、154、172、184は、例えばマイクロコンピュータやCPUで構成される。I/F部124、134、155、173、185は、電源スイッチや、変数設定などを行うためのインターフェースを備える。
2.第1の内視鏡システムの処理例
次に、本実施形態の処理について説明する。本実施形態では、まずカプセル型内視鏡を用いて医師が検査・診断を行い、その検査・診断結果に基づいてスコープ型内視鏡(下部内視鏡)を用いて患部の処置を行う。
次に、本実施形態の処理について説明する。本実施形態では、まずカプセル型内視鏡を用いて医師が検査・診断を行い、その検査・診断結果に基づいてスコープ型内視鏡(下部内視鏡)を用いて患部の処置を行う。
まず、カプセル型内視鏡による検査・診断時の本実施形態の処理について説明する。図2に示すように、患者は複数の受信機11を腹部周辺に装着し、受信装置12を携帯または装着する。受信機11の装着後、患者はカプセル型内視鏡10を飲み込む。カプセル型内視鏡10は、その撮像部101で体内の画像を撮像し、第1画像取得部102が撮像画像の画像データ(動画データ)を取得する。
カプセル型内視鏡10は、体内画像として、例えば通常光画像と特殊光画像を撮影する。ここで、通常光画像は、白色光の波長帯域の照明を照射することで取得され、白色光の波長帯域は、例えば380nm〜650nmである。また、特殊光画像は、特定の波長帯域を照射することにより得られる。あるいは、白色光を照射して得られた反射光を、特定の波長帯域を透過するフィルタで処理することで得られる。この特定の波長帯域は、例えば390〜445nm及び530〜550nmの2帯域や、490〜625nmの1帯域である。特殊光画像は、波長帯域に応じて特定の病変を検出する性能に優れている。
取得された通常光画像や特殊光画像の中から、第1検出部103が、第1基準注目領域(注目候補領域。例えば病変部)が含まれる画像をリアルタイムに検出する。具体的には、この第1基準注目領域の検出では、第1の基準により、第2検出部131が行う検出処理よりも軽負荷の検出処理が行われる。例えば、第1検出部103は、通常光画像の色相が所定範囲内であることを第1の基準として出血部位を検出したり、特殊光画像の色相が所定範囲内であることを第1の基準として扁平上皮癌等の病変部を検出したりする。あるいは、第1検出部103は、既知の画像認識手法により第1基準注目領域を検出してもよい。例えば、既知の画像認識手法として、注目画素とその周辺画素との画素値変化量が所定閾値以上であることを第1の基準として第1基準注目領域を検出してもよい(特開2008−93172)。
第1検出部103により第1基準注目領域が検出されている間、撮像部101は、画像を撮像する間隔を短くして多くの画像を取得する。すなわち、第1検出部103により第1基準注目領域が検出された後の所定期間は、撮像部101の撮影レートを速くする。この制御は、例えばカプセル型内視鏡10の制御部105が行う。
カプセル型内視鏡10の発信機104は、取得された画像とインデックス情報を電波に乗せて発信する。第1基準注目領域フラグ(広義にはインデックス情報)は、第1検出部103により第1基準注目領域を含む画像であると判定されたことを示す情報である。また、発信機104は、電波の発信と同時に、カプセル型内視鏡10の位置を検出するための短期間のパルス状の音波を発信する。
この発信機104からの電波と音波は、受信機11により受信される。受信装置12の第1位置情報検出部121は、受信機11の各受信機に音波が到達した時間から、カプセル型内視鏡10の体内位置(第1の位置情報)を求める。具体的には、第1位置情報検出部121は、音波到達時間から発信機104と各受信機との距離を計算する。そして、計算した発信機104と各受信機の距離と、予めわかっている各受信機間の位置関係から、三角法等を用いて体内位置(座標)を求める。
発信機104は、第1検出部103により第1基準注目領域が検出された後の所定期間は、発信する音波強度をそれ以外のときよりも強くする。このようにすることで、受信機11で音波を受信しやすくなり、カプセル型内視鏡10の位置を高精度に捕捉できる。また、非検出時には音波強度を弱くすることで、カプセル型内視鏡10を省消費電力化できる。
上記のようにして取得したカプセル型内視鏡10の体内位置と、受信した画像と第1基準注目領域フラグが、受信装置12の記憶部122に記憶される。図3に、記憶部122に記憶される情報の例を示す。図3に示すように、カプセル型内視鏡10で撮像された白色光画像及び特殊光画像が記憶され、その画像に対応するカプセル型内視鏡10の2次元座標(x、y)と第1基準注目領域フラグが記憶される。画像にはインデックスが付され、その画像インデックスに対して座標とフラグが対応付けられている。この画像インデックスは、例えば動画として撮影された体内画像の中の何番目の画像(フレーム)であるかを示す番号であり、あるいは、静止画として撮影された体内画像のファイルを示す番号(ファイル名)である。第1基準注目領域フラグは、例えば第1基準注目領域を含む場合は“1”、含まない場合は“1”である。
カプセル型内視鏡10の体内通過が終了した後、上記情報が保存された記憶部122を画像処理装置13に接続する。画像処理装置13の取得部135は、記憶部122から画像や座標、フラグ(インデックス情報)を読み出す。
第2検出部131は、第2の基準を用いて、第1基準注目領域を含む画像の中から第2基準注目領域を検出する。この第2の基準による検出処理は、第1検出部103の検出処理よりも、病変部である可能性が更に高い画像を検出できる高精度な注目領域検出処理である。すなわち、第1検出部103は、病変である可能性がやや低い画像も検出し、広く多くの画像を第1基準注目領域として検出する。一方、第2検出部131は、それらの画像の中から更に病変を含む可能性が高い画像を絞りこみ、第2基準注目領域を検出する。
例えば、第1検出部103は、上述のように色相(色)だけを判定基準にして検出する軽負荷の処理を行う。例えば、所定の色相範囲に入る画素数をカウントし、その画素数が全画素数の所定割合以上であることを判定基準とする。一方、第2検出部131は、パターンマッチングを用いてポリープ等の形状に一致することを第2の検出基準として注目領域を検出する重負荷の処理を行う。あるいは、第2検出部131は、所定の色相範囲に入る画素を統合し、その統合した領域を注目領域とする。そして、その注目領域の面積等を信頼度として算出し、その信頼度が所定閾値以上であることを第2の検出基準として注目領域を検出する。
ここで、第2検出部131は、上記検出処理を通常光画像に対して行ってもよく、特殊光画像に対して行ってもよい。例えば、特殊光画像から信頼度等を用いて注目領域を検出し、第2基準注目領域を検出した場合に、検出画像として特殊光画像及び対応する通常光画像を出力する。あるいは、検出処理は特殊光画像に対して行い、対応する通常光画像だけを検出画像として出力してもよい。
注目位置情報抽出部132(注目位置情報取得部)は、注目領域の体内位置を示す注目位置情報を抽出する。具体的には、第2検出部131で検出した第2基準注目領域を含む画像が撮影された体内位置を注目位置情報として抽出する。例えば、図4に示すように、画像インデックス3、4の画像に第1基準注目領域フラグが立っている場合、第2検出部131は、これらの画像に対して検出処理を行う。そして、画像インデックス4の画像が第2基準注目領域を含む場合、第2検出部131が第2基準注目領域フラグ(広義にはインデックス情報)を“1”にする。注目位置情報抽出部132は、画像インデックス4に対応する注目位置フラグを“1”にし、この注目位置フラグ“1”を注目位置情報として出力する。なお、注目位置フラグを設けず、注目位置情報として座標(x、y)=(40、30)を直接出力してもよい。
以上のようにして取得した撮像画像、その位置情報、注目位置情報を、着脱可能な記憶装置14に保存する。例えば、図4に示すカプセル型内視鏡位置(x、y)と、画像インデックス、注目位置フラグを保存し、各画像インデックスに対応する通常光画像と特殊光画像を保存する。
医師は、上記の保存された情報をPC等で閲覧し、病変を含む画像の診断を行い、処置が必要か否かを判断する。処置が必要な場合、後述するスコープ型内視鏡システムによる処置を行う。
なお、画像処理装置13は、カプセル型内視鏡10の撮像画像の要約処理を行ってもよい。すなわち、カプセル型内視鏡10が体内に停留した場合、同じ範囲が撮像された画像が多数取得されるため、その同じ範囲が撮像された画像を省略して撮像画像の枚数を減らす処理を行ってもよい。
ここで、上記においては、第2検出部131が、第1基準注目領域を含む画像の中から検出を行うとして説明したが、本実施形態では、第2検出部131が、撮像画像全体から検出を行ってもよい。すなわち、第1検出部103と第2検出部131が、それぞれ撮像画像全体から検出を行い、注目位置情報抽出部132が、第1、第2基準注目領域の両方が検出された画像に対応する座標を注目位置情報としてもよい。
また、上記においては、音波により位置情報の取得を行なったが、本実施形態では、電波により位置情報を取得してもよい。
3.第2の内視鏡システムの処理例
次に、スコープ型内視鏡による処置時の本実施形態の処理について説明する。まず、第1の内視鏡システム100で取得された位置情報や画像等が保存された記憶装置14を、第2の内視鏡システム200の制御装置18に接続する。そして、制御装置18の取得部186が、記憶装置14から画像、画像の位置情報、注目位置情報を読み出す。
次に、スコープ型内視鏡による処置時の本実施形態の処理について説明する。まず、第1の内視鏡システム100で取得された位置情報や画像等が保存された記憶装置14を、第2の内視鏡システム200の制御装置18に接続する。そして、制御装置18の取得部186が、記憶装置14から画像、画像の位置情報、注目位置情報を読み出す。
マップ生成部181は、読み出された画像の位置情報から体内マップを生成する。図5に、体内マップの例を示す。この体内マップは、カプセル型内視鏡10が体腔内を移動した軌跡を表したマップであり、例えば図4等で上述のカプセル型内視鏡10の位置(x、y)を2次元マップ上に順次プロットしたものである。
また、マップ生成部181は、注目位置情報が示す位置を体内マップ上にマッピングする。すなわち、病変部等を含む画像が撮影された位置を体内マップ上にマッピングする。このとき、マップ生成部181は、第2基準注目領域の位置だけをマッピングしてもよく、第1、第2基準注目領域の双方をマッピングしてもよい。
患者は、受信機16と受信装置17を腹部周辺に装着する。例えば、図3で上述した受信機11、受信装置12と同様に装着する。装着後、医師は、患者の体腔内にスコープ型内視鏡15を挿入し、スコープ型内視鏡15の撮像部151が体内の画像を撮像し、第2画像取得部152が、画像(画像データ)を取得する。例えば、第2画像取得部152は、通常光画像(白色光画像)と特殊光画像を取得する。第2画像取得部152は、取得した画像を制御回路18の表示制御部183に対して出力する。
スコープ型内視鏡15の先端に配置された発信機153は、所定間隔でパルス音波を発信する。受信機16が、発信された音波を受信し、各受信機により音波が受信されるまでの時間を測定する。そして、受信装置17の第2位置情報取得部171が、受信機16で測定した音波受信までの時間からスコープ型内視鏡15の体内位置(第2の位置情報)を計算する。この体内位置の計算は、上述のカプセル型内視鏡10の場合と同様に三角法等を用いて行う。第2位置情報取得部171は、求めたスコープ型内視鏡15の体内位置情報を制御装置18の対応付け部182に対して出力する。
対応付け部182は、マップ生成部181により生成された体内マップ上に、第2位置情報取得部171で取得されたスコープ型内視鏡15の位置をマッピングする。例えば、スコープ型内視鏡15の現在位置は2次元座標(x’、y’)で表され、体内マップの2次元座標上に座標(x’、y’)をマッピングする。
そして、表示制御部183は、スコープ型内視鏡15の位置と注目領域の位置がマッピングされた体内マップと、スコープ型内視鏡15の撮像画像を出力装置19に出力する。例えば、図6のA1に示すように、画像表示領域にスコープ型内視鏡15の撮像画像を表示し、A2に示すように、マップ表示領域に体内マップを表示する。そして、A3に示すように、体内マップ上にスコープ型内視鏡15の位置を示すマークを表示する。また、A4に示すように、体内マップ上に病変等の注目領域の位置を示すマークを表示し、スコープ型内視鏡15を注目領域まで誘導するためのガイド表示とする。
また、表示制御部183は、医師によるスコープ型内視鏡の操作時のアシスト機能を提供する。例えば、アシスト機能として、アテンション表示やナビゲーション表示を行う。
まず、アテンション表示について説明する。アテンション表示は、病変等の注目領域の位置にスコープ型内視鏡15が接近したことを医師に知らせるための表示である。ここで、接近した場合とは、到達した場合または近づいた場合である。例えば、スコープ型内視鏡15の座標(x’、y’)が注目領域の座標と一致した場合や、注目領域の座標までの距離が所定距離以下である場合にアテンション表示を行う。
図7にアテンション表示の例を示す。図7のB1に示すように、スコープ型内視鏡15が注目位置に接近した場合に、B2に示すように、アテンション表示領域にエクスクラメーションマークを表示する。なお、他のアテンション表示の例として、矢印を表示したり、ビープ音などの音や音声を出力したりしてもよい。あるいは、B3に示す撮像画像表示を、通常光画像の表示から特殊光画像の表示に切り替えるアテンション表示を行ってもよい。
次に、ナビゲーション表示について説明する。ナビゲーション表示は、スコープ型内視鏡が今ある位置から一番近い病変検出位置の方向を医師に知らせるための表示である。
図8に、注目領域の方向を示す矢印を表示する第1のナビゲーション表示例を示す。図8のC1に示すように、スコープ型内視鏡15の挿入方向前方に注目領域がある場合、C2に示すように、画像上方に矢印を表示する。
図9(A)〜図9(C)に、注目領域までの距離に応じて画像を拡大する第2のナビゲーション表示例を示す。図9(A)に示すように、例えば注目領域までの距離が5cm以上の場合には撮像画像を拡大せず表示する。図9(B)に示すように、注目領域までの距離が3cm〜5cmの範囲内の場合には撮像画像を第1所定倍率で拡大表示する。そして、図9(C)に示すように、注目領域までの距離が3cm以下の場合には撮像画像を、第1所定倍率より高倍率の第2所定倍率で拡大表示する。このようにすれば、注目領域に近づいた場合に、医師が病変等をより観察しやすい画像を提供できる。
このようなアテンション表示やナビゲーション表示を医者に提示することで、医師がスムーズに病変に到達して処置できるため、医者の負荷低減、患者の負担軽減に寄与できる。
4.第2のシステム構成例
上述のシステム構成例では、音波を用いて内視鏡の位置情報を取得したが、本実施形態では、音波を用いずに画像から内視鏡の位置情報を取得してもよい。図10に、画像から内視鏡の位置情報を取得する第2のシステム構成例を示す。
上述のシステム構成例では、音波を用いて内視鏡の位置情報を取得したが、本実施形態では、音波を用いずに画像から内視鏡の位置情報を取得してもよい。図10に、画像から内視鏡の位置情報を取得する第2のシステム構成例を示す。
このシステム構成例は、第1の内視鏡システム100、第2の内視鏡システム200を含む。第1の内視鏡システム100は、カプセル型内視鏡20(第1の内視鏡装置)、受信機21、受信装置22、画像処理装置23、記憶装置24を含む。第2の内視鏡システム200は、スコープ型内視鏡15(第2の内視鏡装置)、制御装置26を含む。
カプセル型内視鏡20は、上述のシステム構成例とは異なり、位置測定のための音波を発信しない。このカプセル型内視鏡20は、撮像部201、第1画像取得部202、第1検出部203、発信機204、制御部205を含む。そして、撮像部201は、第1画像取得部202へ接続する。第1画像取得部202は、第1検出部203へ接続する。第1検出部203は、発信機204へ接続する。制御部205は、撮像部201と、第1画像取得部202、第1検出部203、発信機204へ接続する。
受信機21は、図示しない電波受信部を有し、発信機204からの電波を受信する。この受信機21は、受信装置22の記憶部221へ接続する。
受信装置22は、カプセル型内視鏡20からの撮影画像を受信する。この受信装置22は、記憶部221、制御部222、I/F部223を含む。そして、記憶部221は、画像処理装置23の取得部237へ接続する。制御部222は、記憶部221へ接続する。I/F部223は、制御部222と双方向に接続する。なお、受信装置12は、USBケーブル等を用いて画像処理装置13と着脱可能である。
画像処理装置23は、撮像画像を用いてカプセル型内視鏡20の体内位置(第1位置情報)を取得する。この画像処理装置23は、第1部位判別部231、第1位置情報取得部232、第2検出部233、注目位置情報抽出部234、制御部235、I/F部236、取得部237を含む。そして、取得部237は、第1部位判別部231と、第2検出部233へ接続する。第1部位判別部231は、第1位置情報取得部232へ接続する。第1位置情報取得部232は、注目位置情報抽出部234と記憶装置24へ接続する。第2検出部233は、注目位置情報抽出部234と記憶装置24へ接続する。注目位置情報抽出部234は、記憶装置24へ接続する。制御部235は、第1部位判別部231と、第1位置情報取得部232、第2検出部233、注目位置情報抽出部234へ接続する。I/F部236は、制御部235と双方向に接続する。なお、記憶装置24は、画像処理装置23に着脱可能である。
記憶装置24は、例えばフラッシュメモリや磁気ディスクにより実現される。この記憶装置24は、制御装置26の取得部268へ接続する。但し、記憶装置24は、制御装置26の図示しない装置インターフェース等に着脱可能である。
スコープ型内視鏡25は、上述のシステム構成例とは異なり、位置測定のための発信機を有さない。このスコープ型内視鏡25は、撮像部251、第2画像取得部252、制御部253、I/F部254を含む。そして、撮像部151は、第2画像取得部152へ接続し、第2画像取得部152は、制御部18の表示制御部183へ接続する。制御部154は、撮像部151と、第2画像取得部152、発信機153へ接続する。I/F部155は、制御部154と双方向に接続する。
制御装置26は、スコープ型内視鏡25の撮像画像を用いてスコープ型内視鏡25の体内位置(第2位置情報)を取得する。この制御装置26は、第2部位判別部261、第2位置情報取得部262、マップ生成部263、対応付け部264、表示制御部265、制御部266、I/F部267、取得部268を含む。そして、第2部位判別部261は、第2位置情報取得部262へ接続する。第2位置情報取得部262は、対応付け部264へ接続する。取得部268は、マップ生成部263と対応付け部264へ接続する。マップ生成部263は、対応付け部264へ接続する。対応付け部264は、表示制御部265へ接続する。表示制御部265は、出力装置27へ接続する。制御部266は、第2部位判別部261と、第2位置情報取得部262、マップ生成部263、対応付け部264、提示部265へ接続する。I/F部267は、制御部266と双方向に接続する。
5.第2のシステム構成例の第1の内視鏡システムの処理例
次に、上記第2のシステム構成例の処理について説明する。上述のように、第2のシステム構成例では、発信機や受信機を用いて位置情報を取得するのではなく、撮像した画像から位置情報を推定する。
次に、上記第2のシステム構成例の処理について説明する。上述のように、第2のシステム構成例では、発信機や受信機を用いて位置情報を取得するのではなく、撮像した画像から位置情報を推定する。
まず、カプセル型内視鏡20を用いた検査・診断時の処理について説明する。カプセル型内視鏡20を飲む前に、患者は、受信機21と受信装置22を装着又は携帯する。このとき、受信機21は、電波を受信するための受信機が少なくとも1つあればよい。また、音波で位置を特定する必要がないため、受信機を体に密着させなくてもよく、カプセル型内視鏡20からの電波を受信できる距離内に装着すればよい。
受信機21の装着後、患者は、カプセル型内視鏡20を飲み込み、カプセル型内視鏡20の撮像部201が、体内の画像を撮像する。撮像画像として、例えば第1のシステム構成例と同様に通常光画像と特殊光画像が取得される。そして、第1検出部203が、撮像画像の中から第1基準注目領域を含む画像をリアルタイムに検出する。この検出処理は、例えば第1のシステム構成例の第1検出部103と同様の検出処理で実現される。制御部205は、第1検出部103により第1基準注目領域が検出された後の所定期間は、撮像部101の撮影レートを速くする制御を行い、注目領域の撮像画像数を増加させる。
発信機204は、検出情報である第1基準注目領域フラグ(広義にはインデックス情報)と、カプセル型内視鏡20の撮像画像を電波により送信する。発信機204からの電波を受信機21が受信し、受信装置22の記憶部221が、受信した撮像画像と第1基準注目領域フラグを保存する。
カプセル型内視鏡20の体内通過が終了した後、上記情報が保存された記憶部221を画像処理装置23に接続する。画像処理装置23の取得部237は、記憶部221から画像やフラグを読み出す。
第1部位判別部231は、読み出された画像を要約する処理を行い、カプセル型内視鏡20が停留(停止)した位置で複数取得された画像の枚数を削減する。そして、第1部位判別部231は、何枚目から何枚目までの画像がどの器官(例えば、胃、十二指腸、盲腸等)の画像であるかを判定する。例えば、第1部位判別部231は、既知のシーン変化認識アルゴリズム(例えば特開2009−5020)によるシーン変化の検出や、テンプレートマッチングによる検出、輝度や色相等の特徴量の急激な変化の検出により、器官が変わったことを認識する。あるいは、カプセル型内視鏡20の撮像レート(単位時間当たり撮像枚数)を利用してカプセル型内視鏡20の通過速度を推定し、器官毎の通過速度の違いから器官が変わったことを認識してもよい。また、医師(ユーザ)が、画像を閲覧して器官を判別し、器官の始まりと終わりの画像を外部I/F部236から入力してもよい。
第1位置情報取得部232は、第1部位判別部231から得られた部位判別結果に基づいて、各画像がどの器官のどの割合に位置するか(例えば、回腸のはじめから20%の位置)を示す情報(第1位置情報)を取得する。例えば、カプセル型内視鏡20が小腸を通過する時間が小腸内で一定であると仮定すると、カプセル型内視鏡20の撮像レートが一定であることから、一定の距離間隔で画像が撮像される。これを利用して、第1位置情報取得部232は、小腸での全撮像枚数と各画像までの撮像枚数の比を求めることで、各画像が小腸内のどの割合に位置するかを求める。例えば、上述の図3において、カプセル型内視鏡20の位置は、器官を示すインデックス及びその器官での割合を示す数値により表される。
第2検出部233は、第2の基準を用いて、第1基準注目領域を含む画像の中から第2基準注目領域を検出する。この第2の基準による検出処理は、第1検出部203の検出処理よりも、病変部である可能性が更に高い画像を検出できる高精度な注目領域検出処理である。この検出処理は、例えば第1のシステム構成例の第2検出部131と同様の処理により実現できる。
注目位置情報抽出部234は、注目領域の体内位置を示す注目位置情報を抽出する。具体的には、注目位置情報抽出部234は、第2基準注目領域を含む画像の器官内での位置(割合)を注目位置情報として抽出する。
上記のようにして取得された撮像画像、カプセル型内視鏡20の位置情報、注目位置情報は、着脱可能な記憶装置24に保存される。医者は、これらの情報を閲覧して病変部等の診断を行い、処置が必要か否かを判断する。
6.第2のシステム構成例の第2の内視鏡システムの処理例
次に、スコープ型内視鏡による処置時の第2のシステム構成例の処理について説明する。まず、カプセル型内視鏡20の撮像画像や位置情報が保存された記憶装置24を制御装置26に接続する。制御装置26の取得部268は、記憶装置24から画像や位置情報を読み出す。
次に、スコープ型内視鏡による処置時の第2のシステム構成例の処理について説明する。まず、カプセル型内視鏡20の撮像画像や位置情報が保存された記憶装置24を制御装置26に接続する。制御装置26の取得部268は、記憶装置24から画像や位置情報を読み出す。
マップ生成部263は、記憶装置24からカプセル型内視鏡20の体内位置情報を読み出し、撮像画像を時系列に並べた1次元の体内マップを生成する。また、マップ生成部181は、生成した体内マップ上に、病変部等を示す注目位置情報をマッピングする。図11に、1次元の体内マップの例を示す。図11のD1に示すように、例えば各撮像画像の横幅(水平方向の画素数)を圧縮して縦線状にし、その縦線上の画像を撮像順に並べることで体内マップを生成する。D2に示すように、部位判別の結果を体内マップにマッピングし、D3に示すように、注目位置情報が示す位置を体内マップにマッピングする。
マップ生成後、医師が患者の体腔内にスコープ型内視鏡25を挿入し、スコープ型内視鏡25の撮像部251が体内の画像を撮像し、第2画像取得部252が通常光画像や特殊光画像を取得する。第2画像取得部252は、取得した画像を制御回路26の第2部位判別部261と表示制御部265に対して出力する。
第2部位判別部261は、スコープ型内視鏡25が挿入されている部位を撮像画像から判別する。例えば、上述の第1部位判別部231と同様に、シーン変化認識や、テンプレートマッチング、医師による画像選択等により器官を判別する。
第2位置情報取得部262は、第2部位判別部261による部位判別結果に基づいて、撮像画像がどの器官のどの割合又は距離に位置するかを示す情報(第2位置情報。例えば、結腸の後ろから30cm)を取得する。例えば、大腸内視鏡で診断処置を行う際は、まず下降結腸奥まで内視鏡を挿入し、抜きながら診断を行う。この場合には、器官の最初と最後の位置から器官の全長が分かるため、内視鏡を抜いた距離との比から内視鏡先端が器官どの割合にあるかを距離情報として取得する。一方、上記のように抜きながらでなく内視鏡を挿入しながら診察する場合には、器官の全長が分からないため、内視鏡を挿入した長さを距離情報として取得する。内視鏡の挿入長は、例えば内視鏡先端に加速度センサ等を設けることで測定できる。
対応付け部264は、第2位置情報取得部262で取得されたスコープ型内視鏡25の位置情報を、体内マップ上に対応付けする。例えば、位置情報が器官の全長に対する割合である場合には、その割合を、体内マップ上でその器官に対応する範囲内での割合とする。また、位置情報が挿入距離である場合には、一般的な器官の長さ(例えば、結腸の一般的な長さは120cm〜150cm)を全長とし、挿入距離の割合を算出して対応付けを行う。
表示制御部265は、スコープ型内視鏡25の位置情報や病変等の注目位置情報がマッピングされた体内マップと、スコープ型内視鏡25の撮像画像を出力装置27に表示する制御を行う。図12に、表示画像の例を示す。図12のE1に示すように、撮像画像表示領域に、スコープ型内視鏡25の撮像画像を表示する。E2に示すように、体内マップ表示領域に、1次元体内マップを表示する。そして、E3に示すように、体内マップ上に内視鏡の先端位置を表示し、E4に示すように、カプセル型内視鏡20によって病変等の注目領域が検出された位置を表示する。
以上のように、器官の位置や病変位置を示すガイド情報を医師に提示することで、医師がスムーズに病変部に到達し、病変部の処置を行うことができる。これにより、医者の負荷低減、患者の負担軽減に寄与できる。また、受信機などの装置を省略したことで、受信機装着等の準備が不要となり、処置準備を簡素化できる。
7.カプセル型内視鏡の詳細な構成例。
図13、図14に、上述の第1検出部を有するカプセル型内視鏡の詳細な構成例を示す。図13には、白色光と特殊光を照射することで白色光画像と特殊光画像を取得する第1の詳細な構成例を示す。図13に示すカプセル型内視鏡300は、光源310、集光レンズ320、照明レンズ330(照明光学系)、撮像素子340、結像レンズ350、集積回路装置390を含む。
図13、図14に、上述の第1検出部を有するカプセル型内視鏡の詳細な構成例を示す。図13には、白色光と特殊光を照射することで白色光画像と特殊光画像を取得する第1の詳細な構成例を示す。図13に示すカプセル型内視鏡300は、光源310、集光レンズ320、照明レンズ330(照明光学系)、撮像素子340、結像レンズ350、集積回路装置390を含む。
光源310は、白色光と特殊光を交互に照射する。特殊光は、例えば特定の波長帯域を透過するフィルタに白色光を透過させることで生成する。集光レンズ320は、光源310からの照射光を照明光学系330に集光させる。照明光学系330は、撮影領域に照明光を配光する。レンズ350は、撮影領域からの反射光を撮像素子340に結像させる。撮像素子340は、例えばCMOSセンサやCCD等のイメージセンサで構成され、被写体像を撮像する。集積回路装置390は、ASIC等で実現され、A/D変換部、画像処理部、第1検出部、音波発信部、電波発信部、制御部等を有する。
図14には、白色光画像を撮像する撮像素子と特殊光画像を撮像する撮像素子を有する第2の詳細な構成例を示す。図14に示すカプセル型内視鏡300は、光源310(白色光光源)、集光レンズ320、照明レンズ330(照明光学系)、第1の撮像素子340、結像レンズ350、第2の撮像素子360、特殊光フィルタ370、ハーフミラー380、集積回路装置390を含む。
光源310は、白色光を照射する。ハーフミラー380は、結像レンズ350からの光を第1、第2の撮像素子340、360に分配する。特殊光フィルタ370は、白色の反射光のうちの特定の波長帯域の光を透過させる。第1の撮像素子340は、特殊光画像を撮像する。第2の撮像素子360は、フィルタを透過しない白色光の被写体像が結像され、白色光画像を撮影する。
8.本実施形態の処理の概要
以上、内視鏡システムの全体構成について説明したが、上述のように画像処理装置には受信機や記憶装置が着脱可能であり、画像処理装置はその処理を単独で行うことが可能である。以下では、上記において具体的に説明した本実施形態のうち、画像処理装置の概要について説明する。なお、以下では原則として図1に示すシステム構成例に付した符号を用いて説明するが、第1検出部、第2検出部、対応付け部、表示制御部等の同一の構成要素については、図10に示す第2のシステム構成例においても同様である。
以上、内視鏡システムの全体構成について説明したが、上述のように画像処理装置には受信機や記憶装置が着脱可能であり、画像処理装置はその処理を単独で行うことが可能である。以下では、上記において具体的に説明した本実施形態のうち、画像処理装置の概要について説明する。なお、以下では原則として図1に示すシステム構成例に付した符号を用いて説明するが、第1検出部、第2検出部、対応付け部、表示制御部等の同一の構成要素については、図10に示す第2のシステム構成例においても同様である。
上述の図1等に示すように、本実施形態の画像処理装置13は、取得部135と、第2検出部131と、注目位置情報抽出部132と、を含む。取得部135は、第1の内視鏡装置10(カプセル型内視鏡)によって画像が撮像された際の第1の内視鏡装置の体内での位置を示す第1の位置情報(2次元座標(x、y))を取得する(記憶部122から読み出す)。第2検出部131は、第2の検出基準に適合した領域である第2基準注目領域を検出する。注目位置情報抽出部132は、第1の位置情報の中から注目位置情報を抽出する。
具体的には、第1の内視鏡装置10の第1検出部103によって、第1の検出基準(例えば所定色相範囲内の画素数が一定割合以上であること)を用いて、第1の内視鏡装置10により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域(病変部候補)を含む画像が検出される。そして、第2検出部131は、第1の検出基準とは異なる第2の検出基準(例えば病変パターンとのマッチングがとれること)を用いて、第1の内視鏡装置10により撮像された画像の中から、第2基準注目領域(注目すべき領域、病変部)を含む画像を検出する。注目位置情報抽出部132は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報(例えば図4に示す注目位置フラグ“1”に対応する座標(x、y))として抽出する。
このようにすれば、医師が第2の内視鏡装置で処置する際に、注目領域の位置情報を提供することが可能になる。すなわち、第1の位置情報により第1の内視鏡装置が体内を通過した軌跡を体内マップとして提供し、注目位置情報により病変の位置を体内マップ上の位置として提供できる。また、第1、第2の基準で注目領域を検出することで、2つの異なる基準での検出処理が可能になる。これにより、同じ種類の病変に対して2つの基準で判定を行ったり、異なる種類の病変に対してそれぞれ適切な基準で判定を行ったりすることができるため、病変の検出精度を向上できる。
また、本実施形態では、第2検出部131は、第1基準注目領域を含む画像の中から、第2基準注目領域を含む画像を検出する。
このようにすれば、第1検出部で病変候補を大まかに把握し、第2検出部で病変候補から病変部の絞り込みを行うことができる。これにより、IC等の実装面積が限られたカプセル型内視鏡では、低精度であるが軽負荷の処理で検出を行い、画像処理装置において重負荷で高精度の検出を行うことで、病変部の検出精度を向上できる。また、第2検出部で処理する画像の枚数を減らすことができるため、検出処理を高速化できる。
また、本実施形態では、第1の内視鏡装置10は、白色光の波長帯域の情報を含む通常光画像(広義には第1の画像)と、その通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像(広義には第2の画像)とを取得する(例えば、通常光画像と特殊光画像が交互に撮像され、連続して撮像された1組の通常光画像と特殊光画像が対応する画像として取得される)。第1の内視鏡装置10の第1検出部103は、第1の検出基準を特殊光画像に適用し、第1の検出基準に適合した特殊光画像に対応する通常光画像を、第1基準注目領域を含む画像として検出する(例えば、上述の図3において、画像インデックス3の特殊光画像が検出基準に適合した場合、画像インデックス3の白色光画像が検出画像として出力される)。そして、画像処理装置13の取得部135は、第1検出部103により検出された通常光画像が、第1基準注目領域を含む画像であることを示す検出情報(例えば図3の注目領域フラグ)を取得する。
このようにすれば、第1基準注目領域の検出処理は特殊光画像に対して行い、第1基準注目領域を含む画像として通常光画像を出力できる。これにより、通常光画像に対して検出処理を行うよりも、特定の病変部に対する検出精度を向上できる。また、一般に目視による検査・診断は通常光画像を基に行うため、検出情報が通常光画像と対応して取得されることで、医師が画像を閲覧する際に注目領域を含む通常光画像を知ることができる。
また、本実施形態では、画像処理装置13の第2検出部131は、第2の検出基準を特殊光画像に適用し、第2の検出基準に適合した特殊光画像に対応する通常光画像を、第2基準注目領域を含む画像として検出する。
このようにすれば、第2基準注目領域の検出処理は特殊光画像に対して行い、第2基準注目領域を含む画像として通常光画像を出力できる。これにより、上記と同様に、特定の病変部に対する検出精度を向上したり、医師が注目領域を含む通常光画像を知ることができる。
また、本実施形態では、第2基準注目領域は、病変を表す領域である。
例えば、病変を表す領域は、体腔内の粘膜から出血している箇所や、血管が他の領域よりも集中している箇所や、特定の検査用薬剤が集積する箇所である。また、病変としては、例えば炎症や、潰瘍、ポリープ、癌等が想定される。
また、本実施形態では、取得部135は、第1の内視鏡装置10に設けられた発信機104からの電波または音波が、第1の内視鏡装置10の外部の測位点(受信機11の装着位置)に設けられた受信機11で受信されることで取得された第1の位置情報(xy座標)を取得する。
このようにすれば、受信機により電波または音波を受信することで、カプセル型内視鏡の体内位置を測定し、画像処理装置13がその体内位置を取得できる。
より具体的には、本実施形態では、取得部135は、第1の内視鏡装置10に設けられた発信機11からの電波または音波が、第1の内視鏡装置10の外部の測位点に設けられた3つ以上の受信機(図3に示す複数の受信機11)で受信され、発信機104と各受信機11との距離が計算されることで取得された第1の位置情報(xy座標)を取得する。
このようにすれば、3つ以上の受信機により電波または音波を受信することで、三角法等を用いてカプセル型内視鏡の体内位置をより高精度に測定できる。
また、本実施形態では、第1の内視鏡装置10の第1検出部103は、第1の内視鏡装置10による一連(撮像開始から終了まで)の画像の撮像期間中に(撮像期間中リアルタイムに)第1基準注目領域の検出処理を行う。第1の内視鏡装置10の発信機104は、第1検出部104によって第1基準注目領域が検出された場合、第1基準注目領域が検出されている期間内(例えば検出後の所定期間内)において、電波または音波の強度を上昇させる。そして、取得部135は、強度が上昇された電波または音波が、受信機11で受信されることで取得された第1の位置情報(xy座標)を取得する。
このようにすれば、強度が上昇された電波または音波により取得された第1の位置情報を取得部が取得することで、第1基準注目領域付近でのカプセル型内視鏡の位置情報を高精度に捕捉できる。これにより、注目領域の位置をより正確に知ることが可能になる。
また、本実施形態では、第1の内視鏡装置10の第1検出部103は、第1の内視鏡装置10による一連の画像の撮像期間中(診断対象部位の撮像中)に第1基準注目領域の検出処理を行い、第2検出部131は、第1の内視鏡装置10による一連の画像の撮像期間が経過した後(診断対象部位の撮像終了後、またはカプセル型内視鏡の体外排出後)に、第2基準注目領域の検出処理を行う。
このようにすれば、第1基準注目領域をリアルタイムに検出できるため、医師による診断が容易になる。また、撮像終了後に第2基準注目領域を検出することで、処理負荷のより大きい検出処理が可能になるため、さらに信頼性の高い検出処理が可能になる。そして、第2検出部により検出処理の信頼性を担保できるため、処理能力の確保が困難なカプセル型内視鏡等を用いた場合であっても、簡素な検出処理を用いてリアルタイムの検出処理を行うことができる。
また、本実施形態では、第1の内視鏡装置10の第1検出部103は、第1の内視鏡装置10による一連の画像の撮像期間中(撮像中リアルタイムに)に第1基準注目領域の検出処理を行う。第1の内視鏡装置10(制御部105)は、第1検出部103によって第1基準注目領域が検出された場合、第1基準注目領域が検出されている期間内(例えば検出後の所定期間内)において、撮像部101による画像の撮像間隔を短縮する制御を行う。そして、画像処理装置13の取得部135は、その撮像間隔が短縮されて撮像された画像を取得する。
このようにすれば、注目領域が撮像された画像の取得枚数を増加できるため、注目領域をより詳細に観察したり、第2検出部による第2基準注目領域の検出精度を向上したりすることができる。また、各撮像画像の送信時に同時に音波が送信され、第1の内視鏡装置の体内位置が測定されるため、撮像間隔が短縮されることで、注目領域の位置測定精度を向上できる。
また、本実施形態では、第1の検出基準は、画像の色相が所定範囲内である場合に満たされる基準であり、第2の検出基準は、画像が所定の形状と一致する場合に満たされる基準である。
また、本実施形態では、第1の内視鏡装置10は、通常光画像と特殊光画像を取得し、第1の内視鏡装置10の第1検出部103は、特殊光画像に対して第1の検出基準を適用する。そして、第2検出部131は、白色光画像に対して第2の検出基準を適用する。
また、本実施形態では、第1の検出基準は、第1基準注目領域が注目すべき領域であるかの信頼度を判定する判定基準を含まず、第2の検出基準は、第2基準注目領域が注目すべき領域であるかの信頼度を判定する判定基準を含む。
これらの実施形態によれば、2つの異なる検出基準により注目領域を検出できるため、検出精度を向上できる。また、第1検出部による検出処理を軽負荷のリアルタイム処理にし、第2検出部による検出処理を信頼性の高い検出処理にできる。例えば、第1検出部が、簡素な処理で行うことができる色相判定を用いて特殊光画像から病変検出を行い、第2検出部が、形状に特徴があるポリープ等の病変を白色光画像から検出できる。あるいは、第2検出部が、病変領域の面積等から信頼度を判定することで、画像のノイズ等による誤検出を抑止し、検出処理の信頼性を向上できる。
また、図10等で上述のように、画像処理装置23は、第1部位判別部231と、第1位置情報取得部232と、第2検出部233と、注目位置情報抽出部234と、を含む。この第1部位判別部231は、第1の内視鏡装置20(カプセル型内視鏡)により撮像された画像の特徴量の変化(輝度変化、色相変化、シーン変化等)に基づいて、第1の内視鏡装置20が位置する部位(十二指腸、小腸、結腸等の器官)を判別する。第1位置情報取得部232は、第1部位判別部231によって判別された結果(部位、器官、またはそれらを示すインデックスやフラグ)を、第1の内視鏡装置20によって画像が撮像された際の第1の位置情報(1次元の位置、座標)として取得する。第1の内視鏡装置20の第1検出部203は、第1の検出基準を用いて、第1の内視鏡装置20により撮像された画像の中から、第1基準注目領域を含む画像を検出する。第2検出部233は、第2の検出基準を用いて、第1の内視鏡装置20により撮像された画像の中から、第2基準注目領域を含む画像を検出する。注目位置情報抽出部234は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報(部位、器官、1次元の位置、座標)を注目位置情報(病変位置、注目領域を含む画像が撮影された位置)として抽出する。
このようにすれば、音波または電波を用いずに画像から内視鏡位置を取得できるため、位置測定のための受信機等を不要にできる。これにより、受信機装着の手間やわずらわしさを軽減したり、受信機等のコストを削減したりできる。また、異なる2つの検出基準を用いることで、注目領域の検出精度の向上等が可能になる。
次に、上記画像処理装置を含む内視鏡システムの概要について説明する。
図1等で上述のように、第1の内視鏡システム100は、第1位置情報取得部121と、第1検出部103と、第2検出部131と、注目位置情報抽出部132と、を含む。そして、第1位置情報取得部121は、第1の内視鏡装置10によって画像が撮像された際の第1の内視鏡装置10の体内での位置を示す第1の位置情報を取得する。第1検出部103は、第1の検出基準を用いて、第1の内視鏡装置10によって撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を検出する。第2検出部131は、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10によって撮像された画像の中から、第2の検出基準に適合した領域である第2基準注目領域を検出する。注目位置情報抽出部132は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する。
図1等で上述のように、第1の内視鏡システム100は、第1位置情報取得部121と、第1検出部103と、第2検出部131と、注目位置情報抽出部132と、を含む。そして、第1位置情報取得部121は、第1の内視鏡装置10によって画像が撮像された際の第1の内視鏡装置10の体内での位置を示す第1の位置情報を取得する。第1検出部103は、第1の検出基準を用いて、第1の内視鏡装置10によって撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を検出する。第2検出部131は、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10によって撮像された画像の中から、第2の検出基準に適合した領域である第2基準注目領域を検出する。注目位置情報抽出部132は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する。
このようにすれば、上記画像処理装置13を含む内視鏡システムを実現できる。すなわち、第1の検出基準を用いて第1の内視鏡装置によってリアルタイムに注目領域を検出し、第2の検出基準を用いて、より確実性の高い注目領域の検出を行うことができる。
また、本実施形態では、第1の内視鏡装置10は、白色光の波長帯域(例えば380nm〜650nm)の情報を含む通常光画像と、その通常光画像に対応する(同タイミングで撮像された、または次のタイミングで撮像された)、特定の波長帯域の情報を含む特殊光画像とを取得する。
具体的には、特定の波長帯域は、白色光の波長帯域よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、通常光画像および特殊光画像は生体内を写した生体内画像であり、生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。このヘモグロビンに吸収される波長は、例えば390ナノメータ〜445ナノメータ(第1の狭帯域光。狭帯域光のB2成分)、または530ナノメータ〜550ナノメータ(第2の狭帯域光。狭帯域光のG2成分)である。
これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。
また、本実施形態では、生体内画像に含まれる特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であってもよい。例えば、特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であってもよい。
これにより、AFI(Auto Fluorescence Imaging)と呼ばれる蛍光観察が可能となる。励起光(390nm〜470nm)を照射することで、コラーゲンなどの蛍光物質からの自家蛍光(intrinsic fluorescence。490nm〜625nm)を観察することができる。このような観察では病変を正常粘膜とは異なった色調で強調表示することができ、病変部の見落としを抑止すること等が可能になる。なお490nm〜625nmという数字は、前述の励起光を照射した際、コラーゲン等の蛍光物質が発する自家蛍光の波長帯域を示したものである。ただし、この場合の波長帯域はこれに限定されず、例えば蛍光物質が発する蛍光の波長帯域に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。また、ヘモグロビンに吸収される波長帯域(540nm〜560nm)を同時に照射し、擬似カラー画像を生成してもよい。
また、本実施形態では、生体内画像に含まれる特定の波長帯域は、赤外光の波長帯域であってもよい。例えば、特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であってもよい。
これにより、IRI(Infra Red Imaging)と呼ばれる赤外光観察が可能となる。赤外光が吸収されやすい赤外指標薬剤であるICG(インドシアニングリーン)を静脈注射した上で、上記波長帯域の赤外光を照射することで、人間の目では視認が難しい粘膜深部の血管や血流情報を強調表示することができ、胃癌の深達度診断や治療方針の判定などが可能になる。なお、790nm〜820nmという数字は赤外指標薬剤の吸収がもっとも強いという特性から求められ、905nm〜970nmという数字は赤外指標薬剤の吸収がもっとも弱いという特性から求められたものである。ただし、この場合の波長帯域はこれに限定されず、例えば赤外指標薬剤の吸収に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。
また、本実施形態では、取得された白色光画像に基づいて、特殊光画像を生成する特殊光画像取得部を含んでもよい。例えば、図1に示す第1画像取得部102が白色光画像を取得し、第1画像取得部102が図示しない特殊光画像取得部を含み、その特殊光画像取得部が、取得された白色光画像から特殊光画像を生成してもよい。
具体的には、特殊光画像取得部は、取得された白色光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、特殊光画像取得部は、抽出された白色光の波長帯域における信号に基づいて、特定の波長帯域における信号を含む特殊光画像を生成してもよい。例えば、信号抽出部は、白色光画像のRGB信号から10nm刻みに被写体の分光反射率特性を推定し、特殊光画像取得部は、その推定された信号成分を上記特定の帯域で積算して特殊光画像を生成する。
より具体的には、特殊光画像取得部は、白色光の波長帯域における信号から、特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含み、特殊光画像取得部は、設定されたマトリクスデータを用いて、白色光の波長帯域における信号から特定の波長帯域における信号を算出して、特殊光画像を生成してもよい。例えば、マトリクスデータ設定部は、特定の波長帯域の照射光の分光特性が10nm刻みに記述されたテーブルデータをマトリクスデータとして設定する。そして、このテーブルデータに記述された分光特性(係数)を、推定された被写体の分光反射率特性に乗算して積算し、特殊光画像を生成する。
これにより、通常光画像に基づいて特殊光画像を生成することができるので、通常光を照射する1つの光源と、通常光を撮像する1つの撮像素子のみでもシステムを実現することが可能になる。そのため、カプセル型内視鏡や、スコープ型内視鏡の挿入部を小さくすることができ、また部品が少なくてすむためコストを下げる効果も期待できる。
次に、上記画像処理装置を含む内視鏡システム全体の概要について説明する。
図1等で上述のように、本実施形態の内視鏡システムは、第1位置情報取得部121と、第1検出部103と、第2検出部131と、注目位置情報抽出部132と、第2位置情報取得部171と、対応付け部182と、表示制御部183と、を含む。第1位置情報取得部121は、第1の位置情報(例えば2次元座標(x、y))を取得する。第1検出部103は、第1の検出基準を用いて第1基準注目領域を含む画像を検出する。第2検出部131は、第2の検出基準を用いて第2基準注目領域を含む画像を検出する。注目位置情報抽出部132は、注目位置情報を抽出する。そして、第2位置情報取得部171は、第2の内視鏡装置15の体内での位置を示す第2の位置情報(例えば2次元座標(x’、y’))を取得する。対応付け部182は、第1の位置情報と第2の位置情報を対応付ける(マッピングする)。表示制御部183は、対応付け部182による対応付けの結果に基づく情報(例えば図6のA2に示すガイド情報や、図7のB2に示すアラート情報)を表示部(出力装置19)に表示する制御を行う。
図1等で上述のように、本実施形態の内視鏡システムは、第1位置情報取得部121と、第1検出部103と、第2検出部131と、注目位置情報抽出部132と、第2位置情報取得部171と、対応付け部182と、表示制御部183と、を含む。第1位置情報取得部121は、第1の位置情報(例えば2次元座標(x、y))を取得する。第1検出部103は、第1の検出基準を用いて第1基準注目領域を含む画像を検出する。第2検出部131は、第2の検出基準を用いて第2基準注目領域を含む画像を検出する。注目位置情報抽出部132は、注目位置情報を抽出する。そして、第2位置情報取得部171は、第2の内視鏡装置15の体内での位置を示す第2の位置情報(例えば2次元座標(x’、y’))を取得する。対応付け部182は、第1の位置情報と第2の位置情報を対応付ける(マッピングする)。表示制御部183は、対応付け部182による対応付けの結果に基づく情報(例えば図6のA2に示すガイド情報や、図7のB2に示すアラート情報)を表示部(出力装置19)に表示する制御を行う。
このようにすれば、第1の内視鏡装置の体内位置を取得し、その体内位置と第2の内視鏡装置の体内位置を対応させることができる。これにより、医師が第2の内視鏡装置で処置する際に、第1の内視鏡装置により検出された病変位置に容易に到達して処置を行うことができる。
また、本実施形態では、第1の内視鏡装置10は、カプセル型内視鏡であり、第2の内視鏡装置15は、スコープ型内視鏡である。
このようにすれば、患者の負担の少ないカプセル型内視鏡を用いて検査・診断を行い、処置の必要があると判断された場合には、スコープ型内視鏡を用いて処置を行うことができる。これにより、スコープ型内視鏡のみを用いて検査と処置を行う場合と比べて、患者の負担を軽減できる。
また、本実施形態では、体内の空間(第1の内視鏡装置の通過軌跡、消化管の配置や構造、体腔の配置や構造)の全体または一部を表現した体内マップを生成するマップ生成部181を含む。対応付け部182は、生成された体内マップ上において、少なくとも注目位置情報と第2の位置情報とを体内マップに対応付ける。
例えば、図5等で上述のように、マップ生成部181は、第1の位置情報が示す体内での位置を2次元座標にプロットした2次元マップを生成する。あるいは、図11等で上述のように、マップ生成部263は、第1の位置情報が示す体内での位置順(撮像順)に、第1の内視鏡装置20により撮像された画像を並べることで1次元の体内マップを生成してもよい。
また、本実施形態では、表示制御部183は、少なくとも注目位置情報と第2の位置情報とが対応付けられた体内マップと、第2の内視鏡装置15により撮像された画像とを表示部(出力装置19)に表示する制御を行う。
このようにすれば、体内マップ上に第2の内視鏡装置の位置を表すことで、医者が処置時に患者のどの位置を観察しているかを容易に把握することができる。また、画像を並べることで1次元の体内マップを生成することで、音波等を用いることなく体内マップを生成できる。
また、本実施形態では、注目位置情報抽出部132は、複数の注目位置情報を抽出する。そして、表示制御部183は、その複数の注目位置情報が示す複数の位置のうち、体内マップ上の第2の位置情報が示す位置に対して距離的に最も近傍の(最も距離が近い)位置への方向を示す方向画像(例えば図8のC2に示す矢印)を、体内マップ上に表示する制御を行う。
このようにすれば、第2の内視鏡装置に最も近い注目領域との位置関係を医師に提示することで、医師が第2の内視鏡装置を速やかに注目領域の位置まで到達させるためのナビゲーション表示を実現できる。
また、本実施形態では、表示制御部183は、第2の位置情報の示す位置が、注目位置情報の示す位置に接近した場合(例えば、注目位置と第2の位置が一致した場合や、注目位置と第2の位置が所定距離内になった場合)、その接近したことを示す情報を表示部(出力装置19)に表示する制御を行う。例えば、表示制御部183は、接近したことを示す情報として、ユーザに注意を促す情報(例えば、警告音や、図7のB2に示す警告マークや、図9(A)〜図9(C)に示す拡大表示)を表示部に表示する制御を行う。
このようにすれば、第2の内視鏡装置が注目領域の位置に接近したときに、医師に対してその旨を知らせることで、医師が注目領域を見逃してしまうことを抑止できる。
また、本実施形態の内視鏡システムは、第2の内視鏡装置15の撮像により通常光画像と特殊光画像とを取得する第2画像取得部152を含む。そして、表示制御部183は、第2の位置情報の示す位置が、注目位置情報の示す位置に接近した場合、少なくとも特殊光画像を表示部(出力装置19)に表示する制御を行う。
このようにすれば、第2の内視鏡装置が注目領域の位置に接近したときに、特定の病変の診断性能(視認性)に優れた特殊光画像を医師に対して提示できるため、医者による診断の精度向上を図ることができる。
また、本実施形態では、第2位置情報取得部171は、第2の内視鏡装置15に設けられた発信機153からの電波または音波を、第2の内視鏡装置15の外部の測位点に設けられた受信機16で受信することで、第2の位置情報を取得する。より具体的には、第2位置情報取得部171は、電波または音波を3つ以上の受信機16で受信し、発信機11と各受信機16との距離を計算することで、第2の位置情報を取得する。
このようにすれば、受信機16により電波または音波を受信することで、第2の内視鏡装置の体内位置を測定できる。また、3つ以上の受信機により電波または音波を受信することで、三角法等を用いて体内位置をより高精度に測定できる。
また、本実施形態の内視鏡システムは、発信機153から送信される電波または音波の強度を制御する制御部154を含む。そして、第2位置情報取得部171は、第2の内視鏡装置15の移動に伴って、体内での位置を示す第2の位置情報を順次取得する。制御部154は、順次取得された第2の位置情報の示す位置が、注目位置情報の示す位置に接近した場合に、電波または音波の強度を上昇させる制御を行う。
このようにすれば、注目領域に接近した場合に電波または音波の強度を上昇させることで、第2の内視鏡装置の位置情報を高精度に捕捉できる。これにより、医師が第2の内視鏡装置をより容易に病変に到達させることができる。
また、図10等で説明したように、本実施形態の内視鏡システムは、第2の内視鏡装置15により撮像された画像の特徴量の変化(輝度変化、色相変化、シーン変化等)に基づいて、第2の内視鏡装置15が位置する部位(胃や小腸、大腸等の器官)を判別する第2部位判別部261を含んでもよい。そして、第2位置情報取得部262は、第2部位判別部261により判別された結果を第2の位置情報として取得してもよい。
また、本実施形態では、第2位置情報取得部262は、第2部位判別部261により判別された部位と、第2の内視鏡装置15の体内に挿入された長さに基づいて、第2の位置情報を取得してもよい。
このようにすれば、音波または電波を用いずに画像から第2の内視鏡装置の位置情報を取得できるため、位置測定のための受信機等を不要にできる。これにより、受信機装着の手間やわずらわしさを軽減したり、受信機等のコストを削減したりできる。
9.ソフトウェア
上記の本実施形態では、画像処理装置13(または画像処理装置23)を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、カプセル型内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
上記の本実施形態では、画像処理装置13(または画像処理装置23)を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、カプセル型内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
画像処理装置13の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを画像処理装置として用いることができる。そして、画像処理装置13の各部が行う処理を実現するためのプログラム(画像処理プログラム)を予め用意し、この画像処理プログラムをコンピュータシステムのCPUが実行することによって実現できる。
図15は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図15は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図15に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。
また、このコンピュータシステム600における本体部610は、図16に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。
さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。
そして、このコンピュータシステム600は、所定の記録媒体に記録された画像処理プログラム(例えば図17のS6〜S9)を参照して、後述する処理手順を実現するための画像処理プログラムを読み出して実行することで画像処理装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体を含む。
すなわち、画像処理プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。
各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して、画像処理装置13の処理をソフトウェアで実現する場合の処理手順を、図17、図18のフローチャートを用いて説明する。あらかじめ取得された画像は、例えば、第1画像取得部102が出力するベイヤ配列の出力画像を、RAWファイルとして記録媒体に記録した画像である。
図17、図18には、内視鏡システム全体の処理手順を示す。画像処理装置13は、例えばこの処理手順のうちのS6〜S9を実行する。
図17には、カプセル型内視鏡を含む第1の内視鏡システム100の処理手順を示す。図17に示すように、この処理が開始されると、撮像部101が画像を撮像し(S1)、第1検出部103が第1基準注目領域を検出し(S2)、第1位置情報取得部121が音波の受信により第1位置情報を取得し(S3)、記憶部122が画像や検出情報、第1位置情報を記憶する(S4)。カプセル型内視鏡による撮像が終了していない場合(S5 No)には、再び撮像を行う(S1)。カプセル型内視鏡による撮像が終了した場合(S5 Yes)には、画像処理装置13の取得部135が、画像や検出情報、第1位置情報を取得する(S6)。第2検出部131が第2基準注目領域を検出し(S7)、注目位置情報抽出部132が注目位置情報を抽出し(S8)、記憶装置14に画像や第1位置情報、注目位置情報を記憶させる(S9)。
図18には、スコープ型内視鏡を含む第2の内視鏡システム200の処理手順を示す。図18に示すように、この処理が開始されると、取得部186がカプセル型内視鏡の撮像画像や第1位置情報、注目位置情報を記憶装置14から取得し(S21)、マップ生成部181が体内マップを生成する(S22)。そして、スコープ型内視鏡が画像を撮像し(S23)、第2位置取得部171が第2位置情報を取得し、対応付け部182が体内マップと第2位置情報を対応付け(S25)、表示制御部183が画像と体内マップを出力装置19に表示する(S26)。スコープ型内視鏡による処置が終了していない場合には、再び撮像を行い(S23)、スコープ型内視鏡による処置が終了した場合には、処理を終了する(S27 Yes)。
以上の実施形態では、第1の内視鏡装置10によって画像が撮像された際の第1の内視鏡装置10の体内での位置を示す第1の位置情報を取得する取得部135と、第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部131と、第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部132として、コンピュータを機能させる。そして、第1の内視鏡装置10の第1検出部103は、第1の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する。第2検出部131は、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、第2基準注目領域を含む画像を検出する。注目位置情報抽出部132は、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する。
これにより、例えばカプセル型内視鏡等により、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピュータシステムでソフトウェア的に処理を行うことが可能になる。
また本実施形態は、本実施形態の各部(取得部、第2検出部、注目位置情報抽出部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。
ここで、プログラムコードとは、第1の内視鏡装置10の第1検出部103が、第1の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する場合に、第1の内視鏡装置10によって画像が撮像された際の第1の内視鏡装置10の体内での位置を示す第1の位置情報を取得する取得部135と、第1の検出基準とは異なる第2の検出基準を用いて、第1の内視鏡装置10により撮像された画像の中から、第2の検出基準に適合した領域である第2基準注目領域を含む画像を検出する第2検出部131と、第1基準注目領域及び第2基準注目領域を含む画像に対応する第1の位置情報を注目位置情報として抽出する注目位置情報抽出部132と、を実現する。
またコンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1の画像、第2の画像等)と共に記載された用語(通常光画像、特殊光画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
10,20 カプセル型内視鏡、11,21 受信機、12,22 受信装置、
13,23 画像処理装置、14,24 記憶装置、15,25 スコープ型内視鏡、
16 受信機、17 受信装置、18,26 制御装置、19,27 出力装置、
100 第1の内視鏡システム、101,201 撮像部、
102,202 第1画像取得部、103,203 第1検出部、
104,204 発信機、105,205 制御部、
121,232 第1位置情報取得部、122,221 記憶部、
123,222 制御部、124,223 I/F部、
131,233 第2検出部、132,234 注目位置情報抽出部、
133,235 制御部、134,236 I/F部、135,237 取得部、
151,251 撮像部、152,252 第2画像取得部、
153 発信機、154,253 制御部、155,254 I/F部、
171,262 第2位置情報取得部、172 制御部、173 I/F部、
181,263 マップ生成部、182,264 対応付け部、
183,265 表示制御部、184,266 制御部、
185,267 I/F部、186,268 取得部、
231 第1部位判別部、261 第2部位判別部、
300 カプセル型内視鏡、310 光源、320 集光レンズ、330 照明レンズ、
340,360 撮像素子、350 結像レンズ、370 特殊光フィルタ、
380 ハーフミラー、390 集積回路装置、600 コンピュータシステム、
610 本体部、611 CPU、612 RAM、613 ROM、614 HDD、
615 CD−ROMドライブ、616 USBポート、
617 I/Oインターフェース、618 LANインターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、660 CD−ROM、670 USBメモリ、681 PC、
682 サーバ、683 プリンタ
13,23 画像処理装置、14,24 記憶装置、15,25 スコープ型内視鏡、
16 受信機、17 受信装置、18,26 制御装置、19,27 出力装置、
100 第1の内視鏡システム、101,201 撮像部、
102,202 第1画像取得部、103,203 第1検出部、
104,204 発信機、105,205 制御部、
121,232 第1位置情報取得部、122,221 記憶部、
123,222 制御部、124,223 I/F部、
131,233 第2検出部、132,234 注目位置情報抽出部、
133,235 制御部、134,236 I/F部、135,237 取得部、
151,251 撮像部、152,252 第2画像取得部、
153 発信機、154,253 制御部、155,254 I/F部、
171,262 第2位置情報取得部、172 制御部、173 I/F部、
181,263 マップ生成部、182,264 対応付け部、
183,265 表示制御部、184,266 制御部、
185,267 I/F部、186,268 取得部、
231 第1部位判別部、261 第2部位判別部、
300 カプセル型内視鏡、310 光源、320 集光レンズ、330 照明レンズ、
340,360 撮像素子、350 結像レンズ、370 特殊光フィルタ、
380 ハーフミラー、390 集積回路装置、600 コンピュータシステム、
610 本体部、611 CPU、612 RAM、613 ROM、614 HDD、
615 CD−ROMドライブ、616 USBポート、
617 I/Oインターフェース、618 LANインターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、660 CD−ROM、670 USBメモリ、681 PC、
682 サーバ、683 プリンタ
Claims (44)
- 第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する取得部と、
第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、
前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部と、
を含み、
前記第1の内視鏡装置の第1検出部は、
第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、
前記第2検出部は、
前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、
前記注目位置情報抽出部は、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を、前記注目位置情報として抽出することを特徴とする画像処理装置。 - 請求項1において、
前記第2検出部は、
前記第1基準注目領域を含む画像の中から、前記第2基準注目領域を含む画像を検出することを特徴とする画像処理装置。 - 請求項1において、
前記第1の内視鏡装置は、
白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得し、
前記第1の内視鏡装置の前記第1検出部は、
前記第1の検出基準を前記特殊光画像に適用し、前記第1の検出基準に適合した前記特殊光画像に対応する前記通常光画像を、前記第1基準注目領域を含む画像として検出し、
前記取得部は、
前記第1検出部により検出された前記通常光画像が前記第1基準注目領域を含む画像であることを示す検出情報を取得することを特徴とする画像処理装置。 - 請求項1において、
前記第1の内視鏡装置は、
白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得し、
前記第2検出部は、
前記第2の検出基準を前記特殊光画像に適用し、前記第2の検出基準に適合した前記特殊光画像に対応する前記通常光画像を、前記第2基準注目領域を含む画像として検出することを特徴とする画像処理装置。 - 請求項1において、
前記第2基準注目領域は、病変を表す領域であることを特徴とする画像処理装置。 - 請求項1において、
前記取得部は、
前記第1の内視鏡装置に設けられた発信機からの電波または音波が、前記第1の内視鏡装置の外部の測位点に設けられた受信機で受信されることで取得された前記第1の位置情報を取得することを特徴とする画像処理装置。 - 請求項6において、
前記取得部は、
前記第1の内視鏡装置に設けられた発信機からの電波または音波が、前記第1の内視鏡装置の外部の測位点に設けられた3つ以上の受信機で受信され、前記発信機と各受信機との距離が計算されることで取得された前記第1の位置情報を取得することを特徴とする画像処理装置。 - 請求項6において、
前記第1の内視鏡装置の前記第1検出部は、
前記第1の内視鏡装置による一連の画像の撮像期間中に前記第1基準注目領域の検出処理を行い、
前記第1の内視鏡装置の前記発信機は、
前記第1検出部によって前記第1基準注目領域が検出された場合、前記第1基準注目領域が検出されている期間内において、前記電波または前記音波の強度を上昇させ、
前記取得部は、
強度が上昇された前記電波または前記音波が、前記受信機で受信されることで取得された前記第1の位置情報を取得することを特徴とする画像処理装置。 - 請求項1において、
前記第1の内視鏡装置の前記第1検出部は、
前記第1の内視鏡装置による一連の画像の撮像期間中に前記第1基準注目領域の検出処理を行い、
前記第2検出部は、
前記第1の内視鏡装置による一連の画像の撮像期間が経過した後に、前記第2基準注目領域の検出処理を行うことを特徴とする画像処理装置。 - 請求項1において、
前記第1の内視鏡装置の前記第1検出部は、
前記第1の内視鏡装置による一連の画像の撮像期間中に前記第1基準注目領域の検出処理を行い、
前記第1の内視鏡装置は、
前記第1検出部によって前記第1基準注目領域が検出された場合、前記第1基準注目領域が検出されている期間内において、画像の撮像間隔を短縮する制御を行い、
前記取得部は、
前記撮像間隔が短縮されて撮像された画像を取得することを特徴とする画像処理装置。 - 請求項1において、
前記第1の検出基準は、画像の色相が所定範囲内である場合に満たされる基準であり、前記第2の検出基準は、画像が所定の形状と一致する場合に満たされる基準であることを特徴とする画像処理装置。 - 請求項1において、
前記第1の内視鏡装置は、
白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得し、
前記第1の内視鏡装置の前記第1検出部は、
前記特殊光画像に対して前記第1の検出基準を適用し、
前記第2検出部は、
前記白色光画像に対して前記第2の検出基準を適用することを特徴とする画像処理装置。 - 請求項1において、
前記第1の検出基準は、前記第1基準注目領域が注目すべき領域であるかの信頼度を判定する判定基準を含まず、
前記第2の検出基準は、前記第2基準注目領域が注目すべき領域であるかの信頼度を判定する判定基準を含むことを特徴とする画像処理装置。 - 第1の内視鏡装置が位置する部位を判別する第1部位判別部と、
前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、
第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、
前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部と、
を含み、
前記第1部位判別部は、
前記第1の内視鏡装置により撮像された画像の特徴量の変化に基づいて、前記第1の内視鏡装置が位置する部位を判別し、
前記第1位置情報取得部は、
前記第1部位判別部によって判別された結果を、前記第1の内視鏡装置によって画像が撮像された際の前記第1の位置情報として取得し、
前記第1の内視鏡装置の第1検出部は、
第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、
前記第2検出部は、
前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、
前記注目位置情報抽出部は、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出することを特徴とする画像処理装置。 - 第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、
第1の検出基準を用いて、前記第1の内視鏡装置によって撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を検出する第1検出部と、
前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置によって撮像された画像の中から、前記第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を注目位置情報として抽出する注目位置情報抽出部と、
を含むことを特徴とする内視鏡システム。 - 請求項15において、
前記第1の内視鏡装置は、
白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得し、
前記第1検出部は、
前記第1の検出基準を前記特殊光画像に適用し、前記第1の検出基準に適合した前記特殊光画像に対応する前記通常光画像を、前記第1基準注目領域を含む画像として検出することを特徴とする内視鏡システム。 - 請求項15において、
前記第1の内視鏡装置に設けられた発信機から送信される前記電波または前記音波の強度を制御する制御部を含み、
前記第1位置情報取得部は、
前記発信機からの電波または音波が、前記第1の内視鏡装置の外部の測位点に設けられた受信機で受信されることで前記第1の位置情報を取得し、
前記第1検出部は、
前記第1の内視鏡装置による一連の画像の撮像期間中に前記第1基準注目領域の検出処理を行い、
前記制御部は、
前記第1検出部によって前記第1基準注目領域が検出された場合、前記第1基準注目領域が検出されている期間内において、前記電波または前記音波の強度を上昇させる制御を行うことを特徴とする内視鏡システム。 - 請求項15において、
前記第1の内視鏡装置は、
白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得することを特徴とする内視鏡システム。 - 請求項18において、
前記特定の波長帯域は、
前記白色光の波長帯域よりも狭い帯域であることを特徴とする内視鏡システム。 - 請求項19において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする内視鏡システム。 - 請求項20において、
前記特定の波長帯域は、390ナノメータ〜445ナノメータ、または530ナノメータ〜550ナノメータであることを特徴とする内視鏡システム。 - 請求項18において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であることを特徴とする内視鏡システム。 - 請求項22において、
前記特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であることを特徴とする内視鏡システム。 - 請求項18において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、赤外光の波長帯域であることを特徴とする内視鏡システム。 - 請求項24において、
前記特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であることを特徴とする内視鏡システム。 - 請求項18において、
取得された前記白色光画像に基づいて、前記特殊光画像を生成する特殊光画像取得部を含むことを特徴とする内視鏡システム。 - 請求項26において、
前記特殊光画像取得部は、
取得された前記白色光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、
前記特殊光画像取得部は、
抽出された前記白色光の波長帯域における信号に基づいて、前記特定の波長帯域における信号を含む前記特殊光画像を生成することを特徴とする内視鏡システム。 - 請求項27において、
前記特殊光画像取得部は、
前記白色光の波長帯域における信号から、前記特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含み、
前記特殊光画像取得部は、
設定された前記マトリクスデータを用いて、前記白色光の波長帯域における信号から前記特定の波長帯域における信号を算出して、前記特殊光画像を生成することを特徴とする内視鏡システム。 - 第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する第1位置情報取得部と、
第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する第1検出部と、
前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2の検出基準に適合した領域である第2基準注目領域を含む画像を検出する第2検出部と、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を注目位置情報として抽出する注目位置情報抽出部と、
第2の内視鏡装置の体内での位置を示す第2の位置情報を取得する第2位置情報取得部と、
前記第1位置情報取得部により取得された前記第1の位置情報と、前記第2位置情報取得部により取得された前記第2の位置情報とを対応付ける対応付け部と、
前記対応付け部による対応付けの結果に基づく情報を表示部に表示する制御を行う表示制御部と、
を含むことを特徴とする内視鏡システム。 - 請求項29において、
前記第1の内視鏡装置は、カプセル型内視鏡であり、前記第2の内視鏡装置は、スコープ型内視鏡であることを特徴とする内視鏡システム。 - 請求項29において、
体内の空間の全体または一部を表現した体内マップを生成するマップ生成部を含み、
前記対応付け部は、
前記生成された体内マップ上において、少なくとも前記注目位置情報と前記第2の位置情報とを対応付けることを特徴とする内視鏡システム。 - 請求項31において、
前記表示制御部は、
少なくとも前記注目位置情報と前記第2の位置情報とが対応付けられた前記体内マップと、前記第2の内視鏡装置により撮像された画像とを前記表示部に表示する制御を行うことを特徴とする内視鏡システム。 - 請求項31において、
前記マップ生成部は、
前記第1の位置情報が示す体内での位置順に、前記第1の内視鏡装置により撮像された画像を並べることで前記体内マップを生成することを特徴とする内視鏡システム。 - 請求項31において、
前記注目位置情報抽出部は、
複数の注目位置情報を抽出し、
前記表示制御部は、
前記複数の注目位置情報が示す複数の位置のうち、前記体内マップ上の前記第2の位置情報が示す位置に対して距離的に最も近傍の位置への方向を示す方向画像を、前記体内マップ上に表示する制御を行うことを特徴とする内視鏡システム。 - 請求項29において、
前記表示制御部は、
前記第2の位置情報の示す位置が、前記注目位置情報の示す位置に接近した場合、その接近したことを示す情報を前記表示部に表示する制御を行うことを特徴とする内視鏡システム。 - 請求項35において、
前記表示制御部は、
前記接近したことを示す情報として、ユーザに注意を促す情報を前記表示部に表示する制御を行うことを特徴とする内視鏡システム。 - 請求項35において、
前記第2の内視鏡装置の撮像により、白色光の波長帯域の情報を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域の情報を含む特殊光画像とを取得する第2画像取得部を含み、
前記表示制御部は、
前記第2の位置情報の示す位置が、前記注目位置情報の示す位置に接近した場合、少なくとも前記特殊光画像を前記表示部に表示する制御を行うことを特徴とする内視鏡システム。 - 請求項29において、
前記第2位置情報取得部は、
前記第2の内視鏡装置に設けられた発信機からの電波または音波を、前記第2の内視鏡装置の外部の測位点に設けられた受信機で受信することで、前記第2の位置情報を取得することを特徴とする内視鏡システム。 - 請求項38において、
前記第2位置情報取得部は、
前記第2の内視鏡装置に設けられた前記発信機からの電波または音波を、前記第2の内視鏡装置の外部の測位点に設けられた3つ以上の受信機で受信し、前記発信機と各受信機との距離を計算することで、前記第2の位置情報を取得することを特徴とする内視鏡システム。 - 請求項38において、
前記発信機から送信される前記電波または前記音波の強度を制御する制御部を含み、
前記第2位置情報取得部は、
前記第2の内視鏡装置の移動に伴って、体内での位置を示す第2の位置情報を順次取得し、
前記制御部は、
順次取得された前記第2の位置情報の示す位置が、前記注目位置情報の示す位置に接近した場合に、前記電波または音波の強度を上昇させる制御を行うことを特徴とする内視鏡システム。 - 請求項29において、
前記第2の内視鏡装置により撮像された画像の特徴量の変化に基づいて、前記第2の内視鏡装置が位置する部位を判別する第2部位判別部を含み、
前記第2位置情報取得部は、
前記第2部位判別部により判別された結果を前記第2の位置情報として取得することを特徴とする内視鏡システム。 - 請求項41において、
前記第2位置情報取得部は、
前記第2部位判別部により判別された部位と、前記第2の内視鏡装置の体内に挿入された長さに基づいて、前記第2の位置情報を取得することを特徴とする内視鏡システム。 - 第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得する取得部と、
第2の検出基準に適合した領域である第2基準注目領域を検出する第2検出部と、
前記第1の位置情報の中から注目位置情報を抽出する注目位置情報抽出部として、
コンピュータを機能させ、
前記第1の内視鏡装置の第1検出部は、
第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出し、
前記第2検出部は、
前記第1の検出基準とは異なる前記第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2基準注目領域を含む画像を検出し、
前記注目位置情報抽出部は、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出することを特徴とするプログラム。 - 第1の内視鏡装置の第1検出部が、第1の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、注目すべき領域の候補である第1基準注目領域を含む画像を検出する場合に、
第1の内視鏡装置によって画像が撮像された際の前記第1の内視鏡装置の体内での位置を示す第1の位置情報を取得し、
前記第1の検出基準とは異なる第2の検出基準を用いて、前記第1の内視鏡装置により撮像された画像の中から、前記第2の検出基準に適合した領域である前記第2基準注目領域を含む画像を検出し、
前記第1基準注目領域及び前記第2基準注目領域を含む画像に対応する前記第1の位置情報を前記注目位置情報として抽出することを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010021095A JP2011156203A (ja) | 2010-02-02 | 2010-02-02 | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010021095A JP2011156203A (ja) | 2010-02-02 | 2010-02-02 | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011156203A true JP2011156203A (ja) | 2011-08-18 |
Family
ID=44588725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010021095A Withdrawn JP2011156203A (ja) | 2010-02-02 | 2010-02-02 | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011156203A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015043899A (ja) * | 2013-08-28 | 2015-03-12 | 株式会社ミュー | 医療装置 |
JP2016524487A (ja) * | 2013-05-09 | 2016-08-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 解剖学的特徴からの内視鏡のロボット制御 |
WO2017158901A1 (ja) * | 2016-03-18 | 2017-09-21 | オリンパス株式会社 | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム |
WO2018020558A1 (ja) * | 2016-07-25 | 2018-02-01 | オリンパス株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2018158817A1 (ja) * | 2017-02-28 | 2018-09-07 | 日本電気株式会社 | 画像診断装置、画像診断方法、及びプログラム |
WO2018179986A1 (ja) * | 2017-03-30 | 2018-10-04 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
WO2019092940A1 (ja) * | 2017-11-13 | 2019-05-16 | オリンパス株式会社 | 内視鏡画像観察支援システム |
WO2020162275A1 (ja) * | 2019-02-08 | 2020-08-13 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 |
JPWO2019039259A1 (ja) * | 2017-08-25 | 2020-10-29 | 富士フイルム株式会社 | 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 |
CN112367898A (zh) * | 2018-07-10 | 2021-02-12 | 奥林巴斯株式会社 | 内窥镜装置和内窥镜装置的工作方法 |
JP2021037356A (ja) * | 2020-12-01 | 2021-03-11 | Hoya株式会社 | 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法 |
CN112584742A (zh) * | 2018-08-20 | 2021-03-30 | 富士胶片株式会社 | 医疗图像处理系统 |
JPWO2020121380A1 (ja) * | 2018-12-10 | 2021-10-28 | オリンパス株式会社 | 画像処理装置、消化管の形状モデルの生成方法、及び画像処理装置の作動プログラム |
CN114145693A (zh) * | 2017-06-02 | 2022-03-08 | 富士胶片株式会社 | 医疗图像处理装置 |
JP2023115352A (ja) * | 2019-02-19 | 2023-08-18 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理システム、医療画像処理装置の作動方法及び医療画像処理プログラム |
CN116831506A (zh) * | 2023-01-05 | 2023-10-03 | 山东显微智能科技有限公司 | 一种内窥镜摄像主机及内窥镜系统 |
US11944262B2 (en) | 2019-03-27 | 2024-04-02 | Hoya Corporation | Endoscope processor, information processing device, and endoscope system |
-
2010
- 2010-02-02 JP JP2010021095A patent/JP2011156203A/ja not_active Withdrawn
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016524487A (ja) * | 2013-05-09 | 2016-08-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 解剖学的特徴からの内視鏡のロボット制御 |
JP2015043899A (ja) * | 2013-08-28 | 2015-03-12 | 株式会社ミュー | 医療装置 |
JPWO2017158901A1 (ja) * | 2016-03-18 | 2018-03-22 | オリンパス株式会社 | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム |
WO2017158901A1 (ja) * | 2016-03-18 | 2017-09-21 | オリンパス株式会社 | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム |
JPWO2018020558A1 (ja) * | 2016-07-25 | 2019-05-09 | オリンパス株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN109475278A (zh) * | 2016-07-25 | 2019-03-15 | 奥林巴斯株式会社 | 图像处理装置、图像处理方法和程序 |
WO2018020558A1 (ja) * | 2016-07-25 | 2018-02-01 | オリンパス株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2018158817A1 (ja) * | 2017-02-28 | 2018-09-07 | 日本電気株式会社 | 画像診断装置、画像診断方法、及びプログラム |
JPWO2018158817A1 (ja) * | 2017-02-28 | 2019-12-19 | 日本電気株式会社 | 画像診断装置、画像診断方法、及びプログラム |
US11120554B2 (en) | 2017-02-28 | 2021-09-14 | Nec Corporation | Image diagnosis apparatus, image diagnosis method, and program |
WO2018179986A1 (ja) * | 2017-03-30 | 2018-10-04 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
JPWO2018179986A1 (ja) * | 2017-03-30 | 2020-01-16 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
CN114145693A (zh) * | 2017-06-02 | 2022-03-08 | 富士胶片株式会社 | 医疗图像处理装置 |
US11103197B2 (en) | 2017-08-25 | 2021-08-31 | Fujifilm Corporation | Diagnosis support system, endoscope system, processor and diagnosis support method |
JPWO2019039259A1 (ja) * | 2017-08-25 | 2020-10-29 | 富士フイルム株式会社 | 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 |
WO2019092940A1 (ja) * | 2017-11-13 | 2019-05-16 | オリンパス株式会社 | 内視鏡画像観察支援システム |
CN112367898A (zh) * | 2018-07-10 | 2021-02-12 | 奥林巴斯株式会社 | 内窥镜装置和内窥镜装置的工作方法 |
CN112584742A (zh) * | 2018-08-20 | 2021-03-30 | 富士胶片株式会社 | 医疗图像处理系统 |
CN112584742B (zh) * | 2018-08-20 | 2024-04-30 | 富士胶片株式会社 | 医疗图像处理系统 |
JPWO2020121380A1 (ja) * | 2018-12-10 | 2021-10-28 | オリンパス株式会社 | 画像処理装置、消化管の形状モデルの生成方法、及び画像処理装置の作動プログラム |
WO2020162275A1 (ja) * | 2019-02-08 | 2020-08-13 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 |
JP2023087014A (ja) * | 2019-02-08 | 2023-06-22 | 富士フイルム株式会社 | 内視鏡システム及び内視鏡システムの作動方法 |
JPWO2020162275A1 (ja) * | 2019-02-08 | 2021-12-02 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 |
US12035879B2 (en) | 2019-02-08 | 2024-07-16 | Fujifilm Corporation | Medical image processing apparatus, endoscope system, and medical image processing method |
JP7629050B2 (ja) | 2019-02-08 | 2025-02-12 | 富士フイルム株式会社 | 内視鏡システム及び内視鏡システムの作動方法 |
US12303097B2 (en) | 2019-02-08 | 2025-05-20 | Fujifilm Corporation | Medical image processing apparatus, endoscope system, and medical image processing method |
JP2023115352A (ja) * | 2019-02-19 | 2023-08-18 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理システム、医療画像処理装置の作動方法及び医療画像処理プログラム |
JP7630560B2 (ja) | 2019-02-19 | 2025-02-17 | 富士フイルム株式会社 | 医療画像処理装置、医療画像処理システム、医療画像処理装置の作動方法及び医療画像処理プログラム |
US11944262B2 (en) | 2019-03-27 | 2024-04-02 | Hoya Corporation | Endoscope processor, information processing device, and endoscope system |
JP2021037356A (ja) * | 2020-12-01 | 2021-03-11 | Hoya株式会社 | 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法 |
JP7154274B2 (ja) | 2020-12-01 | 2022-10-17 | Hoya株式会社 | 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法 |
CN116831506A (zh) * | 2023-01-05 | 2023-10-03 | 山东显微智能科技有限公司 | 一种内窥镜摄像主机及内窥镜系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011156203A (ja) | 画像処理装置、内視鏡システム、プログラム及び画像処理方法 | |
JP6890184B2 (ja) | 医療画像処理装置及び医療画像処理プログラム | |
US8767057B2 (en) | Image processing device, image processing method, and program | |
JP5541914B2 (ja) | 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法 | |
JP2011200283A (ja) | 制御装置、内視鏡システム、プログラム及び制御方法 | |
JP6177458B2 (ja) | 画像処理装置及び内視鏡システム | |
JP7383105B2 (ja) | 医療画像処理装置及び内視鏡システム | |
US20150313445A1 (en) | System and Method of Scanning a Body Cavity Using a Multiple Viewing Elements Endoscope | |
JP7326308B2 (ja) | 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム | |
JPWO2019138773A1 (ja) | 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム | |
JP7335157B2 (ja) | 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置 | |
JP2012005512A (ja) | 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法 | |
JP2017534322A (ja) | 膀胱の診断的マッピング方法及びシステム | |
JP2011218090A (ja) | 画像処理装置、内視鏡システム及びプログラム | |
US11862327B2 (en) | Medical image processing system | |
US12131513B2 (en) | Medical image processing apparatus and medical image processing method for utilizing a classification result relating to a medical image | |
WO2011052491A1 (ja) | 診断補助装置及び診断補助方法 | |
JP2012080939A (ja) | 診断システム | |
JP5432897B2 (ja) | システムの作動方法およびシステム | |
JP2007307396A (ja) | 画像表示装置、画像表示方法および画像表示プログラム | |
CN106073801A (zh) | 一种体外鼻咽腔体静脉血氧饱和度成像方法和装置 | |
JP4109132B2 (ja) | 蛍光判定装置 | |
TW201316954A (zh) | 斷層影像處理方法 | |
US20230206445A1 (en) | Learning apparatus, learning method, program, trained model, and endoscope system | |
CN103065339A (zh) | 断层图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |