[go: up one dir, main page]

JP2012024518A - 内視鏡観察を支援する装置および方法、並びに、プログラム - Google Patents

内視鏡観察を支援する装置および方法、並びに、プログラム Download PDF

Info

Publication number
JP2012024518A
JP2012024518A JP2010168932A JP2010168932A JP2012024518A JP 2012024518 A JP2012024518 A JP 2012024518A JP 2010168932 A JP2010168932 A JP 2010168932A JP 2010168932 A JP2010168932 A JP 2010168932A JP 2012024518 A JP2012024518 A JP 2012024518A
Authority
JP
Japan
Prior art keywords
endoscope
tubular tissue
image
center line
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010168932A
Other languages
English (en)
Inventor
Yuanzhong Li
元中 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010168932A priority Critical patent/JP2012024518A/ja
Priority to PCT/JP2011/004184 priority patent/WO2012014438A1/ja
Publication of JP2012024518A publication Critical patent/JP2012024518A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)

Abstract

【課題】被検体の管状組織に挿入された内視鏡の管状組織内での位置を把握する。
【解決手段】 予め取得した被検体の3次元画像から被検体の管状組織の中心線Lを取得し、前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示し、表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の基準位置を入力するとともに前記中心線L上に前記1つの特徴領域に対応する位置Q1を設定し、前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得し、前記1つの特徴領域に対応する位置Q1から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置Q2として算出し、算出された現在位置Q2を表す指標Mを前記中心線L上に表示させる。
【選択図】図6A

Description

本発明は、被検体の管状組織に挿入された内視鏡下での手術や検査等における、内視鏡観察を支援する技術に関するものであり、特に、被検体の管状組織を表す仮想内視鏡画像を用いて内視鏡観察を支援する技術に関するものである。
近年、患者の大腸や気管支等の管状組織を内視鏡を用いて観察または処置を行う技術が注目されている。医師らは、内視鏡により撮影された内視鏡画像上で管状組織内の湾曲部や分岐部を目印としつつ、所望の部位まで内視鏡を目的の位置まで移動させて、内視鏡により撮影された内視鏡画像により観察等を行う。しかし、複雑な構造をした管状組織では、管状組織内の湾曲部や分岐部等の特徴のある部分以外は同じような光景が続くため、管状組織内の位置を正確に把握することが難しい。このことが、医師らによる、複雑な構造の管状組織の壁に衝突させないように管状組織の所望の部位まで円滑に内視鏡を移動させる作業の効率を低減させ、被検体の負担を増加させる一つの要因となっている。このため、内視鏡を所望部位まで内視鏡を円滑に移動するために、管状組織内に挿入された内視鏡の位置の把握を支援する技術が求められている。
例えば、CT等での撮影によって得られた3次元ボリューム画像から内視鏡と類似した画像を生成する仮想内視鏡技術を利用し、仮想内視鏡画像を用いて管状組織内の内視鏡の位置の把握を支援する技術が提案されている。
例えば、特許文献1には、予め取得した被験体の3次元画像から仮想内視鏡画像を生成し、仮想内視鏡画像と内視鏡により撮影されたリアル画像との誤差を算出し、算出した誤差が許容誤差以下になるまで、仮想内視鏡の視点の位置を移動して、移動した仮想内視鏡画像と内視鏡画像の誤差の算出を繰り返し、算出された誤差が許容誤差以下になったときに、仮想内視鏡画像の視線パラメータから内視鏡先端部の位置と方向を算出する装置が記載されている。
特開2009−279251号公報
しかしながら、大腸などのやわらかい管状組織では、仮想内視鏡画像が撮影された際の患者の体位が仰臥位であり、内視鏡が挿入された際の患者の体位が側臥位である場合など、同じ領域であっても管状組織はそれぞれの異なる体位ごとに重力の作用により変形した形状になっている。このため、CT装置等により得られた3次元画像データから生成した仮想内視鏡画像と内視鏡画像では同じ領域であっても異なる形状で表示される可能性が高く、特許文献1に記載された手法では、画像のマッチングが困難であった。さらに、管状組織内の画像は、管状構造の特質として湾曲部分や分岐部分がない区間では同じような構造が連続するため、画像の特徴を対比させてマッチングを行うことが難しかった。
また、処置具の先端の位置を確認するために、磁気センサを処置具に配設する方法も提案されているが、撮影時の患者の体位による管状組織の変形等により、体内での管状組織の正確な位置が確認できず、所望の精度が得られなかった。
本発明は上記事情に鑑みてなされたものであり、被検体に挿入した内視鏡下での管状組織の観察の際に、管状組織内での内視鏡の位置をより確実に把握可能な装置および方法、およびプログラムを提供することを目的とするものである。
本発明の内視鏡観察支援装置は、予め取得した前記被検体の3次元画像から被検体の管状組織の中心線を取得する中心線取得手段と、前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示する内視鏡画像表示手段と、表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の位置を基準位置として決定するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定する位置決定手段と、前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得する移動量取得手段と、前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出する現在位置算出手段と、算出された前記現在位置を表す指標を前記中心線上に表示させる現在位置表示手段とを備えたことを特徴とするものである。
本発明の内視鏡観察支援方法は、予め取得した被検体の3次元画像から被検体の管状組織の中心線を取得し、前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示し、表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の基準位置を入力するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定し、前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得し、前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出し、算出された前記現在位置を表す指標を前記中心線上に表示させることを特徴とするものである。
本発明の内視鏡観察支援プログラムは、コンピュータを、予め取得した前記被検体の3次元画像から被検体の管状組織の中心線を取得する中心線取得手段と、前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示する内視鏡画像表示手段と、表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の位置を基準位置として決定するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定する位置決定手段と、前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得する移動量取得手段と、前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出する現在位置算出手段と、算出された前記現在位置を表す指標を前記中心線上に表示させる現在位置表示手段として機能させることを特徴とするものである。
本発明において、上記管状組織は、被検体が人体であれば、腸や胃などの管状の内臓に代表されるものであるが、内視鏡を挿入可能なものであれば何でもよい。また、上記特徴領域は、腸の折曲部や目だったポリープが見つかった領域など、ユーザ等が管状組織内の他の領域と識別可能な形態を有する領域であれば何でもよい。ユーザがそれらの特徴領域を見つけたときは、その領域を、円、矩形、閉曲面など、様々な形状の指標で特定して示すことができる。例えば、前記管状組織が大腸であるときは、特徴領域は肛門管、脾彎曲部、肝彎曲部のいずれかであってもよい。また、前記管状組織が気管支のときには、特徴領域は喉頭あるいは気管支分岐部のいずれかであってもよい。また、管状組織が食道のときには、特徴領域は咽頭および噴門のいずれかであってもよい。また、管状組織内の腫瘍等の凹凸を有する領域を特徴領域としてもよい。
また、本発明において、上記基準位置とは、管状組織内に位置する内視鏡の位置を算出するための基準となる位置で、内視鏡画像中に前記管状組織内の特徴領域が表示されたときの内視鏡の位置を意味する。この基準位置の決定は、内視鏡画像に前記特徴領域が表示されたとき、ユーザのマウスやキーボードあるいはその他の入力装置により内視鏡の位置を記憶するなどして決定するものであれば、種々の方法で行うことができる。例えば、内視鏡画像に管状組織内の特徴領域が表示されたときに、ユーザが画面上に設けたボタンをマウスでクリックすることにより基準位置を決定してもよく、対話形式のGUIで基準位置の取得を命ずるコマンド入力により基準位置を決定してもよい。
また、この基準位置の特定は、内視鏡の管状組織の長手方向に沿った移動量及び移動方向の計測を開始する位置であるから、これに基づいて管状組織の長手方向に沿った移動量及び移動方向の計測が可能であれば、どのように特定してもよい。一例として、管状組織から露出した内視鏡のプローブ外表面上に内視鏡の先端からの長さを表す数値を付すことにより、基準位置を内視鏡の挿入深さとして特定することができる。また、内視鏡の管状組織への挿入深さを計測するような内視鏡の既存の機能により、基準位置を特定してもよい。
また、「中心線上に前記1つの特徴領域に対応する位置を設定する」の「位置」とは、特徴領域近傍の中心線上の位置、例えば特徴領域を仮想内視鏡で表示した場合の仮想内視鏡の視点の位置であってもよく、また、特徴領域から最も近い中心線上の点の位置でもよく、特徴領域から所定の範囲内に含まれる中心線上の任意の位置でもよい。
また、本発明において、内視鏡の移動量および進行方向の取得は、内視鏡の管状組織に沿って移動した移動量および進行方向が取得できる方法であれば種々の方法を用いることができる。例えば、本発明の内視鏡観察支援装置における前記移動量取得手段は、前記管状組織外に露出した前記内視鏡のプローブの移動量及び移動方向を取得するものであってもよい。例えば、内視鏡のプローブまたはプローブの被覆膜に目盛りを設け、プローブの管状組織外に露出した部分を光学的検出手段により読み取るようにすることができる。あるいは、定点撮影可能に配置した光学撮影装置により撮影し、撮影した画像から周知の方法で目盛りを読み取って、プローブの移動量および進行方向を取得することができる。また、内視鏡のプローブまたはプローブの被覆膜に設けた目盛りに基づいてユーザ等が手動でプローブの移動量および進行方向を計測し、ユーザによるキーボード等の入力装置からの入力として計測した移動量および進行方向を取得してもよい。また、内視鏡の既存の機能により、内視鏡の管状組織の長手方向に沿った移動距離および進行方向を計測してもよい。
また、内視鏡の現在位置を表す指標は、表示画面上に識別可能に位置を表示するものであれば何でもよい。例えば、指標は、十字マークでもよいし、点、円、矩形、矢印、閉曲面など、位置を示すことができる周知の指標を用いることができる。
本発明の内視鏡観察支援装置は、前記中心線に沿って、視点を移動させた仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、前記生成された仮想内視鏡画像を表示する表示手段とをさらに備え、前記基準位置の決定は、表示された前記仮想内視鏡画像および前記内視鏡画像の両方に前記管状組織内の特徴領域が表示されたときに行われるものであることが好ましい。
「前記仮想内視鏡画像および前記内視鏡画像の両方に前記管状組織内の同じ特徴領域が表示された」とは、両画像が同じ特徴領域を表示しているものであればよく、同じ特徴領域の形態が被検体の体位等により変形している場合もあるため、特徴領域の形態は、特徴領域で同じあることが認識できるものであれば、両画像上の特徴領域の形態が厳密に一致する必要はない。なお、同じ特徴領域を表示する際の仮想内視鏡画像の視点の位置と内視鏡画像のCCD等の撮像手段の位置を正確に対応付けて内視鏡画像の位置を取得するために、好ましくは、基準位置を入力するときに、同じ特徴領域を両画像上で同じ程度の位置または同程度の大きさで表すことが好ましい。
なお、仮想内視鏡画像および内視鏡画像の両方に管状組織内の同じ特徴領域が表示される際に、最初に仮想内視鏡画像で仮想内視鏡画像の視点を移動させて管状組織内の特徴領域を表示しておいて、その後内視鏡画像で内視鏡の移動に応じて管状組織内の同じ特徴領域を表示してもよく、最初に内視鏡画像で内視鏡の移動に応じて管状組織内の特徴領域を表示しておいて、その後仮想内視鏡画像で仮想内視鏡画像の視点を移動させて管状組織内の同じ特徴領域を表示してもよく、両画像で同時に管状組織内の同じ特徴領域を表示してもよい。
また、内視鏡画像と仮想内視鏡画像の表示は、両者を対比可能に表示していればよく、1つの表示装置に行ってもよいし、複数の表示装置に別々に行ってもよい。また、内視鏡画像と仮想内視鏡画像を複数の表示装置で表示する場合は、両画像を同時に観察可能なように物理的に同じ場所に並べられて設置されていることが好ましい。また、内視鏡画像と仮想内視鏡画像は、両者を対比可能に表示するものであれば両者を切り替えて表示することもでき、重ね合わせて表示することもできる。
本発明の内視鏡観察支援装置において、位置決定手段は、前記管状組織内の異なる特徴領域ごとに前記基準位置を決定するものであることが望ましい。このことより、本発明の内視鏡観察支援装置は、新たな基準位置が入力され、新たな基準位置から移動量および進行方向を取得し、取得した移動量および進行方向に、基準位置が入力されたときの特徴領域を表す位置を移動させた位置を算出し、算出された位置を表示する。
本発明の内視鏡観察支援装置は、前記現在位置表示手段が、前記算出された位置の指標だけでなく、他の指標をさらに表示するものであってもよい。例えば、前記現在位置表示手段が、前記中心線とともに前記管状組織をさらに表示するものであってもよい。この管状組織は、被検体の3次元画像から抽出して得られたものでもよく、管状組織のモデル等でもよい。また、前記現在位置表示手段は、前記位置を先端とする模式的な内視鏡をさらに表示するものであってもよい。前記現在位置表示手段は、前記特徴領域を表す指標をさらに表示するものであってもよい。
本発明の内視鏡観察支援装置、方法およびプログラムによれば、管状組織に挿入された内視鏡を管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示し、表示された内視鏡画像に管状組織の1つの特徴領域が表示されたときに、内視鏡の基準位置を入力するとともに前記中心線L上に1つの特徴領域に対応する位置を設定し、基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得し、1つの特徴領域に対応する位置から、中心線に沿って、取得した進行方向に取得した移動量だけ離れた位置を現在位置として算出し、算出された現在位置を表す指標を中心線上に表示させるため、管状組織の内視鏡画像だけでは管状組織内の内視鏡の位置が把握できない場合であっても、内視鏡の移動距離及び進行方向に基づいて管状組織内での内視鏡の位置を的確に把握することができる。このことにより、管状組織の湾曲部分の接近や、管状組織の進行方向を予測することでき、手術や検査等において内視鏡の管状組織での円滑な移動を支援し、手技のミス等の防止に資する。
また、本発明の内視鏡観察支援装置において、中心線に沿って、視点を移動させた仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、生成された仮想内視鏡画像を表示する表示手段とをさらに備え、基準位置の決定は、表示された仮想内視鏡画像および内視鏡画像の両方に前記管状組織内の特徴領域が表示されたときに行われるものである場合には、より正確に内視鏡の基準位置を設定できるため、より正確に仮想内視鏡の視点の位置を算出することができる。この結果、中心線上の指標がより正確な位置に表示されるため、内視鏡の位置をより的確に捉えることができる。
本発明の内視鏡観察支援装置において、基準位置決定手段が、管状組織内の異なる特徴領域ごとに基準位置を決定するものである場合には、被検体の体位や内視鏡の移動により管状組織が伸縮、変形することにより生ずる内視鏡の位置と仮想内視鏡画像の視点の位置のずれを修正することができ、より正確に内視鏡の基準位置を設定できるため、より正確に仮想内視鏡の視点の位置を算出することができる。この結果、中心線上の指標がより正確な位置に表示されるため、内視鏡の位置をより的確に捉えることができる。
本発明の内視鏡観察支援装置が、中心線とともに管状組織または視点の位置を先端とする模式的な内視鏡または特徴領域を表す指標をさらに表示するものである場合には、より管状組織内における内視鏡の位置を的確に捉えることができる。
本発明の実施の形態となる内視鏡観察支援システムのハードウェア構成図 本発明の第1の実施形態における内視鏡観察支援システムの機能ブロック図 本発明の第1の実施形態における内視鏡観察支援処理の流れを表したフローチャート 内視鏡と仮想内視鏡が同じ特徴領域を表したときの入力画面の一例を模式的に表した図 内視鏡と仮想内視鏡画像の視点と特徴領域の位置関係の一例を模式的に表した図 第1の実施形態で表示される中心線と指標の一例を模式的に表した図 第1の実施形態で表示される中心線と指標の変形例を模式的に表した図
以下、本発明の実施の形態となる内視鏡観察支援システムについて説明する。
図1は、この内視鏡観察支援システムの概要を示すハードウェア構成図である。図に示したように、このシステムは、内視鏡1、デジタルプロセッサ2、光源装置3、内視鏡画像用ディスプレイ4、モダリティ5、画像保管サーバ6、位置検出装置7、画像処理ワークステーション用ディスプレイ(以下、WSディスプレイ)8、画像処理ワークステーション9から構成されている。
本実施形態では、内視鏡1は大腸用の軟性鏡であり、被検体の大腸内に挿入される。光源装置3から光ファイバーで導かれた光が内視鏡1の先端部1Aから照射され、内視鏡1の撮像光学系により被検体の腹腔内の画像が得られる。デジタルプロセッサ2は、内視鏡1で得られた撮像信号をデジタル画像信号に変換し、ホワイトバランス調整やシェーディング補正等のデジタル信号処理によって画質の補正を行った後、DICOM(Digital Imaging and Communications in Medicine)規格で規定された付帯情報を付加して、内視鏡画像データ(IRE)を出力する。出力された内視鏡画像データ(IRE)は、DICOM規格に準拠した通信プロトコルに従って、LAN経由で画像処理ワークステーション9に送信される。また、デジタルプロセッサ2は、内視鏡画像データ(IRE)をアナログ信号に変換して内視鏡画像用ディスプレイ4に出力し、内視鏡画像用ディスプレイ4には内視鏡画像(IRE)が表示される。内視鏡1での撮像信号の取得は所定のフレームレートで行われるので、内視鏡用ディスプレイ4では、内視鏡画像(IRE)が腹腔内を表す動画として表示される。さらに、内視鏡1では、ユーザの操作に応じて静止画撮影も可能である。
モダリティ5は、被検体の検査対象部位を撮影することにより、その部位を表す3次元医用画像の画像データ(V)を生成する装置であり、ここではCT装置とする。この3次元医用画像データ(V)にもDICOM規格で規定された付帯情報が付加されている。にまた、3次元医用画像データ(V)も、DICOM規格に準拠した通信プロトコルに従って、LAN経由で画像処理ワークステーション9に送信される。
画像保管サーバ6は、モダリティ5や画像処理ワークステーション9とLAN経由で接続されており、モダリティ5で取得された医用画像データや画像処理ワークステーション9での画像処理によって生成された医用画像の画像データを画像データベースに保存・管理するコンピュータであり、大容量外部記憶装置やデータベース管理用ソフトウェア(たとえば、ORDB(Object Relational Database)管理ソフトウェア)を備えている。
位置検出装置7は、公知の光学撮影装置から構成される。図1の領域7Aには、内視鏡1の位置を検出するために被検体の管状組織外に露出した内視鏡のプローブ1Bの一部を水平に移動可能に支持する不図示の支持具が設置されている。そして、内視鏡のプローブ1Bの外表面には内視鏡の先端部分からの長さをmm単位で示した数値が記されている。位置検出装置7は、この数値を読み取ることができる位置、すなわち、該支持部に水平に支持されたプローブ1Bを定点撮影できる位置7Aに周知の固定方法で配置される。位置検出装置7は、画像処理ワークステーション9に周知のインターフェースを介して接続されており、画像処理ワークステーション9からの指示に応じて、プローブ1B上の数値を光学撮影し、取得した信号値を画像処理ワークステーション9に送信する。
画像処理ワークステーション9は、CPU、主記憶装置、補助記憶装置、入出力インターフェース、通信インターフェース、データバス等の周知のハードウェア構成を備えたコンピュータであり、入力装置(ポインティングデバイス、キーボード等)や、WSディスプレイ8が接続されている。また、画像処理ワークステーション9は、デジタルプロセッサ2、モダリティ5、画像保管サーバ6とLAN接続されており、位置検出装置7とは周知のインターフェースを介して接続されている。さらに、画像処理ワークステーション9は、周知のオペレーティングシステムや各種アプリケーション・ソフトウェア等がインストールされたものであり、本発明の内視鏡観察支援処理を実行させるためのアプリケーションもインストールされている。これらのソフトウェアは、CD−ROM等の記録媒体からインストールされたものであってもよいし、インターネット等のネットワーク経由で接続されたサーバの記憶装置からダウンロードされた後にインストールされたものであってもよい。
図2は、本発明の第1の実施形態における内視鏡観察支援システムを機能レベルで分割したブロック図である。
図2に示したように、本明細書の内視鏡観察支援システムは、内視鏡1と、内視鏡1から撮像した画像信号から内視鏡画像を形成する内視鏡画像形成部2と、内視鏡画像形成部2に形成された内視鏡画像を表示する内視鏡画像表示手段4(内視鏡画像用ディスプレイ4)と、被検体の3次元画像を形成する3次元医用画像形成部5と、3次元医用画像を保管する画像保管サーバ6と、内視鏡1の移動量を検出するための位置検出装置7と、被検体の3次元画像Vを予め取得する3次元画像取得手段11と、3次元画像取得手段11が取得した3次元画像から被検体の管状組織及び該管状組織の中心線Lを抽出する中心線取得手段17と、中心線取得手段17が取得した中心線Lに沿って、視点を移動させた仮想内視鏡画像41を生成する仮想内視鏡画像生成手段12と、生成された仮想内視鏡画像41および中心線Lを表示する表示手段8(WSディスプレイ8)と、被検体の管状組織に挿入された内視鏡1によって管状組織の長手方向に沿って撮影された内視鏡画像31を表示する内視鏡画像表示手段4(内視鏡画像用ディスプレイ4)と、内視鏡画像31に管状組織内の1つの特徴領域Rが表示されたときに内視鏡の位置を基準位置P1として決定するとともに中心線上の特徴領域Rに対応する位置Q1を設定する基準位置決定手段13と、基準位置P1からの内視鏡1の移動量及び進行方向を取得する移動量取得手段14と、基準位置P1を入力したときの特徴領域Rに対応する位置Q1から、中心線Lvに沿って、取得した進行方向に取得した移動量だけ離れた位置Q2を算出する現在位置算出手段15と、算出された視点の位置Q2を表す指標Mを表示された中心線L上に表示させる現在位置表示手段16から構成される。
以下、図2で示す各機能ブロックについて詳細に説明する。なお、図1に示したハードウェア機器と図2に示した各機能ブロックとが概ね1対1に対応する場合には同じ符号を付して説明を省略する。なお、内視鏡画像形成部2の機能は図1のデジタルプロセッサによって実現され、3次元医用画像形成部5の機能は図1のモダリティによって実現され、位置検出部7の機能は、位置検出装置7によって実現される。また、破線枠は画像処理ワークステーション9を示しており、破線枠内の各処理部の機能は、画像処理ワークステーション9で所定のプログラムを実行することによって実現される。
3次元画像取得手段11は、3次元医用画像形成部5または画像管理データベース6から3次元医用画像Vを受信し、画像処理ワークステーション9の所定のメモリ領域に格納する通信インターフェース機能を有する。
中心線取得手段17は、3次元画像取得手段11が取得した3次元画像から被検体の管状組織及び該管状組織の中心線Lを抽出する。管状組織の抽出及び中心線の抽出は周知の種々の方法を適用することができ、例えば、中心線の抽出には、“Colon centreline calculation for CT colonography using optimised 3D topological thinning.”, Proceedings of the 1st International Symposium on 3D Data Processing Visualization and Transmission, IEEE Computer Society, pp.800-803, 2002に記載された方法を用いることができる。また、本実施形態では、中心線取得手段17は、大腸の特徴領域R1、R2を所定方向から表示するように仮想内視鏡画像41を再構成した場合の際の仮想内視鏡の視点の位置の座標を取得する。具体的には、抽出された大腸の中心線上で複数の特徴領域RV1、RV2をユーザがマウス等の入力装置でそれぞれ指定することにより、大腸の複数の特徴領域RV1、RV2が予め抽出されて、特徴領域RV1、RV2を所定方向から表示するように仮想内視鏡画像41を再構成した場合の際の仮想内視鏡の視点の位置の座標が個々に画像処理WS9に保存されている。なお、RV1は大腸の脾彎曲部を指し、RV2は大腸の肝彎曲部を指しているものとする。
仮想内視鏡画像生成手段12は、仮想内視鏡画像生成手段12中心線取得手段17が取得した中心線Lvに沿って、視点を移動させた仮想内視鏡画像41を周知の方法により生成する。
内視鏡画像表示手段4(内視鏡画像用ディスプレイ4)は、生成された仮想内視鏡画像41および中心線Lを表示する表示手段8(WSディスプレイ8)と、被検体の管状組織に挿入された内視鏡1によって大腸の長手方向に沿って撮影された内視鏡画像31を表示する。本実施形態では、内視鏡画像用ディスプレイ4とWSディスプレイ8は同じ大きさのディスプレイを、医師らが両ディスプレイを対比しやすいよう並べて配置している。また、内視鏡画像31と仮想内視鏡画像41は、対比しやすいよう各ディスプレイ4,8でそれぞれ同じ大きさのウインドウの中に表示されている。
基準位置決定手段13は、表示された仮想内視鏡画像41および内視鏡画像31の両方に管状組織内の同じ特徴領域RV1が表示されたときに、ポインティングデバイスまたはキーボード等の入力装置によりユーザからの入力を受け付ける。この入力に応じて、基準位置決定手段13は、内視鏡の位置を基準位置P1として決定する。この決定された基準位置P1は移動量取得手段14によって内視鏡1の挿入深さとして特定される。また、基準位置決定手段13は、特徴領域RV1と対応する位置Q1として、仮想内視鏡画像31で特徴領域RV1を表示した際の仮想内視鏡の視点の座標を設定する。また、基準位置決定手段13は、基準位置P1を、特徴領域RV1と対応する位置Q1と対応付けて画像処理ワークステーション9の所定のメモリ領域に格納する。
移動量取得手段14は、位置検出装置7との通信により内視鏡のプローブ1B上の数値を撮影した画像信号を取得する通信インターフェースとしての機能と、所定の時間間隔で、位置検出装置7から内視鏡の位置Pに任意の位置おける内視鏡のプローブ1Bに記された数値Scを撮影した画像信号を取得し、画像信号に周知の画像処理を行って数値Scを認識して取得し、画像処理ワークステーション9の所定のメモリ領域に格納する機能とを有する。
また、移動量取得手段14は、内視鏡が基準位置P1にあるときに位置検出装置7から取得した数値Sc1から内視鏡が任意の位置P2にあるときに位置検出装置7から取得した数値Sc2までの、移動量Sq(Sq=|Sc1−Sc2|)および進行方向Sdを取得する。なお、内視鏡1のプローブ1Bに付された数値Sc1、Sc2は、内視鏡先端からの長さを表す数値であるため、Sc1−Sc2が負であれば、内視鏡の進行方向Sdは、基準位置P1から大腸の奥に内視鏡をさらに進入する方向(直腸から盲腸に向かう方向)であり、Sc1−Sc2が正であれば、基準位置P1から内視鏡を引き抜く方向(盲腸から直腸に向かう方向)であることが分かる。ここでは、内視鏡の進行方向が直腸から盲腸に向かう方向の場合をSd=1、盲腸から直腸に向かう方向の場合をSd=0として表す。
現在位置算出手段15は、特徴領域RV1に対応する位置Q1から、中心線Lvに沿って、取得した進行方向に取得した移動量だけ離れた現在位置Q2を位置Q1の座標および中心線Lvの経路等に基づいて周知の方法により算出する。
現在位置表示手段16は、算出された現在位置Q2を表す指標Mを中心線L上に表示させる。図6Aは、本実施形態における中心線+と指標の表示の一例を示す図である。現在位置表示手段16、図6Aに示すように、WSディスプレイ8に中心線取得手段17により抽出された中心線Lおよび算出された現在位置Q2を表す指標Mを表示された中心線L上に表示したガイド画像51を表示させる。特徴領域RV1に対応する位置Q1として、特徴領域RV1を表示した際の仮想内視鏡の視点位置を設定しているため、現在位置Q2は、特徴領域RV1を表示した際の仮想内視鏡の視点位置から、内視鏡の移動した方向に内視鏡の移動量だけ離れた仮想内視鏡の視点位置を表している。なお、現在位置として、ガイド画像51上に内視鏡1の撮影部1A以外の各位置に相当する仮想内視鏡の位置の標識を表示することができるが、医師らは内視鏡1の撮影部1Aで撮影された映像を手がかりに、管状組織内で移動や処置を行うため、ガイド画像51上では、内視鏡1の撮影部1Aに相当する位置を現在位置Q2として識別可能に表示することが好ましい。
次に、図3に示したフローチャートを用いて、本発明の第1の実施形態となる内視鏡観察支援システムで行われるユーザの操作や、上記各処理部で行われる処理の概略的な流れを説明する。
まず、内視鏡1を用いた被検体の管状組織の観察に先立って、3次元医用画像形成部5による被検体の管状組織の撮像により、3次元医用画像Vが形成される。画像処理ワークステーション9では、3次元画像取得手段11が、3次元医用画像形成部5によって形成された3次元医用画像Vを取得する(S01)。そして、中心線取得手段17が、3次元画像取得手段11によって取得された3次元医用画像Vに基づいて、管状組織の中心線Lを取得する(S02)。
仮想内視鏡画像生成手段12は、中心線取得手段17が取得した中心線Lに沿って、視点を移動させた仮想内視鏡画像41を生成する。本実施形態においては、ポインティングデバイス等の入力装置により受け付けたユーザの移動指示に応じて仮想内視鏡画像の視点を移動させる。そして、表示手段8(WSディスプレイ8)は、生成された仮想内視鏡画像41を表示する(S03)。そして、本実施形態では、ユーザの入力装置による入力に応じて、仮想内視鏡画像生成手段12は特徴領域RV1を表す仮想内視鏡画像41を表示する。
そして、内視鏡画像形成部2は、被検体の管状組織に挿入された内視鏡1によって管状組織の長手方向に沿って撮影された画像信号を所定のフレームレートで内視鏡画像31を繰り返し形成し、形成された内視鏡画像31を内視鏡画像用ディスプレイ4にスルー動画としてリアルタイムに表示させる(S04)。
図4に、内視鏡画像31と仮想内視鏡画像41が同じ特徴領域R1(以下、内視鏡画像31上での特徴領域をRE1、仮想内視鏡画像41上での特徴領域をRV1と表す。)を表したときの入力画面の一例を示す。図5は、本実施形態における現在位置の算出方法を説明するための図である。図5右は、内視鏡1と被検体の大腸Cとを模式的に表しており、内視鏡1は内視鏡の撮影部1Aを先端として破線で表した経路に沿って大腸Cを移動する。図5左は、CT装置等のモダリティによる断層撮影から得た大腸被検体のCと中心線Lを表しており、仮想内視鏡の視点は中心線L上を移動する。また、図5に、大腸C、Cと大腸の長さ方向に沿って移動する内視鏡の撮影部1Aの位置E1、E2、内視鏡の撮影部1Aが位置E1にあるときに位置検出装置7に所定の位置7Aで定点撮影される内視鏡のプローブ1Bの位置P1、内視鏡の撮影部1Aが位置E2にあるときに位置検出装置7に所定の位置7Aで定点撮影される内視鏡のプローブ1Bの位置P2、特徴領域RV1に対応する位置Q1、特徴領域RV1から移動された現在位置Q2との関係を示す。また、図5に、同様に、内視鏡の撮影部1Aが位置E1’にあるときに位置検出装置7に所定の位置7Aで定点撮影される内視鏡のプローブ1Bの位置P1’、内視鏡の撮影部1Aが位置E2’にあるときに位置検出装置7に所定の位置7Aで定点撮影される内視鏡のプローブ1Bの位置P2’、特徴領域RV2に対応する位置Q1’、特徴領域RV2から移動された仮想内視鏡画像41の現在位置Q2’との関係を示す。なお、図4では、大腸の湾曲部を特徴領域R1として、内視鏡画像と仮想内視鏡画像の両方にそれぞれ特徴領域RE1、RV1を表示させた状態を表している。
図4に示すように、医師等のユーザは、内視鏡画像31に表示された特徴領域RE1と仮想内視鏡画像41に表示された特徴領域RV1がほぼ同じ大きさで同じ配置で表示された状態となるように、内視鏡1を移動させる。図5に示すように、内視鏡画像31および仮想内視鏡画像41に同じ特徴領域RE1、RV1が表示されている状態では、内視鏡1の撮影部1A(内視鏡1の先端)はE1に配置された状態であり、仮想内視鏡の視点はQ1に配置された状態である。つまり、内視鏡画像31と仮想内視鏡画像41とは、同じ特徴領域RE1、RV1がほぼ同じ大きさ同じ配置で表示された状態では、内視鏡の撮影部1Aの位置E1と仮想内視鏡の視点の位置Q1は大腸C、Cのほぼ同じ点を表している。
次いで、図4に示すように、表示された仮想内視鏡画像41および内視鏡画像31の両方に管状組織内の同じ特徴領域R1が表示されたときに、ユーザはマウス等の入力装置でポインタPtrを移動させて仮想内視鏡画像の特徴領域RV1の一部をクリックする。すると、基準位置決定手段13は、基準位置P1の決定指示を受け付けて(S05のY)、これにより、基準位置決定手段13は、基準位置P1を決定する。また、基準位置決定手段13は、基準位置決定手段13の入力により指定された位置の座標を取得し、取得した該座標に最も近い特徴領域RV1に対する仮想内視鏡の視点の座標を、特徴領域R1に対応する位置Q1の座標として設定し、基準位置P1と特徴領域R1に対応する位置Q1を対応付けて画像処理ワークステーション9の所定のメモリ領域に格納する。そして、この決定により移動量取得手段14が基準位置P1の内視鏡の挿入深さを取得するとともに、現在位置算出手段15が特徴領域RV1に対応する位置Q1の座標を取得する(S06)。
なお、指定された位置の座標から最も近い特徴領域RV1は周知の種々の方法で特定できる。本実施形態では、保存された複数の特徴領域RV1、RV2に対応する内視鏡の視点の座標と指定された位置の座標との距離を算出し、距離が最も短い座標を特徴領域V1に対応する位置の座標として設定する。例えば、指定された位置の座標から所定範囲に一部または全部が存在する特徴領域Rを、最も近い特徴領域Rとすることもできる。
次いで、移動量取得手段14は、基準位置決定手段13の決定に応じて、内視鏡の基準位置P1における内視鏡の挿入長さを、定点撮影する位置7Aでの内視鏡のプローブ1B上の数値Sc1として取得する。つまり、図5に示すように、内視鏡1の撮影部1Aの位置E1と仮想内視鏡の視点Q1の大腸内の位置が一致した基準位置P1を、内視鏡1の大腸への挿入深さSc1によって特定する。
そして、移動量取得手段14は、基準位置P1からの内視鏡1の大腸の長さ方向に沿った移動量及び進行方向を取得する(S07)。すなわち、図5で示すように、基準位置P1から基準位置P1の取得後、ユーザ等に移動された内視鏡1の位置P2までの移動量Sq及び進行方向Sdを取得する。
移動量取得手段14は、所定の時間間隔で、位置検出装置7から内視鏡の任意の位置P2における内視鏡のプローブ1B外表面に記された数値Sc2を撮影した画像信号を取得し、画像信号に周知の画像処理を行って数値Sc2を取得する。つまり、基準位置P1から内視鏡1が移動した位置P2を、内視鏡1の大腸への挿入深さSc2によって特定する。そして、移動量取得手段14は、先述の通りSc2とSc1の差分により、基準位置P1から内視鏡の移動量Sqおよび進行方向Sdを取得する。図5では、内視鏡の移動量Sqは|Sc1−Sc2|であり、進行方向Sdは大腸への内視鏡1の挿入深さが深くなる方向である。
現在位置算出手段15は、特徴領域RV1に対応する位置Q1の座標を取得し、特徴領域に対応する位置Q1から大腸の中心線Lに沿って、進行方向Sdに取得した移動量Sqだけ離れた現在位置Q2を算出する(S08)。
現在位置表示手段16は、WSディスプレイ8に中心線取得手段17により抽出された中心線Lおよび算出された視点の位置Q2を表す指標Mを表示された中心線L上に表示したガイド画像51を表示させる(S09)。図6Aは、ガイド画像51上に現在位置Q2を表す矢印(指標)Mを表示した例を示す。
画像処理ワークステーション9では、観察終了を指示する操作が行わない限り(S11のNo)、S05からS10までの処理を繰り返す。
一方、基準位置P1の決定指示がない場合であって(S05のN)、内視鏡の基準位置P1がまだ1回も決定されていない場合には(S10のY)、基準位置P1の決定指示を待つ(S05)。そして、基準位置P1の決定指示がなく(S05のN)、内視鏡の基準位置P1がすでに1回以上決定されている場合には(S10のN)、S07からS09の処理を行う。これにより、ガイド画像51には、内視鏡1の移動に時間的に連動してガイド画像51の中心線L上に現在位置を表す指標Mが表示される。
また、図5に示すように、新たな特徴領域RE2、RV2が内視鏡画像31’および仮想内視鏡画像41’にそれぞれ表示されたときに、ユーザによる特徴領域RV2の一部を指定する入力を受け付けると(S05のY)、先述同様基準位置決定手段13が新たな基準位置P1’を決定する。また、基準位置決定手段13は、新たな特徴領域RV2に対応する位置Q1’の座標として、特徴領域RV2を仮想内視鏡画像41に表したときの視点の座標を設定する。移動量取得手段14は基準位置P1’の内視鏡の挿入深さSc1’を取得し、現在位置算出手段15は、新たな特徴領域RV2に対応する位置Q1’の座標を取得する(S06)。このとき、内視鏡1の先端部の位置E1’は、特徴領域RV2を表示する仮想内視鏡の視点の位置Q1’と管状組織のほぼ同じ位置に配置された状態である。
そして、移動量取得手段14が、ユーザによる内視鏡の撮影部1AをE2’に移動させる操作に応じて、内視鏡の撮影部1AがE2’に配置されたときのプローブ1B外表面の位置P2’の内視鏡の挿入深さを表す数値Sc2’を取得する。これにより、新たな基準位置P1’からの移動量Sqおよび進行方向Sdを取得し(S07)、取得した移動量Sqおよび進行方向Sdだけ、新たな特徴領域RV2に対応する位置Q1’から離れた現在位置Q2’を算出し(S08)、算出された現在位置Q2’を表示する(S09)。
一方、観察終了を指示する操作が行われた場合には(S11のY)、本実施形態の内視鏡診断支援処理を終了する。
以上のように、本発明の第1の実施形態では、被検体の管状組織に挿入された内視鏡によって管状組織の長手方向に沿って撮影された内視鏡画像を表示し、表示された内視鏡画像に管状組織の特徴領域が表示されたときに、内視鏡の基準位置を決定するとともに中心線L上の特徴領域に対応する位置Q1を設定し、基準位置P1からさらに移動された内視鏡の移動量Sq及び進行方向Sdを取得し、特徴領域に対応する位置Q1から、中心線Lに沿って、取得した進行方向Sdに取得した移動量Sqだけ離れた現在位置Q2を算出し、算出された現在位置Q2を表す指標Mを表示された中心線L上に表示させたため、管状組織の内視鏡画像だけでは管状組織内の内視鏡の位置が把握できない場合であっても、内視鏡の移動距離及び進行方向に基づいて管状組織内での内視鏡の位置を的確に把握することができる。このことにより、管状組織の湾曲部分の接近や、管状組織の進行方向を予測することでき、手術や検査等において内視鏡の管状組織での円滑な移動を支援し、手技のミス等の防止に資する。
本第1の実施形態では、図5に示すように、特徴領域ごとに基準位置を決定することにより、内視鏡1の撮影部1Aの位置E2と現在位置Q2の位置のずれを修正することができ、より正確に内視鏡の基準位置P1’を切り替えて決定できるため、より正確に仮想内視鏡の視点の位置Q2’を算出することができる。内視鏡1の撮影部1Aの位置E1と現在位置Q2のずれは、内視鏡が管状組織の長手方向に沿って移動する経路が管状組織の中心線と必ずしも一致しないことや、被検体の体位や内視鏡の移動により管状組織が伸縮、変形することにより不可避的に生ずるものであるため、特徴領域毎に基準位置を決定することにより、中心線上の指標がより正確な位置に表示されるため、内視鏡の位置をより的確に捉えることができる。
図6Bはガイド画像51上での現在位置Q2の表示の変形例を示す図である。図6Bに示すように、本第1の実施形態の現在位置表示手段16の変形例として、算出された現在位置Q2を表す指標だけでなく、他の指標をさらに表示するものであってもよい。例えば、現在位置表示手段16が、中心線Lとともに管状組織52をさらに表示するものであってもよい。この管状組織は、被検体の3次元画像から抽出して得られたものでもよく、管状組織のモデル等でもよい。また、管状組織は、周知の様々な方法で表示することができ、例えば、適宜任意の透明度を設定され、多色または白黒等の任意の色でボリュームレンダリング法等の周知の表示方法により表示することができる。現在位置表示手段16は、現在位置Q2を先端とする模式的な内視鏡53をさらに表示するものであってもよい。現在位置表示手段16は、特徴領域Rを表す指標をさらに表示するものであってもよい。図6Bにおいては、特徴領域Rを表す指標として特徴領域RV1に対応する位置Q1を表す指標を点で表示している。上記の現在位置表示手段16の変形例によれば、中心線Lだけでなく、管状組織や模式的な内視鏡を併せて表示することにより、より管状組織内での内視鏡の姿勢や位置を的確に捉えることができる。
本実施形態のように基準位置決定手段13が、ユーザによる仮想内視鏡画像上の特徴領域RV1の指定を受け付けることにより、内視鏡1の基準位置P1の入力および管状組織の特徴領域RV1に対応する位置の設定を同時に行った場合は、入力操作がより簡潔となるため、本発明の内視鏡診断支援をより効率よく行える。なお、基準位置P1と管状組織の特徴領域RV1に対応する位置Q1を対応付けるために、特徴領域RV1の一部を指定する代わりに、予め抽出された複数の特徴領域RV1、RV2に対応する位置Q1、Q2を選択可能に表示し、マウス等の入力装置により内視鏡1の基準位置P1に対応する特徴領域RV1を表す位置Q1を設定してもよい。
また、本実施形態の変形例として、基準位置決定手段13は、基準位置P1と管状組織の特徴領域RV1に対応する位置Q1を対応付けられるのであれば、基準位置P1と管状組織の特徴領域RV1に対応する位置Q1との対応付けと基準位置P1の決定とを別々のタイミングに行ってもよく、どちらを先に行ってもよい。例えば、WSディスプレイ8の画面上に基準位置決定ボタンを選択可能に表示し、ユーザのマウス等による基準位置決定ボタンの選択操作により、基準位置決定手段13が内視鏡1の基準位置P1の取得を指示する入力を受付け、別途、ユーザの入力装置等の入力により、内視鏡1の基準位置P1に特定される特徴領域RV1または特徴領域RV1に対応する中心線L上の点Q1を取得して、基準位置P1と管状組織の特徴領域RV1を表す位置Q1を対応付けてもよい。
また、本実施形態では、特徴領域RV1、RV2に対応する位置として、予め設定した仮想内視鏡の視点Q1、Q1’の座標をそれぞれ対応付けているが、内視鏡の基準位置P1と管状組織の特徴領域RV1に対応する位置Q1を相互に対応付けて取得するものであればよく、仮想内視鏡の視点の位置に替えて特徴領域RV1、RV2から誤差として許容できる所定の範囲内の特徴領域近傍の位置を対応付けることもできる。また、内視鏡の基準位置P1と管状組織の特徴領域RV1に対応する位置Q1を相互に対応付けられるのであれば、特徴領域RV1、RV2を表す中心線L上の点Q1、Q2を必ずしも予め抽出する必要はなく、内視鏡画像31に特徴領域RV1を表示させて内視鏡1の基準位置P1の入力を行ってから、特徴領域RV1に対応する位置Q1を抽出してもよい。例えば、特徴領域RV1に対応する位置Q1を、内視鏡1の基準位置P1の入力を行ったのちに、手動で仮想内視鏡の視点を移動させて仮想内視鏡画像31に特徴領域RV1を表示した際の仮想内視鏡の視点の位置として設定してもよく、中心線Lを表示して、中心線上でユーザが入力装置により選択した位置として設定してもよい。
また、本発明の第1の実施形態では、中心線Lに沿って、視点を移動させた仮想内視鏡画像41を生成する仮想内視鏡画像生成手段12と、生成された仮想内視鏡画像41を表示する表示手段8とをさらに備え、基準位置P1の決定は、表示された仮想内視鏡画像41および内視鏡画像31の両方に管状組織内の特徴領域RV1が表示されたときに行われるものであるため、仮想内視鏡31の視点の位置P1と内視鏡の撮影部1Aの位置E1が精度よく一致するため、仮想内視鏡31の視点の位置P1に基づいて算出された視点の位置P2が精度よく内視鏡の撮影部1Aの位置E2を表したものとなり、より的確に内視鏡の撮影部の位置1A(先端部の位置)を把握することができる。つまり、より正確に内視鏡の基準位置P1を設定でき、より正確に仮想内視鏡の視点の位置Q2を算出することができる。この結果、中心線上の指標Mがより正確な位置に表示されるため、さらに移動された内視鏡の位置をより的確に捉えることができる。特に、同じ特徴領域を仮想内視鏡画像41と内視鏡画像31の両画像上で同じ程度の位置または同程度の大きさで表しているため、さらに上記効果が著しい。
なお、仮想内視鏡画像および内視鏡画像の両方に管状組織内の同じ特徴領域が表示される際に、最初に仮想内視鏡画像で仮想内視鏡画像の視点を移動させて管状組織内の特徴領域を表示しておいて、その後内視鏡画像で内視鏡の移動に応じて管状組織内の同じ特徴領域を表示してもよく、最初に内視鏡画像で内視鏡の移動に応じて管状組織内の特徴領域を表示しておいて、その後仮想内視鏡画像で仮想内視鏡画像の視点を移動させて管状組織内の同じ特徴領域を表示してもよく、両画像で同時に管状組織内の同じ特徴領域を表示してもよい。
また、基準位置P1の入力は、内視鏡の基準位置P1と基準位置P1によって特定される管状組織の特徴領域RV1を相互に対応付け可能であれば、表示された仮想内視鏡画像41および内視鏡画像31の両方に管状組織内の特徴領域RV1が表示されたときに必ずしも行われる必要はなく、内視鏡画像31のみに管状組織内の特徴領域RV1が表示されたときであっても行うことができる。例えば、内視鏡画像31に管状組織の特徴領域が表示されたときに内視鏡1の基準位置P1を決定し、WSディスプレイ8に予め抽出された複数の特徴領域RV1、RV2に対応する各位置を選択可能に表示し、マウス等の入力装置により特徴領域RV1に対応する位置を選択し、基準位置P1と特徴領域RV1と対応する位置Q1を対応付けてもよい。
移動量取得手段14は、本第1の実施形態では、内視鏡1のプローブ1B外表面に付された数値を取得し、内視鏡1の管状組織への挿入深さを計測することにより、内視鏡の移動量および移動方向を取得したため、簡易な装置及び方法により内視鏡の移動量および移動方向を取得することができる。なお、移動量および移動方向の取得方法は本実施形態の方法に限られるものでなく、内視鏡1の管状組織の長手方向への移動方向及び移動量を測定可能なものであれば、あらゆる方法を適用できる。例えば、内視鏡1のプローブ1B外表面に付された数値Sc1およびSc2をユーザが読み取って、対話式GUIでキーボード等から入力し、移動量取得手段14が入力された数値Sc1、Sc2を取得するようにしてもよい。
また、仮想内視鏡の視点Q2を表す指標Mは、識別可能に位置を表示するものであれば何でもよい。例えば、指標は、十字マークでもよいし、点、円、矩形、矢印、閉曲面など、位置を示すことができる周知の指標を用いることができる。また、指標Mは、中心線L上の特徴領域を表す点Q2を中心に中心線Lに沿って予想される誤差の範囲を加味した、中心線L上の任意の点を表すようにしてもよい。
モダリティ5は、上記のCT装置のほか、MRI装置等の仮想内視鏡画像を再構成可能なボリュームデータを取得できるモダリティを用いることができる。
また、ガイド画像51には、内視鏡による観察を継続する間、内視鏡1の移動に時間的に連動して仮想内視鏡の視点の位置が算出されて、ガイド画像51の中心線L上に視点の位置を表す指標Mが表示されるため、医師等のユーザは、ガイド画像51の中心線により大腸の経路を把握し、その上の指標Mにより大腸内の内視鏡の位置を適宜参考にしつつ、内視鏡の操作を行うことができる。このため、湾曲部や目標の診断部位への内視鏡1の接近を、動的に、より的確に捉えることが可能になる。
また、上記管状組織は、内視鏡を挿入可能なものであれば何でもよく、上記特徴領域は、ユーザ等が管状組織内の他の領域と識別可能な形態を有する領域であれば何でもよい。例えば、特徴領域は、円、矩形、矢印、閉曲面など、様々な手法で示すことができる。例えば、前記管状組織が大腸であり、前記特徴領域は肛門管および脾彎曲部および肝彎曲部のいずれかを含むものであってもよい。また、前記管状組織が気管支であり、前記特徴領域は喉頭および気管支分岐部のいずれかを含むものであってもよい。また、前記管状組織が食道であり、前記特徴領域は咽頭および噴門のいずれかを含むものであってもよい。また、管状組織内の腫瘍等の凹凸を有する領域を特徴領域としてもよい。
本実施形態では、仮想内視鏡画像上で管状組織内の複数の特徴領域RV1、RV2をユーザがマウス等の入力装置でそれぞれ指定することにより、管状組織の複数の特徴領域RV1、RV2が予め抽出されているが、管状組織の複数の特徴領域R、R、R、…Rを予め定義した管状組織の中心線の形状モデルと3次元画像データから得られた中心線Lとのマッチングを行うことにより、形状モデル上の複数の特徴領域R、R、R、…Rと対応する中心線L上での特徴領域RV1、RV2、RV3、…RVnを自動抽出されてもよい。
第1の実施形態の変形例として、第1の実施形態による内視鏡観察支援装置に不図示の警告部18を付加した構成としてもよい。
この警告部18は、画像処理ワークステーション9に実装される処理部であり、図3に示す第1の実施形態のS08の後、中心線上の仮想内視鏡の視点の位置Q2と予め指定した注目部位W1の位置との間の距離が所定の閾値よりも小さい場合、すなわち、内視鏡1が予め指定した注目部位W1に接近している場合に、警告WMをガイド画像51上に出力するものである。警告WMは、仮想内視鏡の視点の位置Q2を表す指標Mを点滅させるまたは、指標Mの色を識別可能な色に変化させる。これにより、管状組織内で、内視鏡1の移動の際気をつけるべき部位を、予め注目部位W1として登録することにより、管状組織内で、内視鏡1が注目部位W1に接近した状態を容易に認識することが可能になり、内視鏡1の誤操作の未然防止に資する。なお、警告を外部に出力する方法は、上記の方法の他、警告音や音声を出力する方法であってもよいし、警告メッセージの重畳表示と警告音等の出力の両方を行ってもよい。
上記の各実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。
この他、上記の実施形態におけるシステム構成、ハードウェア構成、処理フロー、モジュール構成、ユーザインターフェースや具体的処理内容等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。
1 内視鏡
2 デジタルプロセッサ
3 光源装置
4 内視鏡画像用ディスプレイ
5 モダリティ
6 処置具
7 位置検出部
8 画像処理ワークステーション用ディスプレイ
9 画像処理ワークステーション
11 3次元画像取得手段
12 仮想内視鏡画像生成手段
13 入力手段
14 移動量取得手段
15 位置算出手段
16 現在位置表示手段
17 中心線取得手段

Claims (12)

  1. 予め取得した被検体の3次元画像から前記被検体の管状組織の中心線を取得する中心線取得手段と、
    前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示する内視鏡画像表示手段と、
    表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の位置を基準位置として決定するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定する基準位置決定手段と、
    前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得する移動量取得手段と、
    前記1つの特徴領域に対応する位置から、該中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を、現在位置として算出する現在位置算出手段と、
    算出された前記現在位置を表す指標を、前記中心線上に表示させる現在位置表示手段とを備えたことを特徴とする内視鏡観察支援装置。
  2. 前記中心線に沿って、視点を移動させた仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、
    前記生成された仮想内視鏡画像を表示する表示手段とをさらに備え、
    前記基準位置の決定は、表示された前記仮想内視鏡画像および前記内視鏡画像の両方に前記管状組織内の特徴領域が表示されたときに行われるものであることを特徴とする請求項1記載の内視鏡観察支援装置。
  3. 前記基準位置決定手段は、前記管状組織内の異なる特徴領域ごとに前記基準位置を決定するものであることを特徴とする請求項1または2記載の内視鏡観察支援装置。
  4. 前記現在位置表示手段は、前記中心線とともに前記管状組織をさらに表示するものであることを特徴とする請求項1から3のいずれか1記載の医用画像処理装置。
  5. 前記現在位置表示手段は、前記視点の位置を先端とする模式的な内視鏡をさらに表示するものであることを特徴とする請求項1から4のいずれか1項記載の内視鏡観察支援装置。
  6. 前記現在位置表示手段は、前記特徴領域を表す指標をさらに表示するものであることを特徴とする請求項1から5のいずれか1項記載の内視鏡観察支援装置。
  7. 前記移動量取得手段は、前記管状組織外に露出した前記内視鏡のプローブの移動量及び移動方向を取得するものであることを特徴とする請求項1から6のいずれか1項記載の内視鏡観察支援装置。
  8. 前記管状組織は、大腸であり、
    前記特徴領域は肛門管および脾彎曲部および肝彎曲部のいずれかを含むものであることを特徴とする請求項1から7のいずれか1項記載の内視鏡観察支援装置。
  9. 前記管状組織は、気管支であり、
    前記特徴領域は喉頭および気管支分岐部のいずれかを含むものであることを特徴とする請求項1から8のいずれか1記載の内視鏡観察支援装置。
  10. 前記管状組織は、食道であり、
    前記特徴領域は咽頭および噴門のいずれかを含むものであることを特徴とする請求項1から9のいずれか1記載の内視鏡観察支援装置。
  11. 予め取得した被検体の3次元画像から被検体の管状組織の中心線を取得し、
    前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示し、
    表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の基準位置を入力するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定し、
    前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得し、
    前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出し、
    算出された前記現在位置を表す指標を前記中心線上に表示させることを特徴とする内視鏡観察支援方法。
  12. コンピュータを、
    予め取得した前記被検体の3次元画像から被検体の管状組織の中心線を取得する中心線取得手段と、
    前記管状組織に挿入された内視鏡を前記管状組織の長手方向に沿って移動しつつ撮影された内視鏡画像を表示する内視鏡画像表示手段と、
    表示された前記内視鏡画像に前記管状組織の1つの特徴領域が表示されたときに、前記内視鏡の位置を基準位置として決定するとともに前記中心線上に前記1つの特徴領域に対応する位置を設定する基準位置決定手段と、
    前記基準位置からさらに移動された前記内視鏡の移動量及び進行方向を取得する移動量取得手段と、
    前記1つの特徴領域に対応する位置から、前記中心線に沿って、前記取得した進行方向に前記取得した移動量だけ離れた位置を現在位置として算出する現在位置算出手段と、
    算出された前記現在位置を表す指標を前記中心線上に表示させる現在位置表示手段として機能させることを特徴とする内視鏡観察支援プログラム。
JP2010168932A 2010-07-28 2010-07-28 内視鏡観察を支援する装置および方法、並びに、プログラム Withdrawn JP2012024518A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010168932A JP2012024518A (ja) 2010-07-28 2010-07-28 内視鏡観察を支援する装置および方法、並びに、プログラム
PCT/JP2011/004184 WO2012014438A1 (ja) 2010-07-28 2011-07-25 内視鏡観察を支援する装置および方法、並びに、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010168932A JP2012024518A (ja) 2010-07-28 2010-07-28 内視鏡観察を支援する装置および方法、並びに、プログラム

Publications (1)

Publication Number Publication Date
JP2012024518A true JP2012024518A (ja) 2012-02-09

Family

ID=45529671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010168932A Withdrawn JP2012024518A (ja) 2010-07-28 2010-07-28 内視鏡観察を支援する装置および方法、並びに、プログラム

Country Status (2)

Country Link
JP (1) JP2012024518A (ja)
WO (1) WO2012014438A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013132880A1 (ja) * 2012-03-06 2013-09-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2014028394A1 (en) * 2012-08-14 2014-02-20 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
JP2014050684A (ja) * 2012-08-08 2014-03-20 Toshiba Corp 医用画像診断装置、画像処理装置及び画像処理方法
WO2014171391A1 (ja) 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置
WO2018179991A1 (ja) 2017-03-30 2018-10-04 富士フイルム株式会社 内視鏡システム及びその作動方法
EP3632360A1 (en) 2018-10-04 2020-04-08 Biosense Webster (Israel) Ltd. Automatic probe reinsertion
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
WO2025027750A1 (ja) * 2023-07-31 2025-02-06 オリンパスメディカルシステムズ株式会社 内視鏡検査支援方法、内視鏡検査支援装置、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6128792B2 (ja) * 2012-10-16 2017-05-17 オリンパス株式会社 観察装置、観察支援装置、観察装置の作動方法及びプログラム
US9295372B2 (en) 2013-09-18 2016-03-29 Cerner Innovation, Inc. Marking and tracking an area of interest during endoscopy
EP4154795A4 (en) * 2020-05-21 2023-07-12 NEC Corporation IMAGE PROCESSING DEVICE, CONTROL METHOD, AND STORAGE MEDIA

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3850217B2 (ja) * 2000-12-27 2006-11-29 オリンパス株式会社 気管支用内視鏡位置検出装置
JP4583658B2 (ja) * 2001-05-22 2010-11-17 オリンパス株式会社 内視鏡システム
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
JP5112021B2 (ja) * 2007-11-26 2013-01-09 株式会社東芝 血管内画像診断装置及び血管内画像診断システム
JP5372406B2 (ja) * 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8894566B2 (en) 2012-03-06 2014-11-25 Olympus Medical Systems Corp. Endoscope system
JP5378628B1 (ja) * 2012-03-06 2013-12-25 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN103561628A (zh) * 2012-03-06 2014-02-05 奥林巴斯医疗株式会社 内窥镜系统
WO2013132880A1 (ja) * 2012-03-06 2013-09-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2014050684A (ja) * 2012-08-08 2014-03-20 Toshiba Corp 医用画像診断装置、画像処理装置及び画像処理方法
WO2014028394A1 (en) * 2012-08-14 2014-02-20 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
EP2884879A4 (en) * 2012-08-14 2016-04-27 Intuitive Surgical Operations SYSTEMS AND METHOD FOR REGISTERING MULTIPLE VISIBILITY SYSTEMS
US11896364B2 (en) 2012-08-14 2024-02-13 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
US10278615B2 (en) 2012-08-14 2019-05-07 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
US12226202B2 (en) 2012-08-14 2025-02-18 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
EP3679881A1 (en) * 2012-08-14 2020-07-15 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
US11219385B2 (en) 2012-08-14 2022-01-11 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
WO2014171391A1 (ja) 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 内視鏡システム
US9357945B2 (en) 2013-04-15 2016-06-07 Olympus Corporation Endoscope system having a position and posture calculating portion
JP2014230612A (ja) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 内視鏡観察支援装置
WO2018179991A1 (ja) 2017-03-30 2018-10-04 富士フイルム株式会社 内視鏡システム及びその作動方法
US11272830B2 (en) 2017-03-30 2022-03-15 Fujifilm Corporation Endoscope system and operation method therefor
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
US11707179B2 (en) 2018-10-04 2023-07-25 Biosense Webster (Israel) Ltd. Automatic probe reinsertion
US11229492B2 (en) 2018-10-04 2022-01-25 Biosense Webster (Israel) Ltd. Automatic probe reinsertion
EP3632360A1 (en) 2018-10-04 2020-04-08 Biosense Webster (Israel) Ltd. Automatic probe reinsertion
WO2025027750A1 (ja) * 2023-07-31 2025-02-06 オリンパスメディカルシステムズ株式会社 内視鏡検査支援方法、内視鏡検査支援装置、およびプログラム

Also Published As

Publication number Publication date
WO2012014438A1 (ja) 2012-02-02

Similar Documents

Publication Publication Date Title
WO2012014438A1 (ja) 内視鏡観察を支援する装置および方法、並びに、プログラム
JP5551957B2 (ja) 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
JP5380348B2 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5535725B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US8767057B2 (en) Image processing device, image processing method, and program
JP6323335B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2011114731A1 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP5369078B2 (ja) 医用画像処理装置および方法、並びにプログラム
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5569711B2 (ja) 手術支援システム
JP2011206168A (ja) 観察支援システムおよび方法並びにプログラム
JP2011139797A (ja) 医用画像処理装置、及び医用画像処理プログラム
JP5934070B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
CN111093505B (zh) 放射线拍摄装置以及图像处理方法
JP2012024509A (ja) 画像処理装置、方法及びプログラム
US20230419517A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
JP6145870B2 (ja) 画像表示装置および方法、並びにプログラム
JP2002253480A (ja) 医療処置補助装置
JP5554028B2 (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP2018134197A (ja) 医用手技ナビゲーションシステムおよび方法
CN106028943A (zh) 超声虚拟内窥成像系统和方法及其装置
JP5366713B2 (ja) 消化管画像表示装置及び消化管画像データ表示用制御プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131001