JP2021153786A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2021153786A JP2021153786A JP2020056297A JP2020056297A JP2021153786A JP 2021153786 A JP2021153786 A JP 2021153786A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2020056297 A JP2020056297 A JP 2020056297A JP 2021153786 A JP2021153786 A JP 2021153786A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- eye
- region
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
【課題】被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得できる仕組みを提供する。【解決手段】被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像220を取得し、学習済モデル300を用いて、第1の画像220における焦点深度の幅に係る第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって第1の画像220の縦幅を有する第2の画像230を生成する。【選択図】図1
Description
本発明は、被検眼に係る画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理装置としてコンピュータを機能させるためのプログラム関するものである。この際、画像処理装置としては、例えば、被検眼からの測定光の戻り光における収差を測定して補正する補償光学機能を有する眼科撮影装置を適用することが好適である。
近年、眼科撮影装置として、被検眼の眼底に2次元的にレーザ光を照射してその戻り光を受光して画像化するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)装置や、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したイメージング装置は、OCT(Optical Coherence Tomography:光干渉断層計または光干渉断層撮影法)装置と呼ばれ、特に被検眼の眼底あるいはその近傍の断層画像を得る目的で用いられている。OCTの種類としては、TD−OCT(Time Domain OCT:タイムドメインOCT)や、SD−OCT(Spectral Domain OCT:スペクトラルドメインOCT)等を含め、種々のものが開発されてきている。
特に、近年、このような眼科撮影装置では、照射レーザの高NA化等によって、撮影画像の更なる高解像度化が進められている。しかしながら、例えば被検眼の眼底を撮影する場合には、被検眼の角膜や水晶体等の光学組織を通じた撮影を行わなければならないため、撮影画像の高解像度化が進むに連れて、これらの角膜や水晶体による収差が撮影画像の画質に大きく影響するようになってきた。
現在、被検眼による収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだAO−SLO装置やAO−OCT装置の研究が進められている。例えば、非特許文献1には、AO−OCT装置の例が示されている。AO−SLO装置やAO−OCT装置では、一般的には、シャックハルトマン波面センサー方式によって戻り光の波面を測定する。ここで、シャックハルトマン波面センサー方式とは、被検眼に測定光を入射し、その戻り光を、マイクロレンズアレイを通してCCDカメラで受光することによって、戻り光の波面を測定するものである。そして、AO−SLO装置やAO−OCT装置では、測定した戻り光の波面を補正するように可変形状ミラーや空間位相変調器等を駆動し、それらを通じて被検眼の眼底を撮影することにより、眼底の高分解能な平面画像や断層画像の撮影が可能となる(例えば、特許文献1参照)。
ZHANG,et al.,"High−speed volumetric imaging of cone photoreceptors with adaptive optics spectral−domain optical coherence tomography",Optics Express,May 15,2006,pages 4380−4394,Vol.14,No.10
例えば、眼科撮影装置としてAO−OCT装置を用いて断層画像を撮影する場合、高NA化によって得られる断層画像の焦点深度は浅く、一度の撮影では限られた(幅の狭い)縦幅の断層画像しか取得することができない。例えば、被検眼の神経線維層から脈絡膜までの広範囲な縦幅の断層画像を高分解能に得るためには、測定光を集光させる集光位置となる合焦位置(フォーカス位置)を縦方向(被検眼の深さ方向)に徐々にずらしながら各集光位置での断層画像を何枚も撮影し、最後にそれらの断層画像を組み合わせる(並べる)技術を採用することで達成されうる。しかしながら、この技術では、長時間に亘り患者に対して開瞼を要求することとなり、患者への負担が大きく、また患者の被検眼が不安定に陥りやすいため、精度の高い(解像度の高い)画像が得られないという問題がある。
本発明は、このような問題点に鑑みてなされたものであり、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得できる仕組みを提供することを目的とする。
本発明の画像処理装置は、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得手段と、学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置の各手段としてコンピュータを機能させるためのプログラムを含む。
また、本発明は、上述した画像処理装置による画像処理方法、及び、上述した画像処理装置の各手段としてコンピュータを機能させるためのプログラムを含む。
本発明によれば、被検眼に係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理装置において、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する概念を示す図である。図1には、OCT画像200及びAO−OCT画像210の一例が示されている。ここでは、AO−OCTを用いた断層画像を撮影する場合の一例について説明する。
図1において、入力データ220は、AO−OCTを用いた断層画像を撮影する際に得られる画像であって、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する「第1の画像」である。この入力データ220では、焦点深度の幅に係る集光位置の領域(第1領域)222と、第1領域222よりも解像度が低くボケた領域(第2領域)221及び223を有して構成されている。この際、集光位置の領域を示す第1領域222は、測定光を当該集光位置に合焦させる合焦位置の領域となる。そして、本実施形態では、学習済モデル300を用いて、入力データ220から出力データ(教師データ)230を生成する。具体的に、出力データ(教師データ)230は、入力データ220における第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅と同等の縦幅を有する「第2の画像」である。即ち、本実施形態では、学習済モデル300を用いて、AO−OCTによる撮影で得られた焦点深度の浅い(集光位置の縦幅(第1領域222)が狭い)断層画像を入力データ220とすることで、焦点深度の深い(集光位置の縦幅が広い)断層画像を出力データ(教師データ)230として生成するものである。
次に、図1に示す学習済モデル300を作成する際の処理について説明する。
図2は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。
学習済モデル300を作成する際の学習モデルでは、図2に示すように、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する画像であって且つ当該縦幅において合焦位置となる集光位置の領域が異なる複数の画像を入力データ320とする。図2に示す例では、入力データ320となる複数の画像における各画像は、図1の第1領域222に相当する集光位置の領域(第1領域)322と、図1の第2領域221及び223に相当するボケた領域(第2領域)321及び323を含み、集光位置の領域である第1領域322が相互に異なる6つの画像[1]−1〜[6]−1が示されている。また、図2に示す例では、6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322は、相互に異なる単層画像の部分画像となっている。また、6つの画像[1]−1〜[6]−1は、例えば連続した一連の撮影により得られた画像群である。そして、学習済モデル300を作成する際の学習モデルでは、例えば、結果として得たい縦幅広範囲断層画像1は、入力データ320となる6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322の部分画像(断層画像)を組み合わせることで生成される。即ち、図1の学習済モデル300は、縦幅において第1領域322の位置が異なる複数の画像を入力データ320とし、当該複数の画像のそれぞれの第1領域322の部分画像を用いて生成された画像1を出力データとする教師データを学習することにより得られるものである。
図2は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。
学習済モデル300を作成する際の学習モデルでは、図2に示すように、被検眼に対する測定光の焦点深度の幅を超える縦幅を有する画像であって且つ当該縦幅において合焦位置となる集光位置の領域が異なる複数の画像を入力データ320とする。図2に示す例では、入力データ320となる複数の画像における各画像は、図1の第1領域222に相当する集光位置の領域(第1領域)322と、図1の第2領域221及び223に相当するボケた領域(第2領域)321及び323を含み、集光位置の領域である第1領域322が相互に異なる6つの画像[1]−1〜[6]−1が示されている。また、図2に示す例では、6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322は、相互に異なる単層画像の部分画像となっている。また、6つの画像[1]−1〜[6]−1は、例えば連続した一連の撮影により得られた画像群である。そして、学習済モデル300を作成する際の学習モデルでは、例えば、結果として得たい縦幅広範囲断層画像1は、入力データ320となる6つの画像[1]−1〜[6]−1におけるそれぞれの第1領域322の部分画像(断層画像)を組み合わせることで生成される。即ち、図1の学習済モデル300は、縦幅において第1領域322の位置が異なる複数の画像を入力データ320とし、当該複数の画像のそれぞれの第1領域322の部分画像を用いて生成された画像1を出力データとする教師データを学習することにより得られるものである。
図3は、図1に示す学習済モデル300を作成する際の処理の概念を示す図である。具体的に、図3は、学習済モデル300を作成する際の学習モデルにおいて、図2の入力データ320から出力データ(教師データ)330を導出する概念図である。図3において、取得したい縦幅広範囲断層画像1は、入力データ320である複数の画像[1]−1〜[6]−1におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。同様に、取得したい縦幅広範囲断層画像2は、入力データ320である複数の画像[1]−2〜[6]−2におけるそれぞれの集光位置の領域(図2の第1領域322)の部分画像(断層画像)を組み合わせることで生成される。
例えば、AO−OCTによる撮影で図3の画像[1]−1が得られた場合を考える。この場合、図1の学習済モデル300では、この図3の画像[1]−1を入力データ220とし、例えば導出エンジン[1]によって縦幅広範囲断層画像1を出力データ(教師データ)230として導き出すものである。
以上は、本発明の概念を説明したものであるが、以下、具体的に、本発明の実施形態について説明する。まずは、本発明の実施形態に係る画像処理装置について説明する。
<装置構成>
図4は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成の一例を示す図である。本実施形態においては、測定対象を被検眼E(より具体的には、被検眼Eの眼底Ef)とし、眼科撮影装置100としては、同一装置内にAO−SLOユニット101とAO−OCTユニット102の両機能を有する、補償光学OCT−SLO装置を適用した一例について説明する。また、図4には、図1〜図3に示す画像の縦幅における縦方向に相当するZ方向、及び、当該Z方向と直交し且つ相互に直交するX方向及びY方向を示す、XYZ座標系を図示している。このように、図1〜図3に示す画像の縦幅における縦方向は、被検眼Eの眼底Efにおける深さ方向を示すZ方向に対応している。
図4は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成の一例を示す図である。本実施形態においては、測定対象を被検眼E(より具体的には、被検眼Eの眼底Ef)とし、眼科撮影装置100としては、同一装置内にAO−SLOユニット101とAO−OCTユニット102の両機能を有する、補償光学OCT−SLO装置を適用した一例について説明する。また、図4には、図1〜図3に示す画像の縦幅における縦方向に相当するZ方向、及び、当該Z方向と直交し且つ相互に直交するX方向及びY方向を示す、XYZ座標系を図示している。このように、図1〜図3に示す画像の縦幅における縦方向は、被検眼Eの眼底Efにおける深さ方向を示すZ方向に対応している。
まず、AO−SLOユニット101について説明する。
AO−SLOユニット101は、図4に示すように、光源141、単一モード光ファイバー142、コリメータ143、光分割部144、集光レンズ145、及び、光センサー146を有して構成されている。
AO−SLOユニット101は、図4に示すように、光源141、単一モード光ファイバー142、コリメータ143、光分割部144、集光レンズ145、及び、光センサー146を有して構成されている。
光源141は、例えば、波長760nmのSLD光源(Super Luminescent Diode)を用いることができる。この際、光源141の波長は、特に制限されるものではないが、眼底Efの撮像用としては、被検者の眩しさの軽減と分解能維持のために、750nm〜1500nm程度の波長が好適に用いられる。また、本実施形態では、光源141としてSLD光源を用いたが、その他にレーザ等も用いることができる。また、本実施形態では、眼底撮像と波面測定のための光源を共用しているが、それぞれを別光源とし、光路の途中で合波する構成としてもよい。また、本実施形態では、AO−SLOユニット101を含むAO−SLO光学系は、AO−OCTユニット102を含むAO−OCT光学系と一部の光学系を共用するため、AO−OCT光学系との光路と分岐するために、AO−OCTユニット102に含まれる光源151の波長とは異なる波長を選択し、ダイクロイックミラー島で光路を分岐する構成としている。
光源141から照射された光は、単一モード光ファイバー142を通って、コリメータ143により、平行光線(測定光105)として照射される。照射される測定光105の偏光は、単一モード光ファイバー142の経路に具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ143から出射された後の光路に偏光を調整する光学部品を配置する構成がある。
照射された測定光105は、ビームスプリッターからなる光分割部144を通過し、更にAO−OCTユニット102との光分岐用のビームスプリッター104を通過し、補償光学機能の光学系(補償光学系)に導光される。
補償光学系は、光分割部106、反射ミラー107−1〜107−4、波面補正デバイス108、リレー光学系113−1〜113−2、アパーチャー114、及び、波面センサー115を有して構成されている。ここで、反射ミラー107−1〜107−4は、少なくとも、被検眼Eの瞳と波面センサー115及び波面補正デバイス108とが光学的に共役関係になるように設置されている。また、本実施形態では、光分割部106としてビームスプリッターを用いる。
光分割部106を透過した測定光105は、反射ミラー107−1と反射ミラー107−2で反射されて波面補正デバイス108に入射する。そして、波面補正デバイス108で反射された測定光105は、更に反射ミラー107−3と反射ミラー107−4で反射され、走査光学系109−1に導光される。
本実施形態では、波面補正デバイス108として可変形状ミラーを用いる。この際、可変形状ミラーは、反射面が複数の領域に分割されており、各領域の角度を変えることにより、反射光の波面を変化させることができるミラーである。また、波面補正デバイス108としては、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼Eからの光の両偏光の波面を補正するために、2つの空間位相変調器を用いる場合もある。
反射ミラー107−3及び反射ミラー107−4で反射された光は、走査光学系109−1によって、1次元もしくは2次元に走査される。本実施形態では、走査光学系109−1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として1つの共振スキャナーと1つのガルバノスキャナーを用いる。別の構成では、走査光学系109−1に2つのガルバノスキャナーを用いることもある。走査光学系109−1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる構成を採用する場合もある。
本実施形態では、走査光学系109−1に加えて更にトラッキングミラー109−2を備える。このトラッキングミラー109−2は、2つのガルバノスキャナーから構成され、撮像領域をさらに2方向に移動させることが可能である。別の構成では、走査光学系109−1がトラッキングミラー109−2の機能を兼ねる構成や、トラッキングミラー109−2が走査光学系109−1の共振スキャナー方向のみの構成、トラッキングミラー109−2が2次元ミラーである構成もありうる。また、走査光学系109−1とトラッキングミラー109−2を光学的に共役関係とするために、不図示のリレー光学系が用いられることが多い。
走査光学系109−1及びトラッキングミラー109−2で走査された測定光105は、接眼レンズ110−1及び接眼レンズ110−2を通して被検眼Eに照射される。被検眼Eに照射された測定光105は、眼底Efで反射もしくは散乱される。接眼レンズ110−1及び接眼レンズ110−2の位置を調整することによって、被検眼Eの視度に合わせて最適な測定光105の照射を行うことが可能となる。ここでは、眼科撮影装置100の接眼部に接眼レンズ110を配置したが、球面ミラー等で構成しても良い。
被検眼Eの網膜(眼底Ef)から反射もしくは散乱された測定光105の戻り光は、測定光105の入射時の経路を逆向きに進行し、光分割部106によってその一部の光が波面センサー115の側に反射され、戻り光の波面を測定するために用いられる。光分割部106において波面センサー115に向けて反射された戻り光は、リレー光学系113−1、アパーチャー114及びリレー光学系113−2を通り、波面センサー115に入射する。リレー光学系113−1とリレー光学系113−2との間に配置されたアパーチャー114は、レンズ等からの不要な反射散乱光が波面センサー115に入射しないようにするための光学部材である。本実施形態では、波面センサー115としてシャックハルトマンセンサーを用いる。
波面センサー115は、補償光学制御部116に接続され、受光した戻り光の波面を補償光学制御部116に伝える。波面補正デバイス108も補償光学制御部116に接続されており、補償光学制御部116から指示された変調(合焦位置への変調)を行う。例えば、補償光学制御部116は、波面センサー115の測定結果により導出される撮影に十分なスポット数から合焦位置を計算し、波面補正デバイス108にそのフォーカス値となるような合焦位置へ変調するように指令する。その後、補償光学制御部116は、波面センサー115の測定結果による取得された戻り光の波面に基づいて、収差のない波面へと補正するような波面補正デバイス108の画素ごとの変調量(収差補正量)を計算し、波面補正デバイス108にそのように変調するように指令する。波面センサー115による戻り光の波面の測定と補償光学制御部116による波面補正デバイス108への指示は、繰り返し処理され、常に最適な合焦位置と波面となるようにフィードバック制御が行われる。
光分割部106を透過した戻り光は、光分割部144によって一部の光が反射され、集光レンズ145によってピンホールを有する光センサー146に集光される。そして、光センサー146は、受光した光の強度に応じた電気信号に変換する。光センサー146は、制御部117に接続され、制御部117は、光センサー146で得られた電気信号と光走査の位置に基づいて被検眼Eの眼底Efの平面画像(眼底画像)を構成する。その後、被検眼Eの眼底Efの平面画像は、画像処理部118で画像処理が施された後、AO−SLO画像としてディスプレイ119に表示される。
次に、AO−OCTユニット102について説明する。
AO−OCTユニット102は、図4に示すように、光源151、ファイバーカプラー152、参照光学系153、及び、分光器154を有して構成されている。
AO−OCTユニット102は、図4に示すように、光源151、ファイバーカプラー152、参照光学系153、及び、分光器154を有して構成されている。
光源151は、例えば、波長840nmのSLD光源を用いる。光源151は、低干渉性の光を出射できるものであればよく、波長幅が30nm以上のSLDが好適に用いられる。また、光源151に、チタンサファイアレーザなどの超短パルスレーザ等を用いることもできる。本実施形態では、AO−OCTユニット102を含むAO−OCT光学系は、AO−SLOユニット101を含むAO−SLO光学系と一部の光学系を共用するため、光源151は、AO−SLOユニット101の光源141と異なる波長の光を出射するものとし、ダイクロイックミラー等で分岐する構成が望ましい。
光源151から照射された光は、単一モード光ファイバーを通って、ファイバーカプラー152まで導光される。ファイバーカプラー152は、光源151から出射された光を測定光経路L1と参照光経路L2とに分岐する。本実施形態では、ファイバーカプラー152は、10:90の分岐比のものを使用し、投入光量の10%が測定光経路L1に行く構成とする。
測定光経路L1を通った光は、測定光としてコリメータ103によって平行光線として照射される。照射される測定光の偏光は、測定光経路L1としての単一モード光ファイバーに具備された不図示の偏光調整器により調整される。別の構成としては、コリメータ103から出射された後の光路に偏光を調整する光学部品を配置する構成もある。また、測定光経路L1中に測定光の分散特性を調整する光学素子や色収差特性を調整する光学素子を具備する場合もある。
AO−OCTユニット102から出射された測定光は、光分岐用のビームスプリッター104でAO−SLOユニット101から出射された測定光と合波され、測定光105として、AO−SLO光学系と同様の光路をたどり、被検眼E(具体的には、被検眼Eの眼底Ef)を照射する。被検眼Eから散乱・反射された戻り光は、AO−SLO光学系と同様に往路と同じ経路を逆向きに進み、光分岐用のビームスプリッター104で反射されて測定光経路L1としての光ファイバーを通じてファイバーカプラー152に戻る。
AO−OCTユニット102から出射された測定光の戻り光も、波面センサー115で波面が測定され、波面補正デバイス108で補正される。なお、波面補正の方法は、このような方式に限定されるわけではなく、AO−OCT光学系に係る戻り光の波面のみを測定する場合や、AO−SLO光学系に係る戻り光の波面のみを測定する場合には、例えば、波面センサー115の前に光学フィルターを追加する構成を採る。また、光学フィルターを動的に抜差ししたり変更したりすることで、波面を測定する戻り光を切り替える制御も可能である。
一方、AO−OCTユニット102において、参照光経路L2を通った参照光は、参照光学系153のコリメータ1531から出射され、ミラー1532−1及びミラー1532−2で反射して光路長可変部1533に到達する。そして、光路長可変部1533に到達した参照光は、光路長可変部1533で反射され、ミラー1532及びコリメータ1531を通じて、再度、ファイバーカプラー152に戻る。
ファイバーカプラー152に到達した測定光の戻り光と参照光とは、合波され干渉光として、光ファイバーを通して分光器154に導光される。分光器154に入った干渉光は、コリメータ1541で出射され、グレーティング1542により波長ごとに分光される。グレーティング1542で分光された干渉光は、レンズ系1543−1及びレンズ系1543−2を通じてラインセンサー1544に照射される。ラインセンサー1544は、CCDセンサーで構成される場合もあるし、CMOSセンサーで構成される場合もある。
分光器154のラインセンサー1544は、制御部117に接続され、制御部117は、ラインセンサー1544で得られた干渉光に基づく電気信号(干渉信号)に基づいて被検眼Eの眼底Efの断層画像を構成する。この際、制御部117は、光路長可変部1533を駆動制御し、被検眼Eの眼底Eにおける所望の深さ位置(深さ領域)の断層画像を取得する。また、制御部117は、走査光学系109−1及びトラッキングミラー109−2も同時に駆動制御しており、任意の位置(領域)の干渉信号が取得可能である。制御部117は、得られた干渉信号から断層画像を生成することにより、3次元ボリュームデータが取得できる。その後、被検眼Eの眼底Efの断層画像は、画像処理部118で画像処理が施された後、AO−OCT画像としてディスプレイ119に表示される。
AO−OCTでは、非常に高解像度で高精細な断層画像が得られるので、被検眼Eの神経節細胞などの細胞構造が明瞭に描出されるため、細胞レベルの解析に非常に有用である。
次に、波面センサー115について詳しく説明する。
図5は、図4に示す波面センサー115の概略構成の一例を示す図である。具体的に、図5は、波面センサー115としてシャックハルトマンセンサーを用いた例を示している。具体的に、波面センサー115は、図5(a)に示すように、マイクロレンズアレイ132及びCCDセンサー133を有して構成されている。
図5は、図4に示す波面センサー115の概略構成の一例を示す図である。具体的に、図5は、波面センサー115としてシャックハルトマンセンサーを用いた例を示している。具体的に、波面センサー115は、図5(a)に示すように、マイクロレンズアレイ132及びCCDセンサー133を有して構成されている。
マイクロレンズアレイ132は、測定光105の戻り光131をCCDセンサー133上の焦点面134に集光させるものである。
図5(b)は、図5(a)に示す波面センサー115を、図5(a)のA−A'で示す位置から見た様子を示す図である。図5(a)に示すマイクロレンズアレイ132は、図5(b)に示すように、複数のマイクロレンズ135から構成されている。測定光105の戻り光131は、図5(b)に示す各マイクロレンズ135を通してCCDセンサー133上に集光される。このため、測定光105の戻り光131は、図5(c)に示すように、マイクロレンズ135の個数分のスポット136に分割されて、CCDセンサー133上に集光される。
図4に示す補償光学制御部116は、制御部117の制御に基づいて、図5(c)に示す各スポット136の位置から、入射した戻り光131の波面を計算する。例えば、補償光学制御部116は、各スポット136の波面に収差がない場合の基準位置と波面センサー115で測定された位置との差から各収差測定点における戻り光131の波面の傾きを算出する。また、例えば、補償光学制御部116は、各スポット136の基準位置と波面センサー115で測定された位置との差からZernike係数を算出することも可能である。
図6は、図4に示す波面センサー115で測定する波面を説明するための図である。この図6において、図5に示す構成と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
図6(a)には、球面収差を持つ戻り光131の波面137が示されている。図6(a)に示す例の場合、測定光105の戻り光131は、図6(a)に示す波面137で形成されている。測定光105の戻り光131は、マイクロレンズアレイ132によって、CCDセンサー133において波面137の局所的な垂線方向の位置に集光される。図6(b)は、この場合の戻り光131のCCDセンサー133における集光状態の一例を示す図である。戻り光131が球面収差を持つため、スポット136は、図6(b)に示すように、CCDセンサー133の中央部に偏った状態で集光される。この位置を計算することによって、戻り光131の波面が検出される。ここでは、波面センサー115として、30個×40個のマイクロレンズアレイ132を有するシャックハルトマンセンサーを用いた。
図4に示す接眼レンズ110−1及び接眼レンズ110−2で被検眼Eの視度に対応するような光学系がある場合には、接眼レンズ110−1及び接眼レンズ110−2が良好に調整されていることが重要である。そうすることで、収差補正処理の実行時に、被検眼Eの収差の大部分を占めるデフォーカス成分を波面補正デバイス108で補正する必要がなくなる。また、波面センサー115の直前に配置されたアパーチャー114によって不要光をカットすることで正しい収差を測定することが可能となる。しかしながら、被検眼Eの収差のデフォーカスが補正されていないと、本来は通過させるべき被検眼Eの網膜からの戻り光もアパーチャー114の部分で広がった状態となり、大部分がアパーチャー114でカットされてしまうことになる。さらに、収差補正処理を最大限有効に動作させるためには、正しい位置に被検眼Eを配置することが重要であり、不図示の前眼部モニターや波面センサー115の測定結果を見ながら、被検眼Eの位置を調整する必要がある。なお、表示される波面センサー115の測定結果は、例えば、図6(b)に示すハルトマン像と呼ばれる画像である。
図7は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図7は、本実施形態の学習用の教師データとなる収差補正された画像を取得するための処理手順の一例を示すフローチャートである。
まず、ステップS110において、検査者の指示を受けた制御部117は、光源151等を駆動し光照射を開始する。なお、公知の手法により被検眼Eを眼科撮影装置100に対して大まかに位置合わせをした状態から説明する。本実施形態では、画像撮影用の光と波面測定用の光が同一であるため、ステップS110では、被検眼Eの眼底Efの撮影と測定光105の戻り光の波面測定が可能な状態となる。
続いて、ステップS120において、制御部117は、検査者からの入力デバイスを用いた指示に基づいて、被検眼Eの顔位置の微調整やフォーカス調整等を行う。この際、フォーカス調整に係るフォーカス値は、予め別の装置で測定した値を入力する構成でもよい。
続いて、ステップS130において、波面センサー115は、上述した図6(b)に示すハルトマン像を取得し、これを補償光学制御部116へ出力する。
続いて、ステップS140において、補償光学制御部116は、ステップS130で得られたハルトマン像に基づいて、合焦位置補正処理を行う。ここで得られる補正された合焦位置での被検眼Eの断層画像は、全断層画像までは合焦されていない(焦点深度の浅い)、例えば図2に示す画像[3]−1のような断層画像である。
続いて、ステップS150において、補償光学制御部116は、収差補正処理を行う。具体的に、補償光学制御部116は、波面センサー115により戻り光の収差を測定して収差情報を取得することで、測定した結果に基づく収差補正量を計算し、これに基づいて波面補正デバイス108を駆動させることで収差補正処理を行う。
ここで、収差の測定は、波面センサー115として用いるシャックハルトマンセンサーのスポット136を計測し、各測定点のスポット位置の基準位置からの移動量(ずれ量)を算出することで行う。一般的に、移動量は、X方向とY方向の変位量で表される。本実施形態では、30個×40個のマイクロレンズアレイ132のシャックハルトマンセンサーを使用しているので、全てのマイクロレンズアレイ132に測定光が入射している場合には、30×40で1200の測定点におけるスポット136の移動量が算出される。補償光学制御部116は、このスポット136の移動量データから収差補正量を計算する。なお、この方法以外にも、測定したスポット136の移動量から戻り光の波面を表現するためのZernike係数を算出することも可能であり、それを基に波面補正デバイス108を制御することが可能であることは言うまでもない。
続いて、ステップS160において、制御部117は、合焦位置と収差が補正された状態で被検眼Eの撮影を行う。ここでは、例えば、その撮影で取得された断層画像を図2に示す画像[3]−1とする。
焦点深度の深い(合焦された縦幅の広い)断層画像を取得するためには、ステップS160で撮影を実行した後、ステップS140に戻る。上述したステップS160で取得される断層画像は、焦点深度の浅い(合焦された縦幅が狭い)画像であるためである。そして、上述したステップS140で補正された合焦位置(例えば図2に示す画像[3]−1)から"ずらした"例えば図2に示す画像[4]−1のような合焦位置に補正する。その後、改めて収差補正を実行し撮影する。例えば、その撮影で取得された断層画像を図2に示す画像[4]−1とする。
このように、撮影終了の要求があるまで、ステップS140〜ステップS160を繰り返し実行する。これは、例えば図2に示す画像[1]−1〜[6]−1までの単層画像を取得し、それらを結合して、焦点深度の深い(合焦された縦幅の広い)断層画像を生成する。
次に、ステップS140の合焦位置補正処理の詳細について説明する。
ステップS140の合焦位置補正処理では、まず、ステップS141において、補償光学制御部116は、ハルトマン像から出力されてきたスポット像を認識し、認識できたスポット数nを算出(検出)する。この際、撮影に十分なスポット数となった場合には、次ステップであるステップS142に移行する。一方、スポット数が十分でない場合には、一定時間経過後にステップS130へ戻る。
ステップS142に進むと、補償光学制御部116は、測定されたスポット136から公知の手法でフォーカス値Fを算出する。フォーカス値が十分小さく補正されると、次ステップであるステップS150に移行する。フォーカス値が十分小さく補正されていない場合には、一定時間経過後にステップS130へ戻る。
ここで、ステップSS160で得られる単層画像(例えば図2に示す画像[3]−1)と、その単層画像を結合し組み合わせて得られる全断層画像(例えば図2に示す「結果として得たい全断層画像1」)は、それぞれ不図示のメモリ上に蓄積される。そして、本実施形態では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅の画像であって且つ当該縦幅において合焦位置が異なる複数の画像を結合し組み合わせた全断層画像1を教師データとして用いる。
<学習>
次に、眼科撮影装置100の撮影により得られた単層画像から、全断層画像を学習させる例について説明する。なお、ここでいう単層画像とは、例えば図2に示す画像[3]−1であり、また、ここでいう全断層画像とは、例えば図2に示す「結果として得たい全断層画像1」のことである。
次に、眼科撮影装置100の撮影により得られた単層画像から、全断層画像を学習させる例について説明する。なお、ここでいう単層画像とは、例えば図2に示す画像[3]−1であり、また、ここでいう全断層画像とは、例えば図2に示す「結果として得たい全断層画像1」のことである。
図8は、図4に示す画像処理部118の概略構成の一例を示す図である。ここで、図8では、画像処理部118と接続される、制御部117及びディスプレイ119も、図示している。
画像処理部118は、図8に示すように、画像取得部810、CNN処理部820、及び、学習部830を有して構成されている。
画像取得部810は、制御部117を介して、被検眼Eの眼底Efにおける単層画像を取得する。
CNN処理部820は、畳み込みニューラルネットワークを用いて画像処理を行って、画像取得部810で取得した単層画像から、全断層画像を生成する。本実施形態では、ディープラーニングの一種であるCNN(Convolutional Neural Network)によってモデルを学習する。
学習部830は、CNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。
図9は、図8に示すCNN処理部820の概略構成の一例を示す図である。CNN処理部820は、図8に示すように、画像エンコーダネットワーク821、及び、デコーダネットワーク822を含み構成されている。このCNN処理部820には、畳み込み(Convolution)層、活性化(Activation)層、ダウンサンプリング(Pooling)層、アップサンプリング(Up Sampling)層、合成(Merger)層がある。畳み込み(Convolution)層は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、ダイレーション値などのパラメータに従って、入力値群に対して畳み込み処理を行う層である。なお、前記フィルタのカーネルサイズを、入力画像の次元数に応じて変更する構成にしてもよい。活性化(Activation)層は、入力信号の総和の活性化について決定し、ステップ関数、シグモイド関数やReLU(Rectified Linear Unit)で構成される。ダウンサンプリング(Pooling)層は、Max Pooling処理など、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。アップサンプリング(Up Sampling)層は、線形補間処理など、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。合成(Merger)層は、或る層の出力値群や画像を構成する画素値群などの値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。
画像エンコーダネットワーク821は、入力画像である上述した単層画像に対して複数のエンコード層による畳み込み演算を行う。各エンコード層は、1以上の畳み込み処理部とプーリング処理部を有し、各層の結果が内部的に保持できるように構成される。学習データとしては、単層画像を入力とし、出力として全断層画像を学習データとする。この学習データを用いて、モデルを機械学習し、学習したモデルを学習済モデル300として用いて単層画像から全断層画像へ変換するネットワークパラメータを得る。
<CNNによる単層画像の組合せを用いた撮影>
次に、上述した学習済モデル300を用いて、断層画像を撮影する方法について説明する。装置構成については、図4〜図6,図8〜図9で示したものとなる。
次に、上述した学習済モデル300を用いて、断層画像を撮影する方法について説明する。装置構成については、図4〜図6,図8〜図9で示したものとなる。
具体的に、図4に示すように、波面補正デバイス108は、補償光学制御部116に接続されており、補償光学制御部116から指示された合焦位置と収差となるように変調を行う。画像処理部118は、得られた単層画像データと、上述した学習(学習済モデル300)によって得られた全断層画像データを基にして、全断層の全縦幅に合焦された焦点深度の深い(合焦位置縦幅が広い)断層画像を生成し、これをディスプレイ119に表示する。
図10は、本発明の第1の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法における処理手順の一例を示すフローチャートである。具体的に、図10は、学習済モデル300を用いて、出力データ230を生成する際の処理手順の一例を示すフローチャートである。
図10のステップS210〜ステップS260は、それぞれ、図7のステップS110〜ステップS160の処理と同様である。この際、ステップS260で得られる単層画像の合焦位置(集光位置)は、単層画像の特徴的な部位に合わせられる。ここでは、輝度値の高い、全断層の全縦幅の中の任意の位置(患者ごとに異なる)にフォーカスが合うものとする。
ステップS260で得られる単層画像と合焦位置(集光位置)を上述した学習によって得られた学習済モデル300のネットワークへ入力することで、全断層画像の生成が可能となる。具体的には、図1を用いて説明すると、例えばステップS260で得られる単層画像は、入力データ220で表されるような合焦位置(集光位置)と焦点深度の浅い(集光位置の縦幅が狭い)断層画像である。本実施形態では、この(1枚の)断層画像を入力データ220とし、学習済モデル300を用いて、CNNによる単層画像の組合せによって、図1に示す全断層の全縦幅に係る出力データ230を生成する。
ここで、一例として図3と図8を用いて説明を行う。
仮に、ここでは、ステップS260で得られる単層画像は、画像[2]−1であるものとする。学習済モデル300に対するインプット情報としては、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層の全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、縦幅広範囲断層画像を導き出すものである。
上述のように導き出された出力データ(教師データ)230としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。以上より、ステップS260での1回の撮影で任意の合焦位置と単層画像を得ることができ、学習済モデル300を用いることにより、縦幅広範囲断層画像である出力データ(教師データ)230を導き出して表示を行うことができる。
仮に、ここでは、ステップS260で得られる単層画像は、画像[2]−1であるものとする。学習済モデル300に対するインプット情報としては、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層の全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、縦幅広範囲断層画像を導き出すものである。
上述のように導き出された出力データ(教師データ)230としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。以上より、ステップS260での1回の撮影で任意の合焦位置と単層画像を得ることができ、学習済モデル300を用いることにより、縦幅広範囲断層画像である出力データ(教師データ)230を導き出して表示を行うことができる。
本実施形態においては、図1に示すように、学習済モデル300を用いて生成された出力データ(教師データ)230は、入力データ220よりも、第1領域222の解像度と同等の解像度を有する範囲が大きい画像となっている。また、学習済モデル300を用いて生成された出力データ(教師データ)230は、例えば被検眼Eにおけるスクリーニング用の画像であることが好適である。
以上説明したように、第1の実施形態に係る眼科撮影装置100では、被検眼Eに対する測定光の焦点深度の幅を超える縦幅を有する入力データ220を取得するようにしている。そして、第1の実施形態に係る眼科撮影装置100では、学習済モデル300を用いて、入力データ220における焦点深度の幅に係る第1領域222を除く第2領域221及び223の解像度よりも高い解像度を有する画像であって入力データ220の縦幅を有する出力データ(教師データ)230を生成するようにしている。
かかる構成によれば、被検眼Eに係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。より具体的には、各集光位置(各合焦位置)での複数枚の断層画像を撮影することなく、広範囲で高分解能な断層画像を短時間で取得することが可能となる。
かかる構成によれば、被検眼Eに係る広範囲な縦幅の画像を短時間に高い解像度で取得することができる。より具体的には、各集光位置(各合焦位置)での複数枚の断層画像を撮影することなく、広範囲で高分解能な断層画像を短時間で取得することが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。なお、以下に記載する第2の実施形態の説明においては、上述した第1の実施形態と共通する事項については説明を省略し、上述した第1の実施形態と異なる事項について説明を行う。
次に、本発明の第2の実施形態について説明する。なお、以下に記載する第2の実施形態の説明においては、上述した第1の実施形態と共通する事項については説明を省略し、上述した第1の実施形態と異なる事項について説明を行う。
上述した第1の実施形態では、例えば図1の入力データ220に示されるように、集光位置の領域(第1領域222)が単層であるものについて説明を行ったが、複数層あるものであってもよい。また、集光位置の領域(第1領域222)が複数層である画像の生成方法としては、合焦位置をずらすことで人為的に得るものである。具体的に、意図的に複数枚の単層画像を取得し、例えば2枚の単層画像が得られたところでCNNによる単層画像の組合せを用い、「結果として得たい全断層画像」を生成する。
第2の実施形態に係る画像処理装置として適用する眼科撮影装置の概略構成は、図4に示す第1の実施形態に係る画像処理装置として適用する眼科撮影装置100の概略構成と同様である。
図11は、本発明の第2の実施形態に係る画像処理装置として適用する眼科撮影装置100による画像処理方法を説明するための図である。例えば、予め狙いたい被検眼Eの眼底Efにおける合焦位置がある場合には、その位置を選択できるようにする。ここで、選択できるようにする理由は、事前情報としてその位置に所見が認められる場合、或いはその位置の経時的変化を観察したい場合など、予め位置を狙いたい目的があるシーンが様々あるからである。つまり、医師は、部位によっては学習機能によって導出された画像ではなく、処理の無い真実の画像を要求する。
本実施形態では、図10のステップS260の撮影において得られる情報は、「選択された単層画像1111及び1121」を含む画像1110及び1120と「任意の合焦位置と単層画像」である。インプット情報としては、「選択された単層画像情報」と、「焦点深度の浅い(合焦位置(集光位置)の縦幅が狭い)画像情報」と、「輝度値の高い、全断層画像全縦幅の中の任意の合焦位置(集光位置)(患者ごとに異なる)」である。そのインプット情報は、画像処理部118の中の画像取得部810にセットされ、CNN処理部820において畳み込みニューラルネットワークを用いて「選択された単層画像1111及び1121」を除く範囲で画像処理を行い、学習部830においてCNN処理部820が参照する畳み込みニューラルネットワークの学習処理を行う。それは、例えば、図3に示す導出エンジン[2]において、インプット情報の画像情報内の輝度分布に基づく特徴量(輝度変化の傾きなど)をたよりに、学習済モデル300によって縦幅広範囲断層画像を導き出すものである。
その後、学習済モデル300によって生成された縦幅広範囲断層画像と「選択された単層画像1111及び1121」とを組み合わせ、出力データ(教師データ)1130としての縦幅広範囲断層画像をディスプレイ119に表示し、使用者に明示する。ここで、図11において、出力データ(教師データ)1130のうちの単層画像1131の部分画像及び単層画像1132の部分画像が、それぞれ、選択された単層画像1111の部分画像及び選択された単層画像1121の部分画像に相当するものである。即ち、出力データ(教師データ)1130は、学習済モデル300を用いて得られた画像に、画像1110及び1120における単層画像1111の部分画像及び単層画像1121の部分画像を合成した画像となっている。
上述した第1の実施形態と本実施形態との相違点は、本実施形態では、「選択された単層画像1111及び1121」を除く範囲で導出処理を行うことと、導出された縦幅広範囲断層画像と選択された単層画像(真実の画像)をその後に組み合わせるという点である。図11の概念図で示すように、例えば病変部のある単層画像1111の部分画像ともう1つの単層画像1121の部分画像をもとに全断層画像に係る出力データ(教師データ)1130を生成することは、病変部も網羅した断層画像を生成することとなり且つ処理時間も短縮できる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。なお、以下に記載する第3の実施形態の説明においては、上述した第1及び第2の実施形態と共通する事項については説明を省略し、上述した第1及び第2の実施形態と異なる事項について説明を行う。
次に、本発明の第3の実施形態について説明する。なお、以下に記載する第3の実施形態の説明においては、上述した第1及び第2の実施形態と共通する事項については説明を省略し、上述した第1及び第2の実施形態と異なる事項について説明を行う。
上述した第1及び第2の実施形態では、単層画像の縦幅を例えば図2に示す画像[1]−1〜[6]−1といったように6層で分けられる例を説明したが、本発明においては、6層に限定されるものではない。
(その他の実施形態)
上述した本発明の実施形態では、画像処理部118を眼科撮影装置100の内部に構成し、眼科撮影装置100を本発明に係る画像処理装置として適用する形態を説明したが、本発明においてはこの形態に限定されるものではない。例えば、画像処理部118を眼科撮影装置100の外部の外部装置に構成し、当該外部装置を本発明に係る画像処理装置として適用する形態も、本発明に含まれるものである。
上述した本発明の実施形態では、画像処理部118を眼科撮影装置100の内部に構成し、眼科撮影装置100を本発明に係る画像処理装置として適用する形態を説明したが、本発明においてはこの形態に限定されるものではない。例えば、画像処理部118を眼科撮影装置100の外部の外部装置に構成し、当該外部装置を本発明に係る画像処理装置として適用する形態も、本発明に含まれるものである。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:眼科撮影装置、101:AO−SLOユニット、102:AO−OCTユニット、103:コリメータ。104:光分岐用のビームスプリッター、105:測定光、106:光分割部、107:反射ミラー、108:波面補正デバイス、109−1:走査光学系、109−2:トラッキングミラー、113:リレー光学系、114:アパーチャー、115:波面センサー、116:補償光学制御部、117:制御部、118:画像処理部、119:ディスプレイ、E:被検眼、Ef:眼底、200:OCT画像、210:AO−OCT画像、220:入力データ、230:出力データ(教師データ)、300:学習済モデル
Claims (7)
- 被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得手段と、
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 - 前記学習済モデルは、前記縦幅において前記第1領域の位置が異なる複数の画像を入力データとし、前記複数の画像のそれぞれの前記第1領域の部分画像を用いて生成された画像を出力データとする教師データを学習することにより得られるものであることを特徴とする請求項1に記載の画像処理装置。
- 前記第2の画像は、前記第1の画像よりも、前記第1領域の解像度と同等の解像度を有する範囲が大きいことを特徴とする請求項1または2に記載の画像処理装置。
- 前記第2の画像は、前記被検眼におけるスクリーニング用の画像であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記第2の画像は、前記学習済モデルを用いて得られた画像に、前記第1の画像における前記第1領域の部分画像を合成した画像であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
- 被検眼に対する測定光の焦点深度の幅を超える縦幅を有する第1の画像を取得する取得ステップと、
学習済モデルを用いて、前記第1の画像における前記焦点深度の幅に係る第1領域を除く第2領域の解像度よりも高い解像度を有する画像であって前記縦幅を有する第2の画像を生成する生成ステップと、
を有することを特徴とする画像処理方法。 - コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056297A JP2021153786A (ja) | 2020-03-26 | 2020-03-26 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056297A JP2021153786A (ja) | 2020-03-26 | 2020-03-26 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021153786A true JP2021153786A (ja) | 2021-10-07 |
Family
ID=77916056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056297A Pending JP2021153786A (ja) | 2020-03-26 | 2020-03-26 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021153786A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023047692A1 (ja) | 2021-09-22 | 2023-03-30 | 三菱造船株式会社 | 浮体 |
-
2020
- 2020-03-26 JP JP2020056297A patent/JP2021153786A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023047692A1 (ja) | 2021-09-22 | 2023-03-30 | 三菱造船株式会社 | 浮体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9339183B2 (en) | Aberration correction method, photographing method and photographing apparatus | |
JP5511324B2 (ja) | 補償光学装置、補償光学方法、撮像装置、撮像方法 | |
US9875541B2 (en) | Enhanced algorithm for the detection of eye motion from fundus images | |
KR101453327B1 (ko) | 안저 촬상방법, 안저 촬상장치, 및 기억매체 | |
US9107619B2 (en) | Optical-image pickup apparatus and method for controlling the same | |
JP5517571B2 (ja) | 撮像装置および撮像方法 | |
JP2013248260A (ja) | 撮影装置、制御方法及びプログラム | |
JP5567847B2 (ja) | 補償光学装置、補償光学方法、撮像装置 | |
US10357155B2 (en) | Wavefront correction method for adaptive optics system | |
US11134841B2 (en) | Image acquisition apparatus and method for controlling the same | |
JP7091018B2 (ja) | 断層画像取得装置及び方法 | |
JP2021153786A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6021394B2 (ja) | 撮像方法および撮像装置 | |
JP2014079464A (ja) | 眼科装置及びその波面収差補正方法 | |
JP2020131017A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2019097944A (ja) | 眼科撮影装置 | |
JP7508216B2 (ja) | 撮影装置およびその制御方法 | |
WO2020166465A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR101422731B1 (ko) | 쥐과 망막의 단층 촬영을 위한 촬상 장치 | |
JP2016036588A (ja) | 撮像装置および撮像方法 | |
JP7309404B2 (ja) | 撮像装置およびその制御方法 | |
JP2021137256A (ja) | 眼科装置、眼科装置の作動方法、及びプログラム | |
JP5943953B2 (ja) | 撮像装置及びその制御方法 | |
WO2020209012A1 (ja) | 画像解析方法及び画像解析装置 | |
JP2019198468A (ja) | 画像処理装置およびその制御方法 |