JP2020131017A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2020131017A JP2020131017A JP2019214381A JP2019214381A JP2020131017A JP 2020131017 A JP2020131017 A JP 2020131017A JP 2019214381 A JP2019214381 A JP 2019214381A JP 2019214381 A JP2019214381 A JP 2019214381A JP 2020131017 A JP2020131017 A JP 2020131017A
- Authority
- JP
- Japan
- Prior art keywords
- image
- resolution
- aberration
- eye
- inspected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 164
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000004075 alteration Effects 0.000 claims abstract description 282
- 238000012937 correction Methods 0.000 claims description 185
- 238000003384 imaging method Methods 0.000 claims description 138
- 238000000034 method Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 36
- 210000000608 photoreceptor cell Anatomy 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 17
- 108091008695 photoreceptors Proteins 0.000 claims description 4
- 210000004027 cell Anatomy 0.000 claims 1
- 239000010410 layer Substances 0.000 description 61
- 230000003287 optical effect Effects 0.000 description 57
- 230000003044 adaptive effect Effects 0.000 description 43
- 238000012014 optical coherence tomography Methods 0.000 description 43
- 238000005259 measurement Methods 0.000 description 36
- 230000004048 modification Effects 0.000 description 36
- 238000012986 modification Methods 0.000 description 36
- 238000013527 convolutional neural network Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 239000013307 optical fiber Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 210000001525 retina Anatomy 0.000 description 13
- 239000000835 fiber Substances 0.000 description 8
- 210000000695 crystalline len Anatomy 0.000 description 7
- 230000010287 polarization Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 238000004441 surface measurement Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000003702 image correction Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 210000002421 cell wall Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000002207 retinal effect Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 206010025421 Macule Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 210000001328 optic nerve Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- MYZAXBZLEILEBR-RVFOSREFSA-N (2S)-1-[(2S,3R)-2-[[(2R)-2-[[2-[[(2S)-2-[(2-aminoacetyl)amino]-5-(diaminomethylideneamino)pentanoyl]amino]acetyl]amino]-3-sulfopropanoyl]amino]-3-hydroxybutanoyl]pyrrolidine-2-carboxylic acid Chemical compound C[C@@H](O)[C@H](NC(=O)[C@H](CS(O)(=O)=O)NC(=O)CNC(=O)[C@H](CCCN=C(N)N)NC(=O)CN)C(=O)N1CCC[C@H]1C(O)=O MYZAXBZLEILEBR-RVFOSREFSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000000265 leukocyte Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 108700002400 risuteganib Proteins 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】 簡素な構成で高い分解能の画像を取得する。【解決手段】 本発明の一態様に係る画像処理装置は、被検眼の第1の分解能の画像を取得する画像取得手段と、被検眼の収差に関する情報を取得する収差取得手段と、学習済モデルを用いて、第1の分解能の画像と収差に関する情報とから、第1の分解能の画像よりも高い分解能の第2の分解能の画像を生成する画像処理手段と、を備える。【選択図】図4
Description
本発明は、画像処理装置、画像処理方法及びプログラム、更には眼科撮影システムに関する。
近年、眼科用の撮影装置として、眼底に2次元的にレーザ光を照射してその戻り光を受光して画像化するSLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)が利用されている。また、低コヒーレンス光の干渉を利用したイメージング装置が開発されている。低コヒーレンス光の干渉を利用したOCT(Optical Coherence Tomography:光干渉断層像装置或いは光干渉断層像法)も実用化されている。OCTは、特に、眼底或いはその近傍の断層像を得る目的で用いられている。OCTの種類としては、TD−OCT(Time Domain OCT:タイムドメイン法)や、SD−OCT(Spectral Domain OCT:スペクトラルドメイン法)等を含め、種々のものが開発されてきている。
特に、このような眼科用の撮影装置は、近年において、照射レーザの高NA化によって、より狭い領域に対してより詳細な観察を可能とする技術の開発が進められている。
しかしながら、眼底を撮影する場合には、角膜や水晶体等の眼の光学組織を通して撮影をしなければならない。そのため、高NA化を進める場合、これら角膜や水晶体による収差の影響で撮影画像に不明瞭に見える部分が生じる等によって、より詳細な観察が難しくなる。
しかしながら、眼底を撮影する場合には、角膜や水晶体等の眼の光学組織を通して撮影をしなければならない。そのため、高NA化を進める場合、これら角膜や水晶体による収差の影響で撮影画像に不明瞭に見える部分が生じる等によって、より詳細な観察が難しくなる。
そこで、眼による収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AO−SLOやAO−OCTの研究が進められている。例えば、非特許文献1に、AO−OCTの例が示されている。これらAO−SLOやAO−OCTは、一般的にはシャックハルトマン波面センサー方式によって戻り光の波面を測定する。シャックハルトマン波面センサー方式とは、眼に測定光を入射し、その戻り光を、マイクロレンズアレイを通してCCDカメラで受光することによって戻り光の波面を測定するものである。測定した波面を補正するように、可変形状ミラーや空間位相変調器を駆動し、それらを通して眼底の撮影を行う。これにより、AO−SLOやAO−OCTでは、撮影画像中の不明瞭に見える部分を低減した、眼底の高い分解能を有した平面像や断層像の撮影が可能となる(特許文献1)。
ZHANG,et al.,"High−speed volumetric imaging of cone photoreceptors with adaptive optics spectral−domain optical coherence tomography",Optics Express,May 15,2006,pages 4380−4394,Vol.14,No.10
しかしながら、波面補正デバイスや関係する光学系の追加は、眼科撮像装置の制御が複雑化すること、装置が大型化すること、更には高コスト化を招いてしまう。そのため、波面補正デバイス等を用いない簡素な構成で、高い分解能の画像が得られる手法の確立が望まれる。
本発明は、このような状況に鑑みてなされたものであり、その目的の一つは、簡素な構成で高い分解能の画像を取得することである。
上記課題を解決するために、本発明の一態様に係る画像処理装置は、
被検眼の第1の分解能の画像を取得する画像取得手段と、
前記被検眼の収差に関する情報を取得する収差取得手段と、
学習済モデルを用いて、前記第1の分解能の画像と前記収差に関する情報とから、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する画像処理手段と、を備えることを特徴とする。
被検眼の第1の分解能の画像を取得する画像取得手段と、
前記被検眼の収差に関する情報を取得する収差取得手段と、
学習済モデルを用いて、前記第1の分解能の画像と前記収差に関する情報とから、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する画像処理手段と、を備えることを特徴とする。
本発明によれば、簡素な構成で高い分解能の画像を取得することが可能となる。
以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。なお、上述した高NA化した眼科装置により、例えば以下の実施例で述べるように眼底を観察する場合、観察対象には例えば視細胞があげられる。しかし、収差の影響が顕著な場合、解像度が高い撮像系を用いた場合であっても、視細胞の像自体が滲んだりぼやけたり歪んだりしてしまい、不明瞭な視細胞の像しか観察できない場合が生じる。個々の視細胞の細胞壁等が視認(判別)できないような不明瞭な部分を含む画像を、本明細書では分解能の低い画像と称する。本実施例では、このような分解能の低い画像に対して後述する学習済モデルを用いた画像処理を施すことにより、例えば明瞭な視細胞の像を観察できる、分解能が高くなった画像を提供することを可能とする。なお、本明細書において、分解能とは並べられた2本の線を撮影し、これら線が2本であることが視認できる際のこれらの線間の距離として測定できる、定量的に評価できる値を意味する。上述した例では、2つの視細胞の細胞壁がこれに対応するものと例示できる。高い分解能の画像であれば個々の視細胞の存在が視認でき、低い分解能の画像であれば視細胞の細胞壁を視認できずに個々の視細胞を区別できなくなる。
[実施例1]
以下、図1乃至8を参照して、本発明の実施例1に係る画像処理装置について説明する。
なお、本実施例においては、測定対象である被検査物を眼とし、該被検眼を撮影して得た画像(例えば、眼底像)における該被検眼の収差の影響を低減するために、該眼底像の補正を行う処理に用いる学習済モデルを予め生成しておく。そして、生成された学習済モデルを用いて、撮影された眼底像における被検眼で発生した収差の影響を低減するための画像補正をするようにした一例について説明する。なお、本実施例等においては、学習済モデルを用いて撮影された被検眼眼底像に画像処理を施すことで、実際に収差補正を行いながら該被検眼の眼底を撮影することで得られる可能性の高い眼底像、即ち収差補正後に得られるような眼底像を得ている。
以下、図1乃至8を参照して、本発明の実施例1に係る画像処理装置について説明する。
なお、本実施例においては、測定対象である被検査物を眼とし、該被検眼を撮影して得た画像(例えば、眼底像)における該被検眼の収差の影響を低減するために、該眼底像の補正を行う処理に用いる学習済モデルを予め生成しておく。そして、生成された学習済モデルを用いて、撮影された眼底像における被検眼で発生した収差の影響を低減するための画像補正をするようにした一例について説明する。なお、本実施例等においては、学習済モデルを用いて撮影された被検眼眼底像に画像処理を施すことで、実際に収差補正を行いながら該被検眼の眼底を撮影することで得られる可能性の高い眼底像、即ち収差補正後に得られるような眼底像を得ている。
<学習データ作成装置>
まず、画像処理パラメータを学習するために用いる入力データと教師データとからなる学習データの取得方法について説明する。ここでは、学習データとなる眼底像等の取得に用いられる眼科撮影装置について説明する。なお、実施例1は、AO−SLOを用いて眼底像を得る場合の画像処理に関するものであり、図1は収差補正された眼底像を得るAO−SLOの概略構成を示している。
まず、画像処理パラメータを学習するために用いる入力データと教師データとからなる学習データの取得方法について説明する。ここでは、学習データとなる眼底像等の取得に用いられる眼科撮影装置について説明する。なお、実施例1は、AO−SLOを用いて眼底像を得る場合の画像処理に関するものであり、図1は収差補正された眼底像を得るAO−SLOの概略構成を示している。
図1に示すAO−SLO(眼科撮影装置1)には、光源101、補償光学系、走査光学系109−1、追尾制御系、光強度センサー114、制御部117、画像処理部118、及びディスプレイ119が設けられる。補償光学系には、波面測定系と収差補正系とが含まれる。波面測定系は被検眼111に照射された光の眼底からの戻り光の波面形状を測定する。収差補正系は、測定された波面形状に応じて、被検眼により生じた収差を補正する。走査光学系は、被検眼111に照射する光により眼底を走査する。制御部117はこれら光源101、波面測定系、収差補正系、及び走査光学系を制御し、光強度センサー114は戻り光より眼底像を生成するための信号を出力する。制御部117は光強度センサー114の出力を用いて眼底像等を生成する。画像処理部118は、光強度センサー114等より得られた各種情報を用いて、上述した学習データの生成等を実行する。ディスプレイ119は、制御部117や画像処理部118により生成された画像等を表示する。
なお、ここでは眼科撮影装置1が画像処理部118やディスプレイ119と一体となった形態を例示しているが、これらを部分的或いは全てを別体としてもよい。更に画像処理部118のみを画像処理装置としてもよい。この場合、更に、インターネット等の任意のネットワークを介して複数の眼科撮影装置と接続してもよい。更には、後述する学習済モデルをクラウドシステムに有し、第1の分解能の画像と収差に関する情報をシステムサーバを介して送信し、第2の分解能の画像を受信する構成としてもよい。また、図1に示す眼科撮影装置1は補償光学機能を備えた眼底撮影装置の一例であって、補償光学機能を有するその他の公知の眼底撮影装置を用いることもできる。以下、例示するこれら各構成について詳述する。
図1に示す眼科撮影装置1において、光源101には波長795nmのSLD光源(Super Luminescent Diode)を用いた。光源101の波長は特に制限されるものではないが、眼底撮影用としては被検者の眩しさの軽減と分解能維持のために、750〜1500nm程度が好適に用いられる。なお、ここではSLD光源を用いたが、その他のレーザ等も用いられる。また、ここでは光源101から出射された光を眼底撮影と波面測定とに共用しているが、それぞれ別光源から出射された光を用い、光路の途中でこれら光を合波する構成としてもよい。
光源101から出射された光は、単一モード光ファイバー102を通って、コリメータ103により、平行光線(測定光105)として出射される。なお、出射される光の偏光は、単一モード光ファイバー102の経路に具備された不図示の偏光調整器により調整されるとよい。或いは別の構成として、コリメータ103から出射された後の光路に偏光を調整する光学部品を配置してもよい。ここでは、コリメータ103から出射される光の偏光が図の紙面に水平な偏光成分となるように偏光調整器を調整している。
出射された測定光105はビームスプリッターからなる第1光分割部104を透過し、補償光学系に導光される。補償光学系は、第2光分割部106、波面センサー115、波面補正デバイス108及び、測定光等をこれに導光するための反射ミラー107−1〜107−4から構成される。ここで、反射ミラー107−1〜107−4は、少なくとも被検眼111の瞳と波面センサー115、波面補正デバイス108とが光学的に共役関係になるように設置される。また、第2光分割部106として、ここではビームスプリッターを用いる。
第2光分割部106を透過した測定光105は、反射ミラー107−1と107−2で反射されて波面補正デバイス108に入射する。波面補正デバイス108で反射された測定光105は、更に反射ミラー107−3と107−4で反射され、走査光学系に導光される。
なお、例示した眼科撮影装置1では、波面補正デバイス108として可変形状ミラーを用いた。可変形状ミラーは反射面が複数領域に分割されており、各領域の角度を変えることにより、反射される被検眼からの戻り光或いは測定光105の波面を変化させることができるミラーである。しかし、波面補正デバイスとして、可変形状ミラーの代わりに液晶素子を用いた空間位相変調器を用いることも可能である。その場合、被検眼からの戻り光の全偏光成分を補正するために、2つの空間位相変調器を用いるとよい。
図1において、反射ミラー107−3,107−4で反射された測定光105は、走査光学系109−1によって、1次元もしくは2次元に走査される。例示した眼科撮影装置1では、走査光学系109−1に主走査用(眼底水平方向)と副走査用(眼底垂直方向)として一つの共振スキャナーと一つのガルバノスキャナーを用いた。しかし、走査光学系109−1に用いるスキャナーはこの態様に限られず、二つのガルバノスキャナーを用いることもできる。また、公知の他のスキャナーを用いることもできる。また、走査光学系109−1内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を用いる構成としてもよい。
例示する眼科撮影装置1では、走査光学系に加え、追尾制御系として、更にトラッキングミラー109−2を配している。トラッキングミラー109−2は、追尾制御部120に接続されており、眼の運動の影響を取得画像において補正するように測定光の走査位置の変更指示を追尾制御部120から受ける。トラッキングミラー109−2は2つのガルバノスキャナーから構成され、撮影領域を更に2方向に移動させることが可能である。しかし、走査光学系109−1がトラッキングミラー109−2を兼ねる構成としてもよい。或いは、トラッキングミラー109−2が走査光学系109−1の共振スキャナーによる走査方向にのみ対応する構成、トラッキングミラー109−2が2次元ミラーである構成としてもよい。また、走査光学系109−1とトラッキングミラー109−2を光学的に共役関係とするために、不図示のリレー光学系を用いてもよい。
走査光学系109−1及びトラッキングミラー109−2で偏向された測定光105は、接眼レンズ110−1,110−2を通して被検眼111に照射される。被検眼111に照射された測定光105は眼底で走査され、反射もしくは散乱されて戻り光となる。接眼レンズ110−1,110−2の位置を調整することによって、被検眼111の視度にあわせて、測定光105の適切な照射を行うことが可能となる。なお、接眼部にレンズを用いたが、これらを球面ミラー等で構成してもよい。ここで、本実施例において、被検眼111に照射される測定光105のビ−ム径は6mmであり、波面収差が補正された場合は眼底上では3.5μmのスポットを形成する。
被検眼111の網膜から反射もしくは散乱された戻り光は、入射した時の経路を逆向きに進行し、第2光分割部106によってその一部は波面センサー115に反射され、戻り光の波面を測定するために用いられる。第2光分割部106で波面センサー115に向けて反射された光は、リレー光学系を通り、波面センサー115に入射する。リレー光学系の間にはアパーチャー121が設置されており、レンズ等からの不要な戻り光が波面センサー115に入射しないようにされている。
なお、例示した眼科撮影装置1では、戻り光の波面形状を計測する波面センサー115として、シャックハルトマンセンサーを用いた。以下に図2(a)乃至2(c)を参照してシャックハルトマンセンサーについて説明する。まず、図2(a)にシャックハルトマンセンサーの模式図を示す。シャックハルトマンセンサーでは、波面を測定する光201は、マイクロレンズアレイ202を通して、CCDセンサー203上の焦点面204に集光される。図2(a)のA−A‘で示す位置から見た様子を示す図が図2(b)であり、マイクロレンズアレイ202は、複数のマイクロレンズ205から構成されている。光201は各マイクロレンズ205を通してCCDセンサー203上に集光されるため、光201は、光201が通過したマイクロレンズ205の個数分のスポットに分割されて集光される。
図2(c)にCCDセンサー203上に光201がスポット状に集光された状態を示す。各マイクロレンズを通過した光はスポット206として各々集光される。そして、この各スポット206の位置から、入射した光の波面を計算する。各スポットの波面に収差がない場合の基準位置と測定された集光位置との差から、各収差測定点における波面の傾きが算出される。この傾きを積分することによって、各収差測定点における位相情報が得られる。また、各スポットの基準位置と測定された位置の差からZernike係数(ゼルニケ係数)を算出することも可能である。
例えば、図3(a)に球面収差を持つ光の波面を測定した場合の模式図を示す。図示した例では、光201は破線207で示すような球面状の波面で形成されているとする。この場合、光201はマイクロレンズアレイ202によって、波面の局所的な垂線方向の位置に集光される。得られたCCDセンサー203上での各スポット206の集光状態を、図3(b)に示す。光201が球面収差を持つため、スポット206は中央部に偏った状態で集光される。得られたスポット206それぞれの位置を計算することによって、光201の波面が分かる。なお、例示した眼科撮影装置1では、30×40個のマイクロレンズアレイを有するシャックハルトマンセンサーを用いたが、用いる波面計測装置はこれに限られず、公知の種々の波面計測装置を用いることができる。
図1において、第2光分割部106を透過した戻り光は第1光分割部104によってその一部が反射され、コリメータ112及び光ファイバー113を通して光強度センサー114に導光される。光強度センサー114は、受光した光を、その強度に応じた電気信号に変換する。光強度センサー114は制御部117に接続されており、制御部117に送られたこの電気信号は制御部117によって眼底像として画像化される。制御部117は画像処理部118にも接続されており、構成された眼底像は画像処理部118を介してディスプレイ119に表示される。
波面センサー115は補償光学制御部116に接続されており、測定した波面を補償光学制御部116に伝える。補償光学制御部116は波面補正デバイス108にも接続されており、波面補正デバイス108は補償光学制御部116から指示された波面の変調を行う。即ち、補償光学制御部116は波面センサー115の測定結果として取得された波面を基に、収差のない波面へと補正するような波面補正デバイス108の領域ごとの変調量(補正量)を計算する。そして、波面補正デバイス108にそのように変調するように指令する。このような波面の測定と波面補正デバイスへの指示は繰り返し実行され、常に最適な波面となるようにフィードバック制御が行われる。
例示した眼科撮影装置1のように接眼レンズ110−1,110−2で被検眼の視度に対応するような光学系がある場合には、接眼レンズ110−1,110−2が良好に調整されていることが重要である。適切にその位置が調整されることで、収差補正処理の実行時に、被検眼の収差の大部分を占めるデフォーカス成分を波面補正デバイスで補正する必要がなくなる。
また、眼科撮影装置1では、波面センサー115の直前に配置されたアパーチャー121によって不要光をカットすることでより正確に収差を測定できるようにしている。しかしながら、被検眼111の収差のデフォーカスが補正されていないと、本来は通過させるべき網膜からの戻り光もアパーチャー121部分で広がった状態となり、大部分がアパーチャー121でカットされてしまうことになる。
更に、収差補正処理を最大限有効に動作させるためには、正しい位置に被検眼を配置することが重要であり、不図示の前眼部モニターや波面センサー115の信号を見ながら、被検眼の位置を調整する必要がある。なお、表示される波面センサー115からは、例えば、図3(b)に示したハルトマン像と呼ばれる画像が得られる。
次に、上述した眼科撮影装置1に付随して学習データを実際に生成する、本実施例に係る画像処理部118の詳細について、その機能構成をブロック図として示す図4を参照して説明する。画像処理部118は、画像取得部401、CNN処理部402、学習処理部403、及び記憶部404を備えている。画像取得部401は、制御部117を介して、眼底の撮影データ、後述するハルトマン像等の眼科撮影装置1を介して取得されたデータを取得する。画像取得部401は、ハルトマン像等からなる収差情報を取得する収差情報取得部405を含む。なお、収差情報取得部405は画像取得部401とは独立して設けられてもよい。CNN処理部402は、後述する畳み込みニューラルネットワークを用いた画像処理を実行し、入力される収差補正前の眼底像と収差に関する情報とから、収差補正を行った眼底像を生成する。学習処理部403は、CNN処理部402が参照する畳み込みニューラルネットワークの学習処理を行い、後述する学習済モデルを生成する。記憶部404は、制御部117を介して取得した上述した各種データを各々関連付けて記憶でき、学習処理部403が生成した学習済モデルを記憶できる。
本実施例では、画像処理部118が、上述した眼科撮影装置1を用いて取得した学習データを用いることにより、学習済モデルを生成している。次に、本実施例に係る、学習用の教師データとなる波面補正された眼底像を得るための撮影制御フローに関して、図5のフローチャートを用いて説明する。
図5(a)に示すように、まず、ステップS501では、検査者の指示を受けた制御部117が光源101を動作させ、光の出射を開始させる。なお、ステップS501の処理の実行に際し、予め公知の手法により被検眼111に対して眼科撮影装置1が大まかに位置合わせされていることとする。また、本実施例では、画像撮影用の光と波面測定用の光が同一であるため、ステップS501の処理の実行により、眼底の撮影と戻り光の波面測定とが可能な状態となる。
次に、ステップS502において、制御部117は光強度センサー114の出力に基づいて眼底像(眼底平面像)を生成し、ディスプレイ119に表示させる。本ステップにおいて、制御部117は、ディスプレイ119に表示される眼底像に基づく検査者の入力に応じて不図示の電動ステージを移動させ、眼科撮影装置1におけるおよそのフォーカス調整(ラフフォーカス調整)を行う。フォーカス調整は、例えば眼底像の輝度値を最大とすることで行われる。なお、このラフフォーカス調整は検査者により行われるが、上述する輝度値に基づいて、制御部117によって実行されてもよい。
また、ステップS502において、制御部117は更に、被検眼111に対する撮影部のXYファインアライメントを行う。その際、検査者は、ディスプレイ119に表示される波面センサー115のハルトマン像を観察する。例示した眼科撮影装置1におけるXYファインアライメントでは、ハルトマン像の位置を観察した検査者の入力に応じて、被検眼111に対する眼科撮影装置1のX方向及びY方向の細密な位置合わせを行う。ここで波面センサー115は、その中心位置が眼科撮影装置1等の光軸と合うように調整されている。そのため、検査者はハルトマン像が波面センサー115の中心に合うように、被検眼111に対して眼科撮影装置1の位置を調整することで、X方向及びY方向の位置合わせを行うことができる。
ステップS503では、制御部117は、波面センサー115を用いて眼底からの戻り光からハルトマン像を取得する。その際、制御部117は、ハルトマン像より得られるスポット像を認識し、その数や配置を取得する。そして、取得されたスポット像の数や配置に基づいて、補償光学制御部116は波面補正のための指示を波面補正デバイス108へ出力する。
ステップS504において、制御部117は、補償光学制御部116より出力されたハルトマン像に含まれるスポット像の数(スポット数n)を算出する。続くステップS505では、制御部117はスポット数が十分な数であるか否かを判定する。撮影に十分なスポット数(スポット数n≧所定数N)となった場合には、フローは次のステップS506へ移行する。スポット数が十分でない場合は、フローは一定時間経過後にステップS502へ戻り、ステップS502の位置調整の処理以降を繰り返す。
ステップS506では、測定されたスポットから、制御部117が公知の手法でフォーカス値Fを算出する。続くステップS507では、制御部117は、算出されたフォーカス値Fが十分小さくなるようにフォーカス位置が補正されているか否かを判定する。具体的には、算出されたフォーカス値Fが、F≦所定のフォーカス値F’を満たすか否かの判定を実行する。フォーカス値が十分小さく補正されていると、フローは次のステップS508へ移行する。フォーカス値が十分小さく補正されていない場合は、フローは一定時間経過後にステップS502へ戻り、ステップS502の位置調整以降の処理を繰り返す。
ステップS508において、制御部117は、まずは収差を補正しない状態での眼底の撮影を行う。なお、撮影は、フローが本ステップS508に到達したことを検査者に通知し、検査者が開始を判断してもよいし、制御部117が撮影の実行を判断してもよい。この時に、補償光学制御部116の制御に基づき、波面補正デバイス108は収差を補正しない初期状態にセットされ、撮影が実行される。また、その際に、撮影のパラメータも設定される。撮影パラメータとしては、眼底像の撮影領域の位置、大きさ、動画像の場合のフレーム数、フレームレート、録画の有無等である。これら撮影パラメータは検査者により設定されてもよく、予め設定されているパラメータによる等、制御部117により所定の設定とされてもよい。収差補正なしで撮影した眼底像を取得した後、フローはステップS509に移行する。
ステップS509において、制御部117は補償光学制御部116を介して波面補正デバイス108を制御し、収差補正処理を行う。収差補正処理の実行後、フローはステップS510に移行する。ステップS510では、制御部117は、収差が補正された状態での眼底の撮影を行う。その際、撮影のパラメータは、ステップS508で設定したパラメータが用いられる。また、ステップS510において、制御部117は、ステップS509で波面補正をする際に得たハルトマン像に例示される収差情報も合わせて取得し、これを入力データとするために記憶部404に記憶させてもよい。なお、この場合の収差情報は、接眼レンズ110−1,1101−2の位置の調整によるフォーカス調整後の、波面補正デバイス108により収差補正を行う前の収差情報であることが望ましい。眼底の撮影後、フローはステップS511に移行する。
ステップS511では、例えば検査者による撮影終了の指示等、の有無が制御部117により判断される。撮影終了の指示を受けていない場合、フローはステップS508に戻る。そして、ステップS508からステップS510までの収差補正のない状態の撮影と、収差補正処理と、収差補正のある状態での撮影とが撮影終了の指示が有るまで繰り返し実行される。また、ステップS511で、制御部117により撮影終了の指示があったと判断された場合には、一連の撮影処理を終了する。
次に、ステップS507において実行される収差補正処理について、図5(b)に示すフローチャートを参照して説明する。収差補正処理が開始されると、まずステップS521において、補償光学制御部116は、波面センサー115により戻り光の収差を測定して収差情報を取得する。次のステップS522では、測定した結果を元に、補償光学制御部116は、波面補正デバイス108で補正する収差の補正量を計算する。
続くステップS523では、補償光学制御部116は、求めた補正量に基づいて波面補正デバイス108を駆動させる。ここで、ステップS521での収差の測定は、シャックハルトマンセンサーのスポットを計測し、各測定点のスポット位置の基準位置からの移動量(ずれ量)を算出することで行う。一般的に、この移動量はX方向とY方向の変位量で表される。例示した眼科撮影装置1では、30×40のマイクロレンズアレイのシャックハルトマンセンサーを使用している。従って、全レンズアレイに測定光が入射している場合には、30×40で1200の測定点におけるスポットの移動量が算出される。このスポット移動量のデータを用い、補償光学制御部116は、ステップS522で補正量を計算する。
なお、ここでは、収差補正において、シャックハルトマンセンサーにより得られるスポットの移動量に基づいて収差の補正量を得、当該補正量に基づいて波面補正デバイス108を制御している。しかし収差の補正方法は当該方法に限られない。この方法以外にも、例えば、測定したスポットの移動量から波面を表現するためのゼルニケ係数を算出する事も可能である。よって、求めたゼルニケ係数を基に波面補正デバイス108を制御することとしてもよい。
ここで、S521で得られたハルトマン像等の収差情報、ステップS508で得られた収差補正前に撮像された眼底像、及びステップS510で得られた収差補正後に撮影された眼底像は、各々対応付けて記憶部404に記憶される。更に、撮影された時刻情報もこれら情報と合わせて記憶させることで、概ね同時刻に得られたハルトマン像と眼底像とをリンクさせることができる。また、被検眼の収差は、時間の経過と共に刻々と変化する。このため、収差補正されない眼底像とハルトマン像とは略同時刻に取得されたうえで関連付けられることが望ましい。また、収差情報及び眼底像と、収差補正後の眼底像は、各々対応付けて学習ペアとされ、これら学習ペアから学習済モデルを生成することで好適に収差の影響を低減した眼底像が生成できる。
<学習済モデルの生成>
次に、上述した眼科撮影装置1により得られた眼底像等の学習データを用い、画像処理部118を用いて、ディープラーニング等の機械学習アルゴリズムに従った機械学習モデルである学習済モデルを生成する方法について説明する。なお、この学習済モデルは、学習処理部403により生成される。画像取得部401は、上述した収差補正前に取得した眼底像、及び収差補正後に取得した眼底像を取得する。また、本実施例では、画像取得部401に含まれる収差情報取得部405は、ハルトマン像を収差情報として取得する。画像取得部401及び収差情報取得部405により取得された画像は、学習処理部403に送られる。収差補正前に取得された眼底像及びハルトマン像は後述する入力データとなる入力画像として、収差補正後に取得された眼底像は後述する教師データとなる出力画像として、学習処理部403で用いられる。
次に、上述した眼科撮影装置1により得られた眼底像等の学習データを用い、画像処理部118を用いて、ディープラーニング等の機械学習アルゴリズムに従った機械学習モデルである学習済モデルを生成する方法について説明する。なお、この学習済モデルは、学習処理部403により生成される。画像取得部401は、上述した収差補正前に取得した眼底像、及び収差補正後に取得した眼底像を取得する。また、本実施例では、画像取得部401に含まれる収差情報取得部405は、ハルトマン像を収差情報として取得する。画像取得部401及び収差情報取得部405により取得された画像は、学習処理部403に送られる。収差補正前に取得された眼底像及びハルトマン像は後述する入力データとなる入力画像として、収差補正後に取得された眼底像は後述する教師データとなる出力画像として、学習処理部403で用いられる。
なお、ここで述べる学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行うことで得られるモデルである。学習データは、一つ以上の、入力データと教師データとのペア群で構成される。本実施例では、入力データ(入力画像)として収差補正せずに撮影した眼底像及びハルトマン像を用い、教師データ(出力画像)として収差補正して撮影された眼底像を用いる。
本実施例において、学習処理部403は、上述した学習データを用いてディープラーニングの一種であるCNN(Convolutional Neural Network)処理によって学習済モデルを生成する。図6は、学習処理部403で用いられる学習済モデルの構成を示す図である。本実施例に係る学習済モデルは、眼底像エンコーダネットワーク601、結合処理部602、デコーダネットワーク603、ハルトマン画像エンコーダネットワーク604、及び特徴抽出ネットワーク605を備える。図に示される学習済モデルは、入力データ群を加工して出力する処理を担う複数の層群によって構成される。複数の層群の種類としては、畳み込み(Convolution)層、活性化層(Activation)、ダウンサンプリング(Pooling)層、アップサンプリング(Up Sampling)層、合成(Merger)層がある。
畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタ数、ストライド値、ダイレーション値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、このフィルタのカーネルサイズを、入力画像の次元数に応じて変更する構成にしてもよい。活性化層は、入力信号の総和の活性化について決定し、例えばステップ関数、シグモイド関数やReLU(Rectified Linear Unit)で構成される。ダウンサンプリング層は、例えば、Max Pooling処理等、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。アップサンプリング層は、線形補間処理等、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。合成層は、ある層の出力値群や画像を構成する画素値群等の値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。
眼底像エンコーダネットワーク601とハルトマン画像エンコーダネットワーク604は、入力データの収差補正(波面補正)されていない眼底像とハルトマン像に対して複数のエンコード層による畳み込み演算を行う。各エンコード層は、1以上の畳み込み処理部とプーリング処理部を有し、各層の結果が内部的に保持できるように構成される。
特徴抽出ネットワーク605は、入力データとされた画像から収差を示す特徴データを抽出してベクトルデータとして出力することができる。結合処理部602は、特徴抽出ネットワーク605の出力を結合時のサイズに合わせて複製し、眼底像エンコーダネットワーク601に結合することができる。
上述したように、入力データとしては、波面補正デバイス108による波面の収差補正を行わずに得た眼底像と、収差の情報が含まれるハルトマン像とを用いる。また、教師データとして、波面補正デバイス108による波面の収差補正を行って得た眼底像を用いる。なお、被検眼の収差は、例えば検査時の眼の疲労等により時間の経過に応じて変化する可能性がある。従って、これら学習データとしては、可能な限り短い時間間隔で撮影された画像群を用いることが好ましい。本実施例では、これら学習データを用いて、学習済モデルを機械学習し、この学習済モデルを用いて収差を補正するネットワークパラメータを得る。
<CNNによる収差補正を用いた撮影>
次に、上述した学習処理部403で得た学習済モデルを用いて、眼底像を撮影する方法について、図7(a)を参照して説明する。図7(a)は、本実施例において、図1に示した波面補正デバイス108を用いることなしに、学習済モデルを用いて波面補正を実施する眼科撮影装置700の概略構成を示す。なお、眼科撮影装置700において図1に示した眼科撮影装置1と同様の機能を呈する構成については、同一の参照符号を用いて示すこととし、ここでの説明は省略する。
次に、上述した学習処理部403で得た学習済モデルを用いて、眼底像を撮影する方法について、図7(a)を参照して説明する。図7(a)は、本実施例において、図1に示した波面補正デバイス108を用いることなしに、学習済モデルを用いて波面補正を実施する眼科撮影装置700の概略構成を示す。なお、眼科撮影装置700において図1に示した眼科撮影装置1と同様の機能を呈する構成については、同一の参照符号を用いて示すこととし、ここでの説明は省略する。
図7(a)に示す眼科撮影装置700は、図1に示す眼科撮影装置1から、波面補正デバイス108、及びこれに導光するための反射ミラー107−1〜107−4をのぞいた構成となっている。具体的には、本実施例では、波面補正デバイス108が存在しないことから、補償光学制御部716はその制御を行わない。また、制御部717も波面補正に関連する制御を行わない。画像処理部718は上述した画像処理部118で生成した学習済モデルを用いるが新たな学習済モデルの生成を実行せず、従って当該画像処理部718は画像処理部118における学習処理部403を含まなくともよい。なお、ここで例示した眼科撮影装置700では、波面補正デバイス108、及び反射ミラー107−1〜107−4をのぞく構成として例示している。しかし、これら構成は例示であって、対応する部材及び配置が、同一又はほぼ同一の光学特性を有するように構成をのぞくこととしてもよい。
眼科撮影装置700において、光源101から照射された光は、単一モード光ファイバー102を通り、コリメータ103により平行光線(測定光105)として測定光の光路に出射される。出射された測定光105は。ビームスプリッターからなる第1光分割部104を透過し、補償光学系に導光される。眼科撮影装置700において、補償光学系は、第2光分割部106及び波面センサー115から構成される。
第2光分割部106を透過した測定光105は走査光学系109−1に導光され、該走査光学系109−1によって、1次元もしくは2次元に走査される。走査光学系109−1及びトラッキングミラー109−2で偏向された測定光105は、接眼レンズ110−1,110−2を介して被検眼111に、ビーム径6mmの光として照射される。被検眼111に照射された測定光は眼底で走査され反射もしくは散乱されて戻り光となる。接眼レンズ110−1,110−2の位置を調整することによって、被検眼111の視度にあわせて被検眼111の眼底の適切な測定位置の照射を行うことが可能となる。
被検眼111の眼底の網膜から反射もしくは散乱された戻り光は、入射した時の経路を逆向きに進行し、第2光分割部106によってその一部は波面センサー115に反射され、戻り光の波面を測定するために用いられる。第2光分割部106で波面センサー115に向けて反射された光は、リレー光学系を通り、波面センサー115に入射する。リレー光学系の間にはアパーチャー121が設置されている。
第2光分割部106を透過した戻り光は第1光分割部104によってその一部が反射され、コリメータ112及び光ファイバー113を介して光強度センサー114に導光される。光強度センサー114は、受光した光をその強度に応じた電気信号に変換し、これを制御部717に出力する。制御部717は、得られた電気信号を眼底像として画像化する。また、生成された画像は、画像処理部718を介し、ディスプレイ119に表示される。
波面センサー115は補償光学制御部716に接続され、該波面センサー115が測定した波面に関する情報(収差情報)を補償光学制御部716に伝える。ここで、ハルトマン像と呼ばれる画像情報として得られた収差情報と、制御部717によって生成された眼底像とは、それぞれ記憶部404により記憶される。その際に、これら情報及び画像を、これらを取得した時刻情報も付加して記憶することで、概ね同時刻に得られたハルトマン像と眼底像とをリンクさせることができる。
これにより、本実施例では、上述した眼科撮影装置1により生成した学習済モデルを用い、波面補正デバイス108を用いることなく、収差補正を行って取得したような眼底像を取得することが可能となる。以下に、本実施例に係る撮影制御フローに関して、図8のフローチャートを用いて説明する。
図8に示すように、ステップS801からステップS807では、図5(a)で述べたステップS501からステップS507で行われた処理と同様の処理が実行される。ステップS807において、制御部717によって、算出されたフォーカス値Fが十分小さく補正されていると判定される、フローはステップS808に移行する。ステップS808では、波面センサー115により戻り光の収差を測定して収差情報を取得する。得られた収差情報は、ハルトマン像という画像情報として記憶部404に記憶される。
次のステップS809において、制御部717は眼底の撮影を行い、眼底像を取得する。その際、図5(a)におけるステップS508と同様に、上述した撮影のパラメータも設定される。眼底像の取得後、フローはステップS810に移行する。ステップS810では、ステップS803において得られたハルトマン像と、ステップS809において得られた眼底像とを、学習済モデルとして作成されたネットワークへ入力する。画像処理部718は、入力された眼底像及びハルトマン像から、学習済モデルを用いることで眼底像の画像補正を実行し、収差が補正された状態で得られるような眼底像を生成する。ステップS810の処理の終了後、フローはステップS811に移行される。なお、ステップS811で実行される処理は、上述したステップS511で実行される処理と同様であるため、ここでの説明は割愛する。
以上に述べたように、本実施例では、取得した眼底像とハルトマン像(収差に関する情報)とから収差補正後に得られるような眼底像を生成している。そして、これにより、波面補正デバイス108及びこれに導光するための反射ミラー107−1〜107−4を必要とせずに収差の補正された状態で取得される可能性の高い眼底像を得ることができる。
なお、補償光学系は、補正量が小さい高次の収差の補正には好適であるが、大きな補正量を要する低次の収差についてはこれを高精度に補正することは難しい。そのため、例えば、クロスシリンダーを用いて低次の収差を補正した(低減した)状態で入力データと教師データとを得ておき、これらから生成した学習済モデルに対して低次の収差を補正した眼底像等を入力することで、好適に収差補正された眼底像が得られる。この場合、入力される収差に関する情報は、高次の収差に関する情報となる。なお、クロスシリンダーとは、2つのシリンダーレンズの組み合わせからなり、これらの相対角度と組み合わせの全体角度とを変えることにより非点収差等の低次の収差を補正する機能を有する光学部材である。また、該クロスシリンダーは、例えば接眼レンズ110−1,110−2の配置に設けてもよく、これら接眼レンズにその役割を担わすこともできる。
また、上述した実施例で述べた収差補正後に取得される可能性の高い眼底像を生成する処理は、ハルトマン像が好適に得られていることを前提としている。従って、例えばステップS803で取得されたハルトマン像におけるスポットの数が入力データよりも少ない、もしくは各スポットの位置ずれ量が入力データよりも大きい場合には、使用者に警告を出すようにしてもよい。この場合、制御部717は、予め閾値として設定されたスポットの数或いは各スポットの位置ずれ量と実際に測定されたそれらとを比較して、いずれか又は両者が閾値を超えた場合に例えばディスプレイ119にこれを表示させるとよい。
また、上述した実施例では、眼科撮影装置1に付随させた画像処理部118において学習済モデルを生成している。学習済モデルを生成する画像処理部118と眼科撮影装置1とが一体として配置されることにより、学習データとしての画像セットを撮影するタイミングが揃え易くなる。しかし、これらは別体とすることも可能であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の演算装置として構成することもできる。この場合、学習済モデルを生成する装置として画像処理部118を単独の装置として構築し、ネットワーク等を介して複数の眼科撮影装置や記憶装置からこれら画像群を取得し、学習済モデルを生成してもよい。この場合、これら画像群が可能な限り短い時間間隔で取得されており、互いに関連付けられていればよい。
また、CNN処理部402及び学習処理部403は、例えば汎用のコンピュータを用いて構成されてもよく、眼科撮影装置1,700の専用のコンピュータを用いて構成されてもよい。また、これら処理部を不図示のCPUやMPU(Micro Processing Unit)、から構成し、記憶部404を光学ディスクやROM(Read Only Memory)等のメモリを含む記憶媒体から構成してもよい。制御部(118,718)の記憶部404以外の各構成要素は、CPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。記憶部404は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてもよい。
なお、制御部(118,718)が備えるCPU等のプロセッサー及びROM等の記憶媒体は1つであってもよいし複数であってもよい。そのため、制御部(118,718)の各構成要素は、少なくとも1以上のプロセッサーと少なくとも1つの記憶媒体とが接続され、該プロセッサーが該記憶媒体に記憶されたプログラムを実行した場合に機能するように構成されてもよい。なお、プロセッサーはCPUやMPUに限定されるものではなく、GPU等であってもよい。
上述したように、本実施例に係る画像処理装置は、画像取得手段(画像取得部401)、収差取得手段(収差情報取得部405)、及び画像処理手段(CNN処理部)を備える。画像取得手段は、収差補正前の例えば眼底像を、被検眼111の第1の分解能の画像として取得する。また、収差取得手段は、ハルトマン像に例示される被検眼111の収差に関する情報を取得する。画像処理手段は、上述した学習済モデルを用いて、第1の分解能の画像と収差に関する情報とに基づいて、第1の分解能の画像に含まれる収差或いはその影響を低減することで、高い分解能の第2の分解能の画像を生成する。この第2の分解能の画像は、収差補正を行った状態で被検眼の眼底像を取得することで得られる可能性の高い、第1の画像より高い解像感を有する画像である。例えば、第1の分解能の画像が被検眼の視細胞を含む画像である場合、第1の分解能の画像も該視細胞を含む画像となる。しかし、第2の分解能の画像は第1の分解能の画像よりも高い分解能を有することから、第2の分解能の画像における視細胞領域は、第1の分解能の画像における視細胞領域よりも判別が容易となる。なお、本実施例において、分解能の高い、低いは相対的なものであり、高い分解能の画像が低い分解能の画像よりも個々の視細胞の判別が容易となる例を示している。具体的な数値例として、本実施例においては、個々の視細胞の判別が容易となる約5μm程度の分解能を高い分解能と呼び、個々の視細胞の判別が容易ではない約20μm程度の分解能を低い分解能とするが、数値はこれに限定されない。
また、上述した画像処理装置は、記憶手段(記憶部404)を更に備えるとよい。記憶手段は、収差補正前の第1の分解能の画像を取得した際に取得されたハルトマン像等を、該第1の分解能の画像に関連付けて記憶する。被検眼の収差は、時間の経過に伴って変化する場合が多く、収差補正前の画像と該画像の取得とほぼ同時刻に取得したハルトマン像とを関連付けて記憶するとよい。この場合、学習済みデータの生成に際し、更に、これらの取得時から極短い時間間隔で得た教師データ用の収差補正後の画像を用いることで、より的確に収差の影響を低減して取得できるような眼底像が得られる。
また、本実施例において眼科撮影装置700として例示したように、上述した画像処理部118は、画像生成手段と収差情報生成手段とを更に備えて、眼科撮影システムを構成する。AO−SLOとして眼底像を取得する画像生成手段(光強度センサー114,制御部717)は、AO−SLOとして、照明光が照射された被検眼111からの戻り光を用いて眼底像を生成する。収差情報生成手段(波面センサー115,補償光学制御部116)は、上述した収差に関する情報を生成する。なお、収差に関する情報は、被検眼111に照射した光の戻り光より得られるハルトマン像、又は該ハルトマン像から得られるゼルニケ係数であるとよい。
更に、本実施例は、学習済モデルとしても発明を構成できる。この場合、学習済モデルは入力データと教師データとを用いて得られる。入力データは、被検眼111の眼底像と該眼底像と関連付けて取得された被検眼の収差に関する情報とからなる。教師データは、収差を低減した状態で、被検眼111において入力データとして得た眼底像と対応するように取得された眼底像からなる。更に、図1で示した眼科撮影装置1は、学習済モデルの生成装置を構成できる。学習済モデル生成装置は、上述した入力データを取得する入力データ取得手段と、教師データを取得する教師データ取得手段と、これら入力データ及び教師データを用いて学習済モデルを生成する学習処理手段(学習手段)を備える。入力データ取得手段は、例えば図5(a)のステップS508の処理を実行する構成と、図5(b)のステップS511の処理を実行する構成とを有する。また、教師データ取得手段は、図5(a)のステップS508の処理を実行する構成を有する。
[実施例1の変形例1]
上述した実施例1では、学習済モデルを用い、収差補正なしで得た眼底像と、該眼底像を得る際に取得したハルトマン像とから収差補正後に取得できるような眼底像を得る例について説明した。しかし、AO−SLOの場合、撮影部位が黄斑や視神経乳頭である場合と、これら以外の領域の場合、撮影される画像自体が相違するため、同一の学習済モデルでの対応は望ましくない。また、フォーカスを合わせる対象は網膜表面のみならず、網膜における視細胞層や視神経遷移層といった深さ方向において異なる位置にフォーカスして画像を得ることも診断上多く行われる。上述した学習済モデルが例えば網膜表面を対象として生成されたものの場合、網膜のより深い位置にフォーカスした場合に得られる画像については、この学習済モデルを用いても上述した眼底像が好適に得られない場合もある。本変形例では、このような場合に対処できる学習済モデルについて説明する。
上述した実施例1では、学習済モデルを用い、収差補正なしで得た眼底像と、該眼底像を得る際に取得したハルトマン像とから収差補正後に取得できるような眼底像を得る例について説明した。しかし、AO−SLOの場合、撮影部位が黄斑や視神経乳頭である場合と、これら以外の領域の場合、撮影される画像自体が相違するため、同一の学習済モデルでの対応は望ましくない。また、フォーカスを合わせる対象は網膜表面のみならず、網膜における視細胞層や視神経遷移層といった深さ方向において異なる位置にフォーカスして画像を得ることも診断上多く行われる。上述した学習済モデルが例えば網膜表面を対象として生成されたものの場合、網膜のより深い位置にフォーカスした場合に得られる画像については、この学習済モデルを用いても上述した眼底像が好適に得られない場合もある。本変形例では、このような場合に対処できる学習済モデルについて説明する。
本変形例では、撮影位置、或いはフォーカスを合わせる層毎に、上述した学習済モデルを生成しておく。撮影位置としては、例えば、上述した黄斑及びその近傍、視神経乳頭及びその近傍、並びにこれら以外の眼底上の領域が例示される。また、フォーカスを合わせる層としては、例えば、視細胞(内節、外節)層及びその近傍、並びに視神経繊維層及びその近傍の少なくとも2つが例示される。学習済モデルの生成に際しては、これら撮影位置、或いはフォーカスを合わせる層毎に、収差補正前の画像と略同時に得られるハルトマン像とを入力データとする。また各々の入力データに対応するように、撮影位置、或いはフォーカスを合わせる層毎に収差補正後の画像を取得し、これらを教師データとする。
実際に図7に例示した眼科撮影装置700を用いて任意の撮影位置及び層の収差補正後の画像を生成する際には、予め当該撮影位置及び層に対して生成された学習済モデルを選択しておく。そして、当該撮影位置及び層についての収差補正前の画像と当該画像の取得時に得たハルトマン像とを画像処理部718に入力する。これにより、適切な学習済モデルを用いて、当該撮影位置及び層における収差補正後に取得できるような画像が好適に得られる。この場合、例えば検査者が撮影を実行する際に行われる撮影モード等の指示に対応して、記憶部404に記憶されるこれら学習済モデルを、画像処理部718が選択するとよい。本変形例に係る画像処理部718について、図4と同様の様式にてその機能構成をブロック図として図7(b)に示す。図7(b)に示すように、本変形例における画像処理部718は選択部406を更に含み、該選択部406は検査者等からの入力に応じて、学習処理部403で生成した学習済モデルを選択し、CNN処理部402にこれを用いさせる。
なお、学習済モデルの生成に際し、考慮すべき検査対象物に関する情報は、上述した撮影位置(部位)及び層(網膜層)に限られない。眼底を撮影して当該画像に基づいて診断を行う場合、例えば網膜中における特定の対象物についての情報が求められることもある。例えば、フォーカスを合わせる対象が視細胞の場合と、網膜毛細血管の場合とでは同一の学習済モデルでは少なくともいずれかが対応できないことも考えられる。従って、撮影対象物が、視細胞と網膜毛細血管、網膜主要血管、脈絡膜血管、及び毛細血管を走る白血球の影のうちの少なくとも一つである場合、予めこれらに対応した学習済モデルを生成しておくとよい。更に、撮影対象物がこれらの内の一つである場合には、当該一つが写った画像のみを選別して得られた入力データと教師データとを用い、これに対応した学習済モデルを得ておくとよい。このようにして生成された学習済モデルを用いることにより、撮影対象物についての収差補正されることで得られる可能性の高い画像(収差補正後に取得できるような画像)が好適に得られる。
以上に述べたように、撮影部位等に応じて適切に収差を低減した画像を得るためには、複数の学習済モデルから、画像処理部718によって用いられる学習済モデルを選択する選択手段を更に備えるとよい。この場合、複数の学習済モデルは、眼底像の取得位置、眼底像を取得する際の眼科撮影装置700のフォーカスを合わせた位置、及び眼底を取得する際の被検眼111での画像取得の対象物、の少なくともいずれかに応じた学習済モデルを含むとよい。これにより、撮影部位等に応じて適切に収差の影響を低減することで取得できるような画像が得られる。
[実施例1の変形例2]
上述した変形例1では、撮影部位やフォーカスを合わせる層毎、更には撮影対象物毎に学習済モデルを生成しておき、撮影時にはこの個々の学習済モデルを選択して用いて、収差補正後に取得できるような画像を好適に得ている。これに対し、本変形例では、入力データに対し、撮影した画像及びハルトマン像に加え、撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報も加えている。教師データは、これら入力データに対応し、撮影部位やフォーカスを合わせる層、或いは撮影対象物における収差補正された画像となる。即ち、本変形例において生成される学習済モデルでは、入力された、撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報に応じて、画像処理部718による教師データの選択が行われる。本変形例に係る画像処理部718について、図4と同様の様式にてその機能構成をブロック図として図7(c)に示す。図7(c)に示すように、本変形例における画像取得部401は画像情報取得部406’を更に含む。画像情報取得部406’は、学習処理部403が学習済モデルを生成する際に用いる撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報等の画像撮影に関する情報を取得する。学習処理部403は、学習済モデルの生成に際し、これら画像撮影に関する情報を、入力データの一つとして取得する。
上述した変形例1では、撮影部位やフォーカスを合わせる層毎、更には撮影対象物毎に学習済モデルを生成しておき、撮影時にはこの個々の学習済モデルを選択して用いて、収差補正後に取得できるような画像を好適に得ている。これに対し、本変形例では、入力データに対し、撮影した画像及びハルトマン像に加え、撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報も加えている。教師データは、これら入力データに対応し、撮影部位やフォーカスを合わせる層、或いは撮影対象物における収差補正された画像となる。即ち、本変形例において生成される学習済モデルでは、入力された、撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報に応じて、画像処理部718による教師データの選択が行われる。本変形例に係る画像処理部718について、図4と同様の様式にてその機能構成をブロック図として図7(c)に示す。図7(c)に示すように、本変形例における画像取得部401は画像情報取得部406’を更に含む。画像情報取得部406’は、学習処理部403が学習済モデルを生成する際に用いる撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報等の画像撮影に関する情報を取得する。学習処理部403は、学習済モデルの生成に際し、これら画像撮影に関する情報を、入力データの一つとして取得する。
従って、本変形例によれば、被検眼における任意の部位や位置を眼科撮影装置700により撮影した場合であっても、学習済モデルを介することにより、入力された撮影部位やフォーカスを合わせる層、或いは撮影対象物を選択する処理を省くことができる。即ち、取得した画像、略同時に取得したハルトマン像、及び撮影部位等に関する情報を入力することにより、これら部位や位置に合わせて収差補正を行った場合に取得できるような画像を得ることができる。
以上に述べたように、単一の学習済モデルを用いて撮影部位等に応じて適切に収差を低減した画像を得るためには、眼底像とハルトマン像とに加え、更に撮影部位等に関する情報も学習済モデルのネットワークに入力されるとよい。この場合、撮影部位等に関する情報としては、例えば、眼底像の取得位置、眼底像を取得する際のフォーカスを合わせた位置、及び画像を取得する際の被検眼111での画像取得の対象物、の少なくともいずれかを含むとよい。
なお、上述した実施例1並びに変形例1及び2では、入力データ及び入力する画像に、波面(収差)に関する情報としてハルトマン像を含めている。ハルトマン像は戻り光の波面形状を表す像であり、当該画像により波面の収差を容易に知ることができる。しかし、戻り光に含まれる収差情報は、収差補正されていない画像にも含まれている。従って、収差補正されておらず波面収差の影響を示す画像を入力データとし、収差補正後の収差の影響が低減された画像を教師データとして学習済モデルを得ることもできる。即ち、収差補正前の画像であって、収差の影響が判別し得る画像を対象とした場合であれば、ハルトマン像を用いることなく画像処理部718により収差補正後に取得できるような画像を得ることもできる。このように、学習データ、より詳細には教師データとして収差による影響が低減された画像を含む学習済モデルを用いて、収差補正された状態で取得できるような画像を得ることもできる。
[実施例2]
上述したように、実施例1及びその変形例では、入力データ及び学習済モデルに入力する収差に関する情報として、ハルトマン像と呼ばれる画像を用いている。これに対し、本実施例では、ハルトマン像ではなく、収差を表す数値データである、例えばゼルニケ係数を入力データ等に用いる例について説明する。
上述したように、実施例1及びその変形例では、入力データ及び学習済モデルに入力する収差に関する情報として、ハルトマン像と呼ばれる画像を用いている。これに対し、本実施例では、ハルトマン像ではなく、収差を表す数値データである、例えばゼルニケ係数を入力データ等に用いる例について説明する。
<学習データの作成と学習>
本実施例では、入力データに、収差の補正を行っていない眼底像と、収差を表すゼルニケ係数とを用いる。また、教師データには、収差の補正を行って撮影した眼底像を用いる。なお、本実施例では、この教師データの作成には、例えば実施例1で例示した眼科撮影装置1を用いることができる。ゼルニケ係数は、数値データであるため、任意に設定することができる。また、学習済モデルにおいて入力する収差に関する情報が実施例1の画像からゼルニケ係数に変更された点が異なるのみで、眼科撮影装置700における構成は実施例1の場合と異ならないため、ここでの説明は省略する。
本実施例では、入力データに、収差の補正を行っていない眼底像と、収差を表すゼルニケ係数とを用いる。また、教師データには、収差の補正を行って撮影した眼底像を用いる。なお、本実施例では、この教師データの作成には、例えば実施例1で例示した眼科撮影装置1を用いることができる。ゼルニケ係数は、数値データであるため、任意に設定することができる。また、学習済モデルにおいて入力する収差に関する情報が実施例1の画像からゼルニケ係数に変更された点が異なるのみで、眼科撮影装置700における構成は実施例1の場合と異ならないため、ここでの説明は省略する。
ここで、ゼルニケ係数は、収差情報を多項式にて表すことによって得られたものであり、これを入力データとする場合に何次の係数まで用いるかを選択する必要があり、用いなかった次数の係数の情報は反映されない。これに対し、ハルトマン像を用いた場合には、収差の情報を全て反映させ、これを補償した眼底像を得ることができる。
しかし、ゼルニケ係数を用いた場合には、ゼルニケ係数によって画像変換を行うことで、任意に収差の影響が生じている画像が作成できる。従って、例えば学習済モデルの生成に用いるデータを作成する際に、収差補正後の画像に対して異なる複数種類のゼルニケ係数を用いた画像変換を行うことで、用いたゼルニケ係数に応じた複数の収差補正前の画像を得ることができる。このために、実際の収差補正前の眼底を撮影する必要がなくなるため、実施例1で用いた補償光学系を備えた眼科撮影装置1により得た単一の教師データに対し、ゼルニケ係数に応じ複数の補正前の画像が得られる。即ち、ゼルニケ係数を用いて、収差補正後の画像(教師データ)から収差補正前の画像、即ち学習データにおける入力データが任意に得られる。具体的には、任意のゼルニケ係数(収差係数)から2次元のPSF(点像分布関数)を求め、予め取得している収差補正後の画像と求めたPSFのコンボリューションをとる。これにより、ゼルニケ係数に応じた収差補正前の画像が得られる。即ち、教師データである元の収差補正後の画像に対して、入力データとなるゼルニケ係数と該ゼルニケ係数に応じた入力画像とを、変化させたゼルニケ係数に応じて得ることができる。本実施例では、このようにして得られた学習データから学習済モデルを生成し、これを用いて撮影を行う。
<ゼルニケ係数の算出方法>
なお、ゼルニケ係数は、例えば、眼科撮影装置1により取得されたハルトマン像を制御部117において変換することで得られる。具体的には、マイクロレンズアレイ202の各マイクロレンズの焦点位置と、対応する参照点位置(無収差の場合の焦点位置)とのずれ量Δx、Δy、及びマイクロレンズの焦点距離fを取得する。そして取得したずれ量や焦点距離の値を、制御部117を通じて記憶部404に保存する。眼底からの反射光の波面をW(X、Y)とすると、Wはゼルニケ多項式により以下の式(1)のように多項式近似できる。
なお、ゼルニケ係数は、例えば、眼科撮影装置1により取得されたハルトマン像を制御部117において変換することで得られる。具体的には、マイクロレンズアレイ202の各マイクロレンズの焦点位置と、対応する参照点位置(無収差の場合の焦点位置)とのずれ量Δx、Δy、及びマイクロレンズの焦点距離fを取得する。そして取得したずれ量や焦点距離の値を、制御部117を通じて記憶部404に保存する。眼底からの反射光の波面をW(X、Y)とすると、Wはゼルニケ多項式により以下の式(1)のように多項式近似できる。
更に、測定されたずれ量と波面は次の偏微分方程式式(2)及び式(3)で表される。
取得されたずれ量及び焦点距離fと、式(1)を式(2)及び(3)に代入した近似式の自乗誤差を最小とする最小二乗近似により、ゼルニケ係数Cijを算出する。
こうして取得したゼルニケ係数Cijと撮影された眼底像とを学習済みのCNNに入力する。そして、CNN処理部402において学習済モデルを用いて、画像変換することで、収差補正後に取得できるような眼底像を得ることができる。なお、その際に、学習済モデルの生成時に使用した係数よりも大きな係数が入力された場合に、該学習済モデルにおける係数を超えたことを使用者に通知してもよい。
以上に述べたように、収差補正情報としてゼルニケ係数を用い、学習済みデータを用いて収差補正前の眼底像を変換することにより、波面補正デバイスを用いなくとも収差補正後に取得できるような画像が好適に得られる。また、収差補正情報としてゼルニケ係数を用いることにより、実際に収差補正前の画像が無くとも、適切な学習済モデルを生成するための学習データを好適に得ることができる。即ち、学習データとして実際に補償光学を用いて撮影したデータ以外の任意のデータも学習に用いることができるため、データ数を容易に増やすことができる。このため、学習済モデルを用いて収差補正後に取得できるような画像を得た場合における、実際に収差補正を行って得られる画像との類似度の向上が可能となる。
更に、本実施例は、学習済モデルとしても発明を構成できる。この場合、学習済モデルは入力データと教師データとを用いて得られる。本実施例の場合、教師データは、収差を低減した状態で被検眼111から取得された眼底像となる。また、入力データは、被検眼111の収差を示すゼルニケ係数を用いて収差低減後の眼底像から生成された収差補正前の眼底像と、該ゼルニケ係数となる。更に、この学習済モデルを生成する学習済モデル生成装置も本発明を構成する。この場合、学習済モデル生成装置は、上述した入力データを取得する入力データ取得手段と、教師データを取得する教師データ取得手段と、これら入力データ及び教師データを用いて学習済モデルを生成する学習処理手段(学習手段)を備える。教師データ取得手段は、例えば、図5(a)のステップS508の処理を実行する構成を有する。入力データ取得手段は、任意のゼルニケ係数を用いて教師データ取得手段が得た眼底像を変換して、収差低減前の眼底像を生成する。
[実施例3]
実施例1では、補償光学系を有した眼科撮影装置(AO−SLO)により撮影した眼底像を教師データとして生成した学習済モデルを用いて、補償光学系を用いずに得た眼底像の収差を補正する方法について説明した。これに対し、本実施例では、AO−SLOではなく、本発明を断層像の撮影(AO−OCTによる撮影)に適用した実施例について説明する。
実施例1では、補償光学系を有した眼科撮影装置(AO−SLO)により撮影した眼底像を教師データとして生成した学習済モデルを用いて、補償光学系を用いずに得た眼底像の収差を補正する方法について説明した。これに対し、本実施例では、AO−SLOではなく、本発明を断層像の撮影(AO−OCTによる撮影)に適用した実施例について説明する。
<学習データ作成装置>
まず、画像処理パラメータを学習するために用いる入力データと教師データとからなる学習データの取得方法について説明する。ここでは、学習データとなる眼底断層像の取得に用いられる眼科撮影装置について説明する。なお、以下に参照する図9において、実施例1(眼科撮影装置1)と同様の作用を呈する構成については同一の参照符号を用いて示すこととし、ここでの説明を省略する。実施例3は、AO−OCTを用いて眼底断層像を得る場合の画像処理に関するものであり、図9は、収差補正された眼底断層像を得るAO−OCTの概略構成を示している。
まず、画像処理パラメータを学習するために用いる入力データと教師データとからなる学習データの取得方法について説明する。ここでは、学習データとなる眼底断層像の取得に用いられる眼科撮影装置について説明する。なお、以下に参照する図9において、実施例1(眼科撮影装置1)と同様の作用を呈する構成については同一の参照符号を用いて示すこととし、ここでの説明を省略する。実施例3は、AO−OCTを用いて眼底断層像を得る場合の画像処理に関するものであり、図9は、収差補正された眼底断層像を得るAO−OCTの概略構成を示している。
図9に示すAO−OCT(眼科撮影装置900)は、図1に示した眼科撮影装置1の主要部として示されたSLO撮影部に対して、更にOCT撮影部を加えている。以下では、加えられたOCT撮影部について説明する。OCT撮影部は、OCT光源901、ファイバーカプラー903、コリメータ906,910、光路長可変部907、分光器909、光分割部911、及びこれらの間で光を伝搬させる光ファイバーを備える。
OCT光源901には、例示する眼科撮影装置900では波長840nmのSLD光源を用いる。なお、OCT光源901は低干渉性の光を出射するものであればよく、波長幅30nm以上のSLD光源が好適に用いられる。また、チタンサファイアレーザの超短パルスレーザ等をOCT光源901に用いることもできる。OCT光源901から出射された光は、単一モード光ファイバー902を通って、ファイバーカプラー903まで導光される。ファイバーカプラー903によって、OCT光源901からの光の経路は、光ファイバー904の経路と光ファイバー905の経路とに分岐される。例示する眼科撮影装置900において、ファイバーカプラーは10:90の分岐比のものを使用しており、投入光量の10%が測定光として光ファイバー904に導かれ、残りの90%が参照光として光ファイバー905に導かれる。
光ファイバー904を通った測定光は、コリメータ910により平行な光として出射される。出射された測定光はビームスプリッターからなる光分割部911で反射され、補償光学系に導光される。以降の構成は眼科撮影装置1と同様であり、補償光学系や走査光学系を介して測定光は被検眼111に照射される。測定光の被検眼111の眼底からの反射散乱光は再度同様の経路を進み、光ファイバー904に導光されてファイバーカプラー903に到達する。
一方、光ファイバー905を通った参照光はコリメータ906で出射され、光路長可変部907で反射して再度ファイバーカプラー903に戻る。ファイバーカプラー903に到達した測定光と参照光は合波され、光ファイバー908を通して分光器909に導光される。分光器909では合波によって得られた干渉光を更に周波数毎に分光し、周波数に応じた干渉信号を生成する。制御部917は、得られた干渉信号に対して公知の画像生成処理を施し、眼底の断層像を生成する。制御部917により、更に光路長可変部907を制御することで、網膜における所望の深さ位置の断層像を取得することができる。なお、図9に示す装置構成で走査光学系109−1による測定光の振り角を大きくし、補償光学制御部116が収差補正を行わないようにしてもよい。これにより図示する眼科撮影装置900は、通常のOCTとしても動作し、広画角な断層像(広画角画像)を撮像できる。
また、例示した眼科撮影装置900は、補償光学系を備えたSD−OCTとして構成しているが、OCTの形態は例示したものに限らない。例えば、タイムドメインOCT、SS−OCT(Swept Source Optical Coherence Tomography)等の公知のOCTとすることができる。SS−OCTの場合には異なる波長の光を異なる時間で発生させる光源を用い、スペクトル情報を取得するための分光素子は不要となる。また、SS−OCTでは、網膜だけでなく脈絡膜も画像に含まれる高深達な画像を取得できる。
例示した眼科撮影装置900では、画像処理部918が、上述した眼科撮影装置900を用いて取得した学習データを用いることにより、学習済モデルを生成している。次に、本実施形態の学習用の教師データとなる波面補正された断層像を撮影する撮影制御フローに関して、図10のフローチャートを用いて説明する。
図10に示すように、まず。ステップS1001では、検査者の指示を受けた制御部917がOCT光源901及びSLO撮影部の光源101を動作させ、光の出射を開始させる。なお、ステップS1001の処理の実行に際し、予め公知の手法により被検眼111に対して眼科撮影装置900が大まかに位置合わせされていることとする。なお、OCT光源901を点灯するタイミングは、これに限らない。例えば、後述するステップS1002のラフフォーカス調整の後にOCT光源901を点灯してもよい。
ステップS1002において、制御部917は光強度センサー114の出力に基づいて眼底像(眼底平面像)を生成し、ディスプレイ119に表示させる。本ステップにおいて、制御部917は、ディスプレイ119に表示される眼底像に基づく検査者の入力に応じて不図示の電動ステージを移動させ、SLO撮影部及びOCT撮影部のおよそのフォーカス調整(ラフフォーカス調整)を行う。フォーカス調整は、例えば眼底像の輝度値を最大とすることで行われる。なお、このラフフォーカス調整は検査者により行われるが、上述する輝度値に基づいて、制御部917によって実行されてもよい。
また、ステップS1002において、制御部917は更に、被検眼111に対する撮影部のXYファインアライメントを行う。その際、検査者は、ディスプレイ119に表示される波面センサー115のハルトマン像を観察する。例示した眼科撮影装置900におけるXYファインアライメントでは、ハルトマン像の位置を観察した検査者の入力に応じて、被検眼111に対するSLO撮影部及びOCT撮影部のX方向及びY方向の細密な位置合わせを行う。ここで波面センサー115は、その中心位置がOCT撮影部等の光軸と合うように調整されている。そのため、検査者はハルトマン像が波面センサー115の中心に合うように、被検眼111に対してOCT撮影部等の位置を調整することで、これら撮影部のX方向及びY方向の位置合わせを行うことができる。
続く、ステップS1003において、制御部917は、波面センサー115を用いて眼底からの戻り光からハルトマン像を取得する。その際、制御部917は、ハルトマン像より得られるスポット像を認識し、その数や配置を取得する。そして、取得されたスポット像の数や配置に基づいて、補償光学制御部116は波面補正のための指示を波面補正デバイス108へ出力する。
ステップS1004において、制御部917は、補償光学制御部116より出力されたハルトマン像に含まれるスポット像の数(スポット数n)を算出する。続くステップS1005では、制御部917はスポット数が十分な数であるか否かを判定する。撮影に十分なスポット数(スポット数n≧所定数N)となった場合には、フローは次のステップS1006へ移行する。スポット数が十分でない場合は、フローは一定時間経過後にステップS1002へ戻り、ステップS1002の位置調整の処理以降を繰り返す。
ステップS1006では、制御部917は光路長を調整する。具体的には、検査者がディスプレイ119上に表示された参照光路長調整バー(不図示)を動かすことに応じて、光路長可変部907を制御し、参照光の光路長を調整する。光路長の調整により、OCT撮影部を用いて取得され、ディスプレイ119上に表示された断層像における所望の層の像を断層像表示領域内の所望の位置に表示させることができる。なお、ここでは検査者により光路長調整を行うこととしているが、例えば断層像から所定の層を特定する処理を組み合わせ、該所定の層が所望の位置に表示されるように制御部917が自動で光路長を調整することとしてもよい。光路長の調整後に所定の時間が経過すること、或いは調整終了の入力を受けることにより、フローはステップS1007に移行する。
次のステップS1007において、制御部917が眼底トラッキングを開始する。具体的には、眼球運動検出手段として機能する制御部917は、SLO撮影部を用いて取得した眼底像の特徴点から位置ずれ量(被検眼111の動き量)を算出する。制御部917は、算出した位置ずれ量に基づいて、追尾制御部120によりトラッキングミラー109−2を制御する。これにより、眼科撮影装置900は、例えば断層像を重ね合わせてノイズ処理する際に用いる複数の断層像や、動画、3Dボリューム画像等を、位置ずれを小さく抑えて取得することができる。眼底トラッキングが開始されると、フローはステップS1008に移行する。
ステップS1008において、制御部917は、まずは収差を補正しない状態での断層像の撮影を行う。なお、撮影は、フローが本ステップS1008に到達したことを検査者に通知し、検査者が開始を判断してもよいし、制御部917が撮影の実行を判断してもよい。この時に、補償光学制御部116の制御に基づき、波面補正デバイス108は収差を補正しない初期状態にセットされ、撮影が実行される。また、その際に、撮影のパラメータも設定される。撮影パラメータとしては、断層像の撮影領域の位置、大きさ、動画像の場合のフレーム数、フレームレート、録画の有無等である。これら撮影パラメータは検査者により設定されてもよく、予め設定されているパラメータによる等、制御部917により所定の設定とされてもよい。
実際の断層像の撮影では、測定光と参照光との干渉光は、分光器909で受光され、電圧信号に変換される。更に、得られた電圧信号群はデジタル値に変換されて、制御部917にてデータの保存及び処理が行われる。制御部917は干渉光に基づくデータを処理することで眼底の断層像を生成する。収差補正なしで撮影した眼底像を取得した後、フローはステップS1009に移行する。
ステップS1009において、制御部917は補償光学制御部116を介して波面補正デバイス108を制御し、収差補正処理を行う。収差補正処理の実行後、フローはステップS1010に移行する。ステップS1010では、制御部917は、収差が補正された状態での断層像の撮影を行う。その際、撮影のパラメータは、ステップS1008で設定したパラメータが用いられる。また、ステップS1010において、制御部917は、ステップS1009の収差補正の際に得たハルトマン像に例示される収差情報も合わせて取得し、これを入力データとするために記憶部404に記憶させてもよい。断層像の撮影後、フローはステップS1011に移行する。
ステップS1011では、例えば検査者による撮影終了の指示等、の有無が制御部917により判断される。撮影終了の指示を受けていない場合、フローはステップS1008に戻る。そして、ステップS1008からステップS1010までの収差補正のない状態の撮影と、収差補正処理と、収差補正のある状態での撮影とが撮影終了の指示まで繰り返し実行される。また、ステップS1011で、制御部917により撮影終了の指示があったと判断された場合には、一連の撮影処理を終了する。
ここで、ステップS1009で得られたハルトマン像等の収差情報、及びステップS1008で得られた収差補正せずに撮像された眼底像は、略同時刻で撮影され、各々関連付けて記憶部404に記憶される。また、ステップS1010で得られた収差補正された眼底像は、先の収差情報及び眼底像と合わせて、対応付けて記憶部404に記憶される。更に、撮影された時刻情報もこれら情報と合わせて記憶させることで、概ね同時刻に得られたハルトマン像と収差補正前の眼底像、及び収差補正後の眼底像をリンクさせることができる。以上の処理により、AO−OCTにおける収差補正処理に用いる学習データが得られる。具体的には、入力データとしてハルトマン像等の収差情報と収差補正前の断層像が、教師データとして収差補正後の断層像が得られる。なお、学習モデルの生成については実施例1で述べた処理と同様の処理が実行されるためにここでの説明を省略する。
<CNNによる収差補正を用いた撮影>
次に、上述した学習データを用いて得た学習済モデルを用いて、眼底の断層像を撮影する方法について、図11(a)を参照して説明する。図11(a)は、本実施例において、図9に示した波面補正デバイス108を用いることなしに、学習済モデルを用いて波面補正を実施する眼科撮影装置1100の概略構成を示す。なお、眼科撮影装置1100において図9に示した眼科撮影装置900と同様の機能を呈する構成については、同一の参照符号を用いて示すこととし、ここでの説明は省略する。
次に、上述した学習データを用いて得た学習済モデルを用いて、眼底の断層像を撮影する方法について、図11(a)を参照して説明する。図11(a)は、本実施例において、図9に示した波面補正デバイス108を用いることなしに、学習済モデルを用いて波面補正を実施する眼科撮影装置1100の概略構成を示す。なお、眼科撮影装置1100において図9に示した眼科撮影装置900と同様の機能を呈する構成については、同一の参照符号を用いて示すこととし、ここでの説明は省略する。
図11(a)に示す眼科撮影装置1100は、図9に示す眼科撮影装置900から、波面補正デバイス108、及びこれに導光するための反射ミラー107−1〜107−4をのぞいた構成となっている。具体的には、本実施例では、波面補正デバイス108が存在しないことから、補償光学制御部1116はその制御を行わない。また、制御部1117も波面補正に関連する制御を行わない。画像処理部1118は上述した画像処理部918で生成した学習済モデルを用いるが新たな学習済モデルの生成を実行せず、従って当該画像処理部1118は図1に示す画像処理部118における学習処理部403を含まなくともよい。
即ち、本実施例では、上述した眼科撮影装置900により生成した学習済モデルを用い、波面補正デバイス108を用いることなく収差補正を行った眼底の断層像を取得することが可能となる。以下に、本実施例に係る撮影制御フローに関して、図12のフローチャートを用いて説明する。
図12に示すように、ステップS1201からステップS1207では、図10で述べたステップS1001からステップS1007と同様の処理が実行される。ステップS1207において眼底トラッキングが開始されると、フローはステップS1208に移行し、制御部1117により眼底の断層像の撮影が行われる。この時に、図10におけるステップS1008と同様に撮影のパラメータも設定される。断層像の取得後、フローはステップS1209に移行する。
ステップS1209では、ステップS1203において得られたハルトマン像と、ステップS1208において得られた断層像とを、学習済モデルとして作成されたネットワークへ入力する。画像処理部1118は、入力された断層像及びハルトマン像から、学習済モデルを用いることで断層像の画像補正を実行し、収差補正後に取得される可能性の高い断層像(収差補正後に取得できるような断層像)を生成する。
以上に述べたように、本実施例では、取得した断層像とハルトマン像(収差情報)とから収差補正後に取得できるような断層像を生成している。そして、これにより、波面補正デバイス108及びこれに導光するための反射ミラー107−1〜107−4を必要とせずに収差補正後に取得できるような断層像を得ることが可能となる。
なお、本実施例においても、実施例1と同様にクロスシリンダーを収差補正手段として用いて低次収差の補正を予め行っておき、低次収差補正後の戻り光からの断層像とハルトマン像とを得てこれらを入力データとして用いてもよい。また、例えばステップS1203にて取得したハルトマン像における各スポットの焦点位置が学習データにおいて得た焦点位置よりも大きくずれている場合には、検査者に警告を出すように構成してもよい。
また、本実施例において眼科撮影装置1100として例示したように、上述した画像処理部1118は、画像生成手段と収差情報生成手段とを更に備えて、眼科撮影システムを構成する。AO−OCTとして断層像を取得する画像生成手段(分光器909,制御部1117)は、AO−OCTとして、測定光が照射された眼底からの戻り光と、該測定光対応する参照光とから得た干渉光を用いて断層像(第1の画像)を生成する。収差情報生成手段(波面センサー115,補償光学制御部116)は、上述した収差に関する情報を生成する。なお、収差に関する情報は、被検眼111に照射した光の戻り光より得られるハルトマン像、又は該ハルトマン像から得られるゼルニケ係数であるとよい。
[実施例3の変形例1]
上述した実施例3では、学習済モデルを用い、収差補正なしで得た断層像と、該断層像を得る際に取得したハルトマン像とから収差補正後に取得できるような断層像を得る例について説明した。ここで、OCTでは、眼底表面上での撮影位置を変えながら複数の断層像を得ることで、眼底の3次元データを取得することができる。そして、この3次元データを例えば特定の層について深さ方向に積算して所謂EnFace画像を生成し、該EnFace画像により診断を行う場合がある。この場合、フォーカスを合わせる対象は網膜の深さ方向におけるEnFace画像を生成する層であることが望ましい。この場合、診断に用いられる画像がEnFace画像であることから、入力データとしてEnFace画像と収差に関する情報(ハルトマン像)と用い、教師データとして収差補正後のEnFace画像を用いるとよい。
上述した実施例3では、学習済モデルを用い、収差補正なしで得た断層像と、該断層像を得る際に取得したハルトマン像とから収差補正後に取得できるような断層像を得る例について説明した。ここで、OCTでは、眼底表面上での撮影位置を変えながら複数の断層像を得ることで、眼底の3次元データを取得することができる。そして、この3次元データを例えば特定の層について深さ方向に積算して所謂EnFace画像を生成し、該EnFace画像により診断を行う場合がある。この場合、フォーカスを合わせる対象は網膜の深さ方向におけるEnFace画像を生成する層であることが望ましい。この場合、診断に用いられる画像がEnFace画像であることから、入力データとしてEnFace画像と収差に関する情報(ハルトマン像)と用い、教師データとして収差補正後のEnFace画像を用いるとよい。
しかし、これらEnFace画像を用いて生成した学習済モデルが、例えば網膜の表層近傍を対象として生成されたものの場合、網膜のより深い位置にフォーカスした場合には収差補正後に取得できるようなEnFace画像が好適に得られない場合もある。本変形例では、このような場合に対処できる学習済モデルについて説明する。
本変形例では、フォーカスを合わせる層毎に、或いは深さ毎に、上述したEnFace画像についての学習済モデルを生成しておく。フォーカスを合わせる層としては、例えば、網膜色素上皮とその近傍、脈絡膜層とその近傍等を加えた少なくとも2つ以上の眼底において存在する層が例示される。学習済モデルの生成に際しては、これらフォーカスを合わせる層毎に、収差補正前のEnFace画像と略同時に得られるハルトマン像とを入力データとする。また各々の入力データに対応するように、撮影位置、或いはフォーカスを合わせる層毎に収差補正後のEnFace画像を取得し、これらを教師データとする。
実際に図11(a)に例示した眼科撮影装置1100を用いて任意の層の収差補正後のEnFace画像を生成する際には、予め当該層に対して生成された学習済モデルを選択しておく。そして、当該層についての収差補正前のEnFace画像と当該断層像の取得時に得たハルトマン像とを画像処理部918に入力する。これにより、適切な学習済モデルを用いて、当該層における収差補正後に取得できるようなEnFace画像が好適に得られる。この場合、例えば検査者が撮影を実行する際に行われる撮影モード等の指示に対応して、記憶部404に記憶されるこれら学習済モデルを、画像処理部1118が選択するとよい。本変形例に係る画像処理部1118について、図4と同様の様式にてその機能構成をブロック図として図11(b)に示す。図11(b)に示すように、本変形例における画像処理部1118は選択部406を更に含み、該選択部406は検査者等からの入力に応じて、学習処理部403で生成した学習済モデルを選択し、CNN処理部402にこれを用いさせる。
上述したように、本変形例において、収差補正前の画像として、被検眼111の眼底における3次元データを眼底の深さ方向に積算することで得たEnFace画像が、学習済モデルにおけるネットワークに入力される。また、画像処理により収差補正された画像として、収差が低減されたEnFace画像が出力される。
[実施例3の変形例2]
上述した変形例1では、フォーカスを合わせる層毎に学習済モデルを生成しておき、撮影時にはこの個々の学習済モデルを選択して用いることで収差補正後に取得できるようなEnFace画像を好適に得ている。これに対し、本変形例では、入力データに対し、OCTにより取得した眼底の3次元データ及びハルトマン像に加え、フォーカスを合わせる層に関する情報も加えている。教師データは、これら入力データに対応し、フォーカスを合わせる層における収差補正されたEnFace画像となる。即ち、本変形例において生成される学習済モデルでは、入力されたフォーカスを合わせる層に関する情報に応じて、画像処理部1118により教師データの選択が行われる。本変形例に係る画像処理部1118について、図4と同様の様式にてその機能構成をブロック図として図11(c)に示す。図11(c)に示すように、本変形例における画像取得部401は画像情報取得部406’を更に含む。画像情報取得部406’は、学習処理部403が学習済モデルを生成する際に用いる撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報等の画像撮影に関する情報を取得する。学習処理部403は、学習済モデルの生成に際し、これら画像撮影に関する情報を、入力データの一つとして取得する。
上述した変形例1では、フォーカスを合わせる層毎に学習済モデルを生成しておき、撮影時にはこの個々の学習済モデルを選択して用いることで収差補正後に取得できるようなEnFace画像を好適に得ている。これに対し、本変形例では、入力データに対し、OCTにより取得した眼底の3次元データ及びハルトマン像に加え、フォーカスを合わせる層に関する情報も加えている。教師データは、これら入力データに対応し、フォーカスを合わせる層における収差補正されたEnFace画像となる。即ち、本変形例において生成される学習済モデルでは、入力されたフォーカスを合わせる層に関する情報に応じて、画像処理部1118により教師データの選択が行われる。本変形例に係る画像処理部1118について、図4と同様の様式にてその機能構成をブロック図として図11(c)に示す。図11(c)に示すように、本変形例における画像取得部401は画像情報取得部406’を更に含む。画像情報取得部406’は、学習処理部403が学習済モデルを生成する際に用いる撮影部位やフォーカスを合わせる層、或いは撮影対象物に関する情報等の画像撮影に関する情報を取得する。学習処理部403は、学習済モデルの生成に際し、これら画像撮影に関する情報を、入力データの一つとして取得する。
従って、本変形例によれば、被検眼における眼底の任意の深さ位置を眼科撮影装置1100により撮影した場合であっても、学習済モデルを介することにより、入力されたフォーカスを合わせる層を選択する処理を省くことができる。即ち、取得した眼底の3次元データ、略同時に取得したハルトマン像、及び撮影部位等に関する情報を入力することにより、これら部位や位置に合わせて、収差補正後に取得できるようなEnFace画像を得ることができる。
なお、上述した実施例3並びに変形例1及び2では、入力データ及び入力する画像に、波面(収差)に関する情報としてハルトマン像を含めている。ハルトマン像は戻り光の波面形状を表す像であり、当該画像により波面の収差を容易に知ることができる。しかし、戻り光に含まれる収差情報は、収差補正されていない画像にも含まれている。従って、収差補正されておらず波面収差の影響を示すEnFace画像を入力データとし、収差補正後のEnFaceを教師データとして学習済モデルを得ることもできる。即ち、収差補正前のEnFace画像であって、収差の影響が判別し得るEnFace画像を対象とした場合であれば、ハルトマン像を用いることなく画像処理部1108により収差補正後に取得できるようなEnFace画像を得ることもできる。
本変形例においては、収差補正前の画像として、被検眼111の眼底における3次元データより生成された3次元画像が、学習済モデルにおけるネットワークに入力される。また、画像処理により収差補正された画像として、収差が低減されたEnFace画像が出力される。
[実施例4]
本実施例において用いる眼科撮影装置では、学習済モデルを生成する際に用いた波面補正デバイスの反射面の領域の分割数に比べて、反射面の領域の分割数が少ない波面補正デバイスが用いられる。そして、学習済モデルを用いて、眼科撮影装置により得られた眼底像と収差情報とから、用いた波面補正デバイスで得られる分解能よりも高い分解能の眼底像を得ることとしている。以下、その詳細について述べる。
本実施例において用いる眼科撮影装置では、学習済モデルを生成する際に用いた波面補正デバイスの反射面の領域の分割数に比べて、反射面の領域の分割数が少ない波面補正デバイスが用いられる。そして、学習済モデルを用いて、眼科撮影装置により得られた眼底像と収差情報とから、用いた波面補正デバイスで得られる分解能よりも高い分解能の眼底像を得ることとしている。以下、その詳細について述べる。
<学習データの生成と学習>
本実施例における学習データの生成とこれらを用いた学習済モデルの生成に関しては、実施例1で説明した通りであるので、ここでの説明は省略する。なお、学習データの生成に際しては、上述したように、実際に被検眼の眼底の撮影時に用いる眼科撮影装置で用いる波面補正デバイスに対して、反射面の分割数が多く、より高い分解能の眼底像が得られる眼科装置が用いられる。
本実施例における学習データの生成とこれらを用いた学習済モデルの生成に関しては、実施例1で説明した通りであるので、ここでの説明は省略する。なお、学習データの生成に際しては、上述したように、実際に被検眼の眼底の撮影時に用いる眼科撮影装置で用いる波面補正デバイスに対して、反射面の分割数が多く、より高い分解能の眼底像が得られる眼科装置が用いられる。
<CNNによる収差補正を用いた撮影>
本実施例では、眼科撮影装置が、図1に示す眼科撮影装置1の波面補正デバイス108に対し、その反射面の分割数が少ない波面補正デバイスを用いている点が異なる。しかし、波面センサー等のその他の構成は図1で例示したものと同じであるため、ここでの詳細な説明は省略する。波面センサー115は、高い分解能に対応できるように、分割数の多い波面補正デバイスにも対応できるものを用いている。
本実施例では、眼科撮影装置が、図1に示す眼科撮影装置1の波面補正デバイス108に対し、その反射面の分割数が少ない波面補正デバイスを用いている点が異なる。しかし、波面センサー等のその他の構成は図1で例示したものと同じであるため、ここでの詳細な説明は省略する。波面センサー115は、高い分解能に対応できるように、分割数の多い波面補正デバイスにも対応できるものを用いている。
次に、上述の眼科撮影装置におけるCNNによる収差補正を用いた撮影について、図13のフローチャートを用いて説明する。なお、図13に示すように、図13のステップS1301からステップS1309では、図8で述べたステップS801〜ステップS809で行われた処理と同様の処理が実行される。そして、ステップS1310では、上述した分割数の少ない波面補正デバイスによる収差の補正が行われる。続くステップS1311では、波面補正デバイスにより収差が補正された状態で、制御部717が再度波面センサー115による収差の測定を行う。その際、本実施例で用いた波面補正デバイスは、反射面の領域の分割数が少ないため、収差は好適な状態まで補正されていない。
ステップS1312では、ステップS1310で得られている波面が補正された状態での眼底の撮影が、制御部717により行われる。眼底の撮影後、制御部717はフローをステップS1313に移行させる。ステップS1313では、CNN処理部402が、ステップS1311で得られている残っている収差の情報(例えば実施例1のハルトマン像)と、ステップS1312で得られている眼底像とを、上述した学習済モデルとして作成されたネットワークへ入力する。画像処理部718は、入力された眼底像及びハルトマン像から、学習済モデルを用いることで眼底像の画像補正を実行し、収差が補正された状態で得られるような眼底像を生成する。ステップS1313の処理の終了後、フローはステップS1314に移行される。なお、ステップS1314で実行される処理は、上述したステップS511等で実行される処理と同様であるため、ここでの説明は割愛する。
本実施例においても、収差補正デバイスを用いることが無くとも、実施例1と同様に学習済モデルとして作成されたネットワークのみを用いることでも収差が補正された状態で得られるような眼底像を得ることができる。しかし、本実施例のように、分割数の少ない波面補正デバイスによりある程度収差が補正された画像を入力データとすることにより、CNNの処理に要する時間を短縮することが可能となる。即ち、本実施例では、分割数の少ない収差補正デバイスを用いて得た画像、或いは収差補正をしない状態で得た画像である第1の分解能の画像と、該画像と対応するハルトマン画像とを入力データとする。また、分割数の多い収差補正デバイスによって収差補正することで得た、第1の分解能よりも高い第2の分解能の画像を教師データとする。本実施例で用いる学習済モデルは、このような学習データを用いて生成される。
安価な波面補正デバイスであって、その反射面の分割数が少ない場合、得られる眼底像の分解能は十分に高くなく、個々の視細胞の判別が容易ではない状態の眼底像しか得られない。しかし、本実施例の如く、当該波面補正デバイスを介して得た眼底像と収差情報とを用いることで、視細胞の判別が容易となる高い分解能の眼底像が得られる。このような構成をとることにより、本実施例によれば、比較的簡単な構成、及び、比較的簡単な演算処理で高い分解能の画像を得ることができる。
以上に述べたように、本発明の各実施例によれば、波面収差の補正光学系を用いた眼科撮影装置に比べて、装置の小型化、低コスト化を実現でき、高分解能な画質を得ることが可能となる。
(その他の実施例)
上述したそれぞれの実施例は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施例は画像処理装置或いは、実施例において述べた画像処理方法のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。また、画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現し、画像処理時に行われる各工程を実行することもできる。
上述したそれぞれの実施例は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施例は画像処理装置或いは、実施例において述べた画像処理方法のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。また、画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現し、画像処理時に行われる各工程を実行することもできる。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、実施例及び変形例を参照して本発明について説明したが、本発明は上記実施例及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。
1、700、900、1100:眼科撮影装置、 101、光源、 114:受光素子、116、716、1116:補償光学制御部、 117、717、917、1117:制御部、 118、718、918、1118:画像処理部、 119:ディスプレイ、401:画像取得部、 402:CNN処理部、 403:学習処理部、 404:記憶部
Claims (22)
- 被検眼の第1の分解能の画像を取得する画像取得手段と、
前記被検眼の収差に関する情報を取得する収差取得手段と、
学習済モデルを用いて、前記第1の分解能の画像と前記収差に関する情報とから、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する画像処理手段と、
を備えることを特徴とする画像処理装置。 - 前記被検眼の収差に関する情報は、前記被検眼に照射した光の戻り光より得られるハルトマン像、又は前記ハルトマン像より得られるゼルニケ係数であることを特徴とする請求項1に記載の画像処理装置。
- 前記学習済モデルは、被検眼の収差による影響が低減された画像を含む学習データにより得た学習済モデルであることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記画像処理手段は、前記第1の分解能の画像と、前記第1の分解能の画像に関連付けて記憶された前記収差に関する情報とから、前記第2の分解能の画像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記学習済モデルが、第1の分解能の画像と、該画像と対応するハルトマン画像とを入力データとし、第2の分解能の画像を教師データとして学習することにより得られるモデルであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
- 被検眼の第1の分解能の画像を取得する画像取得手段と、
被検眼の収差による影響が低減された画像を含む学習データにより得た学習済モデルを用いて、前記第1の分解能の画像から、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する画像処理手段と、
を備えることを特徴とする画像処理装置。 - 複数の学習済モデルから、前記画像処理手段によって用いられる学習済モデルを選択する選択手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
- 前記複数の学習済モデルは、被検眼での前記第1の分解能の画像の取得位置、前記第1の分解能の画像を取得する際の前記画像取得手段のフォーカスを合わせた位置、及び前記第1の分解能の画像を取得する際の被検眼での画像取得の対象物、の少なくともいずれかに応じた学習済モデルを含むことを特徴とする請求項7に記載の画像処理装置。
- 前記画像処理手段は、更に、被検眼での前記第1の分解能の画像の取得位置、前記第1の分解能の画像を取得する際のフォーカスを合わせた位置、及び前記第1の分解能の画像を取得する際の被検眼での画像取得の対象物、の少なくともいずれかに関する情報から、前記第2の分解能の画像を生成することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
- 前記第1の分解能の画像は、前記被検眼の眼底における3次元データを前記眼底の深さ方向に積算することで得たEnFace画像であり、
前記第2の分解能の画像は、収差の影響が低減されたEnFace画像であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 - 前記第1の分解能の画像は、前記被検眼の眼底の3次元データから生成された3次元画像であり、
前記第2の分解能の画像は、前記3次元データを前記眼底の深さ方向に積算することで得たEnFace画像であって、収差の影響が低減されたEnFace画像であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 - 前記第1の分解能の画像は、前記被検眼の視細胞を含む画像であり、前記第2の分解能の画像における視細胞領域は、前記第1の分解能の画像における視細胞領域よりも、前記視細胞の判別が容易であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
- 光が照射された前記被検眼の眼底からの戻り光を用いて前記第1の分解能の画像を生成する画像生成手段と、
前記被検眼の収差に関する情報を生成する収差情報生成手段と、
請求項1乃至12のいずれか1項に記載の画像処理装置と、を備えることを特徴とする眼科撮影システム。 - 前記画像生成手段は、前記戻り光と参照光とから得た干渉光を用いて前記第1の分解能の画像を生成することを特徴とする請求項13に記載の眼科撮影システム。
- 前記被検眼の収差に関する情報は、高次の収差に関する情報であり、
前記被検眼の低次の収差による影響を低減する収差補正手段を更に備えることを特徴とする請求項13又は14に記載の眼科撮影システム。 - 被検眼の第1の分解能の画像と前記被検眼の収差に関する情報とを入力データとし、前記被検眼の収差による影響が低減された状態で取得された前記被検眼の第2の分解能の画像を教師データとする学習データを、CNNを用いて得られたことを特徴とする学習済モデル。
- ゼルニケ係数を用いて前記第2の分解能の画像から生成された前記収差による影響が生じている前記第1の分解能の画像と、前記収差に関する情報である前記ゼルニケ係数とを入力データとする学習データを、前記CNNを用いて得られたことを特徴とする請求項16に記載の学習済モデル。
- 被検眼の第1の分解能の画像と前記被検眼の収差に関する情報とを入力データとして取得する入力データ取得手段と、
前記被検眼の収差による影響が低減された状態で、前記第1の分解能の画像と対応するように取得された前記被検眼の第2の分解能の画像を教師データとして取得する教師データ取得手段と、
前記入力データと前記教師データとを含む学習データを用いて学習する学習手段と、
を備えることを特徴とする学習済モデル生成装置。 - 前記入力データ取得手段は、ゼルニケ係数を用いて前記第2の分解能の画像から生成された第1の分解能の画像であって、前記収差による影響が生じている第1の分解能の画像と、前記収差に関する情報である前記ゼルニケ係数とを入力データとして取得することを特徴とする請求項18に記載の学習済モデル生成装置。
- 被検眼の第1の分解能の画像を取得する工程と、
前記被検眼の収差に関する情報を取得する工程と、
学習済モデルを用いて、前記第1の分解能の画像と前記収差に関する情報とから、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する工程と、
を含むことを特徴とする画像処理方法。 - 被検眼の第1の分解能の画像を取得する工程と、
被検眼の収差による影響が低減された画像を含む学習データにより得た学習済モデルを用いて、前記第1の分解能の画像から、前記第1の分解能よりも高い分解能の第2の分解能の画像を生成する工程と、
を含むことを特徴とする画像処理方法。 - プロセッサーによって実行されると、該プロセッサーに請求項20又は21に記載の画像処理方法の各工程を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/004457 WO2020166465A1 (ja) | 2019-02-13 | 2020-02-06 | 画像処理装置、画像処理方法、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019023724 | 2019-02-13 | ||
JP2019023724 | 2019-02-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020131017A true JP2020131017A (ja) | 2020-08-31 |
Family
ID=72277205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214381A Pending JP2020131017A (ja) | 2019-02-13 | 2019-11-27 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020131017A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117760571A (zh) * | 2022-07-18 | 2024-03-26 | 中国人民解放军国防科技大学 | 基于哈特曼探测器的无监督学习波前探测方法 |
-
2019
- 2019-11-27 JP JP2019214381A patent/JP2020131017A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117760571A (zh) * | 2022-07-18 | 2024-03-26 | 中国人民解放军国防科技大学 | 基于哈特曼探测器的无监督学习波前探测方法 |
CN117760571B (zh) * | 2022-07-18 | 2024-05-24 | 中国人民解放军国防科技大学 | 基于哈特曼探测器的无监督学习波前探测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4157839B2 (ja) | 生体眼の網膜領域撮像方法及びそのシステム | |
US9330299B2 (en) | Fundus image acquiring apparatus and control method therefor | |
US9339183B2 (en) | Aberration correction method, photographing method and photographing apparatus | |
CN114886374B (zh) | 眼科装置及其控制方法、程序和存储介质 | |
JP6580448B2 (ja) | 眼科撮影装置及び眼科情報処理装置 | |
US9867538B2 (en) | Method for robust eye tracking and ophthalmologic apparatus therefor | |
JP5517571B2 (ja) | 撮像装置および撮像方法 | |
JP6703839B2 (ja) | 眼科計測装置 | |
JP6411792B2 (ja) | 調節機能評価装置 | |
JP2023518549A (ja) | マルチモーダル網膜撮像プラットフォーム | |
WO2020054280A1 (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
JP7368581B2 (ja) | 眼科装置、及び眼科情報処理装置 | |
JP6074241B2 (ja) | 補償光学装置、撮像装置、補償光学装置の制御方法およびプログラム | |
JP7096116B2 (ja) | 血流計測装置 | |
JP6736734B2 (ja) | 眼科撮影装置及び眼科情報処理装置 | |
JP2020131017A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7117873B2 (ja) | 眼科装置 | |
JP2021153786A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2020048825A (ja) | 眼科撮影装置、その制御方法、プログラム、及び記録媒体 | |
WO2020166465A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2021137256A (ja) | 眼科装置、眼科装置の作動方法、及びプログラム | |
JP6664992B2 (ja) | 眼科撮影装置 | |
JP7508216B2 (ja) | 撮影装置およびその制御方法 | |
JP7288110B2 (ja) | 眼科装置 | |
JP2019213752A (ja) | 眼科装置、及び眼科装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20220630 |