[go: up one dir, main page]

JP7231366B2 - Ophthalmic device and control method for the ophthalmic device - Google Patents

Ophthalmic device and control method for the ophthalmic device Download PDF

Info

Publication number
JP7231366B2
JP7231366B2 JP2018178923A JP2018178923A JP7231366B2 JP 7231366 B2 JP7231366 B2 JP 7231366B2 JP 2018178923 A JP2018178923 A JP 2018178923A JP 2018178923 A JP2018178923 A JP 2018178923A JP 7231366 B2 JP7231366 B2 JP 7231366B2
Authority
JP
Japan
Prior art keywords
unit
inspection
eye
image
anterior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018178923A
Other languages
Japanese (ja)
Other versions
JP2020048688A (en
Inventor
純幸 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2018178923A priority Critical patent/JP7231366B2/en
Publication of JP2020048688A publication Critical patent/JP2020048688A/en
Application granted granted Critical
Publication of JP7231366B2 publication Critical patent/JP7231366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、被検眼を光学的に検査する眼科装置および眼科装置の制御方法に関する。 The present invention relates to an ophthalmologic apparatus for optically examining an eye to be examined and a control method for the ophthalmic apparatus.

従来、被検眼を光学的に検査する眼科装置として、光干渉断層計が知られている。光干渉断層計は、低コヒーレンス光を二分し、一方(信号光)を眼底に導き、他方(参照光)を所定の参照物体に導くとともに、眼底を経由した信号光と、参照物体で反射された参照光を重畳して得られる干渉光に基づいて、眼底の表面及び深層組織の断層画像を形成する装置である(例えば、特許文献1参照)。特許文献1に開示される眼科装置は、低コヒーレンス光である信号光を眼底上において走査し、信号光の眼底反射光と参照光とを重畳して干渉光を得ている。 2. Description of the Related Art Conventionally, an optical coherence tomography is known as an ophthalmologic apparatus for optically examining an eye to be examined. Optical coherence tomography divides low-coherence light into two, guides one (signal light) to the fundus, and guides the other (reference light) to a predetermined reference object. This apparatus forms a tomographic image of the surface and deep tissue of the fundus based on the interference light obtained by superimposing the reference light (see, for example, Patent Document 1). The ophthalmologic apparatus disclosed in Patent Document 1 scans the fundus with signal light, which is low coherence light, and superimposes the fundus reflected light of the signal light on the reference light to obtain interference light.

特開2007-117714号公報JP 2007-117714 A

しかしながら、光干渉断層計である眼科装置において、信号光を眼底に導いて判定反射光を得ている際に、被検者が瞬き等を行うと、信号光が眼底に導かれない状態となる。この場合、信号光が導かれなかった眼底の領域の断面像が得られない。特許文献1に記載の眼科装置では、被検者が瞬き等を行った場合の対策がなされておらず、被検者が瞬き等を行った場合に所望の断面像が得られない可能性がある。 However, in the ophthalmologic apparatus, which is an optical coherence tomography, when the subject blinks while the signal light is guided to the fundus to obtain the judgment reflected light, the signal light is not guided to the fundus. . In this case, a cross-sectional image of the region of the fundus to which the signal light was not guided cannot be obtained. In the ophthalmologic apparatus described in Patent Document 1, no countermeasures are taken when the subject blinks or the like, and there is a possibility that a desired cross-sectional image cannot be obtained when the subject blinks or the like. be.

本発明は、前記課題を解決するためになされたものであり、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることが可能な眼科装置およびその制御方法を提供することを目的とする。 The present invention has been made to solve the above problems. It is an object of the present invention to provide an ophthalmic apparatus capable of obtaining an image and a control method thereof.

前記課題は、本発明によれば、被検眼を光学的に検査する眼科装置であって、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査用光学系を含む検査部と、前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成部と、前記被検眼の前眼部を撮像して前眼部像を取得する撮像部と、前記眼科装置を制御する制御部と、前記撮像部が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定部と、を備え、前記制御部は、前記検査部が前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御し、前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、前記検査用光学系を移動する移動機構と、を備え、前記制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御し、前記撮像部は、異なる2以上の方向から前記被検眼の前記前眼部を撮像して2以上の前記前眼部像を取得する2以上の前眼部カメラを有し、前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出し、2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することを特徴とする眼科装置により達成される。 According to the present invention, an ophthalmologic apparatus for optically inspecting an eye to be inspected includes an inspection optical system for optically inspecting an inspection range of the fundus of the eye to be inspected and outputting a detection signal. an inspection unit, an image forming unit that forms a cross-sectional image of the fundus based on the detection signal detected by the inspection unit, and an imaging unit that acquires an anterior segment image by imaging the anterior segment of the subject's eye. a control unit that controls the ophthalmologic apparatus; and a determination unit that determines whether the inspection unit is capable of inspecting the inspection range based on the anterior segment image captured by the imaging unit. wherein, when the determination unit determines that the inspection unit is not in a state in which the inspection range can be inspected, the control unit controls the inspection unit to perform inspection of the inspection range again, and the imaging unit a calculator for calculating the displacement between the eye to be inspected and the optical system for inspection based on the image of the anterior segment taken by the controller; and a movement mechanism for moving the optical system for inspection; controls the movement mechanism so that the inspection optical system maintains a predetermined positional relationship with respect to the eye to be inspected according to the displacement calculated by the calculation unit, and the imaging unit controls two or more different directions; two or more anterior eye cameras that acquire two or more anterior eye images by imaging the anterior eye of the subject eye from and the two or more anterior eye images, and the two or more anterior eye cameras successively capture the plurality of anterior eye images at the same frame rate. When the calculation unit calculates the three-dimensional position of the eye to be inspected, the control unit matches the imaging timings of the two or more anterior eye cameras, and the inspection unit inspects the inspection range. This is achieved by an ophthalmologic apparatus characterized by controlling the imaging units so that imaging timings of the two or more anterior segment cameras are made different when the determination unit determines whether or not there is a possible state.

本構成の眼科装置によれば、検査部が被検眼の眼底の検査範囲を光学的に検査することにより検出信号が出力され、検出信号に基づいて画像形成部が眼底の断面像を形成する。撮像部は被検眼の前眼部を撮像して前眼部像を取得し、判定部が前眼部像に基づいて検査部が検査範囲を検査可能な状態であるかどうかを判定する。検査部が検査範囲を検査可能な状態でない場合とは、例えば、被検者が瞬き等を行ったために検査部から検出信号が出力されない場合である。このような場合に、制御部は、検査範囲の検査を再度実行するよう検査部を制御する。そのため、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることができる。
また、本構成の眼科装置によれば、被検眼に対する検査用光学系が所定の位置関係を維持するために用いられる前眼部像を用いて、検査部が検査範囲を検査可能な状態であるかどうかを判定することができる。
また、本構成の眼科装置によれば、2以上の前眼部カメラの位置と2以上の前眼部像とに基づいて被検眼の3次元位置を算出し、被検眼に対する検査用光学系の所定の位置関係を維持するよう移動機構を制御することができる。
また、 本構成の眼科装置によれば、被検眼の3次元位置を算出して被検眼に対する検査用光学系の所定の位置関係を維持する場合には、2以上の前眼部カメラの撮像タイミングを一致させて被検眼の3次元位置を精度よく算出することができる。一方、検査部が検査範囲を検査可能な状態であるかどうかを判定する場合には、以上の前眼部カメラの撮像タイミングを異ならせることで、撮像部の撮像間隔(フレームレート)を短くすることができる。撮像部の撮像間隔が短くなると、検査部が検査範囲を検査可能な状態であるかどうかを判定する間隔が短くなり、判定の精度が向上する。
According to the ophthalmologic apparatus of this configuration, the inspection unit optically inspects the inspection range of the fundus of the subject's eye, thereby outputting a detection signal, and the image forming unit forms a cross-sectional image of the fundus based on the detection signal. The imaging unit captures an image of the anterior segment of the subject's eye to obtain an anterior segment image, and the determining unit determines whether the inspection region is ready for inspection based on the anterior segment image. A case where the inspection unit cannot inspect the inspection range is, for example, a case where the inspection unit does not output a detection signal because the subject blinks or the like. In such a case, the control unit controls the inspection unit to inspect the inspection range again. Therefore, a desired cross-sectional image can be obtained even when the examinee blinks or the like and the examination range of the fundus of the examinee's eye cannot be examined.
Further, according to the ophthalmologic apparatus of this configuration, the inspection unit is in a state in which the inspection range can be inspected using the anterior segment image used for maintaining the predetermined positional relationship of the inspection optical system with respect to the eye to be inspected. can determine whether
Further, according to the ophthalmologic apparatus of this configuration, the three-dimensional position of the eye to be examined is calculated based on the positions of two or more anterior eye cameras and the two or more anterior eye images, and the optical system for examination for the eye is calculated. A movement mechanism can be controlled to maintain a predetermined positional relationship.
Further, according to the ophthalmologic apparatus of this configuration, when the three-dimensional position of the eye to be examined is calculated and the predetermined positional relationship of the examination optical system with respect to the eye to be examined is maintained, the imaging timing of two or more anterior eye cameras is can be matched to accurately calculate the three-dimensional position of the subject's eye. On the other hand, when the inspection unit determines whether or not the inspection range can be inspected, the imaging interval (frame rate) of the imaging unit is shortened by varying the imaging timing of the anterior segment cameras. be able to. When the imaging interval of the imaging unit is shortened, the interval at which the inspection unit determines whether the inspection range can be inspected is shortened, and the accuracy of determination is improved.

本発明の眼科装置において、好ましくは、前記撮像部が撮像した前記前眼部像に基づいて、前記被検眼の瞳孔に相当する画像領域を特定する特定部を備え、前記判定部は、前記特定部の特定結果に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする。
瞳孔は他の部位よりも輝度が低いため、瞳孔に相当する画像領域を特定することは比較的容易である。そのため、本構成の眼科装置によれば、検査部が検査範囲を検査可能な状態であるかどうかを、比較的容易な処理により精度よく判定することができる。
The ophthalmologic apparatus of the present invention preferably includes a specifying unit that specifies an image region corresponding to the pupil of the subject's eye based on the anterior segment image captured by the imaging unit, and the determination unit includes the specifying It is characterized by determining whether or not the inspection unit is in a state in which it is possible to inspect the inspection range based on the identification result of the unit.
Since the pupil has a lower luminance than other parts, it is relatively easy to identify the image region corresponding to the pupil. Therefore, according to the ophthalmologic apparatus of this configuration, it is possible to accurately determine whether or not the inspection unit is in a state where the inspection range can be inspected through relatively easy processing.

本発明の眼科装置において、好ましくは、前記判定部は、前記特定部により前記画像領域が特定されない場合に、前記検査部が前記検査範囲を検査可能な状態でないと判定することを特徴とする。
例えば、被検者が瞬き等を行ったために検査部から検出信号が出力されない場合、特定部により被検眼の瞳孔に相当する画像領域が特定されない。本構成の眼科装置によれば、このような場合であっても、検査範囲の検査を再度実行して所望の断面像を得ることができる。
In the ophthalmologic apparatus of the present invention, preferably, the determination unit determines that the inspection unit is not in a state in which the inspection range can be inspected when the image area is not specified by the specifying unit.
For example, when the inspection unit does not output a detection signal because the subject blinks or the like, the specifying unit does not specify the image region corresponding to the pupil of the subject's eye. According to the ophthalmologic apparatus of this configuration, even in such a case, it is possible to re-execute the examination of the examination range and obtain a desired cross-sectional image.

本発明の眼科装置において、好ましくは、前記判定部は、前記特定部により特定された前記画像領域の位置に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする。
例えば、被検者が視線を正面から大きくずらしてしまうと、特定部により特定された瞳孔に相当する画像領域の位置が正面から大きくずれてしまう。本構成の眼科装置によれば、このような場合に、検査範囲の検査を再度実行し、所望の断面像を得ることができる。
In the ophthalmologic apparatus of the present invention, preferably, the determination unit determines whether the inspection unit can inspect the inspection range based on the position of the image region specified by the specification unit. It is characterized by
For example, if the subject's line of sight is greatly shifted from the front, the position of the image region corresponding to the pupil identified by the identifying unit will be greatly displaced from the front. According to the ophthalmologic apparatus of this configuration, in such a case, it is possible to re-execute the examination of the examination range and obtain a desired cross-sectional image.

本発明の眼科装置において、好ましくは、前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の全領域を再び光学的に検査するように前記検査部を制御することを特徴とする。
本構成の眼科装置によれば、検査範囲を検査可能な状態でない場合に検査範囲の全領域を再び光学的に検査するため、使用者による再検査の操作等を要することなく、連続的に検査した得た検出信号から眼底の断面像を取得することができる。
In the ophthalmologic apparatus of the present invention, preferably, when the determination unit determines that the inspection range is not in an inspectable state, the control unit optically inspects the entire inspection range again. It is characterized by controlling the inspection unit.
According to the ophthalmologic apparatus of this configuration, when the inspection range is not in an inspectable state, the entire area of the inspection range is optically inspected again. A cross-sectional image of the fundus can be acquired from the obtained detection signal.

本発明の眼科装置において、好ましくは、前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲のうち前記検査部による検査が行われていない再検査範囲を検査するように前記検査部を制御することを特徴とする。
本構成の眼科装置によれば、検査範囲を検査可能な状態でない場合に検査部による検査が行われていない領域のみを再検査するため、再検査に要する時間を少なくして早期に眼底の断面像を取得することができる。
In the ophthalmologic apparatus of the present invention, preferably, when the determination unit determines that the inspection range is not in a state in which inspection is possible, the control unit preferably determines whether the inspection range has not been inspected by the inspection unit. The inspection unit is controlled so as to inspect an inspection range.
According to the ophthalmologic apparatus of this configuration, when the inspection range is not in an inspectable state, only the area not inspected by the inspection unit is re-examined. image can be obtained.

本発明の眼科装置において、好ましくは、前記検査部は、光源からの光を信号光と参照光とに分割して前記信号光で前記被検眼の前記眼底を走査し、前記眼底を経由した前記信号光と前記参照光とを干渉させた干渉光に応じた前記検出信号を検出することを特徴とする。
本構成の眼科装置によれば、反射光と参照光とを重ね合わせて得られる干渉光に応じた検出信号を検出することにより、光の進行方向に直交する断面における被測定物体の断面像を形成することができる。
In the ophthalmologic apparatus of the present invention, preferably, the examination unit divides light from a light source into signal light and reference light, scans the fundus of the subject's eye with the signal light, and scans the fundus of the subject's eye with the signal light. It is characterized in that the detection signal is detected according to the interference light obtained by causing the signal light and the reference light to interfere with each other.
According to the ophthalmologic apparatus of this configuration, a cross-sectional image of the object to be measured in a cross section perpendicular to the traveling direction of the light is obtained by detecting the detection signal corresponding to the interference light obtained by superimposing the reflected light and the reference light. can be formed.

前記課題は、本発明によれば、被検眼を光学的に検査する眼科装置の制御方法であって、前記眼科装置は、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査部と、前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、前記検査用光学系を移動する移動機構と、異なる2以上の方向から前記被検眼の前眼部を撮像して2以上の前記前眼部像を取得する2以上の前眼部カメラと、を有し、前記被検眼の前眼部を撮像して前眼部像を取得する撮像工程と、前記撮像工程が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定工程と、前記検査部が前記検査範囲を検査可能な状態でないと前記判定工程が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御する制御工程と、前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成工程と、を備え、制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御し、前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出し、2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することを特徴とする眼科装置の制御方法により達成される。
本構成の眼科装置の制御方法によれば、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることができる。
According to the present invention, the above object is a method for controlling an ophthalmologic apparatus that optically inspects an eye to be inspected, wherein the ophthalmologic apparatus optically inspects an inspection range of the fundus of the eye to be inspected and outputs a detection signal. an inspection unit for outputting, a calculation unit for calculating a displacement between the eye to be inspected and the inspection optical system based on the anterior segment image captured by the imaging unit, and a movement for moving the inspection optical system and two or more anterior eye cameras for acquiring two or more anterior eye images by imaging the anterior eye of the subject's eye from two or more different directions, wherein the anterior eye of the subject's eye. an image capturing step of capturing an anterior eye segment image by capturing an image of the eye region; and based on the anterior segment image captured by the imaging step, the inspecting unit determines whether or not the inspection range can be inspected. a determination step, a control step of controlling the inspection unit to re-execute the inspection of the inspection range when the determination step determines that the inspection unit is not in a state in which the inspection range can be inspected, the inspection unit and an image forming step of forming a cross-sectional image of the fundus based on the detection signal detected by the control unit, according to the displacement calculated by the calculation unit, the inspection optical system for the eye to be examined controls the movement mechanism so as to maintain a predetermined positional relationship, and the calculator controls the position of the eye to be examined based on the positions of the two or more anterior eye cameras and the two or more anterior eye images A three-dimensional position is calculated, and two or more of the anterior eye cameras continuously capture a plurality of the anterior eye images at the same frame rate, and the control unit is configured such that the calculation unit is the subject's eye. When calculating a three-dimensional position, two or more of the anterior segment cameras are matched in imaging timing, and two or more when the determination unit determines whether the inspection unit is capable of inspecting the inspection range. is achieved by a method for controlling an ophthalmologic apparatus, characterized by controlling the imaging unit so as to change the imaging timing of the anterior segment camera .
According to the control method of the ophthalmologic apparatus of this configuration, even when the subject blinks and the examination range of the fundus of the subject's eye cannot be inspected, a desired cross-sectional image can be obtained. can.

本発明によれば、被検者が瞬き等を行って被検眼の眼底の検査範囲を検査不能な状態となった場合であっても、所望の断面像を得ることが可能な眼科装置およびその制御方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, an ophthalmologic apparatus capable of obtaining a desired cross-sectional image even when the examination range of the fundus of the subject's eye cannot be examined due to blinking of the examinee's eyes, and the like. A control method can be provided.

第1実施形態に係る眼科装置を示す概略図である。1 is a schematic diagram showing an ophthalmologic apparatus according to a first embodiment; FIG. 図1に示すOCTユニットの概略図である。2 is a schematic diagram of the OCT unit shown in FIG. 1; FIG. 第1実施形態に係る眼科装置を示す機能ブロック図である。1 is a functional block diagram showing an ophthalmologic apparatus according to a first embodiment; FIG. 図1の眼科装置を示す図であり、Aは正面図であり、Bは右側面図である。It is a figure which shows the ophthalmic apparatus of FIG. 1, A is a front view, B is a right side view. 被検眼と前眼部カメラとの間の位置関係を示す図であり、Aは上面図であり、Bは側面図である。It is a figure which shows the positional relationship between a to-be-tested eye and an anterior segment camera, A is a top view, B is a side view. 第1実施形態に係る眼科装置が実行する処理を示すフローチャートである。4 is a flowchart showing processing executed by the ophthalmologic apparatus according to the first embodiment; 眼科装置により表示される画面の例を表す概略図である。FIG. 4 is a schematic diagram showing an example of a screen displayed by an ophthalmologic apparatus; 信号光が被検眼に入射する方向から眼底を見たときの、信号光の走査態様の一例を表す図である。FIG. 4 is a diagram showing an example of a scanning mode of signal light when the fundus is viewed from the direction in which the signal light is incident on the eye to be inspected. 眼底上の各走査線における走査点の配列態様の一例を表す図である。FIG. 4 is a diagram showing an example of an arrangement mode of scanning points on each scanning line on the fundus. 画像形成部により形成される断層画像の態様を表す図である。FIG. 4 is a diagram showing a mode of a tomographic image formed by an image forming unit; 前眼部カメラにより取得された前眼部像の一例を示す図である。FIG. 4 is a diagram showing an example of an anterior segment image acquired by an anterior segment camera; 前眼部カメラにより取得された前眼部像の一例を示す図である。FIG. 4 is a diagram showing an example of an anterior segment image acquired by an anterior segment camera; オートアライメントを実行する際の前眼部カメラの垂直同期信号を示すタイミングチャートである。4 is a timing chart showing vertical synchronization signals of an anterior eye camera when auto-alignment is executed; OCT計測を実行する際の前眼部カメラの垂直同期信号を示すタイミングチャートである。4 is a timing chart showing vertical synchronization signals of an anterior eye camera when performing OCT measurement.

〔第1実施形態〕
この発明に係る眼科装置の第1実施形態について、図面を参照しながら詳細に説明する。第1実施形態に係る眼科装置は、被検眼の光学的な検査に用いられるものであり、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を用いて断面像を得る光干渉断層計である。
[First embodiment]
A first embodiment of an ophthalmologic apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic apparatus according to the first embodiment is used for optical examination of an eye to be examined, and is an optical coherence tomography that obtains cross-sectional images using optical coherence tomography (OCT).

この明細書において、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。 In this specification, images acquired by OCT may be collectively referred to as OCT images. Also, the measurement operation for forming an OCT image is sometimes called OCT measurement. In addition, it is possible to appropriately incorporate the contents of the literature described in this specification as the contents of the following embodiments.

また、以下の実施形態では、低コヒーレンス光源と分光器が搭載された、いわゆるスペクトラルドメイン(Spectral Domain)タイプのOCTを用いた光干渉断層計について説明するが、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースタイプ、インファスタイプのOCTの手法を用いた光干渉断層計に対してこの発明を適用することも可能である。 In the following embodiments, optical coherence tomography using a so-called spectral domain type OCT equipped with a low coherence light source and a spectroscope will be described. It is also possible to apply the present invention to optical coherence tomography using OCT techniques of type and infas type.

なお、スウェプトソース(Swept Source)OCTとは、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を順次に検出することでスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する手法である。また、インファス(en-face)OCTとは、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成する手法であり、フルフィールド(full-field)タイプとも呼ばれる。 The Swept Source OCT scans (wavelength sweeps) the wavelength of the light irradiated to the object to be measured, and generates interference light obtained by overlapping the reflected light of each wavelength with the reference light. In this method, spectral intensity distribution is acquired by sequential detection, and the morphology of the object to be measured is imaged by applying Fourier transform to it. Further, in-face (en-face) OCT refers to irradiating an object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light. This is a method of forming an image of an object to be measured in a cross section perpendicular to the light traveling direction, and is also called a full-field type.

また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、この発明の適用対象はこのような複合機には限定されない。たとえば、他の組み合わせからなる複合機や、単体機としての眼科装置(たとえば眼底カメラ単体)に対して、この発明を適用することも可能である。 Also, in the following embodiments, an apparatus combining an OCT apparatus and a retinal camera will be described, but the application target of the present invention is not limited to such a multifunction machine. For example, it is also possible to apply the present invention to a multi-function machine composed of other combinations, or to an ophthalmologic apparatus as a single machine (for example, a single fundus camera).

[構成]
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
[composition]
As shown in FIG. 1 , the ophthalmologic apparatus 1 includes a fundus camera unit 2 , an OCT unit 100 and an arithmetic control unit 200 . The retinal camera unit 2 has an optical system substantially similar to that of a conventional retinal camera. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus. The arithmetic control unit 200 has a computer that executes various kinds of arithmetic processing, control processing, and the like.

〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット2は前眼部Eaの観察画像を取得することができる。
[Fundus camera unit]
The fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface morphology of the fundus Ef of the eye E to be examined. The fundus image includes an observed image, a photographed image, and the like. The observed image is, for example, a monochrome moving image formed at a predetermined frame rate using near-infrared light. When the optical system is focused on the anterior segment Ea of the subject's eye E, the fundus camera unit 2 can acquire an observation image of the anterior segment Ea.

撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。 The captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near-infrared light or visible light as illumination light. The fundus camera unit 2 may be configured to be able to acquire images other than these, such as fluorescein fluorescence images, indocyanine green fluorescence images, autofluorescence images, and the like.

眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受けおよび額当ては、図4Aおよび図4Bに示す支持部440に相当する。なお、図4Aおよび図4Bにおいて、符号410は、光学系駆動部2A等の駆動系や、演算制御回路が格納されたベースを示す。また、符号420は、ベース410上に設けられた、光学系が格納された筐体を示す。また、符号430は、筐体420の前面に突出して設けられた、対物レンズ22が収容されたレンズ収容部を示す。 The retinal camera unit 2 is provided with a chin rest and a forehead rest for supporting the subject's face. The chin rest and forehead rest correspond to the support 440 shown in FIGS. 4A and 4B. In FIGS. 4A and 4B, reference numeral 410 denotes a base in which a driving system such as the optical system driving section 2A and an arithmetic control circuit are stored. Reference numeral 420 denotes a housing provided on the base 410 and housing an optical system. Further, reference numeral 430 denotes a lens accommodating portion that is provided to protrude from the front surface of the housing 420 and that accommodates the objective lens 22 .

眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。 The retinal camera unit 2 is provided with an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 illuminates the fundus oculi Ef with illumination light. The imaging optical system 30 guides the fundus reflected light of this illumination light to imaging devices (CCD image sensors (sometimes simply called CCDs) 35 and 38). The imaging optical system 30 also guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light to the OCT unit 100 via the fundus oculi Ef.

照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。 The observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp. Light (observation illumination light) output from an observation light source 11 is reflected by a reflecting mirror 12 having a curved reflecting surface, passes through a condenser lens 13, passes through a visible light cut filter 14, and becomes near-infrared light. Become. Further, the observation illumination light is once converged near the photographing light source 15 , reflected by the mirror 16 , and passed through the relay lenses 17 and 18 , the diaphragm 19 and the relay lens 20 .

そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。 The observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, and illuminates the fundus oculi Ef. It is also possible to use an LED (Light Emitting Diode) as an observation light source.

観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。 The fundus reflected light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through a hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and reaches the focusing lens. 31 and reflected by mirror 32 . Further, this fundus reflected light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the CCD image sensor 35 by the condenser lens .

CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。 The CCD image sensor 35 detects the fundus reflected light, for example, at a predetermined frame rate. The display device 3 displays an image (observation image) based on the fundus reflected light detected by the CCD image sensor 35 . When the imaging optical system is focused on the anterior segment, an observation image of the anterior segment of the subject's eye E is displayed.

撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。 The imaging light source 15 is composed of, for example, a xenon lamp. The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The fundus-reflected light of the photographing illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 onto the CCD image sensor 38. An image is formed on the light receiving surface.

表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。 An image (captured image) based on the fundus reflected light detected by the CCD image sensor 38 is displayed on the display device 3 . The display device 3 that displays the observed image and the display device 3 that displays the captured image may be the same or different. In addition, when the subject's eye E is illuminated with infrared light and similar photographing is performed, an infrared photographed image is displayed. Moreover, it is also possible to use an LED as a light source for photographing.

LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。 An LCD (Liquid Crystal Display) 39 displays a fixation target and visual acuity measurement indices. The fixation target is an index for fixing the eye E to be examined, and is used during fundus photography, OCT measurement, and the like. A part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the aperture of the apertured mirror 21, and is dichroic. It is transmitted through the mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。 By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the subject's eye E can be changed. The fixation position of the subject's eye E may be, for example, a position for acquiring an image centered on the macula of the fundus oculi Ef or a position for acquiring an image centered on the optic papilla, similar to a conventional fundus camera. and a position for acquiring an image centered on the center of the fundus between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.

さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系(検査用光学系)の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。 Further, the retinal camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60, like a conventional retinal camera. The alignment optical system 50 generates an index (alignment index) for aligning the apparatus optical system (inspection optical system) with the eye E to be examined. The focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。 Light (alignment light) output from the LED 51 of the alignment optical system 50 passes through the apertures 52 and 53 and the relay lens 54, is reflected by the dichroic mirror 55, passes through the aperture of the apertured mirror 21, and reaches the dichroic mirror 46. and projected onto the cornea of the eye E to be examined by the objective lens 22 .

アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。 The cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is reflected by the half mirror. 39 A, reflected by the dichroic mirror 33 , and projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens 34 .

CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。 A received image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observed image. The user carries out alignment by performing operations similar to those of a conventional fundus camera. Alternatively, the arithmetic and control unit 200 may analyze the position of the alignment index and move the optical system to perform alignment (auto-alignment function).

なお、この実施形態では、後述の前眼部カメラ300を用いてオートアライメントを実行することができるので、アライメント指標を用いたオートアライメントが可能なことは必須な事項ではない。ただし、前眼部カメラ300を用いたオートアライメントが成功しなかった場合などにアライメント指標を用いたオートアライメントを行えるように構成したり、前眼部カメラ300を用いたオートアライメントとアライメント指標を用いたオートアライメントとを選択的に使用できるように構成したりすることも可能である。 Note that, in this embodiment, automatic alignment can be performed using an anterior eye camera 300, which will be described later, so it is not essential to be able to perform automatic alignment using an alignment index. However, when the auto alignment using the anterior eye camera 300 is unsuccessful, the auto alignment using the alignment index may be performed, or the auto alignment using the anterior eye camera 300 and the alignment index may be used. It is also possible to configure such that automatic alignment can be used selectively.

フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。 When performing focus adjustment, the reflecting surface of the reflecting bar 67 is obliquely provided on the optical path of the illumination optical system 10 . Light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is split into two light beams by the split index plate 63, passes through the two-hole diaphragm 64, is reflected by the mirror 65, An image is once formed on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and then reflected. Further, the focused light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.

フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。 The fundus reflected light of the focus light passes through the same path as the corneal reflected light of the alignment light and is detected by the CCD image sensor 35 . A received image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observed image. The arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focusing optical system 60 to perform focusing (autofocus function), as in the conventional art. Alternatively, focusing may be performed manually while visually recognizing the split indicator.

ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。 The dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging. The dichroic mirror 46 reflects light in the wavelength band used for OCT measurement and transmits light for fundus imaging. The optical path for OCT measurement is provided with a collimator lens unit 40, an optical path length changing section 41, a galvanometer scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 in this order from the OCT unit 100 side. It is

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correction of the optical path length according to the axial length of the eye E to be examined, adjustment of the interference state, and the like. The optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving it.

ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。 The galvanometer scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS. The galvanometer scanner 42 includes, for example, a galvanometer mirror for scanning the signal light LS in the x direction, a galvanometer mirror for scanning in the y direction, and a mechanism for independently driving these. Thereby, the signal light LS can be scanned in any direction on the xy plane.

前眼部カメラ300は、前眼部Eaを異なる方向から実質的に同時に撮影する。この実施形態では、眼底カメラユニット2の被検者側の面に2台のカメラが設けられている(図4Aに示す前眼部カメラ300A、300Bを参照)。また、前眼部カメラ300Aおよび300Bはそれぞれ、図1および図4Aに示すように、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。つまり、前眼部カメラ300Aおよび300Bは、照明光学系10および撮影光学系30と非同軸に設けられている。以下、2台の前眼部カメラ300Aおよび300Bをまとめて符号300で表すことがある。 The anterior segment camera 300 captures images of the anterior segment Ea from different directions substantially simultaneously. In this embodiment, two cameras are provided on the subject-side surface of the retinal camera unit 2 (see anterior eye cameras 300A and 300B shown in FIG. 4A). Also, the anterior eye cameras 300A and 300B are provided at positions outside the optical path of the illumination optical system 10 and the optical path of the imaging optical system 30, respectively, as shown in FIGS. 1 and 4A. That is, the anterior eye cameras 300A and 300B are provided non-coaxially with the illumination optical system 10 and the photographing optical system 30 . Hereinafter, the two anterior eye cameras 300A and 300B may be collectively denoted by reference numeral 300. FIG.

この実施形態では、2台の前眼部カメラ300Aおよび300Bが設けられているが、実施形態に係る前眼部カメラの個数は2以上の任意の個数であってよい(ただし、アライメント指標を用いる場合には前眼部カメラを設ける必要はない)。しかし、後述の演算処理を考慮すると、異なる2方向から実質的に同時に前眼部を撮影可能な構成であれば十分である。 In this embodiment, two anterior eye cameras 300A and 300B are provided, but the number of anterior eye cameras according to the embodiment may be any number of two or more (however, an alignment index is used In some cases, there is no need to provide an anterior eye camera). However, considering the arithmetic processing to be described later, it is sufficient that the anterior segment can be photographed substantially simultaneously from two different directions.

また、この実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて同様の前眼部撮影を行うことができる。つまり、2以上の前眼部カメラのうちの1つを、撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、この実施形態は、異なる2(以上の)方向から実質的に同時に前眼部を撮影可能に構成されていればよい。 Also, in this embodiment, the anterior segment camera 300 is provided separately from the illumination optical system 10 and the imaging optical system 30, but at least the imaging optical system 30 can be used to perform similar anterior segment imaging. . That is, one of the two or more anterior segment cameras may be handled by a configuration including the imaging optical system 30 . In any case, this embodiment only needs to be configured so that the anterior segment can be imaged substantially simultaneously from two (or more) different directions.

なお、「実質的に同時」とは、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。 It should be noted that "substantially simultaneously" means that, in photographing with two or more anterior eye cameras, a deviation in photographing timing to the extent that eye movement can be ignored is allowed. Thereby, two or more anterior eye cameras can acquire images when the subject's eye E is in substantially the same position (orientation).

また、2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよいが、この実施形態では動画撮影を行う場合について特に詳しく説明する。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部撮影を実現することができる。また、2以上の前眼部カメラから制御部210(後述)に対して実質的に同時に入力された信号同士を対応付けるように構成してもよい。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。 In addition, photographing by two or more anterior segment cameras may be either moving image photographing or still image photographing, but in this embodiment, the case of photographing a moving image will be described in detail. In the case of moving image shooting, by controlling the shooting start timing to match, or by controlling the frame rate and the shooting timing of each frame, the above-described substantially simultaneous anterior segment shooting can be realized. Alternatively, signals substantially simultaneously input from two or more anterior eye cameras to the control unit 210 (described later) may be associated with each other. On the other hand, in the case of still image shooting, this can be achieved by controlling the shooting timing to match.

〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光(低コヒーレンス光)を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the OCT unit 100 will be described with reference to FIG. The OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef. This optical system has a configuration similar to that of a conventional spectral domain type OCT apparatus. That is, this optical system divides light (low coherence light) from a light source into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference light path. and is configured to detect the spectral components of this interfering light. This detection result (detection signal) is sent to the arithmetic control unit 200 .

なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。 In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member for spectrally resolving interference light is not provided. In general, for the configuration of the OCT unit 100, any known technique can be applied according to the type of OCT.

光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。 The light source unit 101 outputs broadband low-coherence light L0. The low-coherence light L0 includes, for example, a near-infrared wavelength band (approximately 800 nm to 900 nm) and has a temporal coherence length of approximately several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1040 to 1060 nm may be used as the low coherence light L0.

光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。 The light source unit 101 includes a light output device such as a Super Luminescent Diode (SLD), an LED, or an SOA (Semiconductor Optical Amplifier). A low-coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102 and split into the signal light LS and the reference light LR.

参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。 The reference light LR is guided by an optical fiber 104 and reaches an optical attenuator 105 . The optical attenuator 105 automatically adjusts the light amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique. The reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106 .

偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。 The polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided through the optical fiber 104 by applying external stress to the looped optical fiber 104 . Note that the configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used. The reference light LR whose polarization state has been adjusted by the polarization adjuster 106 reaches the fiber coupler 109 .

ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。さらに、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。 The signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and made into a parallel light beam by the collimator lens unit 40 . Furthermore, the signal light LS reaches the dichroic mirror 46 via the optical path length changing section 41 , the galvanometer scanner 42 , the focusing lens 43 , the mirror 44 and the relay lens 45 .

そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。 Then, the signal light LS is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated to the fundus oculi Ef. The signal light LS is scattered (including reflected) at various depth positions of the fundus oculi Ef. Backscattered light of the signal light LS by the fundus oculi Ef travels in the opposite direction along the same path as the forward path, is guided to the fiber coupler 103 , and reaches the fiber coupler 109 via the optical fiber 108 .

ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。さらに、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。 The fiber coupler 109 causes interference between the backscattered light of the signal light LS and the reference light LR that has passed through the optical fiber 104 . The interference light LC thus generated is guided by the optical fiber 110 and emitted from the emission end 111 . Further, the interference light LC is collimated by a collimator lens 112 , dispersed (spectrally resolved) by a diffraction grating 113 , condensed by a condensing lens 114 and projected onto a light receiving surface of a CCD image sensor 115 . Although the diffraction grating 113 shown in FIG. 2 is of a transmissive type, it is also possible to use other types of spectral elements such as a reflective diffraction grating.

CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。 The CCD image sensor 115 is, for example, a line sensor, detects each spectral component of the scattered interference light LC, and converts it into an electric charge. The CCD image sensor 115 accumulates this charge to generate a detection signal and sends it to the arithmetic control unit 200 .

この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。 Although this embodiment employs a Michelson-type interferometer, any type of interferometer, such as a Mach-Zehnder interferometer, may be employed as appropriate. Also, instead of the CCD image sensor, it is possible to use another type of image sensor, such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
[Calculation control unit]
A configuration of the arithmetic control unit 200 will be described. The arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef. Arithmetic processing therefor is similar to that of the conventional spectral domain type OCT apparatus. The arithmetic control unit 200 controls each part of the retinal camera unit 2 , the display device 3 and the OCT unit 100 . For example, the arithmetic control unit 200 causes the display device 3 to display an OCT image of the fundus oculi Ef.

また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御、前眼部カメラ300の動作制御などを行う。 In addition, as the control of the retinal camera unit 2, the arithmetic control unit 200 controls the operation of the observation light source 11, the photographing light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the movement of the reflecting bar 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvanometer scanner 42, operation control of the anterior eye camera 300, and the like are performed.

また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。 As for the control of the OCT unit 100, the arithmetic control unit 200 controls the operation of the light source unit 101, the optical attenuator 105, the polarization adjuster 106, the CCD image sensor 115, and the like.

演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。 Arithmetic control unit 200 includes, for example, a microprocessor, RAM, ROM, hard disk drive, communication interface, etc., like a conventional computer. A computer program for controlling the ophthalmologic apparatus 1 is stored in a storage device such as a hard disk drive. The arithmetic and control unit 200 may include various circuit boards, such as a circuit board for forming OCT images. The arithmetic control unit 200 may also include an operation device (input device) such as a keyboard and mouse, and a display device such as an LCD.

眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。 The retinal camera unit 2, the display device 3, the OCT unit 100, and the arithmetic control unit 200 may be configured integrally (that is, in a single housing), or may be configured separately in two or more housings. may be

〔制御系〕
眼科装置1の制御系の構成について図3を参照しつつ説明する。
(制御部)
眼科装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213と、情報判定部214とが設けられている。
[Control system]
The configuration of the control system of the ophthalmologic apparatus 1 will be described with reference to FIG.
(control part)
A control system of the ophthalmologic apparatus 1 is configured around a control unit 210 . The control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like. The control unit 210 is provided with a main control unit 211 , a storage unit 212 , an optical system position acquisition unit 213 and an information determination unit 214 .

(主制御部)
主制御部211は前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。また、合焦レンズ43の移動制御は、図示しない合焦駆動部を制御して合焦レンズ43を光軸方向に移動させるものである。それにより、信号光LSの合焦位置が変更される。
(main controller)
The main control unit 211 performs various operational controls described above. The movement control of the focusing lens 31 controls a focusing driving section (not shown) to move the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographing optical system 30 is changed. Further, the movement control of the focusing lens 43 controls a focusing driving section (not shown) to move the focusing lens 43 in the optical axis direction. Thereby, the focus position of the signal light LS is changed.

主制御部211は、光学系駆動部2Aを制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、オートアライメントやトラッキングにおいて実行される。ここで、トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングは、たとえばアライメントよりも後の段階で実行される(場合によってはピント合わせも事前に実行される)。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメント(およびピント)が合った好適な位置関係を維持する機能である。 The main control section 211 can control the optical system driving section 2A to three-dimensionally move the optical system provided in the retinal camera unit 2 . This control is executed in auto alignment and tracking. Here, tracking means moving the device optical system in accordance with the eye movement of the eye E to be examined. Tracking is performed, for example, at a later stage than alignment (in some cases, focusing is also performed beforehand). Tracking is a function of maintaining a suitable positional relationship in alignment (and focus) by causing the position of the optical system of the device to follow the movement of the eyeball.

なお、この実施形態の光学系駆動部2Aは眼底カメラユニット2に搭載された光学系を移動させるものであるが、眼底カメラユニット2に搭載された光学系とOCTユニット100に搭載された光学系とを光学系駆動部2Aによって移動させるように構成されていてもよい。光学系駆動部2Aは「移動機構」の一例である。 The optical system driving unit 2A of this embodiment moves the optical system mounted on the retinal camera unit 2, and the optical system mounted on the retinal camera unit 2 and the optical system mounted on the OCT unit 100 may be configured to be moved by the optical system driving section 2A. The optical system driving section 2A is an example of a "moving mechanism".

また、この実施形態の前眼部カメラ300は眼底カメラユニット2の筐体に設けられているので、光学系駆動部2A(撮影移動部)を制御することにより前眼部カメラ300を移動させることができる。また、2以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。 In addition, since the anterior eye camera 300 of this embodiment is provided in the housing of the retinal camera unit 2, the anterior eye camera 300 can be moved by controlling the optical system driving section 2A (shooting movement section). can be done. In addition, a photographing movement unit capable of independently moving two or more anterior eye cameras 300 can be provided.

具体的には、撮影移動部は、各前眼部カメラ300に対して設けられた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2以上の前眼部カメラ300を移動させるように構成されていてもよい。 Specifically, the photographing movement unit may include a drive mechanism (actuator, power transmission mechanism, etc.) provided for each anterior eye camera 300 . In addition, the photographing movement unit is configured to move two or more anterior eye cameras 300 by transmitting power generated by a single actuator through a power transmission mechanism provided for each anterior eye camera 300. may have been

また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。 The main control unit 211 also performs processing of writing data to the storage unit 212 and processing of reading data from the storage unit 212 .

(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
(storage unit)
The storage unit 212 stores various data. The data stored in the storage unit 212 includes, for example, image data of an OCT image, image data of a fundus image, eye information to be examined, and the like. The eye information to be examined includes information about the subject such as patient ID and name, and information about the eye to be examined such as left/right eye identification information. The storage unit 212 also stores various programs and data for operating the ophthalmologic apparatus 1 .

(光学系位置取得部)
光学系位置取得部213は、眼科装置1に搭載された検査用光学系の現在位置を取得する。検査用光学系とは、被検眼Eを光学的に検査するために用いられる光学系である。この実施形態の眼科装置1(眼底カメラとOCT装置の複合機)における検査用光学系は、被検眼の画像を得るための光学系である。
(Optical system position acquisition unit)
The optical system position acquisition unit 213 acquires the current position of the examination optical system mounted on the ophthalmologic apparatus 1 . The inspection optical system is an optical system used for optically inspecting the eye E to be inspected. The examination optical system in the ophthalmologic apparatus 1 (a multifunction device of a fundus camera and an OCT apparatus) of this embodiment is an optical system for obtaining an image of an eye to be examined.

光学系位置取得部213は、たとえば、主制御部211による光学系駆動部2Aの移動制御の内容を表す情報を受けて、光学系駆動部2Aにより移動される検査用光学系の現在位置を取得する。この処理の具体例を説明する。主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部2Aを制御して、検査用光学系を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部2Aが制御される度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。光学系位置取得部213は、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて検査用光学系の現在位置を求める。 The optical system position acquisition unit 213 receives, for example, information indicating the content of movement control of the optical system drive unit 2A by the main control unit 211, and acquires the current position of the inspection optical system moved by the optical system drive unit 2A. do. A specific example of this processing will be described. The main control unit 211 controls the optical system driving unit 2A at predetermined timing (when the device is started, when patient information is input, etc.) to move the examination optical system to a predetermined initial position. After that, the main control section 211 records the control contents every time the optical system driving section 2A is controlled. As a result, a history of control contents is obtained. The optical system position acquisition unit 213 acquires the contents of control up to the present by referring to this history, and obtains the current position of the optical system for inspection based on the contents of control.

また、主制御部211が光学系駆動部2Aを制御する度にその制御内容を光学系位置取得部213に送信し、光学系位置取得部213が当該制御内容を受ける度に検査用光学系の現在位置を逐次求めるようにしてもよい。他の構成例として、検査用光学系の位置を検知する位置センサを光学系位置取得部213に設けるようにしてもよい。 Further, each time the main control unit 211 controls the optical system driving unit 2A, it transmits the control details to the optical system position acquisition unit 213, and each time the optical system position acquisition unit 213 receives the control details, the optical system for inspection is changed. The current position may be obtained sequentially. As another configuration example, the optical system position acquisition unit 213 may be provided with a position sensor for detecting the position of the inspection optical system.

以上のようにして光学系位置取得部213により検査用光学系の現在位置が取得された場合、主制御部211は、取得された現在位置と、後述の解析部231により求められた被検眼Eの3次元位置とに基づいて、光学系駆動部2Aに検査用光学系を移動させることができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって検査用光学系の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。 When the current position of the inspection optical system is acquired by the optical system position acquisition unit 213 as described above, the main control unit 211 controls the acquired current position and the subject eye E obtained by the analysis unit 231, which will be described later. The inspection optical system can be moved by the optical system drive unit 2A based on the three-dimensional position of . Specifically, the main control unit 211 recognizes the current position of the optical system for inspection from the acquisition result of the optical system position acquisition unit 213 , and recognizes the three-dimensional position of the subject's eye E from the analysis result of the analysis unit 231 .

そして、主制御部211は、被検眼Eの3次元位置に対する検査用光学系の位置が所定の位置関係になるように、検査用光学系の現在位置を起点としてその位置を変更する。この所定の位置関係は、x方向およびy方向の位置がそれぞれ一致し、かつ、z方向の距離が所定の作動距離になるようなものである。ここで、作動距離とは、ワーキングディスタンスとも呼ばれる既定値であり、検査用光学系を用いた検査時における被検眼Eと検査用光学系との間の距離を意味する。 Then, the main control unit 211 changes the position of the inspection optical system with the current position as a starting point so that the position of the inspection optical system with respect to the three-dimensional position of the eye E to be examined has a predetermined positional relationship. The predetermined positional relationship is such that the positions in the x-direction and the y-direction are the same, and the distance in the z-direction is the predetermined working distance. Here, the working distance is a default value that is also called a working distance, and means the distance between the subject's eye E and the inspection optical system during inspection using the inspection optical system.

(情報判定部)
情報判定部214は、OCTを行うことによって取得された情報が、OCTを実行するにあたり適当であるか否か判定する。OCTにより取得される情報としては、OCTユニット100のCCDイメージセンサ115からの検出信号や、この検出信号に対して所定の処理を施すことにより得られる情報がある。
(Information judgment unit)
The information determination unit 214 determines whether the information obtained by performing OCT is appropriate for performing OCT. Information acquired by OCT includes detection signals from the CCD image sensor 115 of the OCT unit 100 and information obtained by subjecting these detection signals to predetermined processing.

後者の例として次のような情報がある:検出信号に基づき画像形成部220により形成される断面像(Aスキャン像、2次元断面像);この断面像形成処理の途中段階で得られる情報;画像形成部220により形成された1以上の断面像に基づき画像処理部230により形成される情報(画像等);これら以外の処理を検出信号に施すことにより得られる情報。 Examples of the latter include the following information: cross-sectional images (A-scan images, two-dimensional cross-sectional images) formed by the image forming unit 220 based on detection signals; information obtained during this cross-sectional image forming process; information (such as an image) formed by the image processing unit 230 based on one or more cross-sectional images formed by the image forming unit 220; information obtained by performing other processing on the detection signal.

(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCTが適用される場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(Image forming section)
The image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the detection signal from the CCD image sensor 115 . This processing includes processing such as noise removal (noise reduction), filtering, and FFT (Fast Fourier Transform), as in conventional spectral domain type OCT. When another type of OCT is applied, the image forming section 220 performs known processing according to that type. The image forming unit 220 is configured including, for example, the aforementioned circuit board. In this specification, "image data" and "images" based thereon may be regarded as the same.

(画像処理部)
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Image processing part)
The image processing section 230 performs various types of image processing and analysis processing on the image formed by the image forming section 220 . For example, the image processing unit 230 executes various correction processes such as brightness correction and dispersion correction of an image. In addition, the image processing section 230 performs various image processing and analysis processing on images (eye fundus image, anterior segment image, etc.) obtained by the retinal camera unit 2 .

画像処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。 The image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between cross-sectional images to form three-dimensional image data of the fundus oculi Ef. Note that three-dimensional image data means image data in which pixel positions are defined by a three-dimensional coordinate system. Three-dimensional image data includes image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.

ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241には、この擬似的な3次元画像が表示される。 When displaying an image based on volume data, the image processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection: maximum intensity projection), etc.) on this volume data so that it can be viewed from a specific line-of-sight direction. Image data of a pseudo three-dimensional image is formed. The display unit 241 displays this pseudo three-dimensional image.

さらに、画像処理部230には、解析部231と、画像判定部232と、画像合成部233とが設けられている。 Furthermore, the image processing unit 230 is provided with an analysis unit 231 , an image determination unit 232 , and an image synthesis unit 233 .

(解析部)
解析部231は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像を解析することで、被検眼Eの3次元位置を求める。この処理を実行するための構成の一例として、解析部231には、画像補正部2311と、特徴位置特定部2312と、3次元位置算出部2313が設けられている。
(analysis part)
The analysis unit 231 obtains the three-dimensional position of the subject's eye E by analyzing two or more captured images substantially simultaneously obtained by two or more anterior eye cameras 300 . As an example of a configuration for executing this processing, the analysis unit 231 is provided with an image correction unit 2311 , a feature position identification unit 2312 , and a three-dimensional position calculation unit 2313 .

(画像補正部)
画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報および画像補正部2311を設けなくてもよい。
(Image corrector)
The image correction unit 2311 corrects the distortion of each captured image obtained by the anterior eye camera 300 based on the aberration information stored in the storage unit 212 . This processing is performed, for example, by a known image processing technique based on correction coefficients for correcting distortion. Note that the aberration information and image correction unit 2311 may not be provided when the distortion aberration that the optical system of the anterior eye camera 300 gives to the captured image is sufficiently small.

(特徴位置特定部)
特徴位置特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。所定の特徴部位としては、たとえば被検眼Eの瞳孔中心または角膜頂点が用いられる。以下、瞳孔中心を特定する処理の具体例を説明する。
(Characteristic position specifying unit)
The characteristic position specifying unit 2312 analyzes each captured image (the distortion aberration of which is corrected by the image correcting unit 2311) to identify a position (characteristic position ) are identified. For example, the pupil center or the corneal vertex of the subject's eye E is used as the predetermined characteristic site. A specific example of processing for identifying the center of the pupil will be described below.

まず、特徴位置特定部2312は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。 First, the characteristic position specifying unit 2312 specifies an image region (pupil region) corresponding to the pupil of the subject's eye E based on the distribution of pixel values (such as luminance values) of the captured image. Since the pupil is generally drawn with lower luminance than other parts, the pupil region can be identified by searching for the low-luminance image region. At this time, the pupil region may be specified in consideration of the shape of the pupil. In other words, the pupil region can be identified by searching for a substantially circular low-brightness image region.

次に、特徴位置特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔中心としてもよい。なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。 Next, the characteristic position identifying section 2312 identifies the central position of the identified pupillary region. Since the pupil is substantially circular as described above, it is possible to specify the outline of the pupil region, specify the center position of this outline (an approximated circle or approximated ellipse), and set this as the center of the pupil. Alternatively, the center of gravity of the pupil region may be obtained and the position of the center of gravity may be used as the center of the pupil. It should be noted that even when specifying a characteristic position corresponding to another characteristic part, it is possible to specify the characteristic position based on the distribution of pixel values of the captured image in the same manner as described above.

(3次元位置算出部)
3次元位置算出部2313は、2以上の前眼部カメラ300の位置と、特徴位置特定部2312により特定された2以上の撮影画像中の特徴位置とに基づいて、被検眼Eの特徴部位の3次元位置を算出する。この処理について図5Aおよび図5Bを参照しつつ説明する。
(Three-dimensional position calculator)
The three-dimensional position calculation unit 2313 calculates the characteristic regions of the subject's eye E based on the positions of the two or more anterior eye cameras 300 and the characteristic positions in the two or more captured images identified by the characteristic position identification unit 2312. Calculate the three-dimensional position. This process will be described with reference to FIGS. 5A and 5B.

図5Aは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す側面図である。2つの前眼部カメラ300Aおよび300Bの間の距離(基線長)を「B」で表す。2つの前眼部カメラ300Aおよび300Bの基線と、被検眼Eの特徴部位Pとの間の距離(撮影距離)を「H」で表す。各前眼部カメラ300Aおよび300Bと、その画面平面との間の距離(画面距離)を「f」で表す。 FIG. 5A is a top view showing the positional relationship between the subject's eye E and the anterior eye cameras 300A and 300B. FIG. 5B is a side view showing the positional relationship between the subject's eye E and the anterior eye cameras 300A and 300B. The distance (baseline length) between the two anterior cameras 300A and 300B is denoted by "B". The distance (shooting distance) between the base line of the two anterior eye cameras 300A and 300B and the characteristic site P of the eye E to be examined is represented by "H". The distance (screen distance) between each anterior camera 300A and 300B and its screen plane is denoted by "f".

このような配置状態において、前眼部カメラ300Aおよび300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。
xy方向の分解能(平面分解能):Δxy=H・Δp/f
z方向の分解能(奥行き分解能):Δz=H・H・Δp/(B×f)
In such an arrangement state, the resolution of images captured by the anterior eye cameras 300A and 300B is expressed by the following equation. Here, Δp represents pixel resolution.
Resolution in the xy direction (planar resolution): Δxy = H Δp/f
Resolution in the z direction (depth resolution): Δz = H H Δp/(B x f)

3次元位置算出部2313は、2つの前眼部カメラ300Aおよび300Bの位置(既知である)と、2つの撮影画像において特徴部位Pに相当する特徴位置とに対して、図5Aおよび図5Bに示す配置関係を考慮した公知の三角法を適用することにより、特徴部位Pの3次元位置、つまり被検眼Eの3次元位置を算出する。 5A and 5B for the positions of the two anterior eye cameras 300A and 300B (which are known) and the feature positions corresponding to the feature sites P in the two captured images. The three-dimensional position of the characteristic region P, that is, the three-dimensional position of the subject's eye E is calculated by applying known trigonometry in consideration of the arrangement relationship shown.

3次元位置算出部2313により算出された被検眼Eの3次元位置は制御部210に送られる。制御部210は、この3次元位置の算出結果に基づいて、検査用光学系の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する検査用光学系の距離が所定の作動距離になるように光学系駆動部2Aを制御する。 The three-dimensional position of the subject's eye E calculated by the three-dimensional position calculator 2313 is sent to the controller 210 . Based on the calculation result of the three-dimensional position, the control unit 210 aligns the optical axis of the optical system for inspection with the axis of the eye to be inspected E, and operates so that the distance of the optical system for inspection from the eye to be inspected E is a predetermined distance. The optical system driving section 2A is controlled so as to achieve the distance.

また、前眼部カメラ300が前眼部Eaを異なる方向から並行して動画撮影する場合、たとえば次のような処理(1)および(2)を行うことにより、被検眼Eの動きに対する検査用光学系のトラッキングを実行することが可能である。
(1)解析部231が、2以上の前眼部カメラ300による動画撮影において実質的に同時に得られた2以上のフレームを逐次に解析することで、被検眼Eの3次元位置を逐次に求める。
(2)制御部210が、解析部231により逐次に求められる被検眼Eの3次元位置に基づき光学系駆動部2Aを逐次に制御することにより、検査用光学系の位置を被検眼Eの動きに追従させる。
Further, when the anterior segment camera 300 simultaneously captures moving images of the anterior segment Ea from different directions, for example, the following processing (1) and (2) are performed to perform inspection of the movement of the eye E to be inspected. It is possible to perform optical system tracking.
(1) The analysis unit 231 sequentially analyzes two or more frames obtained substantially simultaneously in moving image shooting by two or more anterior eye cameras 300, thereby sequentially obtaining the three-dimensional position of the subject's eye E. .
(2) The control unit 210 sequentially controls the optical system driving unit 2A based on the three-dimensional position of the eye E to be examined that is sequentially obtained by the analysis unit 231. to follow.

解析部231は、3次元位置算出部2313により取得された被検眼Eの3次元位置に基づいて、被検眼Eと検査用光学系との間の変位を求めることができる。この処理は、前眼部カメラ300の位置および検査用光学系の位置が既知であることを利用して実行される。なお、検査用光学系の位置は、あらかじめ決められた所定位置であり、たとえば、対物レンズ22の前面(被検眼E側の面)と、検査用光学系の光軸とが交差する位置である。 Based on the three-dimensional position of the eye E acquired by the three-dimensional position calculator 2313, the analysis unit 231 can obtain the displacement between the eye E and the inspection optical system. This process is performed using the fact that the positions of the anterior eye camera 300 and the positions of the inspection optical system are known. The position of the inspection optical system is a predetermined position, for example, the position where the front surface of the objective lens 22 (the surface on the side of the subject's eye E) and the optical axis of the inspection optical system intersect. .

(画像判定部)
画像判定部232は、2以上の前眼部カメラ300のうちの少なくとも1つにより得られた撮影画像を解析することで、前眼部Eaの画像が当該撮影画像中の所定領域に含まれているか否か判定する。
(Image judgment unit)
The image determination unit 232 analyzes the captured image obtained by at least one of the two or more anterior segment cameras 300 to determine whether the image of the anterior segment Ea is included in the predetermined region in the captured image. determine whether or not there is

この所定領域は、前眼部カメラ300による撮影範囲内においてあらかじめ設定され、たとえば当該撮影範囲の中心を含む領域として設定される。ここで、前眼部カメラ300による撮影条件(前眼部カメラ300の位置、撮影倍率等)に応じて当該所定領域の範囲を変化させることができる。また、後述の特徴点の設定に応じて当該所定領域の範囲を決定することができる。また、被検者の顔を支持する支持部440(顎受け、額当て等。図4Aおよび図4Bを参照。)の位置またはその近傍位置に相当するように当該所定領域を設定することができる。 This predetermined area is set in advance within the imaging range of the anterior eye camera 300, and is set as an area including the center of the imaging range, for example. Here, it is possible to change the range of the predetermined region according to the photographing conditions of the anterior eye camera 300 (the position of the anterior eye camera 300, the photographing magnification, etc.). Also, the range of the predetermined area can be determined according to the setting of feature points, which will be described later. In addition, the predetermined region can be set so as to correspond to the position of a support portion 440 (a chin rest, a forehead rest, etc.; see FIGS. 4A and 4B) that supports the subject's face or a position in the vicinity thereof. .

画像判定部232が実行する処理の具体例を説明する。まず、画像判定部232は、前眼部Eaの所定の特徴点に相当する画像領域を撮影画像中から特定する。この特徴点としては、瞳孔中心、瞳孔輪郭、虹彩中心、虹彩輪郭、角膜頂点などがある。特徴点に相当する画像領域の特定処理は、たとえば特徴位置特定部2312が実行する処理と同様である。なお、特徴点と特徴部位とが同一の場合には、特徴位置特定部2312による特定結果を画像判定部232が行う処理に利用することができる。 A specific example of processing executed by the image determination unit 232 will be described. First, the image determination unit 232 identifies an image region corresponding to a predetermined feature point of the anterior segment Ea from the captured image. The feature points include the pupil center, pupil contour, iris center, iris contour, corneal vertex, and the like. The specifying process of the image region corresponding to the feature point is similar to the process executed by the feature position specifying unit 2312, for example. It should be noted that when the feature point and the feature part are the same, the identification result by the characteristic position identification unit 2312 can be used for the processing performed by the image determination unit 232 .

次に、画像判定部232は、特定された特徴点が撮影画像(のフレーム)中の所定領域に含まれているか否か判定する。この処理は、所定領域に相当する座標と特徴点の座標とを比較することによって行われる。 Next, the image determination unit 232 determines whether or not the specified feature point is included in a predetermined area in (the frame of) the captured image. This processing is performed by comparing the coordinates corresponding to the predetermined area with the coordinates of the feature points.

画像判定部232は、この判定結果を制御部210に送る。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、光学系駆動部2A(撮影移動部)を制御して前眼部カメラ300を支持部440(つまり被検者の顔)から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向とは、図1等に示す座標系における-z方向である。 The image determination section 232 sends this determination result to the control section 210 . When it is determined that the image of the anterior segment Ea is not included in the predetermined region, the control section 210 controls the optical system driving section 2A (shooting movement section) to move the anterior segment camera 300 to the support section 440 ( That is, it is moved away from the subject's face) and/or outwardly of the support 440 . The direction away from the support portion 440 is the −z direction in the coordinate system shown in FIG. 1 and the like.

また、支持部440の外側方向とは、前眼部カメラ300が検査用光学系の光軸から離れる方向である。検査用光学系から離れる方向については、水平方向(±x方向)および/または垂直方向(±y方向)において定義することが可能である。つまり、xy平面内の任意の方向において、検査用光学系から離れる方向を定義することが可能である。 Further, the outward direction of the support portion 440 is the direction in which the anterior segment camera 300 moves away from the optical axis of the inspection optical system. Directions away from the inspection optics can be defined in the horizontal direction (±x directions) and/or in the vertical direction (±y directions). That is, it is possible to define the direction away from the inspection optical system in any direction within the xy plane.

また、前眼部カメラ300の移動方向および/または移動距離については、たとえば、移動前における前眼部カメラ300と支持部440との位置関係に基づいて設定することができる。また、画像判定部232による判定処理と、前眼部カメラ300の移動処理とを交互に行うことにより、前眼部カメラ300を好適な位置に追い込んでいくように制御を行うことも可能である。 Further, the movement direction and/or movement distance of anterior eye camera 300 can be set based on, for example, the positional relationship between anterior eye camera 300 and support section 440 before movement. Further, by alternately performing the determination processing by the image determination unit 232 and the movement processing of the anterior eye camera 300, it is possible to control the anterior eye camera 300 to a suitable position. .

また、特徴点に相当する画像領域と所定領域との間の距離(ピクセル数)に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成してもよい。また、特徴点に相当する画像領域と所定領域内の所定位置(たとえば中心位置)との間の距離に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成することも可能である。 Alternatively, the moving direction and/or moving distance of the anterior eye camera 300 may be determined according to the distance (the number of pixels) between the image area corresponding to the feature point and the predetermined area. Also, the moving direction and/or the moving distance of the anterior eye camera 300 may be determined according to the distance between the image area corresponding to the feature point and the predetermined position (for example, the central position) within the predetermined area. is also possible.

(画像合成部)
画像合成部233は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像の合成画像を形成する。この合成画像の例として、2以上の撮影画像に基づく立体画像や視点変換により得られる画像(視点変換画像)がある。視点変換画像の視点は、たとえば検査用光学系の光軸上に設定される。これらの合成画像は公知の画像合成処理を用いることにより得られる。
(Image synthesizer)
The image synthesizing unit 233 forms a synthesized image of two or more photographed images substantially simultaneously obtained by two or more anterior eye cameras 300 . Examples of this composite image include a stereoscopic image based on two or more captured images and an image obtained by viewpoint conversion (viewpoint conversion image). The viewpoint of the viewpoint-converted image is set, for example, on the optical axis of the inspection optical system. These synthesized images are obtained by using a known image synthesizing process.

以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。 The image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like. A storage device such as a hard disk drive pre-stores a computer program that causes a microprocessor to perform the functions described above.

(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。
(user interface)
User interface 240 includes display unit 241 and operation unit 242 . The display unit 241 includes the display device of the arithmetic control unit 200 and the display device 3 described above. The operation section 242 includes the operation device of the arithmetic control unit 200 described above. The operation unit 242 may include various buttons and keys provided on the housing or outside of the ophthalmologic apparatus 1 .

たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。 For example, if the retinal camera unit 2 has a housing similar to that of a conventional retinal camera, the operation section 242 may include a joystick, an operation panel, etc. provided in this housing. The display section 241 may also include various display devices such as a touch panel provided in the housing of the retinal camera unit 2 .

[動作]
眼科装置1の動作について説明する。この動作例では、オートアライメントを含む一連の動作の全体的な流れを説明する。以下、図6に示すフローチャートを参照する。
[motion]
The operation of the ophthalmologic apparatus 1 will be described. In this operation example, an overall flow of a series of operations including auto-alignment will be described. The flowchart shown in FIG. 6 will be referred to below.

(S1:撮影画面の表示)
制御部210は、図7Aに示す撮影画面1000を表示部241に表示させる。撮影画面1000内の左側の表示領域(第1の表示領域)1001には、眼底カメラユニット2により取得される赤外観察画像(前眼部Eaの正面画像)2000がリアルタイムで動画表示される。また、撮影画面1000内の右側の表示領域(第2の表示領域)1002には、前眼部カメラ300Aおよび300Bの一方により取得される前眼部像が動画表示される。第2の表示領域1002の下方には、「Capture START」ボタン1003が設けられている。
(S1: Display of shooting screen)
The control unit 210 causes the display unit 241 to display the shooting screen 1000 shown in FIG. 7A. In a display area (first display area) 1001 on the left side of the imaging screen 1000, an infrared observation image (front image of the anterior segment Ea) 2000 acquired by the retinal camera unit 2 is displayed as a moving image in real time. A moving image of the anterior segment image acquired by one of the anterior segment cameras 300A and 300B is displayed in a display region (second display region) 1002 on the right side of the imaging screen 1000 . A “Capture START” button 1003 is provided below the second display area 1002 .

(S2:オートアライメント)
「Capture START」ボタン1003が操作(クリック)されると、制御部210は、オートアライメントを行うためのアライメント画面1010(図7Bを参照)を表示部241に表示させる。アライメント画面1010には、少なくとも、オートアライメントを行うために用いられる画像が表示される。
(S2: Auto alignment)
When the “Capture START” button 1003 is operated (clicked), the control unit 210 causes the display unit 241 to display an alignment screen 1010 (see FIG. 7B) for auto-alignment. At least an image used for auto-alignment is displayed on the alignment screen 1010 .

前眼部カメラ300Aおよび300Bにより取得される2つの前眼部像を用いたオートアライメントについて説明する。本例では、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像が合成表示される。これら前眼部像はそれぞれリアルタイムで取得され、それらの合成画像はリアルタイムで動画表示される。つまり、この合成表示は、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像(静止画像)に基づく合成画像(静止画像)を1フレームとする動画表示である。 Auto-alignment using two anterior eye images acquired by anterior eye cameras 300A and 300B will be described. In this example, two anterior segment images of the subject's eye E acquired by two anterior segment cameras 300A and 300B are synthesized and displayed. Each of these anterior segment images is acquired in real time, and a composite image thereof is displayed as a moving image in real time. That is, this composite display is a moving image display in which one frame is a composite image (still image) based on two anterior eye images (still images) obtained substantially simultaneously by the anterior eye cameras 300A and 300B.

各フレーム(各合成画像)の作成方法を説明する。1つのフレームは、上記のように、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像に基づく。フレームの作成方法の第1の例として、一方の前眼部像の部分画像と、他方の前眼部像の部分画像とを並列表示させることができる。これら部分画像としては、各々のフレームにおいて互いに異なる部分が用いられる。各部分画像は、その元となる前眼部像の一部をトリミングすることによって得られる。この処理は、制御部210または画像処理部230によって実行される。 A method for creating each frame (each synthesized image) will be described. A frame is based on two anterior images acquired substantially simultaneously by anterior cameras 300A and 300B, as described above. As a first example of the frame creation method, a partial image of one anterior segment image and a partial image of the other anterior segment image can be displayed side by side. As these partial images, different parts are used in each frame. Each partial image is obtained by trimming a part of the original anterior segment image. This processing is executed by the control unit 210 or the image processing unit 230 .

図7Bに示すアライメント画面1010には、第1の表示領域1011と第2の表示領域とが設けられている。第1の表示領域1011には、前眼部カメラ300Aにより取得された前眼部像のうちフレームの上半分に相当する第1の部分画像2110が表示される。第2の表示領域1012には、前眼部カメラ300Bにより取得された前眼部像のうちフレームの下半分に相当する第2の部分画像2120が表示される。 An alignment screen 1010 shown in FIG. 7B is provided with a first display area 1011 and a second display area. A first partial image 2110 corresponding to the upper half of the frame of the anterior segment image acquired by the anterior segment camera 300A is displayed in the first display area 1011 . A second partial image 2120 corresponding to the lower half of the frame of the anterior segment image acquired by the anterior segment camera 300B is displayed in the second display area 1012 .

第1の表示領域1011と第2の表示領域1012は、前者が上方に且つ後者が下方に位置するように配置されている。ここで、第1の表示領域1011の下端と第2の表示領域1012の上端とが接している。このように、本例においては、2つの部分画像がそれらの位置関係に応じた配列で表示される。 The first display area 1011 and the second display area 1012 are arranged such that the former is positioned above and the latter is positioned below. Here, the lower end of the first display area 1011 and the upper end of the second display area 1012 are in contact with each other. Thus, in this example, two partial images are displayed in an arrangement according to their positional relationship.

光学系駆動部2Aにより眼底カメラユニット2が±z方向に移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、相対的に横方向に変位する。また、光学系駆動部2Aにより眼底カメラユニット2がxy方向において移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、一体的に、装置光学系の移動方向に応じた方向に、それぞれ第1の表示領域1011および第2の表示領域1012において変位する。 When the retinal camera unit 2 is moved in the ±z direction by the optical system driving unit 2A, the positions of the anterior eye cameras 300A and 300B with respect to the eye to be examined E are changed, and the two partial images 2110 and 2120 are shifted relative to each other. Displace laterally. In addition, when the retinal camera unit 2 is moved in the xy direction by the optical system driving section 2A, the two partial images 2110 and 2120 are integrated as the positions of the anterior eye cameras 300A and 300B with respect to the subject's eye E change. Then, they are displaced in the first display area 1011 and the second display area 1012 in the direction corresponding to the moving direction of the apparatus optical system.

前述したように、解析部231は、第1の部分画像2110(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第1の特徴領域)を特定する。同様に、解析部231は、第2の部分画像2120(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第2の特徴領域)を特定する。各特徴領域は、たとえば瞳孔(瞳孔輪郭、瞳孔中心など)である。図7Bにおいて、符号2110aは、瞳孔輪郭に相当する第1の特徴領域を示し、符号2120aは、瞳孔輪郭に相当する第2の特徴領域を示す。 As described above, the analysis unit 231 analyzes the first partial image 2110 (or its entire original image) to determine the image region (first characteristic region) corresponding to the characteristic region of the eye E to be examined. Identify. Similarly, the analysis unit 231 identifies an image region (second characteristic region) corresponding to the characteristic region of the subject's eye E by analyzing the second partial image 2120 (or its entire original image). . Each feature region is, for example, a pupil (pupil contour, pupil center, etc.). In FIG. 7B, reference numeral 2110a denotes a first characteristic region corresponding to the pupil contour, and reference numeral 2120a denotes a second characteristic region corresponding to the pupil contour.

さらに、解析部231は、第1の特徴領域2110aと第2の特徴領域2120aとの変位を算出する。この変位は、横方向における変位を含む。前述したように、横方向における変位は、±z方向における検査用光学系の位置ズレに相当する。解析部231は、解析部231により算出された第1の特徴領域2110aと第2の特徴領域2120aとの間の変位に相当する、検査用光学系の移動方向および移動距離を求める。 Furthermore, the analysis unit 231 calculates the displacement between the first characteristic region 2110a and the second characteristic region 2120a. This displacement includes displacement in the lateral direction. As described above, the displacement in the lateral direction corresponds to the displacement of the inspection optical system in the ±z directions. The analysis unit 231 obtains the movement direction and movement distance of the inspection optical system, which corresponds to the displacement between the first characteristic region 2110a and the second characteristic region 2120a calculated by the analysis unit 231 .

この処理は、たとえば、特徴領域間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。 This processing is executed, for example, with reference to information in which displacements between feature regions are associated with moving directions and moving distances. This information is created in advance and stored in the storage unit 212 or the analysis unit 231 based on the positions where the two anterior eye cameras 300A and 300B are installed, the working distance, and the like.

制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、眼底カメラユニット2を+z方向または-z方向に移動させる。このような処理を実行することによって、第1の特徴領域2110aと第2の特徴領域2120aとが合致するように(つまり第1の特徴領域2110aと第2の特徴領域2120aとが組み合わされて瞳孔を示す画像が形成されるように)、z方向のアライメントが実行される(図7Cを参照)。 The control unit 210 moves the retinal camera unit 2 in the +z direction or the −z direction by controlling the optical system driving unit 2A based on the movement distance and the movement direction obtained by the analysis unit 231 . By executing such processing, the first characteristic region 2110a and the second characteristic region 2120a are matched (that is, the first characteristic region 2110a and the second characteristic region 2120a are combined to form the pupil. A z-alignment is performed (see FIG. 7C) such that an image is formed showing .

図7Cに示すアライメント画面1010のほぼ中央に提示されている括弧2101およびそれに囲まれた円2102は、アライメントにおけるターゲット位置を示している。括弧2101は瞳孔輪郭のターゲット位置であり、円2102は瞳孔中心のターゲット位置である。 A bracket 2101 and a circle 2102 surrounded by the bracket 2101 presented substantially in the center of the alignment screen 1010 shown in FIG. 7C indicate target positions in alignment. Bracket 2101 is the target location for the pupil contour and circle 2102 is the target location for the center of the pupil.

また、解析部231は、第1の特徴領域2110aおよび第2の特徴領域2120aのそれぞれの位置と、ターゲット位置(括弧2101、円2102)との間の変位を算出する。さらに、解析部231は、解析部231により算出された変位に相当する検査用光学系の移動方向および移動距離を求める。この処理は、たとえば、特徴領域とターゲット位置との間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。 Also, the analysis unit 231 calculates the displacement between each position of the first characteristic region 2110a and the second characteristic region 2120a and the target position (bracket 2101, circle 2102). Furthermore, the analysis unit 231 obtains the movement direction and movement distance of the inspection optical system corresponding to the displacement calculated by the analysis unit 231 . This processing is executed, for example, with reference to information that associates the displacement between the feature region and the target position with the movement direction and movement distance. This information is created in advance and stored in the storage unit 212 or the analysis unit 231 based on the positions where the two anterior eye cameras 300A and 300B are installed, the working distance, and the like.

制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、+x方向若しくは-x方向および/または+y方向若しくは-y方向に眼底カメラユニット2を移動させる。このような処理を実行することによってxy方向のアライメントが行われる。xy方向におけるアライメント状態とz方向におけるアライメント状態とを両立させることで、検査用光学系は、被検眼Eに対して3次元的に好適な位置に配置される。このとき、アライメント画面1010は、図7Cに示すような表示状態となる。 The control unit 210 controls the optical system driving unit 2A based on the movement distance and movement direction obtained by the analysis unit 231, thereby moving the retinal camera unit in the +x direction or −x direction and/or +y direction or −y direction. move 2. Alignment in the xy direction is performed by performing such processing. By achieving both an alignment state in the xy direction and an alignment state in the z direction, the inspection optical system is arranged at a three-dimensionally suitable position with respect to the eye E to be inspected. At this time, the alignment screen 1010 is displayed as shown in FIG. 7C.

なお、図7Bおよび図7Cに示す「Capture STOP」ボタン1013は、この動作例の処理を中止(または中断)するために操作(クリック)される。 A “Capture STOP” button 1013 shown in FIGS. 7B and 7C is operated (clicked) to stop (or interrupt) the processing of this operation example.

(S3:オートフォーカス)
オートアライメントの完了を受けて、制御部210は、スプリット指標を用いたオートフォーカスを前述した要領で実行する。
(S3: Autofocus)
Upon completion of auto-alignment, control unit 210 performs auto-focusing using the split index in the manner described above.

(S4:オートPola)
オートフォーカスの完了を受けて、制御部210は、自動偏光調整(オートPola)を実行する。オートPolaは、たとえば、反復的に取得されるOCT画像(断面像)の画質をリアルタイムで判定しつつ偏波調整器106を制御することによって実行される。
(S4: Auto Pola)
Upon completion of autofocus, control unit 210 executes automatic polarization adjustment (auto Pola). Auto-Pola is performed, for example, by controlling the polarization adjuster 106 while determining the image quality of repetitively acquired OCT images (cross-sectional images) in real time.

(S5:OCTオートフォーカス)
オートPolaが完了したら、制御部210は、OCTオートフォーカスを実行する。OCTオートフォーカスは、眼底Efの所定部位(たとえば網膜の任意の層や、脈絡膜)に対応する信号の干渉感度が最適化されるように、光路長変更部41を制御して信号光の光路長を変更する処理である。
(S5: OCT autofocus)
After auto Polar is completed, control unit 210 executes OCT autofocus. In the OCT autofocus, the optical path length of the signal light is adjusted by controlling the optical path length changing unit 41 so that the interference sensitivity of the signal corresponding to a predetermined portion of the fundus oculi Ef (for example, any layer of the retina or the choroid) is optimized. This is the process of changing the

(S6:計測開始の指示)
OCTオートフォーカスが完了すると、制御部210は、その旨を示す情報(図示せず)を表示部241に表示させる。ユーザは、眼底Efの計測を開始させるためのトリガ操作を、操作部242を用いて行う。OCTオートフォーカスの完了を計測開始のトリガとして用いる構成を適用することも可能である。その場合、ステップS6は不要である。
(S6: Instruction to start measurement)
When the OCT autofocus is completed, the control unit 210 causes the display unit 241 to display information (not shown) to that effect. The user uses the operation unit 242 to perform a trigger operation for starting measurement of the fundus oculi Ef. It is also possible to apply a configuration that uses the completion of OCT autofocus as a trigger for starting measurement. In that case, step S6 is unnecessary.

(S7:OCT計測開始)
瞳孔に相当する画像領域が特定された場合、制御部210は、眼底EfのOCT計測を開始するようOCTユニット100に実行させる。OCTユニット100は、OCT計測用の光路を通過する信号光LSの進行方向を変更し、信号光LSを眼底Ef上において走査するようガルバノスキャナ42を制御する。
(S7: Start OCT measurement)
When the image region corresponding to the pupil is identified, the control section 210 causes the OCT unit 100 to start OCT measurement of the fundus oculi Ef. The OCT unit 100 changes the traveling direction of the signal light LS passing through the optical path for OCT measurement, and controls the galvanometer scanner 42 to scan the fundus oculi Ef with the signal light LS.

図8は、眼底Efの画像を形成するための信号光LSの走査態様の一例を表している。図8は、信号光LSが被検眼Eに入射する方向から眼底Efを見た(つまり図1の-z方向から+z方向を見た)ときの、信号光LSの走査態様の一例を表す。また、図9は、眼底Ef上の各走査線における走査点の配列態様の一例を表す。 FIG. 8 shows an example of scanning mode of the signal light LS for forming an image of the fundus oculi Ef. FIG. 8 shows an example of a scanning mode of the signal light LS when the fundus oculi Ef is viewed from the direction in which the signal light LS is incident on the subject's eye E (that is, viewed from the −z direction to the +z direction in FIG. 1). Also, FIG. 9 shows an example of an arrangement mode of scanning points on each scanning line on the fundus oculi Ef.

図8に示すように、信号光LSは、あらかじめ設定された矩形の走査領域R内を走査される。この走査領域R内には、x方向に複数(m本)の走査線R1~Rmが設定されている。各走査線Ri(i=1~m)に沿って信号光LSが走査されるときに、干渉光LCの検出信号が生成されるようになっている。 As shown in FIG. 8, the signal light LS is scanned within a predetermined rectangular scanning region R. As shown in FIG. In this scanning region R, a plurality (m lines) of scanning lines R1 to Rm are set in the x direction. A detection signal of the interference light LC is generated when the signal light LS is scanned along each scanning line Ri (i=1 to m).

ここで、各走査線Riの方向を「主走査方向」と呼び、それに直交する方向を「副走査方向」と呼ぶことにする。したがって、信号光LSの主走査方向への走査は、y方向に走査するガルバノミラーの反射面の向きを変更することにより為され、副走査方向への走査は、x方向に走査するガルバノミラーの反射面の向きを変更することによって為される。 Here, the direction of each scanning line Ri is called "main scanning direction", and the direction orthogonal thereto is called "sub-scanning direction". Therefore, the scanning of the signal light LS in the main scanning direction is performed by changing the orientation of the reflecting surface of the galvanomirror that scans in the y direction, and the scanning in the subscanning direction is performed by changing the orientation of the galvanomirror that scans in the x direction. It is done by changing the orientation of the reflective surface.

各走査線Ri上には、図9に示すように、複数(n個)の走査点Ri1~Rinがあらかじめ設定されている。図8に示す走査を実行するために、制御部210は、まず、ガルバノスキャナ42を制御し、眼底Efに対する信号光LSの入射目標を第1の走査線R1上の走査開始位置RS(走査点R11)に設定する。続いて、制御部210は、低コヒーレンス光源160を制御し、低コヒーレンス光L0をフラッシュ発光させて、走査開始位置RSに信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査開始位置RSにおける眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。 As shown in FIG. 9, a plurality of (n) scanning points Ri1 to Rin are set in advance on each scanning line Ri. In order to perform the scanning shown in FIG. 8, the control unit 210 first controls the galvanometer scanner 42 so that the incident target of the signal light LS on the fundus oculi Ef is the scanning start position RS (scanning point) on the first scanning line R1. R11). Subsequently, the control unit 210 controls the low-coherence light source 160 to flash the low-coherence light L0 and cause the signal light LS to enter the scanning start position RS. The CCD image sensor 115 receives interference light LC based on the fundus reflected light at the scanning start position RS of the signal light LS, and outputs a detection signal to the control unit 210 .

次に、制御部210は、ガルバノスキャナ42を制御して、信号光LSを主走査方向に走査して、その入射目標を走査点R12に設定し、低コヒーレンス光L0をフラッシュ発光させて走査点R12に信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査点R12における眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。 Next, the control unit 210 controls the galvanometer scanner 42 to scan the signal light LS in the main scanning direction, set the incident target to the scanning point R12, and flash the low coherence light L0 to the scanning point. The signal light LS is made incident on R12. The CCD image sensor 115 receives interference light LC based on the fundus reflected light of the signal light LS at the scanning point R12 and outputs a detection signal to the control unit 210 .

制御部210は、同様にして、信号光LSの入射目標を走査点R13、R14、・・・、R1(n-1)、R1nと順次移動させつつ、各走査点において低コヒーレンス光L0をフラッシュ発光させることにより、各走査点の干渉光LCに対応してCCDイメージセンサ115から出力される検出信号を取得する。 Similarly, the controller 210 sequentially moves the incident target of the signal light LS to the scanning points R13, R14, . By emitting light, a detection signal output from the CCD image sensor 115 corresponding to the interference light LC of each scanning point is acquired.

第1の走査線R1の最後の走査点R1nにおける計測が終了したら、制御部210は、ガルバノスキャナ42を制御して、信号光LSの入射目標を、線換え走査rに沿って第2の走査線R2の最初の走査点R21まで移動させる。そして、この第2の走査線R2の各走査点R2j(j=1~n)について前述の計測を行うことで、各走査点R2jに対応する検出信号をそれぞれ取得する。 After completing the measurement at the last scanning point R1n of the first scanning line R1, the control unit 210 controls the galvanometer scanner 42 to move the incident target of the signal light LS to the second scanning along the line switching scanning r. Move to the first scanning point R21 on the line R2. By performing the above-described measurement for each scanning point R2j (j=1 to n) of the second scanning line R2, a detection signal corresponding to each scanning point R2j is obtained.

同様に、第3の走査線R3、・・・・、第m-1の走査線R(m-1)、第mの走査線Rmのそれぞれについて計測を行い、各走査点に対応する検出信号を取得する。なお、走査線Rm上の符号REは、走査点Rmnに対応する走査終了位置である。それにより、制御部210は、走査領域R内のm×n個の走査点Rij(i=1~m、j=1~n)に対応するm×n個の検出信号を取得する。以下、走査点Rijに対応する検出信号をDijと表すことがある。 Similarly, measurement is performed for each of the third scanning line R3, . to get The symbol RE on the scanning line Rm is the scanning end position corresponding to the scanning point Rmn. Thereby, the control unit 210 acquires m×n detection signals corresponding to m×n scanning points Rij (i=1 to m, j=1 to n) in the scanning region R. Hereinafter, the detection signal corresponding to the scanning point Rij may be denoted as Dij.

以上のような走査点の移動と低コヒーレンス光L0の出力との連動制御は、たとえば、ガルバノスキャナ42に対する制御信号の送信タイミングと、光源ユニット101に対する制御信号(出力要求信号)の送信タイミングとを互いに同期させることによって実現することができる。 The interlocking control of the movement of the scanning point and the output of the low-coherence light L0 as described above is performed, for example, by adjusting the transmission timing of the control signal to the galvanometer scanner 42 and the transmission timing of the control signal (output request signal) to the light source unit 101. It can be realized by synchronizing them with each other.

制御部210は、上述のようにガルバノミラーを動作させるときに、その動作内容を示す情報として各走査線Riの位置や各走査点Rijの位置(xy座標系における座標)を記憶しておくようになっている。この記憶内容(走査位置情報)は、従来と同様に画像形成処理において用いられる。 When operating the galvanomirror as described above, the control unit 210 stores the position of each scanning line Ri and the position of each scanning point Rij (coordinates in the xy coordinate system) as information indicating the details of the operation. It has become. This stored content (scanning position information) is used in image forming processing as in the conventional art.

(S8:前眼部像の取得)
計測開始の指示が行われると、制御部210は、被検眼Eの前眼部Eaを撮像して前眼部像を取得するよう前眼部カメラ300を制御する。ステップS2のオートアライメントにおいて、前眼部カメラ300は、前眼部カメラ300Aおよび300Bの双方から前眼部像を取得している。ステップS7では、前眼部カメラ300Aおよび300Bの少なくとも一方から前眼部像を取得すればよい。
(S8: Acquisition of anterior segment image)
When an instruction to start measurement is given, the control unit 210 controls the anterior eye camera 300 to image the anterior eye Ea of the subject's eye E and acquire an anterior eye image. In the auto-alignment of step S2, anterior eye camera 300 acquires anterior eye images from both anterior eye cameras 300A and 300B. In step S7, an anterior segment image may be obtained from at least one of the anterior segment cameras 300A and 300B.

(S9:瞳孔に相当する画像領域を特定?)
前眼部像の取得が完了すると、制御部210は、前眼部Eaの瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。
(S9: Identify image area corresponding to pupil?)
When acquisition of the anterior segment image is completed, the control unit 210 controls the image determination unit 232 of the image processing unit 230 to specify an image region corresponding to the pupil of the anterior segment Ea. The characteristic position specifying unit 2312 of the image determination unit 232 extracts the pupillary contour of the anterior segment Ea from the anterior segment image obtained by the anterior segment camera 300, and defines the region surrounded by the pupillary contour as an image region corresponding to the pupil. Identify.

制御部210は、特徴位置特定部2312が瞳孔に相当する画像領域を特定した場合にはステップS10に処理を進め、特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合にはステップS11に処理を進める。特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット(検査部)100から検出信号が出力されない場合である。この場合、画像判定部232は、特徴位置特定部2312の特定結果に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。 If the feature position specifying unit 2312 specifies the image area corresponding to the pupil, the control unit 210 proceeds to step S10, and if the feature position specifying unit 2312 cannot specify the image area corresponding to the pupil, step S11 proceed to A case where the characteristic position specifying unit 2312 cannot specify the image region corresponding to the pupil is, for example, a case where the OCT unit (examination unit) 100 does not output a detection signal because the subject blinks. In this case, the image determination unit 232 determines that the OCT unit 100 cannot inspect a scanning region (inspection range) R, which will be described later, based on the identification result of the characteristic position identification unit 2312, and advances the process to step S11. .

(S10:走査領域Rの走査終了?)
前眼部像から瞳孔に相当する画像領域が特定された場合、制御部210は、ステップS9で開始されたOCT計測による走査領域Rの走査が終了したかどうかを判定する。制御部210は、走査領域Rの走査が終了したと判定した場合はステップS12に処理を進め、走査領域Rの走査が終了していないと判定した場合はステップS8に処理を進める。
(S10: End of scanning of scanning area R?)
When the image region corresponding to the pupil is identified from the anterior segment image, the control unit 210 determines whether the scanning of the scanning region R by the OCT measurement started in step S9 has ended. If the control unit 210 determines that the scanning of the scanning region R has been completed, the process proceeds to step S12, and if it determines that the scanning of the scanning region R has not been completed, the processing proceeds to step S8.

なお、ステップS8で前眼部カメラ300が前眼部像を撮像してからステップS10で走査領域Rの走査が終了したかどうかを判定するまでの処理時間は、副走査方向の複数の走査点の走査間隔よりも短くするのが望ましい。走査間隔よりも短い間隔で瞳孔に相当する画像領域を特定することにより、被検者の瞬き等によりOCTユニット(検査部)100から検出信号が出力されないことを各走査点について確実に判定することができる。 Note that the processing time from when the anterior eye camera 300 picks up the anterior eye image in step S8 to when it is determined whether or not the scanning of the scanning region R is finished in step S10 is the same as that of a plurality of scanning points in the sub-scanning direction. is preferably shorter than the scanning interval of . To reliably determine for each scanning point that no detection signal is output from the OCT unit (examination unit) 100 due to blinking of the subject, etc., by specifying the image area corresponding to the pupil at intervals shorter than the scanning interval. can be done.

(S11:OCT計測不可の走査点を記憶)
前眼部像から瞳孔に相当する画像領域が特定されない場合、制御部210は、OCT計測不可の走査点を記憶する。制御部210は、ステップS9でNOと判定された直後に走査される走査点Rij(i=1~m、j=1~n)を、OCT計測不可の走査点として記憶部212に記憶させる。
(S11: Store scanning points for which OCT measurement is not possible)
If the image region corresponding to the pupil is not specified from the anterior segment image, the control unit 210 stores scanning points that cannot be OCT-measured. The control unit 210 causes the storage unit 212 to store the scanning points Rij (i=1 to m, j=1 to n) to be scanned immediately after the determination of NO in step S9 as scanning points for which OCT cannot be measured.

被検者の瞬き等によりOCTユニット(検査部)100から検出信号が走査間隔よりも長い所定期間に渡って出力されない場合、制御部210は、ステップS9でNOと判定する処理と走査点を記憶する処理を複数回実行する。制御部210は、ステップS11の後に再びステップS8の処理を実行し、前眼部カメラ300が前眼部像を取得する。 When the detection signal is not output from the OCT unit (examination unit) 100 for a predetermined period longer than the scanning interval due to blinking of the subject, etc., the control unit 210 performs a process of determining NO in step S9 and stores the scanning points. multiple times. After step S11, the control unit 210 executes the process of step S8 again, and the anterior eye camera 300 acquires an anterior eye image.

(S12:OCT計測不可の走査点があるか?)
走査領域Rの走査が終了した場合、制御部210は、OCT計測不可の走査点があるかどうかを判定する。制御部210は、ステップS7でOCT計測を開始した後にOCT計測不可の走査点が記憶部212に記憶された場合に、YESと判定する。制御部210は、ステップS12でYESと判定した場合はステップS8へ処理を進め、ステップS10でNOと判定した場合はステップS13へ処理を進める。
(S12: Are there any scanning points that cannot be OCT measured?)
When the scanning of the scanning region R is completed, the control unit 210 determines whether or not there is a scanning point for which OCT measurement is impossible. The control unit 210 determines YES when a scanning point for which OCT measurement is impossible is stored in the storage unit 212 after the OCT measurement is started in step S7. Control unit 210 advances the process to step S8 when determining YES in step S12, and advances the process to step S13 when determining NO in step S10.

OCT計測不可の走査点がある場合、制御部210は、ステップS8~ステップS11までの処理を再び実行し、OCT計測不可の走査点を再び走査するようOCTユニット100を制御する。すなわち、制御部210は、OCTユニット100が走査領域Rを走査可能(検査可能)な状態でないと画像判定部232が判定した場合に、走査領域Rの検査を再度実行するようOCTユニット100を制御する。 If there is an OCT-unmeasurable scanning point, the control unit 210 executes the processes from step S8 to step S11 again, and controls the OCT unit 100 to scan the OCT-unmeasurable scanning point again. That is, when the image determination unit 232 determines that the OCT unit 100 is not in a state in which the scanning region R can be scanned (inspected), the control unit 210 controls the OCT unit 100 to perform the inspection of the scanning region R again. do.

制御部210は、走査領域Rの検査を再度実行する際に、以下の3つのいずれかの方式により走査領域Rの検査を行う。制御部210は、以下の3つのいずれか1つのみを実行しても、以下の3つのいずれかを使用者の指示に基づいて選択して実行してもよい。 When inspecting the scanning region R again, the control unit 210 inspects the scanning region R by one of the following three methods. Control unit 210 may execute only one of the following three, or may select and execute one of the following three based on a user's instruction.

第1の方式は、走査領域Rの全領域を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。すなわち、制御部210は、走査領域R内のすべての走査点を再び光学的に検査するようにOCTユニット100を制御する。 The first method is to optically inspect the entire scanning region R again. When the image determination unit 232 determines that the scanning region R is not in an inspectable state, the control unit 210 controls the OCT unit 100 to optically inspect the entire scanning region R again. That is, the controller 210 controls the OCT unit 100 to optically inspect all the scanning points within the scanning region R again.

第2の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を含む全ての走査線を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を含む全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を含む走査線を特定する。制御部210は、特定した全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。 A second method is to optically inspect again all scanning lines including scanning points that have not been inspected by the OCT unit 100 in the scanning region R. FIG. When the image determination unit 232 determines that the scanning region R is not in an inspectable state, the control unit 210 re-optically scans all the scanning lines including the scanning points that have not been inspected by the OCT unit in the scanning region R. The OCT unit 100 is controlled to inspect in a realistic manner. The control unit 210 reads out the OCT-unmeasurable scanning points stored in the storage unit 212, and specifies the scanning line including the read out scanning points. The controller 210 controls the OCT unit 100 to optically inspect all identified scan lines again.

第3の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を特定する。制御部210は、特定した全ての走査点を再び光学的に検査するようにOCTユニット100を制御する。 A third method is a method of optically inspecting again those scanning points in the scanning region R that have not been inspected by the OCT unit 100 . When the image determination unit 232 determines that the scanning region R is not in an inspectable state, the control unit 210 optically inspects again the scanning points that have not been inspected by the OCT unit in the scanning region R. It controls the OCT unit 100 . The control unit 210 reads the OCT-impossible scanning points stored in the storage unit 212, and specifies the read scanning points. The controller 210 controls the OCT unit 100 to optically inspect all identified scanning points again.

(S13:OCT画像を形成)
OCT計測不可の走査点がないと判定された場合、画像形成部220は、OCTユニット100からの検出信号に基づいてOCT画像を形成する。制御部210は、形成されたOCT画像を記憶部212に記憶させる。3次元スキャンが適用される場合、画像処理部230は、画像形成部220により形成された複数の断面像に基づいて3次元画像データを形成する。制御部210は、形成された3次元画像データを記憶部212に記憶させる。制御部210は、ステップS13が終了したことに応じて、図6に示すフローチャートの処理を終了させる。
(S13: Form OCT image)
If it is determined that there is no scanning point that cannot be OCT-measured, the image forming section 220 forms an OCT image based on the detection signal from the OCT unit 100 . The control unit 210 causes the storage unit 212 to store the formed OCT image. When three-dimensional scanning is applied, the image processing section 230 forms three-dimensional image data based on a plurality of cross-sectional images formed by the image forming section 220 . The control unit 210 causes the storage unit 212 to store the formed three-dimensional image data. Control unit 210 terminates the processing of the flowchart shown in FIG. 6 in response to completion of step S13.

画像形成部220は、各走査点Rijに対応する検出信号Dijに基づいて、その走査点Rijにおける眼底Efの深度方向(図1に示すz方向)の画像を形成する。図10は、画像形成部220により形成される断層画像の態様を表している。画像形成部220は、各走査線Riについて、その上のn個の走査点Ri1~Rinにおける深度方向の画像に基づき、この走査線Riに沿った眼底Efの断層画像Giを形成する。 The image forming unit 220 forms an image of the fundus oculi Ef in the depth direction (z direction shown in FIG. 1) at the scanning point Rij based on the detection signal Dij corresponding to each scanning point Rij. FIG. 10 shows a mode of a tomographic image formed by the image forming section 220. As shown in FIG. For each scanning line Ri, the image forming unit 220 forms a tomographic image Gi of the fundus oculi Ef along the scanning line Ri based on the images in the depth direction at n scanning points Ri1 to Rin thereon.

このとき、画像形成部220は、各走査点Ri1~Rinの位置情報(前述の走査位置情報)を参照して各走査点Ri1~Rinの配列及び間隔を決定して、この走査線Riを形成するようになっている。以上の処理により、副走査方向(y方向)の異なる位置におけるm個の断層画像G1~Gmが得られる。 At this time, the image forming unit 220 refers to the position information of each scanning point Ri1 to Rin (the above-described scanning position information) to determine the arrangement and spacing of each scanning point Ri1 to Rin, thereby forming this scanning line Ri. It is designed to Through the above processing, m tomographic images G1 to Gm at different positions in the sub-scanning direction (y direction) are obtained.

画像処理部230は、各走査線Ri(主走査方向)に沿った眼底Efの断層画像に基づく眼底Efの3次元画像の形成処理を実行する。眼底Efの3次元画像は、上記の演算処理により得られたm個の断層画像に基づいて形成される。画像処理部230は、隣接する断層画像Gi、G(i+1)の間の画像を補間する公知の補間処理を行うなどして、眼底Efの3次元画像を形成する。 The image processing unit 230 executes processing for forming a three-dimensional image of the fundus oculi Ef based on a tomographic image of the fundus oculi Ef along each scanning line Ri (main scanning direction). A three-dimensional image of the fundus oculi Ef is formed based on m pieces of tomographic images obtained by the above arithmetic processing. The image processing unit 230 forms a three-dimensional image of the fundus oculi Ef by performing known interpolation processing for interpolating images between adjacent tomographic images Gi and G(i+1).

このとき、画像処理部230は、各走査線Riの位置情報を参照して各走査線Riの配列及び間隔を決定して、この3次元画像を形成するようになっている。この3次元画像には、各走査点Rijの位置情報(前述の走査位置情報)と、深度方向の画像におけるz座標とに基づいて、3次元座標系(x、y、z)が設定される。なお、図10に示す画像Gmjは、走査線Rm上の走査点Rmjにおける深度方向(z方向)の画像を表している。 At this time, the image processing unit 230 refers to the positional information of each scanning line Ri to determine the arrangement and spacing of each scanning line Ri to form this three-dimensional image. In this three-dimensional image, a three-dimensional coordinate system (x, y, z) is set based on the position information of each scanning point Rij (the above-described scanning position information) and the z coordinate in the image in the depth direction. . An image Gmj shown in FIG. 10 represents an image in the depth direction (z direction) at scanning point Rmj on scanning line Rm.

以上説明した本実施形態の眼科装置1が奏する作用および効果について説明する。
本実施形態の眼科装置1によれば、OCTユニット100が被検眼Eの眼底Efの走査領域(検査範囲)Rを光学的に検査することにより検出信号が出力され、検出信号に基づいて画像形成部220が眼底の断面像を形成する。前眼部カメラ300は被検眼Eの前眼部Eaを撮像して前眼部像を取得し、画像判定部232が前眼部像に基づいてOCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する。
The actions and effects of the ophthalmologic apparatus 1 of the present embodiment described above will be described.
According to the ophthalmologic apparatus 1 of the present embodiment, the OCT unit 100 optically inspects the scanning region (inspection range) R of the fundus oculi Ef of the eye E to be inspected, thereby outputting a detection signal and forming an image based on the detection signal. A section 220 forms a cross-sectional image of the fundus. The anterior eye camera 300 captures the anterior eye Ea of the subject's eye E to acquire an anterior eye image, and the image determination unit 232 allows the OCT unit 100 to inspect the scanning region R based on the anterior eye image. Determine whether or not

OCTユニット100が走査領域Rを検査可能な状態でない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット100から検出信号が出力されない場合である。このような場合に、制御部210は、走査領域Rの検査を再度実行するようOCTユニット100を制御する。そのため、被検者が瞬き等を行って被検眼Eの眼底Efの走査領域Rを検査不能な状態となった場合であっても、所望の断面像を得ることができる。 A case where the OCT unit 100 cannot inspect the scanning region R is, for example, a case where the OCT unit 100 does not output a detection signal because the subject blinks. In such a case, the control section 210 controls the OCT unit 100 to inspect the scanning region R again. Therefore, a desired cross-sectional image can be obtained even when the subject blinks or the like and the scanning region R of the fundus Ef of the subject's eye E cannot be inspected.

本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。
本実施形態の眼科装置1によれば、走査領域Rを検査可能な状態でない場合に走査領域Rの全領域を再び光学的に検査するため、使用者による再検査の操作等を要することなく、連続的に検査した得た検出信号から眼底Efの断面像を取得することができる。
In the ophthalmologic apparatus 1 of the present embodiment, when the image determination unit 232 determines that the scanning region R is not in an inspectable state, the control unit 210 performs OCT so as to optically inspect the entire scanning region R again. Control unit 100;
According to the ophthalmologic apparatus 1 of the present embodiment, since the entire scanning region R is optically inspected again when the scanning region R is not in a state that can be inspected, the user does not need to perform a re-examination operation. A cross-sectional image of the fundus oculi Ef can be acquired from the detection signals obtained by continuous inspection.

本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニット100による検査が行われていない再検査範囲を検査するようにOCTユニット100を制御する。
本構成の眼科装置1によれば、走査領域Rを検査可能な状態でない場合にOCTユニット100による検査が行われていない領域のみを再検査するため、再検査に要する時間を少なくして早期に眼底Efの断面像を取得することができる。
In the ophthalmologic apparatus 1 of the present embodiment, when the image determination unit 232 determines that the scanning region R is not in a state that can be inspected, the control unit 210 determines whether the scanning region R has not been inspected by the OCT unit 100 . Control the OCT unit 100 to inspect the inspection range.
According to the ophthalmologic apparatus 1 of this configuration, when the scanning region R is not in a state that can be inspected, only the region that has not been inspected by the OCT unit 100 is re-examined. A cross-sectional image of the fundus oculi Ef can be obtained.

本実施形態の眼科装置1によれば、被検眼Eに対する検査用光学系が所定の位置関係を維持するために用いられる前眼部像を用いて、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定することができる。
本実施形態の眼科装置1によれば、2以上の前眼部カメラ300A,300Bの位置と2以上の前眼部像とに基づいて被検眼Eの3次元位置を算出し、被検眼Eに対する検査用光学系の所定の位置関係を維持するよう光学系駆動部2Aを制御することができる。
According to the ophthalmologic apparatus 1 of the present embodiment, the OCT unit 100 can inspect the scanning region R using the anterior segment image used for maintaining the predetermined positional relationship of the inspection optical system with respect to the eye E to be inspected. state can be determined.
According to the ophthalmologic apparatus 1 of the present embodiment, the three-dimensional position of the eye to be examined E is calculated based on the positions of the two or more anterior eye cameras 300A and 300B and the two or more anterior eye images. The optical system driving section 2A can be controlled so as to maintain a predetermined positional relationship of the inspection optical system.

〔第2実施形態〕
次に、本発明の第2実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態と同様あるものとし、以下での説明を省略する。
[Second embodiment]
Next, an ophthalmologic apparatus according to a second embodiment of the present invention will be described.
The present embodiment is a modified example of the first embodiment, and is assumed to be the same as the first embodiment except for the case where it is specifically described below, and the description below is omitted.

第1実施形態の眼科装置1は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域が特定できるかどうかにより判定するものであった。すなわち、第1実施形態の眼科装置1は、被検者が瞬き等を行って瞳孔に相当する画像領域が特定できない場合に、OCTユニット100が走査領域Rを検査不能であると判定するものであった。 The ophthalmologic apparatus 1 of the first embodiment determines whether the OCT unit 100 is ready to inspect the scanning region R by determining whether the image region corresponding to the pupil can be specified. That is, the ophthalmologic apparatus 1 of the first embodiment determines that the OCT unit 100 cannot inspect the scanning region R when the subject blinks and cannot identify the image region corresponding to the pupil. there were.

それに対して、本実施形態の眼科装置は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域の位置に基づいて判定するものである。すなわち、本実施形態の眼が装置は、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合に、OCTユニット100が走査領域Rを検査不能であると判定するものである。 In contrast, the ophthalmologic apparatus of this embodiment determines whether the OCT unit 100 is ready to inspect the scanning region R based on the position of the image region corresponding to the pupil. That is, the eye apparatus of the present embodiment determines that the OCT unit 100 cannot inspect the scanning region R when the subject's line of sight is greatly shifted from the front and the image region corresponding to the pupil is shifted from the front. It is.

本実施形態の眼科装置が実行する処理は、第1実施形態の図6に示すステップS9の処理を除き、第1実施形態と同様である。以下では、第1実施形態の図6に示すステップS9の代わりに実行する処理について説明する。 The processing executed by the ophthalmologic apparatus of this embodiment is the same as that of the first embodiment except for the processing of step S9 shown in FIG. 6 of the first embodiment. Processing executed instead of step S9 shown in FIG. 6 of the first embodiment will be described below.

前眼部像の取得が完了すると、本実施形態の制御部210は、瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。 When acquisition of the anterior segment image is completed, the control unit 210 of the present embodiment controls the image determination unit 232 of the image processing unit 230 to specify an image region corresponding to the pupil. The characteristic position specifying unit 2312 of the image determination unit 232 extracts the pupillary contour of the anterior segment Ea from the anterior segment image obtained by the anterior segment camera 300, and defines the region surrounded by the pupillary contour as an image region corresponding to the pupil. Identify.

制御部210は、特徴位置特定部2312が特定した画像領域の位置が、OCTユニット100が走査領域Rを検査可能な状態を示す検査可能範囲A1に含まれている場合にはステップS10に処理を進め、検査可能範囲A1に含まれていない場合にはステップS11に処理を進める。 If the position of the image region specified by the feature position specifying unit 2312 is included in the inspection range A1 indicating that the scanning region R can be inspected by the OCT unit 100, the control unit 210 proceeds to step S10. If it is not included in the inspectable range A1, the process proceeds to step S11.

特徴位置特定部2312が特定した画像領域の位置が検査可能範囲A1に含まれていない場合とは、例えば、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合である。この場合、画像判定部232は、特徴位置特定部2312が特定した画像領域の位置に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。 A case where the position of the image region specified by the characteristic position specifying unit 2312 is not included in the inspection range A1 is, for example, a case where the subject's line of sight is greatly shifted from the front and the image region corresponding to the pupil is shifted from the front. is. In this case, the image determination unit 232 determines that the OCT unit 100 cannot inspect a scanning region (inspection range) R, which will be described later, based on the position of the image region specified by the characteristic position specifying unit 2312, and step S11. proceed to

ここで、検査可能範囲A1とは、OCT計測用の光路を通過する信号光LSを走査領域Rで走査した場合に信号光LSが被検眼Eの虹彩により遮断されない範囲をいう。図11及び図12は、前眼部カメラ300Bにより取得された前眼部像の一例を示す図である。符号2120aは、瞳孔輪郭に相当する画像領域として画像判定部232が特定した領域を示す。 Here, the testable range A1 refers to a range in which the signal light LS passing through the optical path for OCT measurement is not blocked by the iris of the subject's eye E when the scanning region R is scanned with the signal light LS. 11 and 12 are diagrams showing an example of an anterior segment image acquired by the anterior segment camera 300B. Reference numeral 2120a indicates an area specified by the image determination unit 232 as an image area corresponding to the pupil contour.

制御部210は、図11に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの全てが検査可能範囲A1に含まれている場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。一方、制御部210は、図12に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの一部が検査可能範囲A1に含まれていない場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。 As shown in FIG. 11, the control unit 210 controls the OCT unit 100 to scan when the entire second characteristic region 2120a, which is the image region identified by the characteristic position identification unit 2312, is included in the inspection range A1. It is determined that the region R is ready for inspection, and the process proceeds to step S10. On the other hand, as shown in FIG. 12, when a part of the second feature region 2120a, which is the image region specified by the feature position specifying unit 2312, is not included in the inspection range A1, the control unit 210 100 determines that the scanning region R can be inspected, and proceeds to step S10.

例えば、被検者が視線を正面から大きくずらしてしまうと、特徴位置特定部2312により特定された瞳孔に相当する画像領域の位置が正面から大きくずれてしまう。本実施形態の眼科装置によれば、瞳孔に相当する画像領域の位置が正面から大きくずれてしまう場合であっても、走査領域Rの検査を再度実行して所望の断面像を得ることができる。 For example, if the subject's line of sight deviates significantly from the front, the positions of the image regions corresponding to the pupils identified by the characteristic position identifying unit 2312 deviate greatly from the front. According to the ophthalmologic apparatus of this embodiment, even if the position of the image area corresponding to the pupil deviates greatly from the front, the scanning area R can be inspected again to obtain a desired cross-sectional image. .

〔第3実施形態〕
次に、本発明の第3実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態および第2実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態および第2実施形態と同様あるものとし、以下での説明を省略する。
[Third embodiment]
Next, an ophthalmologic apparatus according to a third embodiment of the present invention will be described.
The present embodiment is a modified example of the first and second embodiments, and is assumed to be the same as the first and second embodiments except for cases where it is specifically described below, and the description below is omitted. do.

本実施形態は、被検眼Eの前眼部Eaの前眼部像を取得する前眼部カメラ300Aおよび前眼部カメラ300Bが前眼部像を取得するタイミングを適切に調整する処理に関する。第1実施形態では、図6のステップS8において、前眼部カメラ300Aおよび300Bの少なくとも一方が前眼部像を取得する。本実施形態では、前眼部カメラ300Aおよび300Bの双方が、前眼部像を取得する。 The present embodiment relates to a process of appropriately adjusting the timing at which the anterior eye cameras 300A and 300B acquire an anterior eye image of the anterior eye Ea of the subject's eye E to acquire an anterior eye image. In the first embodiment, at least one of the anterior eye cameras 300A and 300B acquires an anterior eye image in step S8 of FIG. In this embodiment, both anterior eye cameras 300A and 300B acquire anterior eye images.

本実施形態の眼科装置は、図6のステップS2のオートアライメントにおいて、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、オートアライメントを実行する際に、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御する。 The ophthalmologic apparatus of this embodiment performs processing using two anterior segment images of the subject's eye E acquired by the two anterior segment cameras 300A and 300B in the auto alignment of step S2 in FIG. Control unit 210 performs control so that the vertical synchronization signals of anterior eye cameras 300A and 300B are output at the same timing when auto-alignment is performed.

図13に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aおよび300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。 As shown in FIG. 13, control unit 210 outputs vertical synchronization signals for anterior eye cameras 300A and 300B at times T1, T3, T5, T7, T9, and T11. In each of the anterior eye cameras 300A and 300B, the output interval of the vertical synchronization signal is a constant first frame rate Fr1.

ステップS2で実行するオートアライメントは、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像から検査用光学系の移動方向および移動距離を求めるものである。そのため、オートアライメントのために用いる2つの前眼部像は、同じタイミングで取得する必要がある。そこで、図6のステップS2のオートアライメントにおいて、制御部210は、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを一致させている。 The auto-alignment performed in step S2 is to obtain the movement direction and the movement distance of the inspection optical system from two anterior eye images of the subject's eye E acquired by the two anterior eye cameras 300A and 300B. Therefore, the two anterior segment images used for auto-alignment must be acquired at the same timing. Therefore, in the auto-alignment of step S2 in FIG. 6, the control unit 210 controls so that the vertical synchronization signals of the anterior eye cameras 300A and 300B are output at the same timing, and the imaging timing of the anterior eye cameras 300A and 300B is adjusted. are matched.

本実施形態の眼科装置は、図6のステップS7で開始されるOCT計測において、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、OCT計測を開始した後は前眼部カメラ300Aおよび300Bの垂直同期信号が異なるタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを異ならせている。 The ophthalmologic apparatus of the present embodiment performs processing using two anterior segment images of the subject's eye E acquired by the two anterior segment cameras 300A and 300B in the OCT measurement started in step S7 of FIG. ing. After the OCT measurement is started, the control unit 210 controls so that the vertical synchronization signals of the anterior eye cameras 300A and 300B are output at different timings, thereby making the imaging timings of the anterior eye cameras 300A and 300B different. .

図14に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aの垂直同期信号を出力する。また、制御部210は、時刻T2,T4,T6,T8,T10,T12のタイミングで、前眼部カメラ300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。そのため、前眼部カメラ300Aおよび300Bは、それぞれ同一の第1フレームレートFr1で前眼部像を連続的に撮像する。 As shown in FIG. 14, the control unit 210 outputs vertical synchronization signals for the anterior eye camera 300A at times T1, T3, T5, T7, T9, and T11. Further, the control unit 210 outputs vertical synchronization signals for the anterior eye camera 300B at timings T2, T4, T6, T8, T10, and T12. In each of the anterior eye cameras 300A and 300B, the output interval of the vertical synchronization signal is a constant first frame rate Fr1. Therefore, the anterior eye cameras 300A and 300B continuously capture anterior eye images at the same first frame rate Fr1.

図14に示すように、前眼部カメラ300Aの垂直同期信号を出力するタイミングと、前眼部カメラ300Bの垂直同期信号を出力するタイミングは、第2フレームレートFr2だけずれている。そのため、前眼部カメラ300A及び前眼部カメラ300Bを1つの撮像部としてみた場合、この撮像部のフレームレートは第2フレームレートFr2となる第2フレームレートFr2は、第1フレームレートFr1の半分の間隔である。 As shown in FIG. 14, the timing of outputting the vertical synchronization signal of the anterior eye camera 300A and the timing of outputting the vertical synchronization signal of the anterior eye camera 300B are shifted by the second frame rate Fr2. Therefore, when the anterior eye camera 300A and the anterior eye camera 300B are viewed as one imaging unit, the frame rate of this imaging unit is the second frame rate Fr2, and the second frame rate Fr2 is half the first frame rate Fr1. interval.

OCT計測の実行中に、制御部210は、前眼部カメラ300Aおよび前眼部カメラ300Bにより前眼部像を取得し、瞳孔に相当する画像領域を特定している。ステップS8で前眼部像を取得する時間間隔が短い(フレームレートが高い)ほど、OCT計測不可の走査点を確実に記憶することができる。 During execution of OCT measurement, the control unit 210 acquires an anterior segment image with the anterior segment camera 300A and an anterior segment camera 300B, and specifies an image region corresponding to the pupil. The shorter the time interval for acquiring the anterior segment image in step S8 (the higher the frame rate), the more reliably the scanning points for which OCT cannot be measured can be stored.

そのため、制御部210は、OCT計測を開始した後(ステップS7の後)、前眼部カメラ300Aの垂直同期信号を出力するタイミング(撮像タイミング)と、前眼部カメラ300Bの垂直同期信号を出力するタイミング(撮像タイミング)を第2フレームレートFr2だけずらすように制御している。これにより、前眼部像のみかけ上の取得間隔が第1フレームレートFr1の半分の第2フレームレートFr2となり、OCT計測不可の走査点を確実に記憶することができる。 Therefore, after starting the OCT measurement (after step S7), the control unit 210 outputs the timing (imaging timing) for outputting the vertical synchronization signal of the anterior eye camera 300A and the vertical synchronization signal of the anterior eye camera 300B. The timing (imaging timing) is controlled to be shifted by the second frame rate Fr2. As a result, the apparent acquisition interval of the anterior segment image becomes the second frame rate Fr2, which is half the first frame rate Fr1, and the scanning points for which OCT cannot be measured can be reliably stored.

本実施形態の眼科装置によれば、被検眼Eの3次元位置を算出して被検眼Eに対する検査用光学系の所定の位置関係を維持するオートアライメントを実行する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを一致させて被検眼Eの3次元位置を精度よく算出することができる。 According to the ophthalmologic apparatus of the present embodiment, when performing auto-alignment for calculating the three-dimensional position of the eye to be examined E and maintaining a predetermined positional relationship of the examination optical system with respect to the eye to be examined E, the anterior segment camera The three-dimensional position of the subject's eye E can be accurately calculated by matching the imaging timings of the anterior eye camera 300A and the anterior eye camera 300B.

一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを異ならせることで、前眼部カメラ300の撮像間隔(フレームレート)を短くすることができる。前眼部カメラ300の撮像間隔が短くなると、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する間隔が短くなり、判定の精度が向上する。 On the other hand, when determining whether or not the OCT unit 100 is ready to inspect the scanning region R, the imaging timings of the anterior eye camera 300A and the anterior eye camera 300B are made different so that the anterior eye camera 300 imaging interval (frame rate) can be shortened. When the imaging interval of the anterior segment camera 300 is shortened, the interval at which the OCT unit 100 determines whether or not the scanning region R can be inspected is shortened, and the accuracy of determination is improved.

なお、本実施形態では、前眼部カメラ300A及び前眼部カメラ300Bの2つのカメラについて説明したが、2以上の複数の前眼部カメラを用いるようにしてもよい。2以上の複数の前眼部カメラを用いる場合、オートアライメントを実行する際には、すべての前眼部カメラの撮像タイミングを一致させる。一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する際には、複数の前眼部カメラの撮像タイミングを異ならせる。 Although two cameras, the anterior eye camera 300A and the anterior eye camera 300B, have been described in the present embodiment, two or more anterior eye cameras may be used. When two or more anterior eye cameras are used, the imaging timings of all the anterior eye cameras are matched when auto-alignment is performed. On the other hand, when determining whether the OCT unit 100 can inspect the scanning region R, the imaging timings of the plurality of anterior eye cameras are made different.

以上、本発明の実施形態について説明した。しかし、本発明は、上記実施形態に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。上記実施形態の構成は、その一部を省略したり、上記とは異なるように任意に組み合わせたりすることができる。 The embodiments of the present invention have been described above. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the claims. Some of the configurations of the above embodiments may be omitted, or may be arbitrarily combined in a manner different from the above.

上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク等)などを用いることが可能である。 A computer program for implementing the above embodiments can be stored in any computer-readable recording medium. As this recording medium, for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM/DVD-RAM/DVD-ROM/MO, etc.), a magnetic storage medium (hard disk, etc.), etc. can be used.

1・・・眼科装置、 2・・・眼底カメラユニット、 100・・・OCTユニット、 200・・・演算制御ユニット、 210・・・制御部、 212・・・記憶部、 220・・・画像形成部、 230・・・画像処理部、 231・・・解析部、 232・・・画像判定部、 233・・・画像合成部、 241・・・表示部、 300,300A,300B・・・前眼部カメラ、 2312・・・特徴位置特定部、 2313・・・3次元位置算出部、 A1・・・検査可能範囲、 Ea・・・前眼部、 Ef・・・眼底、 LC・・・干渉光、 LR・・・参照光、 LS・・・信号光 DESCRIPTION OF SYMBOLS 1... Ophthalmic apparatus 2... Fundus camera unit 100... OCT unit 200... Calculation control unit 210... Control part 212... Storage part 220... Image formation Section 230 Image processing section 231 Analysis section 232 Image determination section 233 Image synthesizing section 241 Display section 300, 300A, 300B Anterior eye Partial camera 2312 Feature position specifying unit 2313 Three-dimensional position calculation unit A1 Inspection possible range Ea Anterior segment Ef Fundus LC Interference light , LR...reference light, LS...signal light

Claims (8)

被検眼を光学的に検査する眼科装置であって、
前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査用光学系を含む検査部と、
前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成部と、
前記被検眼の前眼部を撮像して前眼部像を取得する撮像部と、
前記眼科装置を制御する制御部と、
前記撮像部が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定部と、を備え、
前記制御部は、前記検査部が前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御し、
前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、
前記検査用光学系を移動する移動機構と、を備え、
前記制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御し、
前記撮像部は、異なる2以上の方向から前記被検眼の前記前眼部を撮像して2以上の前
記前眼部像を取得する2以上の前眼部カメラを有し、
前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出し、
2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、
前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することを特徴とする眼科装置。
An ophthalmic device for optically examining an eye to be examined,
an inspection unit including an inspection optical system that optically inspects an inspection range of the fundus of the eye to be inspected and outputs a detection signal;
an image forming unit that forms a cross-sectional image of the fundus based on the detection signal detected by the examination unit;
an imaging unit for imaging the anterior segment of the eye to be inspected to obtain an anterior segment image;
a control unit that controls the ophthalmologic apparatus;
a determination unit that determines whether the inspection unit is capable of inspecting the inspection range based on the anterior segment image captured by the imaging unit;
When the determination unit determines that the inspection unit is not in a state in which the inspection range can be inspected, the control unit controls the inspection unit to re-execute the inspection of the inspection range,
a calculation unit that calculates the displacement between the eye to be examined and the inspection optical system based on the anterior segment image captured by the imaging unit;
a moving mechanism for moving the inspection optical system,
The control unit controls the movement mechanism so that the inspection optical system maintains a predetermined positional relationship with respect to the eye to be inspected according to the displacement calculated by the calculation unit,
The imaging unit captures images of the anterior ocular segment of the subject eye from two or more different directions to obtain two or more anterior ocular segments.
having two or more anterior eye cameras that acquire the anterior eye images;
The calculation unit calculates the three-dimensional position of the subject eye based on the positions of the two or more anterior eye cameras and the two or more anterior eye images,
The two or more anterior eye cameras continuously capture a plurality of the anterior eye images at the same frame rate,
When the calculation unit calculates the three-dimensional position of the eye to be inspected, the control unit matches the imaging timings of the two or more anterior eye cameras, and the inspection unit is in a state in which the inspection range can be inspected. The ophthalmologic apparatus characterized in that, when the determining unit determines whether or not, the imaging unit is controlled such that the imaging timings of the two or more anterior eye cameras are differentiated.
前記撮像部が撮像した前記前眼部像に基づいて、前記被検眼の瞳孔に相当する画像領域を特定する特定部を備え、
前記判定部は、前記特定部の特定結果に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする請求項1に記載の眼科装置。
a specifying unit that specifies an image region corresponding to the pupil of the eye to be inspected based on the anterior segment image captured by the imaging unit;
2. The ophthalmologic apparatus according to claim 1, wherein the determination unit determines whether the inspection unit is capable of inspecting the inspection range based on the identification result of the identification unit.
前記判定部は、前記特定部により前記画像領域が特定されない場合に、前記検査部が前記検査範囲を検査可能な状態でないと判定することを特徴とする請求項2に記載の眼科装置。 3. The ophthalmologic apparatus according to claim 2, wherein the determination unit determines that the inspection unit is not capable of inspecting the inspection range when the image region is not specified by the specifying unit. 前記判定部は、前記特定部により特定された前記画像領域の位置に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定することを特徴とする請求項2に記載の眼科装置。 3. The method according to claim 2, wherein the determining unit determines whether the inspection unit is capable of inspecting the inspection range based on the position of the image area specified by the specifying unit. ophthalmic equipment. 前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲の全領域を再び光学的に検査するように前記検査部を制御することを特徴とする請求項1から請求項4のいずれか一項に記載の眼科装置。 When the determination unit determines that the inspection range is not in an inspectable state, the control unit controls the inspection unit to optically inspect the entire inspection range again. An ophthalmic device according to any one of claims 1 to 4. 前記制御部は、前記検査範囲を検査可能な状態でないと前記判定部が判定した場合に、前記検査範囲のうち前記検査部による検査が行われていない再検査範囲を検査するように前記検査部を制御することを特徴とする請求項1から請求項4のいずれか一項に記載の眼科装置。 When the determination unit determines that the inspection range is not in an inspectable state, the control unit causes the inspection unit to inspect a re-inspection range that has not been inspected by the inspection unit, out of the inspection range. 5. The ophthalmologic apparatus according to any one of claims 1 to 4, wherein the ophthalmic apparatus controls the . 前記検査部は、光源からの光を信号光と参照光とに分割して前記信号光で前記被検眼の前記眼底を走査し、前記眼底を経由した前記信号光と前記参照光とを干渉させた干渉光に応じた前記検出信号を検出することを特徴とする請求項1から請求項6のいずれか一項に記載の眼科装置。 The inspection unit divides light from a light source into signal light and reference light, scans the fundus of the subject's eye with the signal light, and causes the signal light and the reference light that have passed through the fundus to interfere with each other. The ophthalmologic apparatus according to any one of claims 1 to 6, wherein the detection signal is detected according to the interference light. 被検眼を光学的に検査する眼科装置の制御方法であって、
前記眼科装置は、前記被検眼の眼底の検査範囲を光学的に検査して検出信号を出力する検査部と、
前記撮像部が撮像した前記前眼部像に基づいて前記被検眼と前記検査用光学系との間の変位を算出する算出部と、
前記検査用光学系を移動する移動機構と、
異なる2以上の方向から前記被検眼の前眼部を撮像して2以上の前記前眼部像を取得する2以上の前眼部カメラと、を有し、
前記被検眼の前眼部を撮像して前眼部像を取得する撮像工程と、
前記撮像工程が撮像した前記前眼部像に基づいて、前記検査部が前記検査範囲を検査可能な状態であるかどうかを判定する判定工程と、
前記検査部が前記検査範囲を検査可能な状態でないと前記判定工程が判定した場合に、前記検査範囲の検査を再度実行するよう前記検査部を制御する制御工程と、
前記検査部が検出する前記検出信号に基づいて前記眼底の断面像を形成する画像形成工程と、を備え、
制御部は、前記算出部が算出した前記変位に応じて、前記被検眼に対する前記検査用光学系が所定の位置関係を維持するように前記移動機構を制御し、
前記算出部は、2以上の前記前眼部カメラの位置と前記2以上の前眼部像とに基づいて、前記被検眼の3次元位置を算出し、
2以上の前記前眼部カメラは、それぞれ同一のフレームレートで複数の前記前眼部像を連続的に撮像し、
前記制御部は、前記算出部が前記被検眼の3次元位置を算出する場合は2以上の前記前眼部カメラの撮像タイミングを一致させ、前記検査部が前記検査範囲を検査可能な状態であるかどうかを前記判定部が判定する場合は2以上の前記前眼部カメラの撮像タイミングを異ならせるよう前記撮像部を制御することを特徴とする眼科装置の制御方法
A control method for an ophthalmologic apparatus for optically examining an eye to be examined, comprising:
The ophthalmologic apparatus includes an inspection unit that optically inspects an inspection range of the fundus of the eye to be inspected and outputs a detection signal;
a calculation unit that calculates the displacement between the eye to be examined and the inspection optical system based on the anterior segment image captured by the imaging unit;
a moving mechanism for moving the inspection optical system;
two or more anterior segment cameras that acquire two or more anterior segment images by imaging the anterior segment of the subject's eye from two or more different directions;
an imaging step of imaging the anterior segment of the eye to be inspected to obtain an anterior segment image;
a determination step of determining whether the inspection unit is capable of inspecting the inspection range based on the anterior segment image captured by the imaging step;
a control step of controlling the inspection unit to perform the inspection of the inspection range again when the determination step determines that the inspection unit is not in a state in which the inspection range can be inspected;
an image forming step of forming a cross-sectional image of the fundus based on the detection signal detected by the examination unit;
a control unit controlling the moving mechanism so that the inspection optical system maintains a predetermined positional relationship with respect to the eye to be inspected according to the displacement calculated by the calculation unit;
The calculation unit calculates the three-dimensional position of the subject eye based on the positions of the two or more anterior eye cameras and the two or more anterior eye images,
The two or more anterior eye cameras continuously capture a plurality of the anterior eye images at the same frame rate,
When the calculation unit calculates the three-dimensional position of the eye to be inspected, the control unit matches the imaging timings of the two or more anterior eye cameras, and the inspection unit is in a state in which the inspection range can be inspected. A control method for an ophthalmologic apparatus, characterized in that, when the determination unit determines whether or not, the imaging unit is controlled such that imaging timings of two or more anterior eye cameras are differentiated.
JP2018178923A 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device Active JP7231366B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018178923A JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178923A JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Publications (2)

Publication Number Publication Date
JP2020048688A JP2020048688A (en) 2020-04-02
JP7231366B2 true JP7231366B2 (en) 2023-03-01

Family

ID=69994405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178923A Active JP7231366B2 (en) 2018-09-25 2018-09-25 Ophthalmic device and control method for the ophthalmic device

Country Status (1)

Country Link
JP (1) JP7231366B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110391A (en) 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2011092291A (en) 2009-10-27 2011-05-12 Topcon Corp Ophthalmic observation apparatus
JP2014113385A (en) 2012-12-11 2014-06-26 Topcon Corp Ophthalmologic apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110391A (en) 2008-11-05 2010-05-20 Nidek Co Ltd Ophthalmological imaging apparatus
JP2011092291A (en) 2009-10-27 2011-05-12 Topcon Corp Ophthalmic observation apparatus
JP2014113385A (en) 2012-12-11 2014-06-26 Topcon Corp Ophthalmologic apparatus

Also Published As

Publication number Publication date
JP2020048688A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP6556899B2 (en) Ophthalmic equipment
JP6009935B2 (en) Ophthalmic equipment
JP5989523B2 (en) Ophthalmic equipment
US9706920B2 (en) Ophthalmologic apparatus
JP6412707B2 (en) Ophthalmic equipment
JP6566541B2 (en) Ophthalmic equipment
JP6498398B2 (en) Ophthalmic equipment
JP2016041221A (en) Ophthalmic imaging apparatus and control method thereof
JP6388440B2 (en) Ophthalmic equipment
JP6220022B2 (en) Ophthalmic equipment
JP6624641B2 (en) Ophthalmic equipment
US10045691B2 (en) Ophthalmologic observation apparatus using optical coherence tomography
JP6407631B2 (en) Ophthalmic equipment
JP6779674B2 (en) OCT device
JP7181135B2 (en) ophthalmic equipment
JP6809926B2 (en) Ophthalmic equipment
JP2018051340A (en) Ophthalmologic apparatus
JP7231366B2 (en) Ophthalmic device and control method for the ophthalmic device
JP6756873B2 (en) Ophthalmologic imaging equipment
JP6959158B2 (en) Ophthalmic equipment
JP2018126256A (en) Ophthalmologic apparatus
JP2022075771A (en) Ophthalmologic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150