WO2019050048A1 - 眼科機器、管理装置、及び眼科機器の管理方法 - Google Patents
眼科機器、管理装置、及び眼科機器の管理方法 Download PDFInfo
- Publication number
- WO2019050048A1 WO2019050048A1 PCT/JP2018/033718 JP2018033718W WO2019050048A1 WO 2019050048 A1 WO2019050048 A1 WO 2019050048A1 JP 2018033718 W JP2018033718 W JP 2018033718W WO 2019050048 A1 WO2019050048 A1 WO 2019050048A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- eye
- light source
- visual field
- information
- light
- Prior art date
Links
- 238000007726 management method Methods 0.000 title claims description 186
- 230000000007 visual effect Effects 0.000 claims abstract description 146
- 230000003287 optical effect Effects 0.000 claims abstract description 100
- 210000001525 retina Anatomy 0.000 claims abstract description 98
- 238000007689 inspection Methods 0.000 claims abstract description 88
- 238000000034 method Methods 0.000 claims description 207
- 230000008569 process Effects 0.000 claims description 198
- 238000004891 communication Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 claims description 85
- 230000004044 response Effects 0.000 claims description 72
- 239000013307 optical fiber Substances 0.000 claims description 32
- 238000012360 testing method Methods 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000023077 detection of light stimulus Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 38
- 206010047555 Visual field defect Diseases 0.000 description 25
- 238000010586 diagram Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000011282 treatment Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000004382 visual function Effects 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000004323 axial length Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000003454 tympanic membrane Anatomy 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 208000002177 Cataract Diseases 0.000 description 1
- 208000010389 Corneal Wavefront Aberration Diseases 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/024—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0008—Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/18—Arrangement of plural eye-testing or -examining apparatus
Definitions
- the technology of the present disclosure relates to an ophthalmic apparatus, a management apparatus, and a management method of the ophthalmic apparatus.
- ophthalmology refers to the medical branch that deals with the eye.
- SLO refers to the abbreviation for "Scanning Laser Ophthalmoscope”.
- OCT refers to the abbreviation for "Optical Coherence Tomograph”.
- JP-A-2016-22150 discloses a visual function inspection apparatus including an irradiation optical system, a biological information detection unit, an evaluation information generation unit, and a control unit.
- the irradiation optical system includes an optical scanner disposed in the optical path of the laser light output from the laser light source, and the laser light passed through the optical scanner is used as an eye to be examined Irradiate your retina. Further, the biological information detection unit repeatedly detects biological information representing a reaction of the subject to the irradiation of the laser light. Further, the control unit controls the irradiation optical system so as to monotonously change the irradiation intensity of the laser beam to one stimulation point of the retina when repetitive detection of the biological information is performed.
- the evaluation information generation unit generates evaluation information on the visual function of the subject's eye based on the detected biological information. Specifically, the evaluation information generation unit generates sensitivity information at one stimulation point based on the time-series change of the biological information according to the monotonous change of the irradiation intensity of the laser light. Further, the evaluation information generation unit generates, as evaluation information, the distribution of sensitivity information at a plurality of stimulation points based on the sensitivity information generated for each of a plurality of stimulation points in the retina.
- An ophthalmologic apparatus includes: a control device having a light source; and a control unit, an optical system for the right eye that guides light from the light source to the right eye retina, and light from the light source And an eyewear terminal comprising an optical system having a left eye optical system for guiding the light to the left eye retina, wherein the eyewear terminal and the control device supply light from the light source to the eyewear terminal
- the control unit executes the visual field inspection by controlling the optical system based on a plurality of mark projection position information for visual field inspection.
- An ophthalmologic apparatus includes: a control device having a control unit; and light for the right eye, which is light from a light source for the right eye, guided to the retina of the subject's right eye
- An eyewear terminal provided with an optical system for guiding light for the left eye, which is light from the light source, to the retina of the subject's left eye, the light for the right eye from the light source for the right eye and the left
- the eyewear terminal and the control device are connected by a cable including an optical fiber for supplying the light for the left eye from the eye light source to the eyewear terminal, and the control unit is configured to connect a plurality of visual field inspections.
- a control signal for controlling the optical system is transmitted to the eyewear terminal by the cable based on the mark projection position information, and the visual field inspection is performed.
- An ophthalmologic apparatus guides a light for the right eye, which is a light from a light source for the right eye, a light source for the left eye, and the light source for the right eye to the retina of the subject's right eye
- a light for the right eye which is a light from a light source for the right eye, a light source for the left eye, and the light source for the right eye
- an optical system for guiding the light for the left eye which is light from the light source for the left eye, to the retina of the left eye of the subject, the light source for the right eye, the light source for the left eye, and the optical system
- a control unit that controls based on a plurality of mark projection position information for inspection.
- a management apparatus generates a transmission data to be transmitted to the ophthalmologic apparatus by the communication unit that transmits and receives data to and from the ophthalmologic apparatus, and is received by the communication unit
- a processing unit configured to process received data; and an acquisition unit configured to acquire inspection result information indicating a result of visual field inspection using the ophthalmologic apparatus, wherein the ophthalmologic apparatus includes a light source, an optical system, and a control unit.
- the optical system includes an optical system for the right eye that guides light from the light source to the retina of the subject's right eye, and an optical system for the left eye that guides the light from the light source to the retina of the left eye
- the control unit controls the optical system
- the response unit receives an operation by the user when the user of the ophthalmologic apparatus responds to the perception of light from the light source.
- the transmission data is at least of the subject's eyes. Includes indication information indicating the eye being tested in serial field test, the received data includes progress information of the field test, the response signal of the response unit, at least.
- a management method of an ophthalmologic apparatus is a management method of an ophthalmologic apparatus, which instructs an examination target eye of a visual field test using the ophthalmologic apparatus of both eyes of a subject.
- a control device having a step of transmitting instruction information and a step of acquiring examination result information indicating a result of the visual field examination, the ophthalmologic apparatus having a light source, a response unit, and a control unit,
- An eyewear terminal comprising an optical system having a right-eye optical system for guiding light from a light source to the right-eye retina, and a left-eye optical system for guiding light from the light source to a left-eye retina;
- the eyewear terminal and the control device are connected by a cable including an optical fiber for supplying light from the light source to the eyewear terminal, the control unit controls the optical system, and the response unit is ,
- the user of the ophthalmologic apparatus emits light from the light source It accepts an operation by the user in the case of response to cool.
- FIG. 9A It is a flowchart which shows an example of the flow of the visual field inspection process contained in the terminal side process which concerns on 1st Embodiment. It is a continuation of the flowchart shown to FIG. 9A. It is a flowchart which shows an example of the flow of the server side process which concerns on 1st and 2nd embodiment. It is a flowchart which shows an example of the flow of the display control processing which concerns on 1st and 2nd embodiment. It is a flowchart which shows an example of the flow of the communication error corresponding
- a comparison example of the flow of in-hospital treatment when the ophthalmologic system according to the first embodiment is applied to a plurality of patients and the flow of in-hospital treatment when a conventional visual field inspection apparatus is applied to a plurality of patients It is a state transition diagram.
- MEMS refers to an abbreviation of "Micro Electro Mechanical Systems”.
- I / F refers to the abbreviation of “Interface”.
- I / O refers to an abbreviation of input / output interface.
- USB means an abbreviation of "universal serial bus”.
- ID refers to the abbreviation of "IDentification”.
- CPU means an abbreviation of "Central Processing Unit”.
- RAM means an abbreviation of "Random Access Memory”.
- HDD refers to an abbreviation of "Hard Disk Drive”.
- EEPROM refers to an abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
- SSD refers to the abbreviation of "Solid State Drive”.
- DVD-ROM refers to an abbreviation of "Digital Versatile Disc Read Only Memory”.
- ASIC refers to an abbreviation of "Application Specific Integrated Circuit”.
- FPGA refers to an abbreviation of "Field-Programmable Gate Array”.
- PLD refers to an abbreviation of "Programmable Logic Device”.
- LAN refers to the abbreviation of "Local Area Network”.
- the left-right direction indicates, for example, the direction of a straight line passing through the center of the pupil of the right eye of the patient and the center of the pupil of the left eye.
- the “left and right direction” is also referred to as “X direction”
- the direction from the center of the pupil of the subject's eye to the posterior pole of the subject's eye is referred to as “Z direction”.
- the direction perpendicular to both is called "Y direction”.
- the ophthalmologic system 10 is a system for subjecting a patient to an examination of a visual field (hereinafter, simply referred to as "visual field inspection").
- the visual field examination is realized by irradiating the retina of the subject's eye of a patient (subject) with laser light.
- the laser light is an example of “light from a light source” and “visual field inspection light which is light based on a light source used for visual field inspection” according to the technology of the present disclosure.
- the ophthalmologic system 10 includes a plurality of wearable terminal devices 12, a management device 14, a server device 15, and a viewer 17.
- the wearable terminal device 12 is an example of an ophthalmologic apparatus and a wearable ophthalmologic apparatus according to the technology of the present disclosure.
- the wearable terminal device 12 includes an eyewear terminal device 16 which is an example of an eyewear terminal according to the technology of the present disclosure, a control device 18, and an optical branching unit 20.
- the eyewear terminal device 16 is a kind of eyeglass-type terminal device worn on a patient.
- patient refers to a patient who has a disease in the fundus.
- the patient is an example of a subject according to the technology of the present disclosure.
- the eyewear terminal device 16 includes a rim 22 and a temple 24 in the same manner as general glasses.
- the eyewear terminal device 16 also includes an optical system 27.
- the rim 22 holds an optical system 27.
- the temples 24 are roughly divided into left side temples 24L and right side temples 24R. One end of the left side temple 24L is attached to the left end of the rim 22, and the right side temple 24R is attached to the right end of the rim 22.
- the left side temple 24L has an ear hooking portion 24L1.
- the right side temple 24R has an ear hooking portion 24R1.
- the ear hooking portion 24L1 is hooked on the left ear of the patient, and the ear hooking portion 24R1 is hooked on the patient's right ear.
- a speaker 140 is provided in the ear hooking portion 24L1.
- the speaker 140 outputs sound under the control of the control device 18.
- the speaker 140 may be a speaker that applies an acoustic wave directly to the tympanic membrane of a patient, or may be a bone conduction type speaker that indirectly transmits a vibration to the tympanic membrane of a patient.
- the speaker 140 is an example of a notification unit that notifies the patient of information by acting on the patient's hearing.
- the control device 18 is used, for example, while the patient holds it or the patient wears it on his or her clothes or body.
- the controller 18 is provided with a response button 19.
- the response button 19 is an example of a response unit according to the technology of the present disclosure.
- the response button 19 is illustrated, the technology of the present disclosure is not limited thereto.
- a touch panel may be used instead of the response button 19, or a voice of the patient in response to the perception of the laser light by the microphone may be acquired by the microphone, and the voice recognition device may recognize the voice acquired by the microphone. You may use.
- the touch panel and the voice recognition device output response information, which will be described later, in response to an action from the patient.
- the response button 19 is operated by the patient and outputs information according to the operation by the patient.
- the response button 19 receives an operation as to whether the patient perceives the laser light when the laser light is irradiated to the retina 46 (see FIG. 2) of the eye to be examined 44 (see FIG. 2).
- the response button 19 receives an operation by the patient when the patient responds to the perception of the laser light. That is, processing is performed to associate the response information of the response button with the mark projection position information.
- the response button 19 may be pressed by the patient when the patient answers the medical service provider's question.
- the "medical service person” said here refers to the medical technician with the qualification of the visual function training person who performs an eye examination under the instruction
- the response button 19 and the control device 18 are connected in a wireless and / or wired manner, and response information in response to the operation of the response button 19 is transmitted to the control device 18.
- one response button 19 is associated with the control device 18 by a number such as an equipment number. Examples of wireless communication include communication by Wi-Fi (registered trademark) or Bluetooth (registered trademark). Wired communication includes cable communication.
- the control device 18 is connected to the management device 14 in a wirelessly communicable state, and exchanges various information with the management device 14.
- the control device 18 is connected to the light branching unit 20 via the cable 25 and controls the light branching unit 20.
- the control device 18 may be connected to the management device 14 in a wirelessly communicable state.
- the cable 25 includes an optical fiber 30 and a bus line 32.
- the control device 18 supplies laser light to the light branching unit 20 via the optical fiber 30 and controls the light branching unit 20 via the bus line 32.
- the optical system 27 includes a light branching unit 20.
- the light branching unit 20 is connected to the eyewear terminal device 16 via the cables 34 and 36.
- the cable 34 is connected to the right side temple 24R, and the cable 36 is connected to the left side temple 24L.
- the cables 34, 36 both include a bus line 32. Accordingly, the control device 18 exchanges various electrical signals with the eyewear terminal device 16 via the bus line 32.
- the cable 34 includes an optical fiber 38
- the cable 36 includes an optical fiber 40.
- the optical branching unit 20 branches the laser light supplied from the controller 18 through the optical fiber 30 into the optical fiber 38 and / or the optical fiber 40.
- One laser beam obtained by being branched by the light branching unit 20 is supplied to the eyewear terminal device 16 through the optical fiber 38, and the other laser beam obtained by being branched by the light branching unit 20 is a light beam. It is supplied to the eyewear terminal 16 via the fiber 40.
- the optical system 27 includes a reflection mirror 42.
- the reflection mirror 42 is an example of a reflection member according to the technology of the present disclosure.
- the reflection mirror 42 reflects the laser light supplied from the light branching unit 20 via the cables 34 and 36, and guides the laser light to the retina 46 of the eye 44 of the patient's eye 44 as shown in FIG. 2 as an example.
- the eye to be examined 44 is roughly divided into a right eye 44R and a left eye 44L.
- the retina 46 is roughly classified into a retina 46R which is an example of the right retina according to the technology of the present disclosure and a retina 46L which is an example of the left retina according to the technology of the present disclosure.
- the reflection mirror 42 is roughly divided into a reflection mirror 42R for the right eye and a reflection mirror 42L for the left eye.
- the right eye reflection mirror 42R is held by the rim 22 so as to be located in front of the patient's right eye 44R with the eyewear terminal 16 properly attached.
- the left-eye reflection mirror 42L is held by the rim 22 so as to be positioned in front of the left eye 44L of the patient with the eyewear terminal 16 properly attached.
- the right-eye reflection mirror 42R reflects the laser light supplied from the light branching unit 20 through the optical fiber 38, and as shown in FIG. 2 as an example, the laser light is transmitted to the retina 46R of the patient's right eye 44R.
- Lead to The left-eye reflection mirror 42L reflects the laser light supplied from the light branching unit 20 via the optical fiber 40, and guides the laser light to the retina 46L of the patient's left eye 44L, as shown in FIG. 2 as an example.
- the eyewear terminal device 16 includes an in-camera 48R for the right eye and an in-camera 48L for the left eye.
- the right-eye in-camera 48R and the left-eye in-camera 48L capture an object under the control of the control device 18.
- the right-eye in-camera 48R and the left-eye in-camera 48L are attached to the upper edge of the rim 22.
- the right-eye in-camera 48R is provided at a position shifted from the right-eye reflection mirror 42R in the Y direction, and photographs an anterior-eye portion of the right eye 44R as a subject from diagonally above the front region of the right eye 44R.
- the left-eye in-camera 48L is provided at a position shifted from the left-eye reflection mirror 42L in the Y direction, and photographs an anterior-eye portion of the left eye 44L as a subject from diagonally above the front region of the left eye 44L.
- the right-eye in-camera 48R and the left-eye in-camera 48L are examples of an anterior eye camera according to the technology of the present disclosure. Also, although the right-eye in-camera 48R and the left-eye in-camera 48L are illustrated here, the technology of the present disclosure is not limited thereto. For example, instead of the in-camera 48R for the right eye and the in-camera 48L for the left eye, a single camera that captures both an anterior segment of the right eye 44R and an anterior segment of the left eye 44L may be applied. .
- the management device 14 centrally manages the visual field inspection by each of the plurality of wearable terminal devices 12.
- the visual field inspection by the wearable terminal device 12 means, in other words, a visual field inspection using the wearable terminal device 12.
- management of visual field examination for example, management of laser light used for visual field examination and irradiation of laser light to the retina 46 allow the patient to visually perceive the irradiated laser light And management of perceptual information indicating that.
- the control device 18 supplies laser light to the eyewear terminal device 16 via the optical fibers 30, 38, 40 in accordance with the instruction from the management device 14.
- wireless communication is performed between the wearable terminal device 12 and the management device 14
- the technology of the present disclosure is not limited to this.
- wired communication may be performed between the wearable terminal device 12 and the management device 14.
- the server device 15 provides and / or processes information in response to a request from an external device such as the management device 14 and / or the viewer 17, and centrally manages personal information of a plurality of patients.
- the server device 15 is connected to the management device 14 via the cable 23 and exchanges various information with the management device 14.
- An example of the cable 23 is a LAN cable.
- the case where wired communication is performed between the server device 15 and the management device 14 is illustrated, but the technology of the present disclosure is not limited to this, and the server device 15 and management may be performed. Wireless communication may be performed with the device 14.
- the optical system 27 guides laser light to the retina 46R and / or the retina 46L.
- the optical system 27 has a scanner 28 and a reflection mirror 42.
- the scanner 28 scans laser light supplied from the control device 18 via the light branching unit 20.
- the reflection mirror 42 reflects the laser light scanned by the scanner 28 to the retina 46.
- the optical system 27 has a right-eye optical system 27R and a left-eye optical system 27L.
- the light branching unit 20 branches the laser beam supplied from the control device 18 via the optical fiber 30 into the right-eye optical system 27R and the left-eye optical system 27L.
- the right-eye optical system 27R guides the laser light supplied from the light branching unit 20 via the optical fiber 38 to the retina 46R.
- the left-eye optical system 27L guides the laser light supplied from the light branching unit 20 via the optical fiber 40 to the retina 46L.
- the scanner 28 has a right eye scanner 28R and a left eye scanner 28L.
- the right-eye optical system 27R has a right-eye scanner 28R and a right-eye reflection mirror 42R.
- the left-eye optical system 27L includes a left-eye scanner 28L and a left-eye reflection mirror 42L.
- the right-eye scanner 28R has MEMS mirrors 54 and 56 and a right-eye reflection mirror 42R, and scans laser light supplied from the light branching unit 20 via the optical fiber 38.
- the right-eye irradiation unit 52 irradiates the laser light supplied from the light branching unit 20 via the optical fiber 38.
- the MEMS mirror 54 is disposed in the irradiation direction of the laser light by the right-eye irradiation unit 52, and the MEMS mirror 54 reflects the laser light emitted from the right-eye irradiation unit 52, whereby the MEMS mirror 56 is obtained.
- Lead to The MEMS mirror 56 reflects the laser light guided by the MEMS mirror 54 and guides the laser light to the reflection mirror for right eye 42R.
- the MEMS mirror 54 scans laser light in the Y direction
- the MEMS mirror 56 scans laser light in the X direction.
- the MEMS mirrors 54 and 56 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
- the MEMS mirror 54 may be scanned in the X direction, and the MEMS mirror 56 may be scanned in the Y direction.
- the right-eye scanner 28R may be configured as a reflection mirror 42R and a MEMS mirror 56 capable of scanning in the X and Y directions.
- the right-eye reflection mirror 42R reflects the laser beam scanned by the right-eye scanner 28R to the retina 46R.
- the right-eye reflection mirror 42R has a curved surface 42R1.
- the curved surface 42R1 is a concave surface as viewed from the right eye 44R of the patient in a state in which the eyewear terminal device 16 is mounted, and reflects the laser light guided by the MEMS mirror 56. The laser light is guided to the retina 46R of the right eye 44R through the lens 64R under the pupil of the 44R.
- the scanner for the left eye 28 L includes the MEMS mirrors 60 and 62 and the reflection mirror for the left eye 42 L, and scans the laser light supplied from the light branching unit 20 via the optical fiber 40.
- the left-eye irradiation unit 58 irradiates the laser light supplied from the light branching unit 20 via the optical fiber 40.
- the MEMS mirror 60 is disposed in the irradiation direction of the laser light by the irradiation unit 58 for the left eye, and the MEMS mirror 60 reflects the laser light irradiated from the irradiation unit 58 for the left eye, thereby the MEMS mirror 62 Lead to The MEMS mirror 62 reflects the laser light guided by the MEMS mirror 60 and guides the laser light to the left-eye reflection mirror 42L.
- the MEMS mirror 60 scans laser light in the Y direction
- the MEMS mirror 62 scans laser light in the X direction.
- the MEMS mirrors 60 and 62 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
- the MEMS mirror 60 may be scanned in the X direction, and the MEMS mirror 62 may be scanned in the Y direction.
- the left-eye scanner 28L may be configured as a reflection mirror 42L and a MEMS mirror 56 capable of scanning in the X and Y directions.
- MEMS mirrors 54, 56, 60 and 62 are illustrated in the example shown in FIG. 2, the technology of the present disclosure is not limited thereto.
- an electrically reflective surface such as a galvano mirror and / or a polygon mirror, instead of or in combination with at least one of the MEMS mirrors 54, 56, 60, 62 A mirror whose position can be controlled may be used.
- the left-eye reflection mirror 42L reflects the laser beam scanned by the left-eye scanner 28L to the retina 46L.
- the left-eye reflection mirror 42L has a curved surface 42L1.
- the curved surface 42L1 is a concave surface as viewed from the left eye 44L of the patient in a state in which the eyewear terminal device 16 is mounted, and reflects the laser light guided by the MEMS mirror 62 to The laser light is guided to the retina 46L of the left eye 44L through the lens 64L under the pupil of the 46R.
- lens 64 when it is not necessary to distinguish and describe the lenses 64R and 64L, it will be referred to as "lens 64".
- the optical system 27 includes a right-eye slide mechanism 70R, a left-eye slide mechanism 70L, a right-eye drive source 72R, and a left-eye drive source 72L.
- Examples of the right-eye drive source 72R and the left-eye drive source 72L include a stepping motor, a solenoid, and a piezoelectric element.
- the drive source 72R for the right eye and the drive source 72L for the left eye are referred to as "mirror drive source 72" when it is not necessary to distinguish them.
- the right-eye slide mechanism 70R is attached to the rim 22, and holds the right-eye reflection mirror 42R slidably in the left-right direction.
- the right-eye slide mechanism 70R is connected to the right-eye drive source 72R, and slides the right-eye reflection mirror 42R in the left-right direction by receiving the power generated by the right-eye drive source 72R.
- the left-eye slide mechanism 70L is attached to the rim 22, and holds the left-eye reflection mirror 42L slidably in the left-right direction.
- the left-eye slide mechanism 70L is connected to the left-eye drive source 72L, and slides the left-eye reflection mirror 42L in the left-right direction by receiving the power generated by the left-eye drive source 72L.
- an image based on laser light is projected onto the retina 46 of the eye to be examined 44 by the Maxwell vision optical system.
- the “Maxwell vision optical system” mentioned here means that the laser light is converged by the lens 64 under the pupil of the eye to be examined 44 and the laser light converged by the lens 64 is irradiated to the retina 46 of the eye to be examined 44 , Refers to an optical system in which an image based on laser light is projected onto the retina 46 of the eye 44 to be examined.
- the scanner 28 and the mirror drive source 72 are controlled by the control device 18, whereby a Maxwell vision optical system is realized.
- the management device 14 includes a main control unit 80, a wireless communication unit 82, a reception device 84, a touch panel display 86, and an external I / F 88.
- the main control unit 80 includes a CPU 90, a primary storage unit 92, a secondary storage unit 94, a bus line 96, and an I / O 98.
- the CPU 90, the primary storage unit 92, and the secondary storage unit 94 are connected via a bus line 96.
- An I / O 98 is connected to the bus line 96.
- a single CPU is employed as the CPU 90, but a plurality of CPUs may be employed instead of the CPU 90.
- the CPU 90 controls the entire management device 14.
- the primary storage unit 92 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 92 is a RAM.
- the secondary storage unit 94 is a non-volatile memory that stores programs for controlling basic operations of the management apparatus 14 and various parameters. Examples of the secondary storage unit 94 include an HDD, an EEPROM, or a flash memory.
- the wireless communication unit 82 is connected to the I / O 98.
- the CPU 90 outputs an electrical signal to be transmitted to the control device 18 to the wireless communication unit 82.
- the wireless communication unit 82 transmits the electric signal input from the CPU 90 to the control device 18 by radio waves.
- the wireless communication unit 82 also receives a radio wave from the control device 18 and outputs an electrical signal corresponding to the received radio wave to the CPU 90.
- the wireless communication unit 112 is an example of a communication unit according to the technology of the present disclosure. That is, the wireless communication unit 82 is control information for controlling the wearable terminal device 12 to the wearable terminal device 12 and has control information for instructing the eye to be examined of the ophthalmologic examination of the both eyes of the patient. The information is transmitted to the wearable terminal 12.
- the reception device 84 includes a touch panel 84A, a keyboard 84B, and a mouse 84C, and the touch panel 84A, the keyboard 84B, and the mouse 84C are connected to the I / O 98. Therefore, the CPU 90 can grasp various instructions received by each of the touch panel 84A, the keyboard 84B, and the mouse 84C.
- the external I / F 88 is connected to an external device such as the server device 15, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 90.
- the external I / F 88 is connected to the server device 15 via the cable 23.
- the touch panel display 86 includes a display 86A and a touch panel 84A.
- the display 86A is an example of a display unit according to the technology of the present disclosure.
- the display 86A is connected to the I / O 98, and displays various information including an image under the control of the CPU 90.
- the touch panel 84A is a transmissive touch panel and is superimposed on the display 86A.
- the secondary storage unit 94 stores a terminal management program 94A, a display control program 94B, and a communication error handling program 94C.
- the terminal management program 94A, the display control program 94B, and the communication error handling program 94C are referred to as “management apparatus side program” if they need not be distinguished and described.
- the CPU 90 reads the management apparatus side program from the secondary storage unit 94, and develops the read management apparatus side program in the primary storage unit 92. Then, the CPU 90 executes the management apparatus side program expanded in the primary storage unit 92.
- the control device 18 includes a main control unit 110, a wireless communication unit 112, a laser light source 114, and a light source control circuit 116 in addition to the response button 19 described above.
- the main control unit 110 includes a CPU 120, a primary storage unit 122, a secondary storage unit 124, a bus line 126, and an I / O 128.
- the CPU 120, the primary storage unit 122, and the secondary storage unit 124 are connected via a bus line 126.
- the I / O 128 is connected to the bus line 126.
- a single CPU is employed as the CPU 120, but a plurality of CPUs may be employed instead of the CPU 120.
- the CPU 120 controls the entire wearable terminal 12.
- the primary storage unit 122 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 122 is a RAM.
- the secondary storage unit 124 is a non-volatile memory that stores programs for controlling basic operations of the wearable terminal device 12 and various parameters. Examples of the secondary storage unit 124 include an HDD, an EEPROM, or a flash memory.
- the response button 19 is connected to the I / O 128, and when the response button 19 is pressed, a response signal is output from the response button 19 to the CPU 120.
- the wireless communication unit 112 performs wireless communication with the management device 14 so as to cause the management device 14 to manage the visual field inspection by the wearable terminal device 12.
- the wireless communication unit 112 is connected to the I / O 128.
- the CPU 120 outputs the electric signal to be transmitted to the management device 14 to the wireless communication unit 112.
- the wireless communication unit 112 transmits the electric signal input from the CPU 120 to the management device 14 by radio wave. Further, the wireless communication unit 112 receives the radio wave from the management device 14 and outputs an electric signal corresponding to the received radio wave to the CPU 120.
- the laser light source 114 is connected to the light branching unit 20 via the optical fiber 30.
- the laser light source 114 generates laser light, and emits the generated laser light to the light branching unit 20 via the optical fiber 30.
- the laser light source 114 is connected to a light source control circuit 116.
- the light source control circuit 116 is connected to the I / O 128.
- the light source control circuit 116 controls the laser light source 114 by supplying a light source control signal to the laser light source according to the instruction of the CPU 120.
- the laser light source 114 includes an R light source 114A, a G light source 114B, a B light source 114C, and a mirror unit 130.
- the R light source 114A emits R laser light which is R laser light of R (red), G (green), and B (blue).
- the G light source 114B emits G laser light which is laser light of G among R, G, and B.
- the B light source 114C emits B laser light which is B laser light of R, G, and B.
- the laser light source 114 may include an IR light source (not shown).
- IR means an abbreviation of “near-infrared”.
- the IR light source emits near-infrared light that is laser light for imaging by SLO and / or OCT.
- the mirror unit 130 includes a first mirror 130A, a second mirror 130B, and a third mirror 130C.
- the second mirror 130B is a dichroic mirror, transmits the B laser light, and reflects the G laser light.
- the third mirror 130C is a dichroic mirror, transmits R laser light, and reflects G laser light and B laser light.
- the first mirror 130A is disposed in the emission direction of the B laser light by the B light source 114C, and guides the B laser light to the second mirror 130B by reflecting the B laser light emitted from the B light source 114C.
- the second mirror 130B is disposed in the emitting direction of the G laser beam by the G light source 114B and in the traveling direction of the B laser beam reflected by the first mirror 130A.
- the second mirror 130B guides the G laser light to the first mirror 130A by reflecting the G laser light emitted from the G light source 114B, and transmits the B laser light reflected by the first mirror 130A. Then, the B laser light is guided to the first mirror 130A.
- the third mirror 130C is the emission direction of the R laser beam by the R light source 114A, and the traveling direction of the G laser beam reflected by the second mirror 130B, and is the G laser beam transmitted through the second mirror 130B. Are arranged in the direction of travel.
- the third mirror 130C transmits the R laser beam emitted from the R light source 114A.
- the third mirror 130C reflects the G laser light and the B laser light in the same direction as the R laser light to emit the R laser light, the G laser light, and the B laser light to the outside.
- the R laser light, the G laser light, and the B laser light emitted to the outside from the laser light source 114 are simply referred to as “laser light”.
- the bus line 32 is connected to the I / O 128, and the optical branch unit 20 is connected to the bus line 32. Therefore, the light branching unit 20 operates under the control of the CPU 120.
- the light branching unit 20 includes a right-eye shutter 121R, a left-eye shutter 121L, a first slide mechanism 122R, a second slide mechanism 122L, a first shutter drive source 134R, and a second shutter Drive source 134L, a beam splitter 136, and a reflection mirror 138.
- shutter 121R for the right eye and the shutter 121L for the left eye are referred to as “shutter 121” when it is not necessary to distinguish them.
- the beam splitter 136 reflects and transmits the laser light supplied from the laser light source 114 via the optical fiber 130.
- the laser beam for the left eye which is the laser beam reflected by the beam splitter 136, travels toward the entrance of the optical fiber 40 (see FIGS. 1 and 2).
- the reflection mirror 138 reflects the laser light transmitted through the beam splitter 136.
- the right-eye laser light which is the laser light reflected by the reflection mirror 138, travels toward the entrance of the optical fiber 38 (see FIGS. 1 and 2).
- the first slide mechanism 122R slidably holds the right-eye shutter 121R between the first position P1 and the second position P2.
- the first position P1 refers to a position for passing the right-eye laser light to guide it to the entrance of the optical fiber 38
- the second position P2 refers to a position for shielding the right-eye laser light.
- the second slide mechanism 122L slidably holds the left-eye shutter 121L between the third position P3 and the fourth position P4.
- the third position P3 refers to a position for passing the left-eye laser light to guide it to the entrance of the optical fiber 40
- the fourth position P4 refers to a position for shielding the left-eye laser light.
- Examples of the first shutter drive source 134R and the second shutter drive source 134L include a stepping motor, a solenoid, a piezoelectric element, and the like.
- the first shutter drive source 134R and the second shutter drive source 134L are connected to the bus line 32, and the first shutter drive source 134R and the second shutter drive source 134L operate under the control of the CPU 120. .
- the first slide mechanism 122R is connected to the first shutter drive source 134R, and receives power generated by the first shutter drive source 134R to receive the right-eye shutter 121R at the first position P1 and the second position P1. Slide between P2.
- the second slide mechanism 122L is connected to the second shutter drive source 134L, and receives power generated by the second shutter drive source 134L to receive the left-eye shutter 121L at the third position P3 and the fourth position P3. Slide between P4.
- the right-eye shutter 121R is disposed at the first position P1
- the right-eye laser light is supplied to the optical fiber 38
- the left-eye shutter 121L is at the fourth position P4. Because it is disposed, the left-eye laser light is blocked by the left-eye shutter 121L.
- the speaker 140 is connected to the bus line 32 and outputs audio under control of the CPU 120.
- the right eye drive source 72R and the left eye drive source 72L are connected to the bus line 32, and the CPU 120 controls the right eye drive source 72R and the left eye drive source 72L.
- the right-eye in-camera 48R and the left-eye in-camera 48L are connected to the bus line 32, and the CPU 120 exchanges various information with the left-eye in-camera 48L and the right-eye in-camera 48R. Do.
- the right-eye irradiation unit 52, the left-eye irradiation unit 58, and the MEMS mirrors 54, 56, 60, and 62 are connected to the bus line 32, and the CPU 120 controls the right-eye irradiation unit 52 and the left-eye irradiation.
- the unit 58 and the MEMS mirrors 54, 56, 60 and 62 are controlled.
- a mounting detector 139 is connected to the bus line 32.
- the attachment detector 139 is, for example, a pressure sensor.
- the attachment detector 139 is provided in the frame of the eyewear terminal device 16 and detects that the eyewear terminal device 16 is correctly attached.
- the CPU 120 acquires the detection result of the attachment detector 139.
- the frame of the eyewear terminal device 350 refers to, for example, the rim 22 and the temple 24.
- the secondary storage unit 124 stores a terminal-side program 124A.
- the CPU 120 reads the terminal-side program 124A from the secondary storage unit 124, and develops the read-out terminal-side program 124A in the primary storage unit 122. Then, the CPU 120 executes the terminal-side program 124A expanded in the primary storage unit 122.
- the server device 15 includes a main control unit 150, a reception device 154, a touch panel display 156, and an external I / F 158.
- the main control unit 150 includes a CPU 160, a primary storage unit 162, a secondary storage unit 164, a bus line 166, and an I / O 168.
- the CPU 160, the primary storage unit 162, and the secondary storage unit 164 are connected via a bus line 166.
- the I / O 168 is connected to the bus line 166.
- a single CPU is employed as the CPU 160 in the present embodiment, a plurality of CPUs may be employed instead of the CPU 160.
- the CPU 160 controls the entire server device 15.
- the primary storage unit 162 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 162 is a RAM.
- the secondary storage unit 164 is a non-volatile memory that stores programs for controlling basic operations of the server device 164 and various parameters. Examples of the secondary storage unit 164 include an HDD, an EEPROM, or a flash memory.
- the reception device 154 includes a touch panel 154A, a keyboard 154B, and a mouse 154C.
- the touch panel 154A, the keyboard 154B, and the mouse 154C are connected to the I / O 168. Therefore, the CPU 160 can grasp various instructions received by the touch panel 154A, the keyboard 154B, and the mouse 154C.
- the external I / F 158 is connected to an external device such as the management device 14, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 160.
- the external I / F 158 is connected to the external I / F 88 of the management apparatus 14 via the cable 23.
- Touch panel display 156 includes a display 156A and a touch panel 154A.
- the display 86A is connected to the I / O 168, and displays various information including an image under the control of the CPU 160.
- the touch panel 154A is a transmissive touch panel and is superimposed on the display 156A.
- the secondary storage unit 164 stores patient information 164A and a server side program 164B.
- the patient information 164A is information on a patient.
- the patient information 164A includes patient profile information 164A1 (for example, an ID for identifying a patient, a patient's name, a patient's gender, a patient's age, physical information, past medical history, visit status, etc.
- optometry information 164A2 for example, corneal refractive power, corneal wavefront aberration, visual acuity, myopia / hyperopia / astigmatism, visual field, axial length, fundus
- Information about the right eye / left eye of the patient obtained by another optometry device such as a photograph (refractive power measuring instrument, axial length measuring instrument, visual acuity measuring instrument, anterior segment measuring instrument, posterior segment measuring instrument, etc.) And.
- the viewer 17 includes a main control unit 17A, a touch panel / display 17B, a reception device 17D, and an external I / F 17M.
- the main control unit 17A includes a CPU 17H, a primary storage unit 17I, a secondary storage unit 17J, a bus line 17K, and an I / O 17L.
- the CPU 17H, the primary storage unit 17I, and the secondary storage unit 17J are connected via a bus line 17K.
- the I / O 17L is connected to the bus line 17K.
- a single CPU is employed as the CPU 17H in the present embodiment, a plurality of CPUs may be employed instead of the CPU 17H.
- the CPU 17H controls the entire viewer 17.
- the primary storage unit 17I is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 17I is a RAM.
- the secondary storage unit 17J is a non-volatile memory that stores programs for controlling basic operations of the viewer 17, various parameters, and the like. Examples of the secondary storage unit 17J include an HDD, an EEPROM, or a flash memory.
- the secondary storage unit 164 stores a viewer-side program 17J1.
- the reception device 17D includes a touch panel 17E, a keyboard 17F, and a mouse 17G.
- the touch panel 17E, the keyboard 17F, and the mouse 17G are connected to the I / O 17L. Therefore, the CPU 17H can grasp various instructions received by the touch panel 17E, the keyboard 17F, and the mouse 17G.
- the external I / F 17M is connected to an external device such as the management device 14, the server device 15, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 17H.
- the external I / F 17M is connected to the external I / F 88 of the management apparatus 14 and the external I / F 158 of the server apparatus 15 via the cable 23.
- the touch panel display 17B includes a display 17C and a touch panel 17E.
- the display 17C is connected to the I / O 17L, and displays various information including a video under the control of the CPU 17H.
- the touch panel 17E is a transmissive touch panel and is superimposed on the display 17C.
- the CPU 160 reads the server side program 164 B from the secondary storage unit 164, and develops the read server side program 164 B in the primary storage unit 162. Then, the CPU 160 executes the server side program 164 ⁇ / b> B developed in the primary storage unit 162.
- the CPU 120 of the main control unit 110 included in the wearable terminal device 12 operates as the control unit 170 and the processing unit 172 as illustrated in FIG. 14 by executing the terminal-side program 124A.
- the processing unit 172 performs processing necessary for operating the CPU 120 as the control unit 170.
- the control unit 170 controls the optical system 27 so that the visual field examination of the retina 46R and / or the retina 46L is performed by irradiating the retina 46R and / or the retina 46L with the laser light.
- the processing unit 172 is an example of a first processing unit according to the technology of the present disclosure, and performs processing in accordance with the operation of the response button 19.
- the process according to the operation of the response button 19 is, for example, a process of storing mark projection position information to be described later in the primary storage unit 122 and / or outputting of perceptual information according to the response signal input from the response button 19 Point to the process to
- the perceptual information refers to information indicating that the patient visually perceives the laser light.
- the processing unit 172 is an example of a second processing unit according to the technology of the present disclosure, and performs processing of transmitting information related to the progress of the visual field inspection.
- the transmission destination of the information regarding the progress of the visual field inspection is, for example, the management apparatus 14, the technology of the present disclosure is not limited thereto.
- information on the progress of the visual field examination may be transmitted to an external device such as a personal computer and / or a server device other than the management device 14.
- the CPU 90 of the main control unit 80 included in the management device 14 operates as a processing unit 180 and an acquisition unit 182 as shown in FIG. 14 as an example. Further, the CPU 90 operates as the processing unit 180 and the display control unit 184 by executing the display control program 94B, as shown in FIG. 14 as an example.
- the processing unit 180 performs processing necessary to operate the CPU 90 as the acquisition unit 182 and the display control unit 184.
- the acquisition unit 182 acquires examination result information indicating the result of the visual field examination.
- examination result information visual field loss map information described later can be mentioned (see step 258V in FIG. 9B).
- the display control unit 184 generates a progress situation screen 190 (see FIG. 13) which is a screen corresponding to the progress situation of the visual field examination, and outputs an image signal indicating an image including the generated progress situation screen 190.
- the display 86A displays the progress situation screen 190 based on the image signal input from the display control unit 184. That is, the display control unit 184 controls the display 86A to display the progress situation screen 190 on the display 86A.
- the display control unit 184 causes the wearable terminal device 12 and the management device 14 to communicate with each other through the wireless communication units 82 and 112 to acquire progress status information indicating the progress status of the visual field inspection from the wearable terminal device 12.
- the display control unit 184 generates the progress situation screen 190 based on the progress situation information, and controls the display 86A to display the generated progress situation screen 190 on the display 86A.
- the progress situation screen 190 includes a first progress situation screen 190A, a second progress situation screen 190B, a third progress situation screen 190C, a fourth progress situation screen 190D,
- the fifth progress situation screen 190E and the sixth progress situation screen 190F are roughly classified. That is, the display 86A has a first progress screen 190A, a second progress screen 190B, a third progress screen 190C, a fourth progress screen 190D, a fifth progress screen 190E, and a sixth progress screen 190F. Is displayed.
- fixation target is presented in a visible state to the patient.
- the processing unit 180 determines whether or not all the necessary information has been received by the reception device 84 and / or the server device 15.
- "Required information” as used herein refers to information required for an ophthalmologic examination such as examination target eye indication information, a patient ID, and an eyewear ID.
- the examination target eye indication information is information indicating the examination target eye 44 of the right eye 44R and the left eye 44L (that is, which one of the right eye 44R, the left eye 44L, and both eyes is the examination target) Information).
- Patient ID refers to information that can uniquely identify a patient.
- the eyewear ID refers to information that can uniquely identify the wearable terminal 12 attached to the patient.
- step 200 If it is determined in step 200 that all the necessary information has not been received by the receiving device 84, the determination is negative and the process proceeds to step 202. In step 200, if all the necessary information is accepted by the accepting device 84, the determination is affirmative and the process moves to step 206.
- step 202 the processing unit 180 causes the display 86A to display the lack information, and then proceeds to step 204.
- the lack information indicates, for example, a message indicating what information is lacking as the information required for the ophthalmologic examination.
- the processing unit 180 determines whether the end condition related to the terminal management process is satisfied.
- the termination condition related to the terminal management process indicates a condition for terminating the terminal management process.
- the termination condition concerning the terminal management processing the condition that the predetermined time has elapsed, the condition that the reception device 84 has accepted the termination instruction, and / or the problem that the terminal management processing can not but be forced to be terminated Are detected by the CPU 90, and the like.
- step 204 If it is determined in step 204 that the terminal management process termination condition is not satisfied, the determination is negative and the process proceeds to step 200. If it is determined in step 204 that the terminal management process termination condition is satisfied, the determination is affirmative and the terminal management process is terminated.
- step 206 the processing unit 180 transmits transmission request information for requesting transmission of the patient information 164A to the server device 15, and then proceeds to step 208.
- patient information and the like are transmitted from the server device 15 by the process of step 256 included in the server-side process described later.
- patient information and the like refer to information including at least patient information 164A.
- the processing unit 180 determines whether or not patient information and the like have been received by the wireless communication unit 82. If it is determined in step 208 that patient information and the like have not been received, the determination is negative and the process moves to step 210. If it is determined in step 206 that patient information and the like have been received, the determination is affirmative and the process moves to step 212.
- step 210 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 210 that the termination condition related to the terminal management process is not satisfied, the determination is negative and the process proceeds to step 208. If it is determined in step 210 that the termination condition relating to the terminal management process is satisfied, the determination is affirmative and the terminal management process is terminated.
- step 212 the processing unit 180 communicates with the control device 18 via the wireless communication units 82 and 112 to determine whether the eyewear terminal device 16 is properly attached to the patient. If it is determined in step 212 that the eyewear terminal 16 is not properly attached to the patient, the determination is negative and the process proceeds to step 214. If it is determined in step 212 that the eyewear terminal 16 is properly attached to the patient, the determination is affirmative, and the process proceeds to step 216. Whether or not the eyewear terminal device 16 is properly attached to the patient is determined based on the detection result of the attachment detector 139.
- step 214 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 214 that the terminal management process termination condition is not satisfied, the determination is negative and the process proceeds to step 212. If the end condition relating to the terminal management process is satisfied in step 214, the determination is affirmative and the terminal management process is ended.
- step 216 the processing unit 180 wirelessly communicates with the control device 18 to cause the in-camera 48R for the right eye and the in-camera 48L for the left eye to start imaging of the anterior eye portion of the eye 44 to be examined. Thereafter, the process proceeds to step 217.
- an image obtained by capturing the anterior segment of the right eye 44R by the right-eye in-camera 48R is referred to as a right-eye anterior segment image, and in front of the left-eye 44L by the left-eye in-camera 48L.
- An image obtained by photographing the eye is referred to as a left eye anterior eye image.
- an anterior-eye image when it is not necessary to distinguish and describe the right-eye anterior-eye image and the left-eye anterior-eye image, they are simply referred to as “an anterior-eye image”.
- the imaging of the anterior segment of the left eye 44L by the in-camera 48L for the left eye and the imaging of the anterior segment of the right eye 44R by the in-camera 48R for the right eye are 60 fps (frames / second). It takes place at the frame rate. That is, by operating the in-camera 48L for the left eye and the in-camera 48R for the right eye, a moving image in which the anterior eye part of the eye to be examined 44 is a subject is acquired by the processing unit 180.
- step 217 the processing unit 217 transmits adjustment instruction information to the wearable terminal apparatus 12, and then the process proceeds to step 218.
- the adjustment instruction information indicates information for instructing the wearable terminal 12 to adjust the position of the reflection mirror 42, correct the optical axis of the laser light, and find the origin.
- step 218 the processing unit 180 performs wireless communication with the control device 18 to cause the speaker 140 to output a test sound, and determines whether the sound of the speaker 140 is good or not.
- the test sound refers to, for example, a sound such as "Please press the response button when sound is heard". Therefore, for example, whether the sound of the speaker 140 is good or not is determined by whether the patient presses the response button 19 while the test sound is output from the speaker 140.
- step 218 If the sound of the speaker 140 is not good at step 218, the determination is negative and the process proceeds to step 220. In step 218, if the sound of the speaker 140 is good, the determination is affirmed and the process moves to step 222.
- step 220 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 220 that the terminal management process termination condition is not satisfied, the determination is negative and the process moves to step 218. If it is determined in step 220 that the termination condition related to the terminal management process is satisfied, the determination is affirmative and the terminal management process is terminated.
- step 222 the processing unit 180 determines whether or not the visual field inspection instruction has been accepted by the acceptance device 84.
- the visual field inspection instruction indicates an instruction to cause the wearable terminal device 12 to execute the visual field inspection process described later.
- step 222 If it is determined in step 222 that the visual field inspection instruction has not been received by the receiving device 84, the determination is negative and the process proceeds to step 224. If it is determined in step 222 that the viewing device inspection instruction has been accepted by the acceptance device 84, the determination is affirmative and the process proceeds to step 226.
- step 224 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If the terminal management process termination condition is not satisfied in step 224, the determination is negative and the process proceeds to step 222. If it is determined in step 224 that the termination condition relating to the terminal management process is satisfied, the determination is affirmative and the terminal management process is terminated.
- step 226 the processing unit 180 transmits, to the wearable terminal apparatus 12, the visual field examination instruction information which is an example of the technology of the present disclosure, and then proceeds to step 228.
- the visual field inspection instruction information indicates information instructing the wearable terminal device 12 to execute the visual field inspection processing (FIGS. 9A and 9B) described later.
- the visual field examination instruction information includes necessary information accepted in step 200, patient information received by the wireless communication unit 82 in step 208, and the like.
- the terminal side program 124A incorporates a plurality of mark projected position information for visual field inspection.
- the mark projection position information indicates information indicating a position at which the mark is projected on the retina 46 (hereinafter, also referred to as “mark projection position” or “projection position”).
- the term "mark” as used herein refers to, for example, a mark perceived as a white point in the case of a normal retina 46.
- the projection of the mark onto the retina 46 is realized by the irradiation of a laser beam.
- the mark projection information may be held for visual field inspection by combining information indicating the brightness (intensity) of the laser light with the projection position information of the mark.
- the combination of the projection position and the brightness information makes it possible to obtain information on the sensitivity of the retina by visual field examination.
- the plurality of mark projection position information in the terminal-side program 124A is used by the control unit 170 of the control device 18 to control the scanner 28. That is, as the scanner 28 is controlled by the control unit 170 according to the plurality of mark projection position information, the laser beam is irradiated to the position (the projection position according to the mark projection position information) indicated by each of the plurality of mark projection position information Be done.
- the visual field defect map information is transmitted from the wearable terminal device 12 by the processing unit 172 executing the processing of step 260 included in the terminal-side processing described later.
- step 2208 If the visual field loss map information transmitted from the wearable terminal 12 is not received by the wireless communication unit 82 in step 228, the determination is negative and the process proceeds to step 230.
- the determination is affirmed and the process moves to step 232.
- step 230 the processing unit 180 determines whether or not the end condition relating to the terminal management process is satisfied. If it is determined in step 230 that the terminal management process termination condition is not satisfied, the determination is negative and the process moves to step 228. If it is determined in step 230 that the end condition relating to the terminal management process is satisfied, the determination is affirmative and the terminal management process is ended.
- step 232 the acquisition unit 182 acquires the visual field defect map information received by the wireless communication unit 82 in step 228, and then proceeds to step 234.
- step 234 the processing unit 180 performs wireless communication with the control device 18 to cause the right-eye in-camera 48R and the left-eye in-camera 48L to end photographing of the anterior eye portion of the eye to be examined 44, Thereafter, the process proceeds to step 236.
- step 236 the processing unit 180 transmits the visual field loss map information acquired by the acquisition unit 182 in step 232 to the server device 15, and thereafter ends the terminal management process.
- the display content of the progress situation screen 190 shown in FIG. 13 is appropriately updated based on the information transmitted from the wearable terminal device 12 by the processing unit 180 of the management device 14 and the display control unit 184, and the display content is The updated progress screen 190 is displayed on the display 86A.
- terminal-side processing that is realized by the CPU 120 executing the terminal-side program 124A when the main power (not shown) of the wearable terminal 12 is turned on will be described with reference to FIG.
- step 250 the processing unit 172 determines whether or not the visual field examination instruction information from the management device 14 has been received by the wireless communication unit 112. In the case where the visual field examination instruction information from the management device 14 is not received by the wireless communication unit 112 in step 250, the determination is negative and the process proceeds to step 252. In the case where the visual field examination instruction information from the management device 14 is received by the wireless communication unit 112 in step 250, the determination is affirmative and the process moves to step 258.
- step 252 the processing unit 172 determines whether the wireless communication unit 112 has received the adjustment instruction information transmitted from the management apparatus 14 by executing the process of step 217 included in the terminal management process. If it is determined in step 252 that the adjustment instruction information is not received by the wireless communication unit 112, the determination is negative and the process moves to step 256. If the adjustment instruction information is received by the wireless communication unit 112 in step 252, the determination is affirmative and the process proceeds to step 254.
- step 254 the controller 170 adjusts the position of the reflection mirror 42, corrects the optical axis of the laser light, and performs origin determination, and then proceeds to step 256.
- step 254 in order to adjust the position of the reflecting mirror 42, correct the optical axis of the laser light, and perform the origin setting, first, based on the latest right eye anterior eye image and the latest left eye anterior eye image The distance between the two is detected by the control unit 170. Then, based on the eyewear ID of the wearable terminal 12, the detected inter-pupil distance, and the like, the control unit 170 performs adjustment of the position of the reflection mirror 42, correction of the optical axis of the laser light, and origination.
- the inter-pupil distance refers to the pupil in the anterior segment of the right eye 44R indicated by the right-eye anterior segment image and the pupil in the anterior segment of the left eye 44L indicated by the left-eye anterior segment image. Point to the distance between.
- the position of the reflection mirror 42 is adjusted by the control unit 170 controlling the mirror drive source 72. Further, the correction of the optical axis of the laser beam and the origination are realized by the scanner 28 being controlled by the control unit 170.
- the processing unit 171 determines whether or not the end condition relating to the terminal-side process is satisfied.
- the termination condition according to the terminal-side process indicates a condition under which the terminal-side process is terminated.
- the termination condition related to the terminal side processing the condition that the predetermined time has elapsed, the condition that the information indicating the termination instruction has been received from the management device 14, and / or the terminal side processing is forcibly terminated.
- the condition that the failure which can not be detected is detected by the CPU 120 can be mentioned.
- step 256 If it is determined in step 256 that the termination condition related to the terminal-side process is not satisfied, the determination is negative and the process moves to step 250. If it is determined in step 256 that the termination condition related to the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
- step 258 the control unit 170 executes the visual field inspection process shown in FIGS. 9A and 9B as an example, and then proceeds to step 260.
- step 258A the control unit 170 moves the shutter 121 based on the examination target eye indication information in the necessary information included in the visual field examination indication information. Determine if it is necessary to
- step 258A If it is determined in step 258A that the shutter 121 does not need to be moved, the determination is negative and the process moves to step 258C. If it is determined in step 258A that the shutter 121 needs to be moved, the determination is affirmative and the process moves to step 258B.
- control unit 170 moves the shutter 121 based on the examination target eye indication information in the necessary information included in the visual field examination indication information, and then proceeds to step 258C.
- step 258C the control unit 170 causes the light management unit 114 and the optical system 27 to start scanning the retina 46 of the eye to be examined with laser light, and then proceeds to step 258D.
- the control unit 170 determines whether the laser light has reached the position indicated by one of the plurality of mark projection position information in the terminal side program 124A. In the present step 258D, if the determination is affirmative in step 258M, the same mark projection position information is used as “one mark projection position information”. Further, in the present step 258D, when the determination in the step 258N is negative, “unused mark projection position information among the plurality of mark projection position information is used as“ one mark projection position information ”.
- the order in which the plurality of mark projection position information are used in the present step 258D is predetermined, but the technology of the present disclosure is not limited to this.
- mark projection position information instructed by a medical service person via the management apparatus 14 may be used in this step 258D.
- the order of the mark projection position information used in the present step 258D may be changed by the medical service person through the management device 14.
- step 258D If the laser light has not reached the position indicated by one of the plurality of mark projection position information in the terminal-side program 124A in step 258D, the determination is negative and the process proceeds to step 258E. Do. If the laser light has reached the position indicated by one of the plurality of mark projection position information in step 258D, the determination is affirmative and the process moves to step 258F.
- step 258E the control unit 170 determines whether the termination condition related to the terminal-side process is satisfied. If it is determined in step 258E that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process moves to step 258D. If the end condition relating to the terminal-side process is satisfied in step 258E, the determination is affirmative and the terminal-side process is ended.
- step 258F the control unit 170 controls the laser light source unit 113 via the light source control circuit 115 to project a mark on the retina 46, and then proceeds to step 258G.
- the position where the mark is projected is the position indicated by the latest mark projection position information used in step 258D.
- the controller 170 determines whether the response button 19 has been pressed. Whether or not the response button 19 is pressed is determined depending on whether or not a response signal is input from the response button 19.
- step 258G If the response button 19 has not been pressed in step 258G, the determination is negative and the routine proceeds to step 258H. If the response button 19 is pressed in step 258G, the determination is affirmative and the process moves to step 258J.
- the control unit 170 stores the latest mark projection position information in the primary storage unit 122, and then proceeds to step 258K.
- the latest mark projection position information refers to the latest mark projection position information used in step 258D, in other words, the mark projection of the mark projected on the retina 46 at the timing when the response button 19 is pressed. Point to location information.
- step 258H the control unit 170 determines whether or not a predetermined time (for example, 2 seconds) has elapsed since the process of step 258F is performed. If it is determined in step 258H that the predetermined time has not elapsed since the process of step 258F was performed, the determination is negative and the routine proceeds to step 258G. If it is determined in step 258H that the predetermined time has elapsed since the process of step 258F was performed, the determination is affirmative and the routine proceeds to step 258I.
- a predetermined time for example, 2 seconds
- the control unit 170 determines whether the termination condition relating to the terminal-side process is satisfied. If it is determined in step 258I that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process moves to step 258K. If it is determined in step 258I that the termination condition of the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
- control unit 170 determines whether the patient's line of sight deviates from the fixation target. Whether or not the patient's line of sight deviates from the fixation target is determined based on the latest anterior segment image.
- step 258K If the line of sight of the patient deviates from the fixation target in step 258K, the determination is affirmed and the process moves to step 258L. If it is determined in step 258K that the patient's line of sight has not deviated from the fixation target, the determination is negative and the process moves to step 258N.
- control unit 170 causes the speaker 140 to output the line-of-sight guidance sound, and then proceeds to step 258M.
- the gaze guidance voice refers to a voice that guides the gaze in the direction of the fixation target.
- the gaze guidance voice is generated according to the positional relationship between the gaze and the fixation target.
- the position of the line of sight is identified based on the latest anterior segment image.
- control unit 170 determines whether or not the difference between the patient's line of sight and the fixation target has been eliminated. Whether or not the difference between the patient's line of sight and the fixation target has been eliminated is determined based on the latest anterior segment image.
- step 258M If the difference between the patient's line of sight and the fixation target has not been resolved in step 258M, the determination is negative and the process moves to step 258L. If the difference between the patient's line of sight and the fixation target is resolved in step 258M, the determination is affirmative and the process moves to step 258D.
- control unit 170 determines whether the marks have been projected to all the mark projection positions. If the marks have not been projected at all the mark projection positions in step 258N, the determination is negative and the process moves to step 258D. If the marks have been projected to all the mark projection positions in step 258N, the determination is affirmative and the process moves to step 258R shown in FIG. 9B.
- the control unit 170 determines whether there is an eye to be examined for which a visual field examination has not been performed. Whether or not there is an examination target eye for which a visual field examination has not been performed is determined based on examination subject eye indication information in the necessary information included in the visual field examination instruction information.
- step 258R If it is determined in step 258R that there is an eye to be examined that has not been subjected to a visual field inspection, the determination is affirmative and the process moves to step 258S. If it is determined in step 258R that there is no eye to be examined that has not been subjected to the visual field inspection, the determination is negative and the process moves to step 258U.
- step 258S the control unit 170 causes the speaker 140 to output a change notification sound, and then proceeds to step 258T.
- the change notification sound refers to a sound notifying the patient that the eye to be examined is changed.
- a voice with a content of “The field test of the right eye is finished, and then the field test of the left eye is performed next” can be mentioned.
- control unit 170 controls the light management unit 114 and the optical system 27 to cause the light management unit 114 and the optical system 27 to end the scanning of the retina 46 of the eye to be examined with the laser light. , And then move on to step 258B.
- step 258U the control unit 170 controls the light management unit 114 and the optical system 27 to cause the light management unit 114 and the optical system 27 to end the scanning of the eye 46 of the eye to be examined with the laser light. , And then move on to step 258V.
- step 258V the control unit 170 executes the process of step 258J to create visual field defect map information based on the mark projection position information stored in the primary storage unit 122, and thereafter ends the visual field inspection process. .
- the visual field defect map information indicates information including a patient ID, information for drawing the visual field defect map, an image of the visual field defect map, and the like.
- the visual field defect map refers to a map that can identify a defect in a patient's visual field.
- a visual field defect map 240 is displayed in the image display area 190B3 of the second progress situation screen 190B shown in FIG. In the visual field defect map 240, the defect part and the normal part are expressed in achromatic shades, and the main defect part is displayed in black.
- step 260 shown in FIG. 8 the processing unit 172 performs, via the wireless communication unit 112, the visual field defect map information created by execution of the processing of step 258V (see FIG. 9B) included in the visual field inspection processing. It transmits to the management apparatus 14, and then ends the terminal-side processing.
- server-side processing that is realized by the CPU 160 executing the server-side program 164B when the main power supply (not shown) of the server device 15 is turned on will be described with reference to FIG.
- step 250A the CPU 160 determines whether or not the management device information has been received.
- the management device information indicates information transmitted to the server device 15 as the terminal management process is executed by the CPU 90 of the management device 14.
- step 250A If it is determined in step 250A that the management apparatus information has not been received, the determination is negative and the process moves to step 258A. If the management apparatus information is received in step 250A, the determination is affirmative and the process moves to step 252A.
- the CPU 160 determines whether the management device information received at step 250A is transmission request information. In step 252A, if the management device information received in step 250A is not transmission request information, that is, if the management device information received in step 250A is visual field defect map information, the determination is negative and the process proceeds to step 254A. In step 252A, if the management device information received in step 250A is the transmission request information, the determination is affirmative and the process moves to step 256A.
- the CPU 160A creates a visual field inspection result report that is a report indicating the result of visual field inspection based on visual field defect map information, stores the generated visual field inspection result report in the secondary storage unit 164, and then Transfer to step 258A.
- the created visual field inspection result report is transmitted to the viewer 17 when requested by an external device such as the viewer 17, for example.
- the CPU 160 transmits the patient information and the like described above to the management apparatus 14, and then proceeds to step 258A.
- the patient information 164A included in the patient information and the like is acquired from the secondary storage unit 164.
- the CPU 160 determines whether or not the end condition relating to the server-side process is satisfied.
- the termination condition according to the server-side process indicates a condition under which the server-side process is terminated.
- the termination condition concerning the server side processing the condition that the predetermined time has elapsed, the condition that the reception device 154 receives the termination instruction, and / or the problem that the server side processing can not but be forced to be terminated forcibly Are detected by the CPU 160, and the like.
- step 258A If it is determined in step 258A that the termination condition of the server-side process is not satisfied, the determination is negative and the process moves to step 250A. If it is determined in step 258A that the termination condition relating to the server-side process is satisfied, the determination is affirmative and the server-side process is terminated.
- the management device 14 can manage at most six wearable terminal devices 12.
- the six units are merely examples of the number, and various maximum management numbers can be taken.
- the communication between the management device 14 and the five wearable terminal devices 12 is established, and the display control process of the five wearable terminal devices 12 is described.
- One of the wearable terminal devices 12 will be described as an example.
- step 400 the display control unit 184 causes the display 86A to start displaying the progress situation screen 190 as shown in FIG. 13 as an example, and then proceeds to step 402. .
- the display control unit 184 determines whether device information has been received.
- the “device information” mentioned here communicates with the server device 15 with the terminal information transmitted from the processing unit 171 of the wearable terminal device 12 through the wireless communication unit 112 by communicating with the wearable terminal device 12. And refer to patient information and the like transmitted from the server device 15.
- the terminal information is information on the wearable terminal device 12.
- the information on the wearable terminal device 12 refers to, for example, information on the progress of the ophthalmologic examination.
- the information on the progress of the ophthalmologic examination includes the latest anterior segment image, the degree of progress information indicating the degree of the progress of the visual field examination, and the eyewear indicating whether the eyewear terminal device 16 is properly attached to the patient Attachment / detachment information is included.
- step 402 If it is determined in step 402 that the device information has not been received, the determination is negative and the process proceeds to step 416. If it is determined in step 402 that the device information is received, the determination is affirmative and the process proceeds to step 404.
- step 404 the display control unit 184 determines whether the received device information is terminal information. If it is determined in step 404 that the received device information is not terminal information, that is, if the received device information is patient information 164A, the determination is negative and the process proceeds to step 412. If it is determined in step 404 that the received device information is terminal information, the determination is affirmative and the process moves to step 406.
- the display control unit 184 determines whether or not the information related to the received terminal information is displayed on the progress situation screen 190. If the information related to the received terminal information is not displayed on the progress situation screen 190 in step 406, the determination is negative and the process moves to step 408. If the information related to the received terminal information is displayed on the progress situation screen 190 in step 406, the determination is affirmative and the process moves to step 410.
- step 408 the display control unit 184 causes the display 86A to start displaying information related to the terminal information, and then proceeds to step 416. Thereby, on the progress situation screen 190, information related to the terminal information is displayed.
- the first progress screen 190A includes a terminal ID display area 190A1, a progress display area 190A2, an anterior eye image display area 190A3, an eyewear wear state display area 190A4, and a patient information display area. It has 190A5. Information related to the terminal information is displayed in the terminal ID display area 190A1, the progress display area 190A2, the anterior eye image display area 190A3, and the eyewear wearing state display area 190A4, and the patient information display area 190A5 displays the patient Information 164A is displayed.
- the terminal ID display area 190A1 a terminal ID that can uniquely identify the first wearable terminal device 12 among the five wearable terminal devices 12 in which communication with the management device 14 has been established is displayed.
- the eyewear ID of the eyewear terminal device 16 corresponding to the received terminal information is adopted as the terminal ID.
- the progress of the visual field examination is mainly displayed.
- the right eye information can be identified as the information capable of identifying the visual field examination target eye, and the information capable of identifying the examination target eye during the visual field examination.
- the information of "Inspection” and the indicator showing the degree of progress are displayed.
- the indicator points to the position under examination.
- the latest anterior segment image of the patient specified by the patient information 164 displayed in the patient information display area 190A5 is displayed.
- the patient specified by the patient information 164A displayed in the patient information display area 190A5 is currently using the wearable terminal device 12 specified by the terminal ID displayed in the terminal ID display area 190A1.
- the right-eye anterior-eye image and the left-eye anterior-eye image are displayed, and the left-eye anterior-eye image not to be examined is grayed out.
- the eyewear wearing condition display area 190A4 information indicating whether or not the eyewear terminal device 16 is worn on the patient is displayed. In the example illustrated in FIG. 13, information of “wearing” indicating that the eyewear terminal device 16 is attached to the patient is displayed.
- the background color of the eyewear wearing condition display area 190A4 changes in accordance with the progress. For example, the background color is any of white, yellow, pink and gray. White indicates before visual field examination, yellow indicates that visual field examination is in progress, pink indicates that visual field examination is completed, gray indicates that the eye to be examined in visual field examination is not indicated Represents that.
- the first progress situation screen 190A is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "EA”.
- the second progress situation screen 190B is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "EC”.
- the third progress situation screen 190C is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "YV”.
- the fourth progress situation screen 190D is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "MI”.
- the fifth progress situation screen 190E is a screen corresponding to the wearable terminal device 12 including the eyewear terminal device 16 whose terminal ID is "GZ”.
- the second progress status screen 190B has a terminal ID display area 190B1, a progress status display area 190B2, an anterior eye image display area 190B3, an eyewear wear status display area 190B4, and a patient information display area 190B5.
- the second wearable terminal device 12 of the five wearable terminal devices 12 in which communication with the management device 14 is established can be uniquely identified.
- the terminal ID is displayed.
- the progress status display area 190B2 displays information of “inspection completed”. Further, in the progress status display area 190B2, the indicator points to the position of the inspection completion.
- the visual field defect map 240 is displayed in the anterior eye image display area 190B3.
- Information of “non-wear” is displayed in the eyewear wearing condition display area 190 B 4 as information indicating that the eyewear terminal device 16 is not worn by the patient.
- the third progress situation screen 190C has a terminal ID display area 190C1, a progress situation display area 190C2, an anterior eye image display area 190C3, an eyewear wearing situation display area 190C4, and a patient information display area 190C5.
- the third wearable terminal 12 of the five wearable terminals 12 in communication with the management apparatus 14 can be uniquely identified.
- the terminal ID is displayed.
- the progress status display area 190C2 information of “right eye: under examination” is displayed.
- the indicator points to the position under inspection.
- the anterior segment image display area 190C3 an anterior segment image of the patient specified by the patient information 164A displayed in the patient information display area 190C5 is displayed.
- the eyewear wearing condition display area 190C4 as the information indicating that the eyewear terminal device 16 is attached to the patient, information of the content of "not worn” and information of the content of "Error” are displayed It is done. Note that the display of the information of the content of “Error” is realized by executing an error process of step 452 described later.
- the fourth progress situation screen 190D has a terminal ID display area 190D1, a progress situation display area 190D2, an anterior eye image display area 190D3, an eyewear wearing situation display area 190D4, and a patient information display area 190D5.
- the fourth wearable terminal 12 of the five wearable terminals 12 in communication with the management apparatus 14 can be uniquely identified.
- the terminal ID is displayed.
- the progress status display area 190D2 displays information of "voice guidance".
- the "voice guidance” indicates, for example, a state in which the patient is guided by the voice output from the speaker 140 by executing the processing of step 258L shown in FIG. 9A or step 258S shown in FIG. 9B.
- the anterior eye image display area 190D3 the latest anterior eye image of the patient specified by the patient information 164A displayed in the patient information display area 190D5 is displayed.
- information indicating "being worn” is displayed as information indicating that the eyewear terminal device 16 is worn on the patient.
- the wearable terminal 12 including the eyewear terminal 16 having the terminal ID “GZ” is being charged, so that the fifth progress situation screen 190 E is visually indicated that charging is in progress.
- Information that is "charging” is displayed as recognizable information.
- information indicating “battery 88%” and an indicator indicating the capacity of the battery are displayed as the information indicating the capacity of the battery.
- the sixth progress situation screen 190F is in the non-display state because only five wearable terminal devices 12 are connected to the management device 14 so as to be able to communicate at this time. .
- step 410 shown in FIG. 11 the display control unit 184 causes the display 86A to update the display content of the information related to the terminal information, and then proceeds to step 416.
- the display contents of the terminal ID display area 190A1, the progress display area 190A2, the anterior eye image display area 190A3, and the eyewear wearing state display area 190A4 are updated.
- the eyewear terminal device 16 when the eyewear terminal device 16 is removed from the patient, as shown in the eyewear wearing condition display area 190B4 of the second progress situation screen 190B in the eyewear wearing condition display area 190A4, the contents of "not wear” Information is displayed. Further, when an error process in step 452 described later is executed, information of “Error” is displayed as shown in the eyewear wearing condition display area 190C4 of the third progress situation screen 190C. Further, when the visual field inspection is completed, as shown in the progress status display area 190B2 of the second progress status screen 190B, the information of the content of “test completed” is displayed, and the indicator points to the position of the test completed. . Furthermore, when guidance by voice from the speaker 140 is in progress, as shown in the progress status display area 190D2 of the fourth progress status screen 190D, information of content “in voice guidance” is displayed.
- the display control unit 184 determines whether the patient information 64A is in the non-display state. For example, the display control unit 184 may display in the patient information display area 190A5 whether patient information 64A related to a patient who is using the wearable terminal device 12 specified by the terminal ID displayed in the terminal ID display area 190A1. It is determined whether or not.
- step 412 If it is determined in step 412 that the patient information 64A is in the non-display state, the determination is affirmative and the process moves to step 414. If it is determined in step 412 that the patient information 64A is not in the non-displayed state, that is, if the patient information 64A is displayed, the determination is negative and the process moves to step 416.
- step 414 the display control unit 184 causes the display 86A to start displaying the patient information 64A, and then proceeds to step 416.
- the display control unit 184 causes the display 86A to start displaying the patient information 64A, and then proceeds to step 416.
- the patient information 64A related to the patient using the wearable terminal device 12 specified by the terminal ID displayed in the terminal ID display area 190A1 the patient information 64A is displayed in the patient information display area 190A5 Be done.
- step S416 the display control unit 184 determines whether the end condition related to the display control process is satisfied.
- the end condition related to the display control process refers to the condition for ending the display control process.
- the termination condition concerning display control processing the condition that predetermined time has elapsed, the condition that reception device 84 accepted the termination indication, and / or the problem that the display control processing has to be terminated forcibly Are detected by the CPU 90, and the like.
- step 416 If the end condition relating to the display control process is not satisfied in step 416, the determination is negative and the process moves to step 402. If it is determined in step 416 that the end condition relating to the display control process is satisfied, the determination is affirmative and the process moves to step 418.
- step 418 the display control unit 184 causes the display 86A to end the display of the progress situation screen 190, and thereafter ends the display control process.
- step 450 the display control unit 184 determines whether a communication error has occurred.
- the “communication error” mentioned here indicates, for example, an error in communication between the wearable terminal 12 and the management device 14 or an error in communication between the management device 14 and the server device 15. .
- the communication error refers to, for example, a phenomenon in which communication is disconnected at unintended timing.
- step 450 If it is determined in step 450 that a communication error has not occurred, the determination is negative and the process moves to step 454. If a communication error has occurred in step 450, the determination is affirmed and the process moves to step 452.
- step 452 the display control unit 184 executes error processing, and then proceeds to step 454.
- the error process indicates, for example, a process of controlling the display 86A such that the information of “Error” is displayed in the eyewear wearing condition display area 190C4. Further, as another example of the error processing, there is a process of outputting a voice such as "communication error has occurred" to a speaker (not shown).
- the display control unit 184 determines whether the end condition related to the communication error handling process is satisfied.
- the termination condition related to the communication error handling process indicates the condition for terminating the communication error handling process.
- the termination condition related to the communication error handling process the condition that the predetermined time has elapsed, the condition that the receiving device 84 has accepted the termination instruction, and / or the communication error handling process must be forcibly terminated. There is a condition that the CPU 90 detects that there is no failure.
- step 454 If it is determined in step 454 that the termination condition relating to the communication error handling process is not satisfied, the determination is negative and the process moves to step 450. If it is determined in step 454 that the termination condition relating to the communication error processing is satisfied, the determination is affirmative and the communication error handling processing is ended.
- the management device 14 requests the server device 15 to transmit patient information and the like (S1).
- the server device 15 transmits patient information and the like to the management device 14 in response to a request from the management device 14 (S2).
- the management device 14 executes preparation processing (S3).
- the preparation process refers to, for example, the processes of steps 212 to 220 shown in FIGS. 7A and 7B.
- the management device 14 requests the wearable terminal device 12 to transmit various information (S4).
- the various information indicates, for example, information indicating the operation status of the wearable terminal device 12 or the like.
- the wearable terminal device 12 transmits various information to the management device 14 in response to a request from the management device 14 (S5). After completing the preparation process, the management device 14 requests the wearable terminal device 12 to execute the visual field examination (S6).
- the wearable terminal device 12 executes the visual field inspection process on the eye to be inspected according to the request from the management device 14 by executing the visual field inspection process as shown in FIGS. 9A and 9B as an example (S7).
- the wearable terminal device 12 provides the result of the visual field examination to the management device 14 (S8).
- the result of the visual field inspection indicates, for example, mark projection position information and perceptual information.
- the “field inspection result” may be only mark projection position information related to the position of the mark projected at the timing when the response button 19 is pressed.
- the wearable terminal device 12 creates the visual field defect map information (see step 258 V in FIG. 9B), but the technology of the present disclosure is limited thereto. It is not a thing.
- the management device 14 may create the visual field defect map information.
- the management device 14 creates the visual field defect map 240 (see FIG. 13) based on the result of the visual field examination (S9).
- the management device 14 transmits visual field defect map information, which is information including the created visual field defect map 240, to the server device 15 (S10).
- the server device 15 receives the visual field defect map information transmitted from the management device 14, and creates a visual field test result report indicating the result of the visual field test based on the received visual field defect map information (S11). Further, the server device 15 stores the created visual field inspection result report in the secondary storage unit 94 (S12). Then, the server device 15 transmits the created visual field inspection result report to the viewer 17 (S13).
- the visual field loss map 240 is created by the wearable terminal device 12 or the management device 14, but also the visual field loss map may be drawn again by the server device 15 to create a visual field inspection result report.
- the visual field defect map is not created only with the visual field defect map information of the same patient (patient with the same patient ID), but the visual field defect area is superimposed and displayed on the fundus image, or 3D-OCT image The defective area of the visual field may be superimposed and displayed on the upper side.
- the viewer 17 receives the visual field test result report, and displays the received visual field test result report on the display 17C (S14).
- the process by the viewer 17 shown in the above S14 is a process realized by the CPU 17H reading out the viewer side program 17J1 and executing the read out viewer side program 17J1.
- a plurality of wearable terminal devices 12 are wirelessly communicably connected to the management device 14, and the management device 14 collectively integrates the plurality of wearable terminal devices 12. It can be managed. Therefore, as shown in FIG. 16 as an example, one medical service provider can perform the visual field examination in parallel with the patients A to C.
- total time (hereinafter, simply referred to as "total time") required for the treatment to be performed in the order of visual field examination ⁇ medical examination ⁇ fundus photography is two. It becomes short after the eyes. A more detailed description will be given below.
- the total time for the first patient when using the conventional visual field inspection apparatus is "TE A ", and the total time for the first patient when using the ophthalmologic system 10 is also “TE A ".
- the total time for the second patient when using the conventional visual field examination apparatus is “TE B2 ”, and the total time for the second patient when using the ophthalmologic system 10 is “TE B1 ( ⁇ TE B2 ). That is, the second patient in the case of using the ophthalmologic system 10 has a shorter stay time in the hospital by “TE B2 ⁇ TE B1 ” as compared to the second patient in the case of using the conventional visual field inspection apparatus.
- the total time for the third patient when using the conventional visual field inspection apparatus is “TE C2 ”
- the total time for the third patient when using the ophthalmologic system 10 is “TE C1 ( ⁇ TE C2 ”. That is, the third patient in the case of using the ophthalmologic system 10 has a shorter stay time in the hospital by “TE C2 ⁇ TE C1 ” than the third patient in the case of using the conventional visual field inspection apparatus.
- each patient can receive medical examination and ophthalmologic imaging more quickly than in the prior art. This not only reduces the burden on the patient, but also benefits the ophthalmologist.
- the merit here is the merit that the business can be advanced faster than before. Therefore, by using the ophthalmologic system 10, the ophthalmology side can perform a series of treatments of visual field examination ⁇ medical examination ⁇ fundus photography for more patients than in the past within the same medical care time as in the past. Become.
- the wearable terminal device 12 is portable, it is not necessary to secure an installation space. Furthermore, since the wearable terminal 12 is a portable type, visual field inspection can be performed in a waiting room or the like. Therefore, according to the wearable terminal device 12, the staying time of the patient in the hospital can be shortened as compared with the case where the conventional stationary type visual field inspection device is used.
- the wearable terminal device 12 includes the optical system 27 for guiding the laser light to the retina 46R and / or the retina 46L.
- the wearable terminal device 12 includes the control unit 170 that controls the optical system 27 so that the visual field examination of the retina 46R and / or the retina 46L is performed by irradiating the retina 46R and / or the retina 46L with laser light. ing. Therefore, the wearable terminal 12 can contribute to the efficient implementation of the visual field inspection.
- the wearable terminal device 12 also includes an optical system 27R for the right eye and an optical system 27L for the left eye. Therefore, according to the wearable terminal device 12, one laser light source 114 can perform visual field inspection on both eyes.
- the wearable terminal 12 further includes a scanner 28 for scanning laser light, and a reflection mirror 42 for reflecting the laser light scanned by the scanner 28 to the retina 46. Therefore, according to the wearable terminal 12, even in a patient with a cataract, that is, a patient whose lens is clouded, it is possible to visually perceive the laser light required for the visual field inspection.
- the wearable terminal device 12 includes an in-camera 48R for the right eye and an in-camera 48L for the left eye that capture an anterior segment of the eye 44 to be examined. Then, the control unit 170 detects and detects the inter-pupil distance based on the right-eye anterior-eye image and the left-eye anterior-eye image obtained by photographing with the right-eye in-camera 48R and the left-eye in-camera 48L. The position of the reflecting mirror 42 is controlled based on the interpupillary distance. Therefore, according to the wearable terminal device 12, the visual field examination can be performed with high accuracy even for patients having different interpupillary distances.
- the wearable terminal device 12 further includes a response button 19 that receives an operation indicating whether the patient perceives the laser light when the laser light is irradiated to the retina 46.
- the wearable terminal device 12 includes an output unit 172 that receives information by the response button 19 and that corresponds to the operation. In the first embodiment, the output unit 172 transmits the perceptual information to the management device 14. Therefore, according to the wearable terminal device 12, the medical service person can easily grasp the insensitive position of the laser light in the retina 46.
- the wearable terminal device 12 also includes a wireless communication unit 112 that communicates with the management device 14 so as to cause the management device 14 to manage the visual field examination. Therefore, according to the wearable terminal device 12, it is possible to reduce the processing load related to the management of the visual field inspection.
- management of visual field examination includes, for example, management of laser light used for visual field examination and perception showing that the patient visually perceives the irradiated laser light by irradiating the retina 46 with the laser light And management of information. Therefore, the wearable terminal device 12 can reduce the processing load related to at least management of laser light used for visual field inspection and management of perceptual information.
- the management device 14 further includes a provision unit 180 that provides the wearable terminal device 12 with examination target eye indication information and patient information 64A. Then, the management device 14 includes an acquisition unit 182 that acquires perceptual information from the wearable terminal device 12 by performing wireless communication with the wearable terminal device 12. Therefore, the management device 14 can contribute to the efficient implementation of the visual field inspection.
- the management device 14 further includes a display control unit 184 that controls the display 86A so as to display the progress situation screen 190 according to the progress situation of the visual field inspection on the display 86A. Therefore, the wearable terminal device 12 can make the medical service person easily grasp the progress of the visual field examination.
- the provision unit 180 performs wireless communication with each of the plurality of wearable terminal devices 12 to provide eye instruction information to be examined and patient information 64 A to each of the wearable terminal devices 12. Do. Then, the acquiring unit 182 wirelessly communicates with each of the plurality of wearable terminal devices 12 to acquire perceptual information from each of the wearable terminal devices 12. Therefore, the wearable terminal device 12 allows one medical service person to perform the visual field examination in parallel on a plurality of patients.
- an ophthalmologic system 500 according to the second embodiment is different from the ophthalmologic system 10 in that a wearable terminal device 502 is provided instead of the wearable terminal device 12.
- the wearable terminal device 502 has a control device 503 in place of the control device 18 as compared with the wearable terminal device 12, a point having an eye wear terminal device 506 in place of the eye wear terminal device 16, and an optical branching unit 20. The point of not doing is different. Also, the wearable terminal device 502 differs from the wearable terminal device 12 in that the wearable terminal device 502 does not have the optical fibers 30, 38 and 40.
- the ophthalmologic system 500 also has a plurality of wearable terminal devices 502 as in the ophthalmologic system 10, and each of the wearable terminal devices 502 is connected to the management device 14 in a wirelessly communicable state.
- the eyewear terminal device 506 has an optical system 507 instead of the optical system 27 as compared with the eyewear terminal device 16 and a scanner 508 instead of the scanner 28.
- the optical system 507 is different from the optical system 27 in that it has a right side optical system 507R instead of the right eye optical system 27R and a left side optical system 507L instead of the left eye optical system 27L. Also, the optical system 506 differs from the optical system 27 in that it has a scanner 508 in place of the scanner 28.
- the scanner 508 differs from the scanner 28 in that it has a right eye scanner 508R instead of the right eye scanner 28R and a left eye scanner 508L instead of the left eye scanner 28L.
- the right-eye scanner 508R is different from the right-eye scanner 28R in that the right-eye irradiation unit 52 is replaced with a right-eye laser light source 510R.
- the right-eye laser light source 510R is an example of a right-eye light source according to the technology of the present disclosure.
- the right-eye laser light source 510R emits a laser beam to the MEMS mirror 54 in the same manner as the right-eye irradiation unit 52.
- the right-eye laser light source 510R is connected to the bus line 32 via the right-eye laser light source control circuit (not shown), and operates under the control of the CPU 120.
- the right-eye laser light source control circuit is a driver that controls the right-eye laser light source 510R in accordance with an instruction from the CPU 120.
- the left-eye scanner 508L is different from the left-eye scanner 28L in that it has a left-eye laser light source 510L in place of the left-eye irradiation unit 58.
- the left-eye laser light source 510L is an example of a left-eye light source according to the technology of the present disclosure.
- the left-eye laser light source 510L emits laser light to the MEMS mirror 60 in the same manner as the left-eye irradiation unit 58.
- the left-eye laser light source 510L is connected to the bus line 32 via a left-eye laser light source control circuit (not shown), and operates under the control of the CPU 120.
- the right-eye laser light source control circuit is a driver that controls the left-eye laser light source 510L in accordance with an instruction from the CPU 120.
- control device 503 differs from control device 18 in that main control unit 510 is replaced with main control unit 510.
- the main control unit 510 differs from the main control unit 110 in that a terminal-side program 524A is stored in the secondary storage unit 124 instead of the terminal-side program 124A.
- the CPU 120 reads the terminal-side program 524A from the secondary storage unit 124, and develops the read-out terminal-side program 524A in the primary storage unit 162. Then, the CPU 120 executes the terminal-side program 524A expanded in the primary storage unit 122.
- the CPU 120 By executing the terminal-side program 524A, the CPU 120 operates as a control unit 570 and an output unit 172 as shown in FIG. 23 as an example.
- the control unit 570 supplies the right-eye laser light and / or the left-eye laser light to the optical system 507 to perform the visual field inspection of the retina 46R and / or the retina 46L.
- the laser light source 510 L for the left eye is controlled.
- the right-eye laser light is an example of the right-eye light according to the technology of the present disclosure
- the left-eye laser light is an example of the left-eye light according to the technology of the present disclosure.
- the right-eye laser light refers to laser light from the right-eye laser light source 510R.
- the laser light for left eyes refers to the laser light from the laser light source 510L for left eyes.
- use of the right-eye laser light source 510R is permitted when the right-eye laser light source flag is turned on, and the left-eye laser light source flag is turned on.
- the use of the left-eye laser light source 510L is permitted.
- laser light source flag when it is not necessary to distinguish and describe the right-eye laser light source flag and the left-eye laser light source flag, it is referred to as a “laser light source flag”.
- terminal-side processing that is realized by the CPU 120 executing the terminal-side program 524A when the main power supply (not shown) of the wearable terminal device 502 is turned on will be described with reference to FIGS. 19 and 9B.
- the terminal-side process according to the second embodiment differs from the terminal-side process according to the first embodiment in that it has a step 258A1 instead of the step 258A and a step 258B1 instead of the step 258B. Further, the terminal side process according to the second embodiment has a step 258C1 instead of the step 258C and a step 258U1 instead of the step 258U as compared with the terminal side process according to the first embodiment (see FIG. 9B). It differs in that it has).
- step 258A1 shown in FIG. 19 the control unit 570 needs to change the laser light source flag currently turned on based on the examination target eye indication information in the above-mentioned necessary information included in the visual field examination indication information. Determine if there is.
- step 258A1 If it is determined in step 258A1 that the currently-on laser light source flag does not need to be changed, the determination is negative and the process moves to step 258C1. If it is determined in step 258A1 that the currently-on laser light source flag needs to be changed, the determination is affirmative and the routine proceeds to step 258B1.
- the control unit 570 changes the laser light source flag based on the examination target eye indication information in the above-mentioned necessary information included in the visual field examination indication information, and then proceeds to step 308.
- “change of laser light source flag” refers to turning off the laser light source flag that is on or turning on the laser light source flag that is off.
- the right-eye laser light source flag is turned on and the left-eye laser light source flag is turned off.
- the left-eye laser light source flag is turned on and the right-eye laser light source flag is turned off.
- step 258C1 the control unit 570 starts the irradiation of the laser light from the laser light source corresponding to the laser light source flag in the on state at the current time, of the right-eye laser light source 510R and the left-eye laser light source 510L. Scanning of the retina 46 by laser light is started. For example, when the right-eye laser light source flag is turned on at this point, scanning of the retina 46R with the right-eye laser light is started by starting irradiation of the right-eye laser light from the right-eye laser light source 510R.
- step 258U1 shown in FIG. 9B the control unit 570 controls the right-eye laser light source 510R while scanning the retina 46R with the right-eye laser light, thereby using the right-eye laser light source 510R. End the scan In addition, when the scanning with the left-eye laser light is performed on the retina 46L, the control unit 570 ends the scanning with the left-eye laser light source 510L by controlling the left-eye laser light source 510L.
- the wearable terminal device 502 includes the optical system 507 that guides the laser light for the right eye to the retina 46R and guides the laser light for the left eye to the retina 46L. Then, the wearable terminal device 502 supplies the right-eye laser light and / or the left-eye laser light to the optical system 507 to perform the visual field inspection of the retina 46R and / or the retina 46L. Control unit 570 for controlling the laser light source 510R for the left eye and the laser light source 510L for the left eye. Therefore, the wearable terminal device 502 can contribute to the efficient implementation of the visual field inspection.
- the wearable terminal 12 in which the control device 18 and the light branching unit 20 are pulled out to the outside of the eyewear terminal 16 is illustrated, but the technology of the present disclosure is not limited to this. Absent.
- an ophthalmologic system 600 may be employed instead of the ophthalmologic system 10.
- the ophthalmologic system 600 is different from the ophthalmologic system 10 in that the controller 18, the light branching unit 20, and the cables 25, 34, 36 are not provided. Further, the ophthalmologic system 600 is different from the ophthalmologic system 10 in that an eyewear terminal device 610 is provided instead of the eyewear terminal device 16.
- a controller 352 in which a device having a function equivalent to the control device 18 and a device having a function equivalent to the light branching unit 20 are integrated is accommodated in the left temple 24L.
- the cables corresponding to the cables 34 and 36 are also accommodated in the frame of the eyewear terminal device 350.
- the frame of the eyewear terminal device 350 refers to, for example, the rim 22 and the temple 24.
- the method of detecting the response reaction in the eyewear terminal device 610 there is a method of detecting the response reaction by the touch sensor (not shown) provided on the temple 24 being touched by the patient.
- the method of detecting the response reaction in the eye wear terminal device 610 there is a method of detecting the response reaction using a voice recognition device.
- the speech recognition apparatus “YES” (utterance of intention display when feeling a mark (light)) and “NO” (utterance of intention display when a mark (light) is not felt)
- the response reaction is detected by recognizing
- only the response button 19 may be separately configured to be held by the patient, and the response result by the response button 19 may be transmitted to the eyewear terminal device 610.
- the controller 352 may be provided on the right side temple 24R. Further, a device having a function equivalent to the control device 18 and a device having a function equivalent to the light branching unit 20 may be separately accommodated in the frame of the eyewear terminal device 350. In this case, the frame corresponding to the cable 25, that is, the cable connecting the device having the function corresponding to the control device 18 and the device having the function corresponding to the light branching unit 20 is also accommodated in the frame of the eyewear terminal device 350. Be done.
- the cables 25, 34 and 36 and the light branching unit 20 become unnecessary, which can contribute to the downsizing of the entire device.
- the wearable terminal device 500 according to the second embodiment can also be a wireless wearable terminal device like the wearable terminal device 610 shown in FIG. That is, a wearable terminal apparatus including an eyewear terminal apparatus having at least an optical system 507 among devices corresponding to the laser light source 510R for the right eye, the laser light source 510L for the left eye, the optical system 507, and the control device 503 is adopted. It is also good. Also in this case, it can contribute to the miniaturization of the entire device.
- the technology of the present disclosure is not limited thereto, and the transmission of light such as a liquid crystal shutter can be controlled instead of the shutter 121.
- Devices may be employed.
- the technique of this indication is not limited to this, for example, it replaces with a laser beam, and the light by a super luminescent diode (Super Luminescent Diode) is used. It may be adopted.
- Super Luminescent Diode Super Luminescent Diode
- response button 19 was illustrated in said each embodiment, the technique of this indication is not limited to this.
- a touch panel display, a keyboard, a mouse or the like may be used.
- the visual field loss map may be created by the management device 14.
- the processing unit 171 generates association information in which the perceptual information is associated with the mark projection position information related to the perceptual information, and the generated association information is managed by the management device 14 via the wireless communication unit 112.
- the management apparatus 14 may create the visual field loss map based on the association information.
- the mark projection position information related to the perceptual information refers to mark projection position information corresponding to the position at which the mark is projected at the timing when the response button 19 is pressed.
- the processing unit 171 transmits the mark projection position information corresponding to the position where the mark is projected at the timing when the response button 19 is pressed, to the management apparatus 14 via the wireless communication unit 112, and the management apparatus 14 projects the mark.
- the visual field loss map may be created based on the position information.
- the MEMS mirror 54, 56, 60, 62 was illustrated in each said embodiment, the technique of this indication is not limited to this.
- an electrically reflective surface such as a galvano mirror and / or a polygon mirror, instead of or in combination with at least one of the MEMS mirrors 54, 56, 60, 62 A mirror whose position can be controlled may be used.
- the terminal side program 124A (524A) was read from the secondary storage part 124 was illustrated in said each embodiment, it is not necessary to necessarily memorize
- the terminal-side program 124A (524A) may be stored in an arbitrary portable storage medium 700 such as an SSD, a USB memory, or a DVD-ROM.
- the terminal-side program 124A (524A) of the storage medium 700 is installed in the wearable terminal 12 (502), and the installed terminal-side program 124A (524A) is executed by the CPU 120.
- the terminal side program 124A is stored in a storage unit such as another computer or server device connected to the wearable terminal 12 (502) via a communication network (not shown).
- a storage unit such as another computer or server device connected to the wearable terminal 12 (502) via a communication network (not shown).
- (524A) may be installed at the request of the wearable terminal 12 (502).
- the installed terminal-side program 124A (524A) is executed by the CPU 120.
- the management device program is read from the secondary storage unit 94.
- the secondary storage unit 94 does not have to store the management device program from the beginning.
- the management apparatus side program may first be stored in an arbitrary portable storage medium 750 such as an SSD, a USB memory, or a DVD-ROM.
- the management apparatus side program of the storage medium 750 is installed in the management apparatus 14, and the installed management apparatus side program is executed by the CPU 90.
- the management device side program is stored in a storage unit such as another computer or server device connected to the management device 14 via a communication network (not shown), and the management device side program receives a request from the management device 14. It may be installed accordingly. In this case, the installed management device program is executed by the CPU 90.
- the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process described in the above embodiment are merely examples. Therefore, needless to say, unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the scope of the present invention.
- the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process are realized by the software configuration using a computer
- the technology of the present disclosure It is not limited to this.
- at least one of terminal management processing, terminal processing, server processing, display control processing, and communication error handling processing only by hardware configuration such as FPGA or ASIC. Processing may be performed.
- At least one of the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process may be executed by a combination of a software configuration and a hardware configuration.
- hardware resources that execute various processes are hardware that executes various processes by executing a program, for example.
- a CPU that is a general purpose processor that functions as a wear resource can be mentioned.
- a dedicated electric circuit which is a processor having a circuit configuration such as an FPGA, a PLD, or an ASIC designed for exclusive use may be mentioned.
- an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
- the hardware resources for executing various processes may be one of the above-described plurality of types of processors, or may be a combination of two or more processors of the same type or different types.
- the processing unit 180, the acquisition unit 182, and the display control unit 184 of the management apparatus 14 illustrated in FIG. 14 as one example do not use wearable ophthalmologic equipment, but have a visual field inspection function capable of observing both eyes in a stationary type.
- the present invention is also applicable to a management device communicably connected to a device (for example, a stationary ophthalmic device). That is, the process executed by the management device 14 can also be performed by a device having a visual field inspection function capable of observing both eyes in a stationary manner.
- a and / or B is synonymous with “at least one of A and B”. In other words, “A and / or B” may mean only A, only B, or a combination of A and B. Further, in the present specification, the same concept as “A and / or B” is applied also in the case where three or more matters are expressed by “and / or” in a linked manner.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Eye Examination Apparatus (AREA)
- Signal Processing (AREA)
Abstract
眼科機器は、光源と、前記光源からの光を被検者の右眼網膜及び/又は左眼網膜に導く光学系と、前記光が前記右眼網膜及び/又は前記左眼網膜に照射されることで前記右眼網膜及び/又は前記左眼網膜の視野検査が行われるように前記光学系を制御する制御部と、を含む。
Description
本開示の技術は、眼科機器、管理装置、及び眼科機器の管理方法に関する。
本明細書において、眼科とは、眼に対処する医学の分科を指す。また、本明細書において、SLOとは、“Scanning Laser Ophthalmoscope”の略称を指す。また、本明細書において、OCTとは、“Optical Coherence Tomograph”の略称を指す。
特開2016-22150号公報には、照射光学系と、生体情報検出部と、評価情報生成部と、制御部と、を含む視機能検査装置が開示されている。
特開2016-22150号公報に記載の視機能検査装置において、照射光学系は、レーザ光源から出力されたレーザ光の光路に配置された光スキャナを含み、光スキャナを経由したレーザ光を被検眼の網膜に照射する。また、生体情報検出部は、レーザ光の照射に対する被検者の反応を表す生体情報を反復的に検出する。また、制御部は、生体情報の反復的な検出が行われているときに、網膜の一の刺激点へのレーザ光の照射強度を単調的に変化させるように照射光学系を制御する。
また、特開2016-22150号公報に記載の視機能検査装置において、評価情報生成部は、検出された生体情報に基づいて、被検眼の視機能に関する評価情報を生成する。具体的には、評価情報生成部は、レーザ光の照射強度の単調的な変化に応じた生体情報の時系列変化に基づいて、一の刺激点における感度情報を生成する。また、評価情報生成部は、網膜の複数の刺激点のそれぞれについて生成された感度情報に基づいて、複数の刺激点における感度情報の分布を評価情報として生成する。
本開示の技術の第1態様に係る眼科機器は、光源と、制御部と、を有する制御装置と、前記光源からの光を右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を有する光学系を備えたアイウエア端末と、を含み、前記アイウエア端末と前記制御装置は、前記光源からの光を前記アイウエア端末に供給する光ファイバを含むケーブルで接続されており、前記制御部は、視野検査用の複数のマーク投影位置情報に基づいて前記光学系を制御することで視野検査を実行する。
本開示の技術の第2態様に係る眼科機器は、制御部を有する制御装置と、右眼用光源からの光である右眼用光を被検者の右眼網膜に導き、且つ、左眼用光源からの光である左眼用光を前記被検者の左眼網膜に導く光学系を備えたアイウエア端末と、を含み、前記右眼用光源からの前記右眼用光及び前記左眼用光源からの前記左眼用光を前記アイウエア端末に供給する光ファイバを含むケーブルで、前記アイウエア端末と前記制御装置は接続されており、前記制御部は、視野検査用の複数のマーク投影位置情報に基づいて前記光学系を制御するための制御信号を前記ケーブルで前記アイウエア端末に送信し、視野検査を実行する。
本開示の技術の第3態様に係る眼科機器は、右眼用光源と、左眼用光源と、前記右眼用光源からの光である右眼用光を被検者の右眼網膜に導き、且つ、前記左眼用光源からの光である左眼用光を前記被検者の左眼網膜に導く光学系と、前記右眼用光源、前記左眼用光源、及び前記光学系を視野検査用の複数のマーク投影位置情報に基づいて制御する制御部と、を有するアイウエア端末を含む。
本開示の技術の第4態様に係る管理装置は、眼科機器とデータの送受信を行う通信部と、前記通信部によって前記眼科機器に送信される送信データを生成し、前記通信部によって受信された受信データを処理する処理部と、前記眼科機器を用いた視野検査の結果を示す検査結果情報を取得する取得部と、を含み、前記眼科機器は、光源と、光学系と、制御部と、応答部と、を含み、前記光学系は、前記光源からの光を被検者の右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を含み、前記制御部は、前記光学系を制御し、前記応答部は、前記眼科機器のユーザが前記光源からの光を知覚したことに応答する場合の前記ユーザによる操作を受け付け、前記送信データは、少なくとも被検者の両眼のうちの前記視野検査の検査対象眼を指示する指示情報を含み、前記受信データは、前記視野検査の進捗情報と、前記応答部の応答信号と、を少なくとも含む。
本開示の技術の第5態様に係る眼科機器の管理方法は、眼科機器の管理方法であって、被検者の両眼のうちの前記眼科機器を用いた視野検査の検査対象眼を指示する指示情報を送信するステップと、前記視野検査の結果を示す検査結果情報を取得するステップと、を含み、前記眼科機器は、光源と、応答部と、制御部と、を有する制御装置と、前記光源からの光を右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を有する光学系を備えたアイウエア端末と、を含み、前記アイウエア端末と前記制御装置は、前記光源からの光を前記アイウエア端末に供給する光ファイバを含むケーブルで接続されており、前記制御部は、前記光学系を制御し、前記応答部は、前記眼科機器のユーザが前記光源からの光を知覚したことに応答する場合の前記ユーザによる操作を受け付ける。
以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。
先ず、以下の説明で使用される用語の意味について説明する。以下の説明において、MEMSとは、“Micro Electro Mechanical Systems”の略称を指す。また、以下の説明において、I/Fとは、“Interface”の略称を指す。また、以下の説明において、I/Oとは、インプット・アウトプット・インタフェースの略称を指す。また、以下の説明において、USBとは、“universal serial bus”の略称を指す。また、以下の説明において、IDとは、“IDentification”の略称を指す。
また、以下の説明において、CPUとは、“Central Processing Unit”の略称を指す。また、以下の説明において、RAMとは、“Random Access Memory”の略称を指す。また、以下の説明において、HDDとは、“Hard Disk Drive”の略称を指す。また、以下の説明において、EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。また、以下の説明において、SSDとは、“Solid State Drive”の略称を指す。また、以下の説明において、DVD-ROMとは、“Digital Versatile Disc Read Only Memory”の略称を指す。
また、以下の説明において、ASICとは、“Application Specific Integrated Circuit”の略称を指す。また、以下の説明において、FPGAとは、“Field-Programmable Gate Array”の略称を指す。また、以下の説明において、“PLD”とは、“Programmable Logic Device”の略称を指す。また、以下の説明において、LANとは、“Local Area Network”の略称を指す。
また、本実施形態において、左右方向とは、例えば、患者の右眼の瞳孔の中心と左眼の瞳孔の中心とを通る直線の方向を指す。なお、以下では、説明の便宜上、「左右方向」を「X方向」とも称し、被検眼の瞳孔の中心から被検眼の後極に向かう方向を「Z方向」と称し、X方向及びZ方向の双方に対して垂直な方向を「Y方向」と称する。
[第1実施形態]
一例として図1に示すように、眼科システム10は、患者に対する視野の検査(以下、単に「視野検査」と称する)に供するシステムである。本実施形態では、視野検査が、患者(被検者)の被検眼の網膜にレーザ光を照射することで実現される。なお、レーザ光は、本開示の技術に係る「光源からの光」及び「視野検査に用いられる光源に基づく光である視野検査光」の一例である。
一例として図1に示すように、眼科システム10は、患者に対する視野の検査(以下、単に「視野検査」と称する)に供するシステムである。本実施形態では、視野検査が、患者(被検者)の被検眼の網膜にレーザ光を照射することで実現される。なお、レーザ光は、本開示の技術に係る「光源からの光」及び「視野検査に用いられる光源に基づく光である視野検査光」の一例である。
眼科システム10は、複数台のウエアラブル端末装置12と、管理装置14と、サーバ装置15と、ビューワ17と、を含む。なお、ウエアラブル端末装置12は、本開示の技術に係る眼科機器及びウエアラブル型眼科機器の一例である。
ウエアラブル端末装置12は、本開示の技術に係るアイウエア端末の一例であるアイウエア端末装置16、制御装置18、及び光分岐部20を含む。
アイウエア端末装置16は、患者に装着される眼鏡型の端末装置の一種である。ここで言う「患者」とは、眼底に疾患を有する患者を指す。なお、患者は、本開示の技術に係る被検者の一例である。
アイウエア端末装置16は、一般的な眼鏡と同様に、リム22及びテンプル24を備えている。また、アイウエア端末装置16は、光学系27を備えている。
リム22は、光学系27を保持している。テンプル24は、左側テンプル24Lと右側テンプル24Rとに大別される。左側テンプル24Lの一端部は、リム22の左端部に取り付けられており、右側テンプル24Rは、リム22の右端部に取り付けられている。
左側テンプル24Lは、耳掛け部24L1を有する。右側テンプル24Rは、耳掛け部24R1を有する。耳掛け部24L1は、患者の左耳に掛けられ、耳掛け部24R1は、患者の右耳に掛けられる。
耳掛け部24L1には、スピーカ140が設けられている。スピーカ140は、制御装置18の制御下で、音声を出力する。スピーカ140は、患者の鼓膜に音波を直接当てるスピーカであってもよいし、振動を患者の鼓膜に間接的に伝達する骨伝導式のスピーカであってもよい。なお、スピーカ140は、患者の聴覚に働きかけることで患者に情報を通知する通知部の一例である。
制御装置18は、例えば、患者が把持したり、患者が自身の衣服又は身体等に装着したりして用いられる。制御装置18は、応答ボタン19を備えている。なお、応答ボタン19は、本開示の技術に係る応答部の一例である。ここでは、応答ボタン19を例示しているが、本開示の技術はこれに限定されない。例えば、応答ボタン19に代えてタッチパネルを用いてもよいし、患者がレーザ光を知覚したことに応答する場合の患者の音声をマイクで取得し、マイクで取得した音声を認識する音声認識装置を用いてもよい。この場合、タッチパネル及び音声認識装置は、患者からの働きかけに応じて、後述する応答情報を出力する。
応答ボタン19は、患者によって操作され、患者による操作に応じた情報を出力する。応答ボタン19は、レーザ光が被検眼44(図2参照)の網膜46(図2参照)に照射された場合にレーザ光を患者が知覚したか否かの操作を受け付ける。換言すると、応答ボタン19は、患者がレーザ光を知覚したことに応答する場合の患者による操作を受け付ける。すなわち、応答ボタンの応答情報とマーク投影位置情報とを対応させる処理を行う。
応答ボタン19は、医療サービス者の問い掛けに対して患者が応える場合に患者によって押下されることもある。なお、ここで言う「医療サービス者」とは、例えば、眼科で医師の指示のもとに視能検査を行う視機能訓練士の資格を持った医療技術者を指す。応答ボタン19と制御装置18とは無線及び/又は有線通信可能に接続されており、応答ボタン19が操作されたことによる応答情報が制御装置18に送信される。なお、制御装置18には1つの応答ボタン19が機器番号などの番号で対応付けられている。無線通信としては、例えば、Wi-Fi(登録商標)又はBluetooth(登録商標)等による通信が挙げられる。有線通信としては、ケーブルによる通信が挙げられる。
制御装置18は、管理装置14に対して無線通信可能な状態で接続されており、管理装置14と各種情報の授受を行う。制御装置18は、ケーブル25を介して光分岐部20に接続されており、光分岐部20を制御する。なお、制御装置18は、管理装置14に対して無線通信可能な状態で接続されていてもよい。
ケーブル25は、光ファイバ30及びバスライン32を含む。制御装置18は、光ファイバ30を介して光分岐部20にレーザ光を供給し、バスライン32を介して光分岐部20を制御する。
光学系27は、光分岐部20を備えている。光分岐部20は、ケーブル34,36を介してアイウエア端末装置16に接続されている。ケーブル34は、右側テンプル24Rに接続されており、ケーブル36は、左側テンプル24Lに接続されている。ケーブル34,36は共にバスライン32を含む。従って、制御装置18は、バスライン32を介してアイウエア端末装置16と各種電気信号の授受を行う。
ケーブル34は、光ファイバ38を含み、ケーブル36は、光ファイバ40を含む。光分岐部20は、制御装置18から光ファイバ30介して供給されたレーザ光を光ファイバ38及び/又は光ファイバ40に分岐させる。光分岐部20により分岐されて得られた一方のレーザ光は、光ファイバ38を介してアイウエア端末装置16に供給され、光分岐部20により分岐されて得られた他方のレーザ光は、光ファイバ40を介してアイウエア端末装置16に供給される。
光学系27は、反射ミラー42を備えている。反射ミラー42は、本開示の技術に係る反射部材の一例である。反射ミラー42は、光分岐部20からケーブル34,36を介して供給されたレーザ光を反射させることで、一例として図2に示すように、レーザ光を患者の被検眼44の網膜46に導く。なお、一例として図2に示すように、被検眼44は、右眼44Rと左眼44Lとに大別される。また、網膜46は、本開示の技術に係る右側網膜の一例である網膜46Rと、本開示の技術に係る左側網膜の一例である網膜46Lとに大別される。
反射ミラー42は、右眼用反射ミラー42Rと左眼用反射ミラー42Lとに大別される。右眼用反射ミラー42Rは、アイウエア端末装置16が正しく装着された状態の患者の右眼44Rの前方に位置するようにリム22に保持されている。左眼用反射ミラー42Lは、アイウエア端末装置16が正しく装着された状態の患者の左眼44Lの前方に位置するようにリム22に保持されている。
右眼用反射ミラー42Rは、光分岐部20から光ファイバ38を介して供給されたレーザ光を反射させることで、一例として図2に示すように、レーザ光を患者の右眼44Rの網膜46Rに導く。左眼用反射ミラー42Lは、光分岐部20から光ファイバ40を介して供給されたレーザ光を反射させることで、一例として図2に示すように、患者の左眼44Lの網膜46Lに導く。
アイウエア端末装置16は、右眼用インカメラ48R及び左眼用インカメラ48Lを備えている。右眼用インカメラ48R及び左眼用インカメラ48Lは、制御装置18の制御下で、被写体を撮影する。
右眼用インカメラ48R及び左眼用インカメラ48Lは、リム22の上縁部に取り付けられている。右眼用インカメラ48Rは、Y方向において右眼用反射ミラー42Rとずれた位置に設けられており、右眼44Rの前方領域の斜め上方から被写体として右眼44Rの前眼部を撮影する。左眼用インカメラ48Lは、Y方向において左眼用反射ミラー42Lとずれた位置に設けられており、左眼44Lの前方領域の斜め上方から被写体として左眼44Lの前眼部を撮影する。なお、右眼用インカメラ48R及び左眼用インカメラ48Lは、本開示の技術に係る前眼部カメラの一例である。また、ここでは、右眼用インカメラ48R及び左眼用インカメラ48Lを例示したが、本開示の技術はこれに限定されない。例えば、右眼用インカメラ48R及び左眼用インカメラ48Lに代えて、右眼44Rの前眼部と左眼44Lの前眼部との双方を撮影する単一のカメラを適用してもよい。
管理装置14は、複数台のウエアラブル端末装置12の各々による視野検査の管理を一元的に行う。ここで、ウエアラブル端末装置12による視野検査とは、換言すると、ウエアラブル端末装置12を用いた視野検査を意味する。また、ここで、視野検査の管理とは、例えば、視野検査に用いられるレーザ光の管理と、レーザ光が網膜46に照射されることで、照射されたレーザ光を患者が視覚的に知覚したことを示す知覚情報の管理と、を含む管理を指す。
制御装置18は、管理装置14からの指示に従って、レーザ光を、光ファイバ30,38,40を介してアイウエア端末装置16に供給する。
なお、本実施形態では、ウエアラブル端末装置12と管理装置14との間で無線通信が行われる例を挙げて説明しているが、本開示の技術はこれに限定されるものではない。例えば、ウエアラブル端末装置12と管理装置14との間で有線通信が行われるようにしてもよい。
サーバ装置15は、管理装置14及び/又はビューワ17等の外部装置からの要求に応じた情報の提供及び/又は情報処理を行い、且つ、複数の患者の個人情報を一元的に管理する。サーバ装置15は、ケーブル23を介して管理装置14に接続されており、管理装置14との間で各種情報の授受を行う。ケーブル23の一例としては、LANケーブルが挙げられる。なお、本実施形態では、サーバ装置15と管理装置14との間で有線通信が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、サーバ装置15と管理装置14との間で無線通信が行われるようにしてもよい。
一例として図2に示すように、光学系27は、レーザ光を網膜46R及び/又は網膜46Lに導く。光学系27は、スキャナ28及び反射ミラー42を有する。スキャナ28は、制御装置18から光分岐部20を介いて供給されたレーザ光を走査する。反射ミラー42は、スキャナ28により走査されたレーザ光を網膜46に反射させる。
光学系27は、右眼用光学系27Rと左眼用光学系27Lとを有する。光分岐部20は、制御装置18から光ファイバ30を介して供給されたレーザ光を右眼用光学系27Rと左眼用光学系27Lとに分岐させる。
右眼用光学系27Rは、光分岐部20から光ファイバ38を介して供給されたレーザ光を網膜46Rに導く。左眼用光学系27Lは、光分岐部20から光ファイバ40を介して供給されたレーザ光を網膜46Lに導く。
スキャナ28は、右眼用スキャナ28Rと左眼用スキャナ28Lとを有する。右眼用光学系27Rは、右眼用スキャナ28Rと右眼用反射ミラー42Rとを有する。左眼用光学系27Lは、左眼用スキャナ28Lと左眼用反射ミラー42Lとを有する。
右眼用スキャナ28Rは、MEMSミラー54,56及び右眼用反射ミラー42Rを有し、光分岐部20から光ファイバ38を介して供給されたレーザ光を走査する。右眼用照射部52は、光分岐部20から光ファイバ38を介して供給されたレーザ光を照射する。右眼用照射部52によるレーザ光の照射方向には、MEMSミラー54が配置されており、MEMSミラー54は、右眼用照射部52から照射されたレーザ光を反射させることで、MEMSミラー56に導く。MEMSミラー56は、MEMSミラー54によって導かれたレーザ光を反射させることで、右眼用反射ミラー42Rに導く。
ここで、例えば、MEMSミラー54はY方向にレーザ光を走査し、MEMSミラー56はX方向にレーザ光を走査する。MEMSミラー54,56により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
なお、MEMSミラー54をX方向の走査とし、MEMSミラー56をY方向の走査とするようにしてもよいことは言うまでもない。
更に、右眼用スキャナ28Rは、反射ミラー42RとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
右眼用反射ミラー42Rは、右眼用スキャナ28Rにより走査されたレーザ光を網膜46Rに反射させる。
右眼用反射ミラー42Rは、湾曲面42R1を有する。湾曲面42R1は、アイウエア端末装置16が装着された状態の患者の右眼44Rから見て凹状に形成された面であり、MEMSミラー56によって導かれたレーザ光を反射させることで、右眼44Rの瞳孔下の水晶体64Rを通して右眼44Rの網膜46Rにレーザ光を導く。
左眼用スキャナ28Lは、MEMSミラー60,62及び左眼用反射ミラー42Lを有し、光分岐部20から光ファイバ40を介して供給されたレーザ光を走査する。左眼用照射部58は、光分岐部20から光ファイバ40を介して供給されたレーザ光を照射する。左眼用照射部58によるレーザ光の照射方向には、MEMSミラー60が配置されており、MEMSミラー60は、左眼用照射部58から照射されたレーザ光を反射させることで、MEMSミラー62に導く。MEMSミラー62は、MEMSミラー60によって導かれたレーザ光を反射させることで、左眼用反射ミラー42Lに導く。
ここで、例えば、MEMSミラー60はY方向にレーザ光を走査し、MEMSミラー62はX方向にレーザ光を走査する。MEMSミラー60,62により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
なお、MEMSミラー60をX方向の走査、MEMSミラー62をY方向の走査とするようにしてもよいことは言うまでもない。
更に、左眼用スキャナ28Lは、反射ミラー42LとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
図2に示す例では、MEMSミラー54,56,60,62が例示されているが、本開示の技術はこれに限定されるものではない。例えば、MEMSミラー54,56,60,62に代えて、又は、MEMSミラー54,56,60,62のうちの少なくとも1つと共に、ガルバノミラー及び/又はポリゴンミラー等の、電気的に反射面の位置を制御可能なミラーを用いてもよい。
左眼用反射ミラー42Lは、左眼用スキャナ28Lにより走査されたレーザ光を網膜46Lに反射させる。
左眼用反射ミラー42Lは、湾曲面42L1を有する。湾曲面42L1は、アイウエア端末装置16が装着された状態の患者の左眼44Lから見て凹状に形成された面であり、MEMSミラー62によって導かれたレーザ光を反射させることで、左眼46Rの瞳孔下の水晶体64Lを通して左眼44Lの網膜46Lにレーザ光を導く。
なお、以下では、説明の便宜上、水晶体64R,64Lを区別して説明する必要がない場合、「水晶体64」と称する。
光学系27は、右眼用スライド機構70R、左眼用スライド機構70L、右眼用駆動源72R、及び左眼用駆動源72Lを備えている。右眼用駆動源72R及び左眼用駆動源72Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。なお、以下では、説明の便宜上、右眼用駆動源72R及び左眼用駆動源72Lを区別して説明する必要がない場合、「ミラー駆動源72」と称する。
右眼用スライド機構70Rは、リム22に取り付けられており、右眼用反射ミラー42Rを左右方向にスライド可能に保持している。右眼用スライド機構70Rは、右眼用駆動源72Rに接続されており、右眼用駆動源72Rによって生成された動力を受けることで、右眼用反射ミラー42Rを左右方向にスライドさせる。
左眼用スライド機構70Lは、リム22に取り付けられており、左眼用反射ミラー42Lを左右方向にスライド可能に保持している。左眼用スライド機構70Lは、左眼用駆動源72Lに接続されており、左眼用駆動源72Lによって生成された動力を受けることで、左眼用反射ミラー42Lを左右方向にスライドさせる。
なお、本実施形態に係る眼科システム10では、マックスウェル視光学系によって被検眼44の網膜46に対してレーザ光に基づく映像が投影される。ここで言う「マックスウェル視光学系」とは、被検眼44の瞳孔下の水晶体64でレーザ光が収束され、水晶体64で収束されたレーザ光が被検眼44の網膜46に照射されることで、レーザ光に基づく映像が被検眼44の網膜46に投影される光学系を指す。本実施形態に係る眼科システム10では、スキャナ28及びミラー駆動源72が制御装置18によって制御されることで、マックスウェル視光学系が実現される。
一例として図3に示すように、管理装置14は、主制御部80、無線通信部82、受付デバイス84、タッチパネル・ディスプレイ86、及び外部I/F88を備えている。
主制御部80は、CPU90、一次記憶部92、二次記憶部94、バスライン96、及びI/O98を含む。CPU90、一次記憶部92、及び二次記憶部94は、バスライン96を介して接続されている。バスライン96には、I/O98が接続されている。なお、本実施形態では、CPU90として単数のCPUを採用しているが、CPU90に代えて複数のCPUを採用してもよい。
CPU90は、管理装置14の全体を制御する。一次記憶部92は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部92の一例としては、RAMが挙げられる。二次記憶部94は、管理装置14の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部94の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
無線通信部82は、I/O98に接続されている。CPU90は、制御装置18への送信対象とされる電気信号を無線通信部82に出力する。無線通信部82は、CPU90から入力された電気信号を電波で制御装置18に送信する。また、無線通信部82は、制御装置18からの電波を受信し、受信した電波に応じた電気信号をCPU90に出力する。
なお、無線通信部112は、本開示の技術に係る通信部の一例である。すなわち、無線通信部82は、ウエアラブル端末装置12に対して、ウエアラブル端末装置12を制御する制御情報であって、患者の両眼のうちの眼科検査の検査対象眼を指示する指示情報を有する制御情報をウエアラブル端末装置12に対して送信する。
受付デバイス84は、タッチパネル84A、キーボード84B、及びマウス84Cを含み、タッチパネル84A、キーボード84B、及びマウス84Cは、I/O98に接続されている。従って、CPU90は、タッチパネル84A、キーボード84B、及びマウス84Cの各々によって受け付けられた各種指示を把握することができる。
外部I/F88は、サーバ装置15、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU90との間の各種情報の送受信を司る。なお、図3に示す例では、外部I/F88は、ケーブル23を介してサーバ装置15に接続されている。
タッチパネル・ディスプレイ86は、ディスプレイ86A及びタッチパネル84Aを含む。ディスプレイ86Aは、本開示の技術に係る表示部の一例である。ディスプレイ86Aは、I/O98に接続されており、CPU90の制御下で、映像を含む各種情報を表示する。タッチパネル84Aは、透過型のタッチパネルであり、ディスプレイ86Aに重ねられている。
二次記憶部94は、端末管理プログラム94A、表示制御プログラム94B、及び通信エラー対応プログラム94Cを記憶している。以下では、説明の便宜上、端末管理プログラム94A、表示制御プログラム94B、及び通信エラー対応プログラム94Cを区別して説明する必要がない場合、これらを「管理装置側プログラム」と称する。
CPU90は、二次記憶部94から管理装置側プログラムを読み出し、読み出した管理装置側プログラムを一次記憶部92に展開する。そして、CPU90は、一次記憶部92に展開した管理装置側プログラムを実行する。
制御装置18は、前述した応答ボタン19の他に、主制御部110、無線通信部112、レーザ光源114、及び光源制御回路116を備えている。
主制御部110は、CPU120、一次記憶部122、二次記憶部124、バスライン126、及びI/O128を含む。CPU120、一次記憶部122、及び二次記憶部124は、バスライン126を介して接続されている。バスライン126には、I/O128が接続されている。なお、本実施形態では、CPU120として単数のCPUを採用しているが、CPU120に代えて複数のCPUを採用してもよい。
CPU120は、ウエアラブル端末装置12の全体を制御する。一次記憶部122は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部122の一例としては、RAMが挙げられる。二次記憶部124は、ウエアラブル端末装置12の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部124の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
応答ボタン19は、I/O128に接続されており、応答ボタン19が押下されると、応答信号が応答ボタン19からCPU120に出力される。
無線通信部112は、ウエアラブル端末装置12による視野検査の管理を管理装置14に対して行わせるように管理装置14との間で無線通信を行う。無線通信部112は、I/O128に接続されている。CPU120は、管理装置14への送信対象とされる電気信号を無線通信部112に出力する。無線通信部112は、CPU120から入力された電気信号を電波で管理装置14に送信する。また、無線通信部112は、管理装置14からの電波を受信し、受信した電波に応じた電気信号をCPU120に出力する。
レーザ光源114は、光ファイバ30を介して光分岐部20に接続されている。レーザ光源114は、レーザ光を生成し、生成したレーザ光を、光ファイバ30を介して光分岐部20に射出する。
レーザ光源114は、光源制御回路116に接続されている。光源制御回路116は、I/O128に接続されている。光源制御回路116は、CPU120の指示に従って光源制御信号をレーザ光源に供給することで、レーザ光源114を制御する。
一例として図5に示すように、レーザ光源114は、R光源114A、G光源114B、B光源114C、及びミラーユニット130を備えている。
R光源114Aは、R(赤色)、G(緑色)、及びB(青色)のうちのRのレーザ光であるRレーザ光を射出する。G光源114Bは、R、G、及びBのうちのGのレーザ光であるGレーザ光を射出する。B光源114Cは、R、G、及びBのうちのBのレーザ光であるBレーザ光を射出する。なお、ここでは、レーザ光源114がR光源114A、G光源114B、及びB光源114Cを備えている場合を例示しているが、本開示の技術はこれに限定されるものではない。例えば、レーザ光源114は、IR光源(図示省略)を備えていてもよい。ここで、「IR」とは、“near-infrared”の略称を意味する。IR光源は、SLO及び/又はOCTによる撮影用のレーザ光である近赤外光を射出する。
ミラーユニット130は、第1ミラー130A、第2ミラー130B、及び第3ミラー130Cを備えている。第1ミラー130A、第2ミラー130B、及び第3ミラー130Cのうち、第2ミラー130Bは、ダイクロイックミラーであり、Bレーザ光を透過させ、且つ、Gレーザ光を反射する。第3ミラー130Cは、ダイクロイックミラーであり、Rレーザ光を透過させ、且つ、Gレーザ光及びBレーザ光を反射する。
第1ミラー130Aは、B光源114CによるBレーザ光の射出方向に配置されており、B光源114Cから射出されたBレーザ光を反射させることで、第2ミラー130BにBレーザ光を導く。
第2ミラー130Bは、G光源114BによるGレーザ光の射出方向であり、且つ、第1ミラー130Aで反射されたBレーザ光の進行方向に配置されている。第2ミラー130Bは、G光源114Bから射出されたGレーザ光を反射させることで、第1ミラー130AにGレーザ光を導き、且つ、第1ミラー130Aで反射されたBレーザ光を透過させることで、第1ミラー130AにBレーザ光を導く。
第3ミラー130Cは、R光源114AによるRレーザ光の射出方向であり、且つ、第2ミラー130Bで反射されたGレーザ光の進行方向であり、且つ、第2ミラー130Bを透過したGレーザ光の進行方向に配置されている。第3ミラー130Cは、R光源114Aから射出されたRレーザ光を透過させる。また、第3ミラー130Cは、Rレーザ光と同方向にGレーザ光及びBレーザ光を反射させることで、Rレーザ光、Gレーザ光及びBレーザ光を外部に射出する。なお、本実施形態では、説明の便宜上、レーザ光源114から外部に射出されるRレーザ光、Gレーザ光、及びBレーザ光を、単に「レーザ光」と称する。
一例として図3に示すように、バスライン32は、I/O128に接続されており、光分岐部20は、バスライン32に接続されている。従って、光分岐部20は、CPU120の制御下で動作する。
一例として図6に示すように、光分岐部20は、右眼用シャッタ121R、左眼用シャッタ121L、第1スライド機構122R、第2スライド機構122L、第1シャッタ用駆動源134R、第2シャッタ用駆動源134L、ビームスプリッタ136、及び反射ミラー138を備えている。
なお、以下では、説明の便宜上、右眼用シャッタ121R及び左眼用シャッタ121Lを区別して説明する必要がない場合、「シャッタ121」と称する。
ビームスプリッタ136は、レーザ光源114から光ファイバ130を介して供給されたレーザ光を反射させ、且つ、透過させる。ビームスプリッタ136で反射したレーザ光である左眼用レーザ光は、光ファイバ40(図1及び図2参照)の入口に向けて進行する。
反射ミラー138は、ビームスプリッタ136を透過したレーザ光を反射する。反射ミラー138で反射したレーザ光である右眼用レーザ光は、光ファイバ38(図1及び図2参照)の入口に向けて進行する。
第1スライド機構122Rは、右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライド可能に保持している。第1位置P1とは、右眼用レーザ光を通過させて光ファイバ38の入口に導く位置を指し、第2位置P2とは、右眼用レーザ光を遮蔽する位置を指す。
第2スライド機構122Lは、左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライド可能に保持している。第3位置P3とは、左眼用レーザ光を通過させて光ファイバ40の入口に導く位置を指し、第4位置P4とは、左眼用レーザ光を遮蔽する位置を指す。
第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lは、バスライン32に接続されており、第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lは、CPU120の制御下で作動する。
第1スライド機構122Rは、第1シャッタ用駆動源134Rに接続されており、第1シャッタ用駆動源134Rによって生成された動力を受けることで右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライドさせる。
第2スライド機構122Lは、第2シャッタ用駆動源134Lに接続されており、第2シャッタ用駆動源134Lによって生成された動力を受けることで左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライドさせる。
なお、図6に示す例では、右眼用シャッタ121Rが第1位置P1に配置されているので、右眼用レーザ光は光ファイバ38に供給され、左眼用シャッタ121Lが第4位置P4に配置されているので、左眼用レーザ光は左眼用シャッタ121Lによって遮蔽される。
一例として図3に示すように、スピーカ140は、バスライン32に接続されており、CPU120の制御下で音声を出力する。
バスライン32には、右眼用駆動源72R及び左眼用駆動源72Lが接続されており、CPU120は、右眼用駆動源72R及び左眼用駆動源72Lを制御する。
バスライン32には、右眼用インカメラ48R及び左眼用インカメラ48Lが接続されており、CPU120は、左眼用インカメラ48L及び右眼用インカメラ48Rとの間で各種情報の授受を行う。
バスライン32には、右眼用照射部52、左眼用照射部58、及びMEMSミラー54,56,60,62が接続されており、CPU120は、右眼用照射部52、左眼用照射部58、及びMEMSミラー54,56,60,62を制御する。
バスライン32には、装着検出器139が接続されている。装着検出器139は、例えば、感圧センサである。装着検出器139は、アイウエア端末装置16のフレームに設けられており、アイウエア端末装置16が正しく装着されたことを検出する。CPU120は、装着検出器139での検出結果を取得する。なお、アイウエア端末装置350のフレームとは、例えば、リム22及びテンプル24を指す。
二次記憶部124は、端末側プログラム124Aを記憶している。CPU120は、二次記憶部124から端末側プログラム124Aを読み出し、読み出した端末側プログラム124Aを一次記憶部122に展開する。そして、CPU120は、一次記憶部122に展開した端末側プログラム124Aを実行する。
一例として図4に示すように、サーバ装置15は、主制御部150、受付デバイス154、タッチパネル・ディスプレイ156、及び外部I/F158を備えている。
主制御部150は、CPU160、一次記憶部162、二次記憶部164、バスライン166、及びI/O168を含む。CPU160、一次記憶部162、及び二次記憶部164は、バスライン166を介して接続されている。バスライン166には、I/O168が接続されている。なお、本実施形態では、CPU160として単数のCPUを採用しているが、CPU160に代えて複数のCPUを採用してもよい。
CPU160は、サーバ装置15の全体を制御する。一次記憶部162は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部162の一例としては、RAMが挙げられる。二次記憶部164は、サーバ装置164の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部164の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
受付デバイス154は、タッチパネル154A、キーボード154B、及びマウス154Cを含み、タッチパネル154A、キーボード154B、及びマウス154Cは、I/O168に接続されている。従って、CPU160は、タッチパネル154A、キーボード154B、及びマウス154Cの各々によって受け付けられた各種指示を把握することができる。
外部I/F158は、管理装置14、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU160との間の各種情報の送受信を司る。なお、図3に示す例では、外部I/F158は、ケーブル23を介して管理装置14の外部I/F88に接続されている。
タッチパネル・ディスプレイ156は、ディスプレイ156A及びタッチパネル154Aを含む。ディスプレイ86Aは、I/O168に接続されており、CPU160の制御下で、映像を含む各種情報を表示する。タッチパネル154Aは、透過型のタッチパネルであり、ディスプレイ156Aに重ねられている。
二次記憶部164は、患者情報164A及びサーバ側プログラム164Bを記憶している。
患者情報164Aは、患者に関する情報である。本実施形態において、患者情報164Aには、患者のプロフィール情報164A1(例えば、患者を特定するID、患者の名前、患者の性別、患者の年齢、身体情報、過去の治療歴、来院状況など現在の患者情報から、疾患のリスクや身体状態など)と、患者に対して行われた検眼情報164A2(例えば、角膜屈折力、角膜波面収差、視力、近視/遠視/乱視、視野、眼軸長、眼底写真などの別の検眼機器(屈折力測定器、眼軸長測定器、視力検査器、前眼部測定器、後眼部測定器など)により得られた患者の右眼/左眼に関する情報)と、を含む。
一例として図4に示すように、ビューワ17は、主制御部17A、タッチパネル・ディスプレイ17B、受付デバイス17D、及び外部I/F17Mを備えている。
主制御部17Aは、CPU17H、一次記憶部17I、二次記憶部17J、バスライン17K、及びI/O17Lを含む。CPU17H、一次記憶部17I、及び二次記憶部17Jは、バスライン17Kを介して接続されている。バスライン17Kには、I/O17Lが接続されている。なお、本実施形態では、CPU17Hとして単数のCPUを採用しているが、CPU17Hに代えて複数のCPUを採用してもよい。
CPU17Hは、ビューワ17の全体を制御する。一次記憶部17Iは、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部17Iの一例としては、RAMが挙げられる。二次記憶部17Jは、ビューワ17の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部17Jの一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。二次記憶部164は、ビューワ側プログラム17J1を記憶している。
受付デバイス17Dは、タッチパネル17E、キーボード17F、及びマウス17Gを含み、タッチパネル17E、キーボード17F、及びマウス17Gは、I/O17Lに接続されている。従って、CPU17Hは、タッチパネル17E、キーボード17F、及びマウス17Gの各々によって受け付けられた各種指示を把握することができる。
外部I/F17Mは、管理装置14、サーバ装置15、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU17Hとの間の各種情報の送受信を司る。なお、図4に示す例では、外部I/F17Mは、ケーブル23を介して管理装置14の外部I/F88及びサーバ装置15の外部I/F158に接続されている。
タッチパネル・ディスプレイ17Bは、ディスプレイ17C及びタッチパネル17Eを含む。ディスプレイ17Cは、I/O17Lに接続されており、CPU17Hの制御下で、映像を含む各種情報を表示する。タッチパネル17Eは、透過型のタッチパネルであり、ディスプレイ17Cに重ねられている。
CPU160は、二次記憶部164からサーバ側プログラム164Bを読み出し、読み出したサーバ側プログラム164Bを一次記憶部162に展開する。そして、CPU160は、一次記憶部162に展開したサーバ側プログラム164Bを実行する。
ウエアラブル端末装置12に含まれる主制御部110のCPU120は、端末側プログラム124Aを実行することで、一例として図14に示すように、制御部170及び処理部172として動作する。
処理部172は、CPU120を制御部170として動作させるために必要な処理を行う。制御部170は、レーザ光が網膜46R及び/又は網膜46Lに照射されることで網膜46R及び/又は網膜46Lの視野検査が行われるように光学系27を制御する。
また、処理部172は、本開示の技術に係る第1処理部の一例であり、応答ボタン19の操作に応じた処理を行う。応答ボタン19の操作に応じた処理とは、例えば、後述のマーク投影位置情報を一次記憶部122に記憶する処理、及び/又は、応答ボタン19から入力された応答信号に応じて知覚情報を出力する処理を指す。なお、知覚情報とは、患者がレーザ光を視覚的に知覚したことを示す情報を指す。
更に、処理部172は、本開示の技術に係る第2処理部の一例であり、視野検査の進捗状況に関する情報を送信する処理を行う。視野検査の進捗状況に関する情報の送信先は、例えば、管理装置14であるが、本開示の技術はこれに限定されるものではない。例えば、視野検査の進捗状況に関する情報が、管理装置14以外のパーソナル・コンピュータ及び/又はサーバ装置などの外部装置に送信されるようにしてもよい。
管理装置14に含まれる主制御部80のCPU90は、端末管理プログラム94Aを実行することで、一例として図14に示すように、処理部180及び取得部182として動作する。また、CPU90は、表示制御プログラム94Bを実行することで、一例として図14に示すように、処理部180及び表示制御部184として動作する。
処理部180は、CPU90を取得部182及び表示制御部184として動作させるために必要な処理を行う。取得部182は、視野検査の結果を示す検査結果情報を取得する。検査結果情報の一例としては、後述の視野欠損マップ情報が挙げられる(図9Bのステップ258V参照)。
表示制御部184は、視野検査の進捗状況に応じた画面である進捗状況画面190(図13参照)を生成し、生成した進捗状況画面190を含む画像を示す画像信号を出力する。ディスプレイ86Aは、表示制御部184から入力された画像信号に基づいて進捗状況画面190を表示する。すなわち、表示制御部184は、ディスプレイ86Aに対して、進捗状況画面190を表示させるように、ディスプレイ86Aを制御する。表示制御部184は、無線通信部82,112を介してウエアラブル端末装置12と管理装置14とが通信を行うことで、ウエアラブル端末装置12から視野検査の進捗状況を示す進捗状況情報を取得する。表示制御部184は、進捗状況情報に基づいて進捗状況画面190を生成し、生成した進捗状況画面190をディスプレイ86Aに対して表示させるようにディスプレイ86Aを制御する。
なお、本実施形態では、一例として図13に示すように、進捗状況画面190は、第1進捗状況画面190A、第2進捗状況画面190B、第3進捗状況画面190C、第4進捗状況画面190D、第5進捗状況画面190E、及び第6進捗状況画面190Fに大別される。すなわち、ディスプレイ86Aには、第1進捗状況画面190A、第2進捗状況画面190B、第3進捗状況画面190C、第4進捗状況画面190D、第5進捗状況画面190E、及び第6進捗状況画面190Fが表示される。
次に、眼科システム10の本開示の技術に係る部分の作用について説明する。
先ず、端末管理処理の実行開始の指示が受付デバイス84によって受け付けられた場合にCPU90が端末管理プログラム94Aを実行することで実現される端末管理処理について図7A及び図7Bを参照して説明する。
また、以下では、説明の便宜上、少なくとも1名の患者がウエアラブル端末装置12を適切に装備していることを前提として説明する。
また、以下では、説明の便宜上、固視標が患者に対して視認可能な状態で提示されていることを前提として説明する。
図7Aに示す端末管理処理では、先ず、ステップ200で、処理部180は、受付デバイス84及び/又はサーバ装置15によって必要な情報が全て受け付けられたか否かを判定する。ここで言う「必要な情報」とは、検査対象眼指示情報、患者ID、及びアイウエアID等の眼科検査に要する情報を指す。検査対象眼指示情報とは、右眼44R及び左眼44Lのうちの検査対象の被検眼44を指示する情報(つまり、右眼44R、左眼44L、及び両眼の何れが検査対象かを示す情報)を指す。患者IDとは、患者を一意に特定可能な情報を指す。アイウエアIDとは、患者に装着されたウエアラブル端末装置12を一意に特定可能な情報を指す。
ステップ200において、受付デバイス84によって必要な情報が全て受け付けられていない場合は、判定が否定されて、ステップ202へ移行する。ステップ200において、受付デバイス84によって必要な情報が全て受け付けられた場合は、判定が肯定されて、ステップ206へ移行する。
ステップ202で、処理部180は、不足情報をディスプレイ86Aに対して表示させ、その後、ステップ204へ移行する。ここで、不足情報とは、例えば、眼科検査に要する情報として不足している情報が何かを示すメッセージを指す。
ステップ204で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。端末管理処理に係る終了条件とは、端末管理処理を終了する条件を指す。端末管理処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は端末管理処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
ステップ204において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ200へ移行する。ステップ204において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ206で、処理部180は、患者情報164Aの送信を要求する送信要求情報をサーバ装置15に送信し、その後、ステップ208へ移行する。
本ステップ206の処理が実行されることで、後述のサーバ側処理に含まれるステップ256の処理によりサーバ装置15から患者情報等が送信される。ここで、患者情報等とは、少なくとも患者情報164Aを含む情報を指す。
ステップ208で、処理部180は、無線通信部82によって患者情報等が受信されたか否かを判定する。ステップ208において、患者情報等が受信されていない場合は、判定が否定されて、ステップ210へ移行する。ステップ206において、患者情報等が受信された場合は、判定が肯定されて、ステップ212へ移行する。
ステップ210で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ210において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ208へ移行する。ステップ210において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ212で、処理部180は、無線通信部82,112を介して制御装置18と通信を行うことで、アイウエア端末装置16が患者に正しく装着されているか否かを判定する。ステップ212において、アイウエア端末装置16が患者に正しく装着されていない場合は、判定が否定されて、ステップ214へ移行する。ステップ212において、アイウエア端末装置16が患者に正しく装着されている場合は、判定が肯定されて、ステップ216へ移行する。なお、アイウエア端末装置16が患者に正しく装着されているか否かは、装着検出器139による検出結果に基づいて判定される。
ステップ214で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ214において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ212へ移行する。ステップ214において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ216で、処理部180は、制御装置18と無線通信を行うことで、右眼用インカメラ48R及び左眼用インカメラ48Lに対して、被検眼44の前眼部の撮影を開始させ、その後、ステップ217へ移行する。
以下では、説明の便宜上、右眼用インカメラ48Rによって右眼44Rの前眼部が撮影されて得られた画像を右眼前眼部画像と称し、左眼用インカメラ48Lによって左眼44Lの前眼部が撮影されて得られた画像を左眼前眼部画像と称する。また、以下では、説明の便宜上、右眼前眼部画像及び左眼前眼部画像を区別して説明する必要がない場合、単に「前眼部画像」と称する。
なお、本実施形態において、左眼用インカメラ48Lによる左眼44Lの前眼部の撮影、及び右眼用インカメラ48Rによる右眼44Rの前眼部の撮影は、60fps(フレーム/秒)のフレームレートで行われる。すなわち、左眼用インカメラ48L及び右眼用インカメラ48Rを作動させることにより、被検眼44の前眼部を被写体とした動画像が処理部180によって取得される。
ステップ217で、処理部217は、調整指示情報をウエアラブル端末装置12に送信し、その後、ステップ218へ移行する。ここで、調整指示情報とは、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しをウエアラブル端末装置12に指示する情報を指す。
ステップ218(図7B参照)で、処理部180は、制御装置18と無線通信を行うことで、スピーカ140に対してテスト用の音声を出力させ、スピーカ140の音声が良好か否かを判定する。テスト用の音声とは、例えば、「音が聞こえたら応答ボタンを押して下さい」等の音声を指す。従って、例えば、スピーカ140の音声が良好か否かは、スピーカ140からテスト用の音声が出力されている間に、患者によって応答ボタン19が押されたか否かによって判定される。
ステップ218において、スピーカ140の音声が良好でない場合は、判定が否定されて、ステップ220へ移行する。ステップ218において、スピーカ140の音声が良好の場合は、判定が肯定されて、ステップ222へ移行する。
ステップ220で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ220において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ218へ移行する。ステップ220において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ222で、処理部180は、受付デバイス84によって視野検査指示が受け付けられたか否かを判定する。視野検査指示とは、ウエアラブル端末装置12に対して後述の視野検査処理を実行させる指示を指す。
ステップ222において、受付デバイス84によって視野検査指示が受け付けられていない場合は、判定が否定されて、ステップ224へ移行する。ステップ222において、受付デバイス84によって視野検査指示が受け付けられた場合は、判定が肯定されて、ステップ226へ移行する。
ステップ224で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ224において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ222へ移行する。ステップ224において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ226で、処理部180は、本開示の技術の一例である視野検査指示情報をウエアラブル端末装置12に送信し、その後、ステップ228へ移行する。なお、視野検査指示情報とは、ウエアラブル端末装置12に対して後述の視野検査処理(図9A及び図9B)の実行を指示する情報を指す。また、視野検査指示情報には、ステップ200において受け付けられた必要な情報と、ステップ208において無線通信部82によって受信された患者情報等とが含まれる。
本実施形態では、端末側プログラム124Aに視野検査用の複数のマーク投影位置情報が組み込まれている。マーク投影位置情報とは、網膜46にマークを投影する位置(以下、「マーク投影位置」又は「投影位置」とも言う)を示す情報を指す。ここで言う「マーク」とは、例えば、正常な網膜46であれば白色点として知覚されるマークを指す。網膜46へのマークの投影は、レーザ光の照射により実現される。
また、マークの投影位置情報とともにレーザ光の明るさ(強度)を示す情報を組み合わせて、マーク投影情報を視野検査用に保持しておいてもよい。投影位置と明るさ情報とが組み合わされることにより、網膜の感度の情報を視野検査で得ることが可能となる。
また、端末側プログラム124A内の複数のマーク投影位置情報は、制御装置18の制御部170によってスキャナ28の制御に用いられる。すなわち、スキャナ28が制御部170によって複数のマーク投影位置情報に従って制御されることで、複数のマーク投影位置情報の各々により示される位置(マーク投影位置情報に従った投影位置)にレーザ光が照射される。
ステップ228で、取得部182は、ウエアラブル端末装置12から送信される視野欠損マップ情報が無線通信部82によって受信されたか否かを判定する。なお、視野欠損マップ情報は、後述の端末側処理に含まれるステップ260の処理が処理部172によって実行されることでウエアラブル端末装置12から送信される。
ステップ228において、ウエアラブル端末装置12から送信される視野欠損マップ情報が無線通信部82によって受信されていない場合は、判定が否定されて、ステップ230へ移行する。ステップ228において、ウエアラブル端末装置12から送信される視野欠損マップ情報が無線通信部82によって受信された場合は、判定が肯定されて、ステップ232へ移行する。
ステップ230で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ230において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ228へ移行する。ステップ230において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
ステップ232で、取得部182は、ステップ228において無線通信部82によって受信された視野欠損マップ情報を取得し、その後、ステップ234へ移行する。
ステップ234で、処理部180は、制御装置18と無線通信を行うことで、右眼用インカメラ48R及び左眼用インカメラ48Lに対して、被検眼44の前眼部の撮影を終了させ、その後、ステップ236へ移行する。
ステップ236で、処理部180は、ステップ232で取得部182によって取得された視野欠損マップ情報をサーバ装置15に送信し、その後、端末管理処理を終了する。なお、管理装置14の処理部180と表示制御部184とによって、ウエアラブル端末装置12から送信される情報に基づいて、適宜、図13に示す進捗状況画面190の表示内容が更新され、表示内容が更新された進捗状況画面190がディスプレイ86Aに表示される。
次に、ウエアラブル端末装置12の主電源(図示省略)が投入された場合にCPU120が端末側プログラム124Aを実行することで実現される端末側処理について図8を参照して説明する。
図8に示す端末側処理では、ステップ250で、処理部172は、管理装置14からの視野検査指示情報が無線通信部112によって受信されたか否かを判定する。ステップ250において、管理装置14からの視野検査指示情報が無線通信部112によって受信されていない場合は、判定が否定されて、ステップ252へ移行する。ステップ250において、管理装置14からの視野検査指示情報が無線通信部112によって受信された場合は、判定が肯定されて、ステップ258へ移行する。
ステップ252で、処理部172は、端末管理処理に含まれるステップ217の処理が実行されることによって管理装置14から送信される調整指示情報が無線通信部112によって受信されたか否かを判定する。ステップ252において、調整指示情報が無線通信部112によって受信されていない場合は、判定が否定されて、ステップ256へ移行する。ステップ252において、調整指示情報が無線通信部112によって受信された場合は、判定が肯定されて、ステップ254へ移行する。
ステップ254で、制御部170は、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しを行った後、ステップ256へ移行する。
ステップ254では、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しを行うために、先ず、最新の右眼前眼部画像と最新の左眼前眼部画像とに基づいて瞳孔間距離が制御部170によって検出される。そして、ウエアラブル端末装置12のアイウエアID及び検出された瞳孔間距離等に基づいて、制御部170によって、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しが行われる。なお、ここで、瞳孔間距離とは、右眼前眼部画像により示される右眼44Rの前眼部内の瞳孔と左眼前眼部画像により示される左眼44Lの前眼部内の瞳孔との間の距離を指す。また、反射ミラー42の位置は、ミラー駆動源72が制御部170によって制御されることで調整される。また、レーザ光の光軸の補正及び原点出しは、スキャナ28が制御部170によって制御されることで実現される。
ステップ256で、処理部171は、端末側処理に係る終了条件を満足したか否かを判定する。端末側処理に係る終了条件とは、端末側処理を終了する条件を指す。端末側処理に係る終了条件の一例としては、所定時間が経過したとの条件、管理装置14から終了指示を示す情報を受信したとの条件、及び/又は端末側処理を強制的に終了せざるを得ない不具合がCPU120によって検出されたとの条件等が挙げられる。
ステップ256において、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ250へ移行する。ステップ256において、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
ステップ258で、制御部170は、一例として図9A及び図9Bに示す視野検査処理を実行し、その後、ステップ260へ移行する。
一例として図9Aに示すように、視野検査処理では、ステップ258Aで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、シャッタ121を移動させる必要があるか否かを判定する。
ステップ258Aにおいて、シャッタ121を移動させる必要がない場合は、判定が否定されて、ステップ258Cへ移行する。ステップ258Aにおいて、シャッタ121を移動させる必要がある場合は、判定が肯定されて、ステップ258Bへ移行する。
ステップ258Bで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいてシャッタ121を移動させ、その後、ステップ258Cへ移行する。
ステップ258Cで、制御部170は、光管理部114及び光学系27に対して、検査対象眼の網膜46へのレーザ光による走査を開始させ、その後、ステップ258Dへ移行する。
ステップ258Dで、制御部170は、端末側プログラム124A内の複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示される位置にレーザ光が到達したか否かを判定する。なお、本ステップ258Dでは、「1つのマーク投影位置情報」として、ステップ258Mにおいて判定が肯定された場合、再び同じマーク投影位置情報が用いられる。また、本ステップ258Dでは、「1つのマーク投影位置情報」として、ステップ258Nにおいて判定が否定された場合、複数のマーク投影位置情報のうちの未使用のマーク投影位置情報が用いられる。
本実施形態では、本ステップ258Dにおいて複数のマーク投影位置情報が用いられる順序は予め定められているが、本開示の技術はこれに限定されるものではない。例えば、管理装置14を介して医療サービス者によって指示されたマーク投影位置情報が本ステップ258Dで用いられるようにしてもよい。また、本ステップ258Dで用いられるマーク投影位置情報の順序が、管理装置14を介して医療サービス者によって変更されるようにしてもよい。
ステップ258Dにおいて、端末側プログラム124A内の複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示される位置にレーザ光が到達していない場合は、判定が否定されて、ステップ258Eへ移行する。ステップ258Dにおいて、複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示される位置にレーザ光が到達した場合は、判定が肯定されて、ステップ258Fへ移行する。
ステップ258Eにおいて、制御部170は、端末側処理に係る終了条件を満足したか否かを判定する。ステップ258Eにおいて、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ258Dへ移行する。ステップ258Eにおいて、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
ステップ258Fで、制御部170は、光源制御回路115を介してレーザ光源ユニット113を制御することで、網膜46に対してマークを投影させ、その後、ステップ258Gへ移行する。なお、マークが投影される位置は、ステップ258Dで用いられた最新のマーク投影位置情報により示される位置である。
ステップ258Gで、制御部170は、応答ボタン19が押されたか否かを判定する。なお、応答ボタン19が押されたか否かは、応答ボタン19から応答信号が入力されたか否かによって判定される。
ステップ258Gにおいて、応答ボタン19が押されていない場合は、判定が否定されて、ステップ258Hへ移行する。ステップ258Gにおいて、応答ボタン19が押された場合は、判定が肯定されて、ステップ258Jへ移行する。
ステップ258Jで、制御部170は、最新のマーク投影位置情報を一次記憶部122に記憶し、その後、ステップ258Kへ移行する。ここで、最新のマーク投影位置情報とは、ステップ258Dで用いられた最新のマーク投影位置情報を指し、換言すると、応答ボタン19が押されたタイミングで網膜46に投影されているマークに関するマーク投影位置情報を指す。
ステップ258Hで、制御部170は、ステップ258Fの処理が実行されてから予め定められた時間(例えば、2秒)が経過したか否かを判定する。ステップ258Hにおいて、ステップ258Fの処理が実行されてから予め定められた時間が経過していない場合は、判定が否定されて、ステップ258Gへ移行する。ステップ258Hにおいて、ステップ258Fの処理が実行されてから予め定められた時間が経過した場合は、判定が肯定されて、ステップ258Iへ移行する。
ステップ258Iで、制御部170は、端末側処理に係る終了条件を満足したか否かを判定する。ステップ258Iにおいて、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ258Kへ移行する。ステップ258Iにおいて、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
ステップ258Kで、制御部170は、患者の視線が固視標からずれているか否かを判定する。患者の視線が固視標からずれているか否かは、最新の前眼部画像に基づいて判定される。
ステップ258Kにおいて、患者の視線が固視標からずれている場合は、判定が肯定されて、ステップ258Lへ移行する。ステップ258Kにおいて、患者の視線が固視標からずれていない場合は、判定が否定されて、ステップ258Nへ移行する。
ステップ258Lで、制御部170は、スピーカ140に対して、視線誘導音声を出力させ、その後、ステップ258Mへ移行する。
視線誘導音声とは、視線を固視標の方向へ誘導する音声を指す。視線誘導音声は、視線と固視標との位置関係に応じて生成される。視線の位置は、最新の前眼部画像に基づいて特定される。なお、視線誘導音声の一例としては、「固視標を見て下さい。」という内容の音声、又は、「もう少し右側を向いて下さい。」という内容の音声等が挙げられる。
ステップ258Mで、制御部170は、患者の視線と固視標とのずれが解消されたか否かを判定する。患者の視線と固視標とのずれが解消されたか否かは、最新の前眼部画像に基づいて判定される。
ステップ258Mにおいて、患者の視線と固視標とのずれが解消されていない場合は、判定が否定されて、ステップ258Lへ移行する。ステップ258Mにおいて、患者の視線と固視標とのずれが解消された場合は、判定が肯定されて、ステップ258Dへ移行する。
ステップ258Nで、制御部170は、全てのマーク投影位置にマークが投影されたか否かを判定する。ステップ258Nにおいて、全てのマーク投影位置にマークが投影されていない場合は、判定が否定されて、ステップ258Dへ移行する。ステップ258Nにおいて、全てのマーク投影位置にマークが投影された場合は、判定が肯定されて、図9Bに示すステップ258Rへ移行する。
ステップ258Rで、制御部170は、視野検査が未実施の検査対象眼があるか否かを判定する。視野検査が未実施の検査対象眼があるか否かは、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて判定される。
ステップ258Rにおいて、視野検査が未実施の検査対象眼がある場合は、判定が肯定されて、ステップ258Sへ移行する。ステップ258Rにおいて、視野検査が未実施の検査対象眼がない場合は、判定が否定されて、ステップ258Uへ移行する。
ステップ258Sで、制御部170は、スピーカ140に対して、変更通知音声を出力させ、その後、ステップ258Tへ移行する。変更通知音声とは、検査対象眼が変更されることを患者に通知する音声を指す。なお、変更通知音声の一例としては、「右眼の視野検査が終わりましたので、次に左眼の視野検査を行います。」という内容の音声が挙げられる。
ステップ258Tで、制御部170は、光管理部114及び光学系27を制御することで、光管理部114及び光学系27に対して、検査対象眼の網膜46へのレーザ光による走査を終了させ、その後、ステップ258Bへ移行する。
ステップ258Uで、制御部170は、光管理部114及び光学系27を制御することで、光管理部114及び光学系27に対して、検査対象眼の網膜46へのレーザ光による走査を終了させ、その後、ステップ258Vへ移行する。
ステップ258Vで、制御部170は、ステップ258Jの処理が実行されることで一次記憶部122に記憶されたマーク投影位置情報に基づいて視野欠損マップ情報を作成し、その後、視野検査処理を終了する。
なお、視野欠損マップ情報とは、患者ID、視野欠損マップを描くための情報、及び視野欠損マップの画像等を含む情報を指す。視野欠損マップとは、患者の視野の欠損箇所を特定可能なマップを指す。図13に示す第2進捗状況画面190Bの画像表示領域190B3には、視野欠損マップ240が表示されている。視野欠損マップ240では、無彩色の濃淡で欠損箇所と正常箇所とが表現されており、主な欠損箇所は、黒色で表示されている。
図8に示すステップ260で、処理部172は、視野検査処理に含まれるステップ258V(図9B参照)の処理が実行されることで作成された視野欠損マップ情報を、無線通信部112を介して管理装置14に送信し、その後、端末側処理を終了する。
次に、サーバ装置15の主電源(図示省略)が投入された場合にCPU160がサーバ側プログラム164Bを実行することで実現されるサーバ側処理について図10を参照して説明する。
図10に示すサーバ側処理では、先ず、ステップ250Aで、CPU160は、管理装置情報を受信したか否かを判定する。管理装置情報とは、端末管理処理が管理装置14のCPU90によって実行されることでサーバ装置15に送信された情報を指す。
ステップ250Aにおいて、管理装置情報を受信していない場合は、判定が否定されて、ステップ258Aへ移行する。ステップ250Aにおいて管理装置情報を受信した場合は、判定が肯定されて、ステップ252Aへ移行する。
ステップ252Aで、CPU160は、ステップ250Aで受信した管理装置情報が送信要求情報か否かを判定する。ステップ252Aにおいて、ステップ250Aで受信した管理装置情報が送信要求情報でない場合、すなわち、ステップ250Aで受信した管理装置情報が視野欠損マップ情報の場合は、判定が否定されて、ステップ254Aへ移行する。ステップ252Aにおいて、ステップ250Aで受信した管理装置情報が送信要求情報の場合は、判定が肯定されて、ステップ256Aへ移行する。
ステップ254Aで、CPU160Aは、視野欠損マップ情報に基づいて、視野検査の結果を示すレポートである視野検査結果レポートを作成し、作成した視野検査結果レポートを二次記憶部164に記憶し、その後、ステップ258Aへ移行する。作成された視野検査結果レポートは、例えば、ビューワ17等の外部機器から要求があった場合にビューワ17に送信される。
ステップ256Aで、CPU160は、前述した患者情報等を管理装置14に送信し、その後、ステップ258Aへ移行する。なお、患者情報等に含まれる患者情報164Aは、二次記憶部164から取得される。
ステップ258Aで、CPU160は、サーバ側処理に係る終了条件を満足したか否かを判定する。サーバ側処理に係る終了条件とは、サーバ側処理を終了する条件を指す。サーバ側処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス154が終了指示を受け付けたとの条件、及び/又はサーバ側処理を強制的に終了せざるを得ない不具合がCPU160によって検出されたとの条件等が挙げられる。
ステップ258Aにおいて、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ250Aへ移行する。ステップ258Aにおいて、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、サーバ側処理を終了する。
次に、端末管理処理の実行が開始されることでCPU90が表示制御プログラム94Bを実行することによって実現される表示制御処理について図11を参照して説明する。
以下では、説明の便宜上、図7Aに示す端末管理処理に含まれるステップ200の処理が実行されることで、受付デバイス84によって必要な情報が全て受け付けられていることを前提として説明する。
また、以下では、説明の便宜上、管理装置14は最大で6台のウエアラブル端末装置12を管理することができることを前提として説明する。なお、6台は、あくまでも一例の台数であり、様々な最大管理台数をとることができる。更に、以下では、説明の便宜上、管理装置14と5台のウエアラブル端末装置12との通信が確立されている状態であることを前提とし、表示制御処理については、5台のウエアラブル端末装置12のうちの1台のウエアラブル端末装置12を例に挙げて説明する。
図11に示す表示制御処理では、ステップ400で、表示制御部184は、一例として図13に示すように、ディスプレイ86Aに対して進捗状況画面190の表示を開始させ、その後、ステップ402へ移行する。
ステップ402で、表示制御部184は、装置情報を受信したか否かを判定する。ここで言う「装置情報」とは、ウエアラブル端末装置12と通信を行うことでウエアラブル端末装置12の処理部171から無線通信部112を介して送信された端末情報と、サーバ装置15と通信を行うことでサーバ装置15から送信された患者情報等とを指す。端末情報は、ウエアラブル端末装置12に関する情報である。ここで、ウエアラブル端末装置12に関する情報とは、例えば、眼科検査の進捗状況に関する情報を指す。眼科検査の進捗状況に関する情報には、最新の前眼部画像と、視野検査の進捗の程度を示す進捗程度情報と、アイウエア端末装置16が患者に正しく装着されているか否かを示すアイウエア着脱情報と、が含まれる。
ステップ402において、装置情報を受信していない場合は、判定が否定されて、ステップ416へ移行する。ステップ402において、装置情報を受信した場合は、判定が肯定されて、ステップ404へ移行する。
ステップ404で、表示制御部184は、受信した装置情報が端末情報か否かを判定する。ステップ404において、受信した装置情報が端末情報でない場合、すなわち、受信した装置情報が患者情報164Aの場合は、判定が否定されて、ステップ412へ移行する。ステップ404において、受信した装置情報が端末情報の場合は、判定が肯定されて、ステップ406へ移行する。
ステップ406で、表示制御部184は、受信した端末情報に関連する情報が進捗状況画面190に表示されているか否かを判定する。ステップ406において、受信した端末情報に関連する情報が進捗状況画面190に表示されていない場合は、判定が否定されて、ステップ408へ移行する。ステップ406において、受信した端末情報に関連する情報が進捗状況画面190に表示されている場合は、判定が肯定されて、ステップ410へ移行する。
ステップ408で、表示制御部184は、ディスプレイ86Aに対して、端末情報に関連する情報の表示を開始させ、その後、ステップ416へ移行する。これにより、進捗状況画面190には、端末情報に関連する情報が表示される。
一例として図13に示すように、第1進捗状況画面190Aは、端末ID表示領域190A1、進捗状況表示領域190A2、前眼部画像表示領域190A3、アイウエア着用状況表示領域190A4、及び患者情報表示領域190A5を有する。端末ID表示領域190A1、進捗状況表示領域190A2、前眼部画像表示領域190A3、及びアイウエア着用状況表示領域190A4には、端末情報に関連する情報が表示され、患者情報表示領域190A5には、患者情報164Aが表示される。
端末ID表示領域190A1には、管理装置14との通信が確立されている5台のウエアラブル端末装置12のうちの第1番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。なお、本実施形態では、受信した端末情報に対応するアイウエア端末装置16のアイウエアIDが端末IDとして採用されている。
進捗状況表示領域190A2には、主に視野検査の進行状況が表示される。図13に示す例では、視野検査対象眼を特定可能な情報として、「視野検査対象:右眼のみ」という内容の情報と、視野検査中の検査対象眼を特定可能な情報として、「右眼:検査中」という内容の情報と、進捗状況の程度を示すインジケータと、が表示されている。進捗状況表示領域190A2では、インジケータが検査中の位置を指し示している。
前眼部画像表示領域190A3には、患者情報表示領域190A5に表示されている患者情報164により特定される患者の最新の前眼部画像が表示される。患者情報表示領域190A5に表示されている患者情報164Aにより特定される患者とは、換言すると、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を現時点で使用している患者を指す。図13に示す例では、右眼前眼部画像と左眼前眼部画像とが表示されており、検査対象眼でない左眼前眼部画像がグレイアウト表示されている。
アイウエア着用状況表示領域190A4には、アイウエア端末装置16が患者に装着された状態であるか否かを示す情報が表示される。図13に示す例では、アイウエア端末装置16が患者に装着されていることを示す「着用中」という内容の情報が表示されている。また、アイウエア着用状況表示領域190A4の背景色は、進捗状況に応じて変化する。例えば、背景色は、白色、黄色、桃色、及び灰色の何れかである。白色は、視野検査前であることを表し、黄色は、視野検査中であることを表し、桃色は、視野検査が完了したことを表し、灰色は、視野検査の検査対象眼が指示されていないことを表す。
なお、図13に示す例では、第1進捗状況画面190Aは、端末IDが“EA”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第2進捗状況画面190Bは、端末IDが“EC”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第3進捗状況画面190Cは、端末IDが“YV”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第4進捗状況画面190Dは、端末IDが“MI”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。更に、第5進捗状況画面190Eは、端末IDが“GZ”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。
第2進捗状況画面190Bは、端末ID表示領域190B1、進捗状況表示領域190B2、前眼部画像表示領域190B3、アイウエア着用状況表示領域190B4、及び患者情報表示領域190B5を有する。
図13に示す例において、端末ID表示領域190B1には、管理装置14との通信が確立されている5台のウエアラブル端末装置12のうちの第2番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190B2には、「検査完了」という内容の情報が表示されている。また、進捗状況表示領域190B2では、インジケータが検査完了の位置を指し示している。前眼部画像表示領域190B3には、前述したように、視野欠損マップ240が表示されている。アイウエア着用状況表示領域190B4には、アイウエア端末装置16が患者に装着されていないことを示す情報として、「非着用」という内容の情報が表示されている。
第3進捗状況画面190Cは、端末ID表示領域190C1、進捗状況表示領域190C2、前眼部画像表示領域190C3、アイウエア着用状況表示領域190C4、及び患者情報表示領域190C5を有する。
図13に示す例において、端末ID表示領域190C1には、管理装置14との通信が確立されている5台のウエアラブル端末装置12のうちの第3番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190C2には、「右眼:検査中」という内容の情報が表示されている。また、進捗状況表示領域190C2では、インジケータが検査中の位置を指し示している。前眼部画像表示領域190C3には、患者情報表示領域190C5に表示されている患者情報164Aにより特定される患者の前眼部画像が表示されている。また、アイウエア着用状況表示領域190C4には、アイウエア端末装置16が患者に装着されていることを示す情報として、「非着用」という内容の情報と、「Error」という内容の情報とが表示されている。なお、「Error」という内容の情報の表示は、後述のステップ452のエラー処理が実行されることで実現される。
第4進捗状況画面190Dは、端末ID表示領域190D1、進捗状況表示領域190D2、前眼部画像表示領域190D3、アイウエア着用状況表示領域190D4、及び患者情報表示領域190D5を有する。
図13に示す例において、端末ID表示領域190D1には、管理装置14との通信が確立されている5台のウエアラブル端末装置12のうちの第4番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190D2には、「音声案内中」という内容の情報が表示されている。「音声案内中」とは、例えば、図9Aに示すステップ258L又は図9Bに示すステップ258Sの処理が実行されることでスピーカ140から出力される音声によって患者が案内されている状態を指す。また、前眼部画像表示領域190D3には、患者情報表示領域190D5に表示されている患者情報164Aにより特定される患者の最新の前眼部画像が表示されている。また、アイウエア着用状況表示領域190D4には、アイウエア端末装置16が患者に装着されていることを示す情報として、「着用中」という内容の情報が表示されている。
また、図13に示す例では、端末IDが“GZ”のアイウエア端末装置16を含むウエアラブル端末装置12が充電中のため、第5進捗状況画面190Eには、充電中であることを視覚的に認識可能な情報として「充電中」という内容の情報が表示されている。また、第5進捗状況画面190Eには、バッテリの容量を示す情報として、「バッテリ88%」という内容の情報と、バッテリの容量を示すインジケータとが表示されている。
なお、図13に示す例では、現時点で管理装置14に対してウエアラブル端末装置12が5台しか通信可能な状態で接続されていないので、第6進捗状況画面190Fが非表示状態になっている。
図11に示すステップ410で、表示制御部184は、ディスプレイ86Aに対して、端末情報に関連する情報の表示内容を更新させ、その後、ステップ416へ移行する。これにより、端末ID表示領域190A1、進捗状況表示領域190A2、前眼部画像表示領域190A3、及びアイウエア着用状況表示領域190A4の表示内容が更新される。
例えば、アイウエア端末装置16が患者から外されると、アイウエア着用状況表示領域190A4には、第2進捗状況画面190Bのアイウエア着用状況表示領域190B4に示すように、「非着用」という内容の情報が表示される。また、後述のステップ452のエラー処理が実行されると、第3進捗状況画面190Cのアイウエア着用状況表示領域190C4に示すように、「Error」という内容の情報が表示される。また、視野検査が完了すると、第2進捗状況画面190Bの進捗状況表示領域190B2に示すように、「検査完了」という内容の情報が表示され、且つ、インジケータが検査完了の位置を指し示す状態になる。更に、スピーカ140からの音声による案内中の場合は、第4進捗状況画面190Dの進捗状況表示領域190D2に示すように、「音声案内中」とう内容の情報が表示される。
ステップ412で、表示制御部184は、患者情報64Aが非表示状態か否かを判定する。例えば、表示制御部184は、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を使用している患者に関する患者情報64Aが患者情報表示領域190A5に表示されていないか否かを判定する。
ステップ412において、患者情報64Aが非表示状態の場合は、判定が肯定されて、ステップ414へ移行する。ステップ412において、患者情報64Aが非表示状態でない場合、すなわち、患者情報64Aが表示されている場合は、判定が否定されて、ステップ416へ移行する。
ステップ414で、表示制御部184は、ディスプレイ86Aに対して患者情報64Aの表示を開始させ、その後、ステップ416へ移行する。これにより、例えば、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を使用している患者に関する患者情報64Aであれば、患者情報64Aは患者情報表示領域190A5に表示される。
ステップ416で、表示制御部184は、表示制御処理に係る終了条件を満足したか否かを判定する。表示制御処理に係る終了条件とは、表示制御処理を終了する条件を指す。表示制御処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は表示制御処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
ステップ416において、表示制御処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ402へ移行する。ステップ416において、表示制御処理に係る終了条件を満足した場合は、判定が肯定されて、ステップ418へ移行する。
ステップ418で、表示制御部184は、ディスプレイ86Aに対して進捗状況画面190の表示を終了させ、その後、表示制御処理を終了する。
次に、端末管理処理の実行が開始されることでCPU90が通信エラー対応プログラム94Cを実行することによって実現される通信エラー対応処理について図12を参照して説明する。以下、通信エラー対応処理については、説明の便宜上、図13に示す進捗状況画面190Cの端末ID表示領域190C1に表示されている端末IDにより特定されるウエアラブル端末装置12、管理装置14、及びサーバ装置15を例に挙げて説明する。
図12に示す通信エラー対応処理では、ステップ450で、表示制御部184は、通信エラーが発生したか否かを判定する。ここで言う「通信エラー」とは、例えば、ウエアラブル端末装置12と管理装置14との間での通信上のエラー、又は、管理装置14とサーバ装置15との間での通信上のエラーを指す。通信上のエラーとは、例えば、意図しないタイミングで通信が切断される現象を指す。
ステップ450において、通信エラーが発生していない場合は、判定が否定されて、ステップ454へ移行する。ステップ450において、通信エラーが発生した場合は、判定が肯定されて、ステップ452へ移行する。
ステップ452で、表示制御部184は、エラー処理を実行し、その後、ステップ454へ移行する。エラー処理とは、例えば、アイウエア着用状況表示領域190C4に「Error」という内容の情報が表示されるようにディスプレイ86Aを制御する処理を指す。また、エラー処理の他の例としては、「通信エラーが発生しました」等の音声をスピーカ(図示省略)に対して出力させる処理が挙げられる。
ステップ454で、表示制御部184は、通信エラー対応処理に係る終了条件を満足したか否かを判定する。通信エラー対応処理に係る終了条件とは、通信エラー対応処理を終了する条件を指す。通信エラー対応処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は通信エラー対応処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
ステップ454において、通信エラー対応処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ450へ移行する。ステップ454において、通信エラー処理に係る終了条件を満足した場合は、判定が肯定されて、通信エラー対応処理を終了する。
次に、ウエアラブル端末装置12と、管理装置14と、サーバ装置15と、ビューワ17との間での処理の流れについて図15を参照しながら説明する。
一例として図15に示すように、管理装置14は、患者情報等の送信をサーバ装置15に要求する(S1)。サーバ装置15は、管理装置14からの要求に応じて患者情報等を管理装置14に送信する(S2)。
管理装置14は、サーバ装置15から送信された患者情報等を受信すると、準備処理を実行する(S3)。ここで、準備処理とは、例えば、図7A及び図7Bに示すステップ212~ステップ220の処理を指す。管理装置14は、準備処理中に、各種情報の送信をウエアラブル端末装置12に対して要求する(S4)。各種情報とは、例えば、ウエアラブル端末装置12の動作状況を示す情報等を指す。各種情報としては、例えば、被検眼44の前眼部の撮影が開始されたか否かを示す情報、瞳孔間距離が検出されたか否かを示す情報、及び/又は応答ボタン19が押されたか否かを示す情報等を指す。
ウエアラブル端末装置12は、管理装置14からの要求に応じて各種情報を管理装置14に送信する(S5)。管理装置14は、準備処理を完了すると、ウエアラブル端末装置12に対して視野検査の実行を要求する(S6)。
ウエアラブル端末装置12は、一例として図9A及び図9Bに示すように視野検査処理を実行することで、管理装置14からの要求に応じて検査対象眼に対して視野検査を実行する(S7)。ウエアラブル端末装置12は、視野検査の結果を管理装置14に提供する(S8)。ここで、「視野検査の結果」とは、例えば、マーク投影位置情報及び知覚情報を指す。なお、「視野検査の結果」は、応答ボタン19が押されたタイミングで投影されたマークの位置に関するマーク投影位置情報のみであってもよい。
上記第1実施形態では、一例として図9Bに示すように、ウエアラブル端末装置12が視野欠損マップ情報を作成しているが(図9Bのステップ258V参照)、本開示の技術はこれに限定されるものではない。例えば、図15に示すように、管理装置14が視野欠損マップ情報を作成してもよい。
すなわち、図15に示す例では、管理装置14が、視野検査の結果に基づいて視野欠損マップ240(図13参照)を作成する(S9)。このように、管理装置14にて視野欠損マップ240が作成されると、管理装置14は、作成した視野欠損マップ240を含む情報である視野欠損マップ情報をサーバ装置15に送信する(S10)。
サーバ装置15は、管理装置14から送信された視野欠損マップ情報を受信し、受信した視野欠損マップ情報に基づいて視野検査の結果を示す視野検査結果レポートを作成する(S11)。また、サーバ装置15は、作成した視野検査結果レポートを二次記憶部94に記憶する(S12)。そして、サーバ装置15は、作成した視野検査結果レポートをビューワ17に送信する(S13)。
なお、ウエアラブル端末装置12又は管理装置14によって視野欠損マップ240が作成されるだけなく、サーバ装置15によって視野欠損マップが改めて描画され、視野検査結果レポートが作成されるようにしてもよい。また、例えば、同じ患者(患者IDが同一の患者)の視野欠損マップ情報だけで視野欠損マップが作成されるのではなく、眼底画像上に視野の欠損エリアが重畳表示されたり、3D-OCT画像上に視野の欠損エリアが重畳表示されたりするようにしてもよい。
ビューワ17は、視野検査結果レポートを受信し、受信した視野検査結果レポートをディスプレイ17Cに表示する(S14)。
なお、上記のS14に示したビューワ17による処理は、CPU17Hがビューワ側プログラム17J1を読み出し、読み出したビューワ側プログラム17J1を実行することで実現される処理である。
ところで、従来は、患者A~Cが来院/受付を済ませてから、視野検査⇒診察⇒眼底撮影の順に処置が行われる場合、1台の据置型の視野検査装置に対して1人の医療サービス者が操作を行って1人ずつの患者に対して順に視野検査を行っていた。そのため、図24に示す従来例のように、患者A~Cに対してシーケンシャルに処置が進められていた。
これに対し、本実施形態に係る眼科システム10では、複数台のウエアラブル端末装置12が管理装置14と無線通信可能に接続されており、管理装置14が複数台のウエアラブル端末装置12を一元的に管理することができる。そのため、一例として図16に示すように、患者A~Cに対して1人の医療サービス者がパラレルで視野検査を実施することができる。
図16に示す例のように、同時に3人の患者が来院した場合、視野検査⇒診察⇒眼底撮影の順に処置が行われるのに要する総時間(以下、単に「総時間」と称する)が二人目以降は短くなる。以下、より詳細に説明する。
従来の視野検査装置を使用した場合の一人目の患者についての総時間は“TEA”であり、眼科システム10を使用した場合の一人目の患者についての総時間も“TEA”である。しかし、従来の視野検査装置を使用した場合の二人目の患者についての総時間は“TEB2”であり、眼科システム10を使用した場合の二人目の患者についての総時間は“TEB1”(<TEB2)である。すなわち、眼科システム10を使用した場合の二人目の患者は、従来の視野検査装置を使用した場合の二人目の患者に比べ、“TEB2-TEB1”だけ院内での滞在時間が短い。また、従来の視野検査装置を使用した場合の三人目の患者についての総時間は“TEC2”であり、眼科システム10を使用した場合の三人目の患者についての総時間は“TEC1”(<TEC2)である。すなわち、眼科システム10を使用した場合の三人目の患者は、従来の視野検査装置を使用した場合の三人目の患者に比べ、“TEC2-TEC1”だけ院内での滞在時間が短い。
また、眼科システム10を使用することで、各患者は、従来例よりも診察及び眼科撮影を早く受けることができる。これは、患者にかかる負担を軽減するだけでなく、眼科側にとってもメリットがある。ここで言うメリットとは、従来よりも業務を早く進めることができる、というメリットである。従って、眼科側は、眼科システム10を使用することで、従来と同じ診療時間内で、従来よりも多くの患者に対して、視野検査⇒診察⇒眼底撮影という一連の処置を施すことが可能となる。
また、従来の据置型の視野検査装置に対して、ウエアラブル端末装置12は携帯型なので、設置スペースの確保を必要としない。更に、ウエアラブル端末装置12が携帯型なので、待合室などで視野検査を行うことができる。よって、ウエアラブル端末装置12によれば、従来の据置型の視野検査装置を使用する場合に比べ、患者の院内での滞在時間を短くすることができる。
以上説明したように、ウエアラブル端末装置12は、レーザ光を網膜46R及び/又は網膜46Lに導く光学系27を備えている。そして、ウエアラブル端末装置12は、レーザ光が網膜46R及び/又は網膜46Lに照射されることで網膜46R及び/又は網膜46Lの視野検査が行われるように光学系27を制御する制御部170を備えている。従って、ウエアラブル端末装置12によれば、視野検査の効率的な実施に寄与することができる。
また、ウエアラブル端末装置12は、右眼用光学系27Rと左眼用光学系27Lとを備えている。従って、ウエアラブル端末装置12によれば、1つのレーザ光源114で両眼に対して視野検査を実施することができる。
また、ウエアラブル端末装置12は、レーザ光を走査するスキャナ28と、スキャナ28により走査されたレーザ光を網膜46に反射させる反射ミラー42と、を備えている。従って、ウエアラブル端末装置12によれば、白内障の患者、すなわち、水晶体が白濁している患者であっても、視野検査に要するレーザ光を視覚的に知覚させることができる。
また、ウエアラブル端末装置12は、被検眼44の前眼部を撮影する右眼用インカメラ48R及び左眼用インカメラ48Lを備えている。そして、制御部170は、右眼用インカメラ48R及び左眼用インカメラ48Lによって撮影されて得られた右眼前眼部画像及び左眼前眼部画像に基づいて瞳孔間距離を検出し、検出した瞳孔間距離に基づいて反射ミラー42の位置を制御する。従って、ウエアラブル端末装置12によれば、瞳孔間距離が異なる患者であっても、視野検査を精度良く実施することができる。
また、ウエアラブル端末装置12は、レーザ光が網膜46に照射された場合にレーザ光を患者が知覚したか否かを示す操作を受け付ける応答ボタン19を備えている。そして、ウエアラブル端末装置12は、応答ボタン19によって受け付けられ操作に応じた情報を出力する出力部172を備えている。なお、上記第1実施形態では、出力部172が知覚情報を管理装置14に送信している。従って、ウエアラブル端末装置12によれば、医療サービス者は網膜46内でのレーザ光の不感位置を容易に把握することができる。
また、ウエアラブル端末装置12は、管理装置14に対して視野検査の管理を行わせるように管理装置14との間で通信を行う無線通信部112を備えている。従って、ウエアラブル端末装置12によれば、視野検査の管理に関する処理負荷を軽減することができる。
なお、視野検査の管理は、例えば、視野検査に用いられるレーザ光の管理と、レーザ光が網膜46に照射されることで、照射されたレーザ光を患者が視覚的に知覚したことを示す知覚情報の管理と、を含む管理である。従って、ウエアラブル端末装置12は、少なくとも視野検査に用いられるレーザ光の管理と知覚情報の管理とに関する処理負荷を軽減することができる。
また、管理装置14は、検査対象眼指示情報と患者情報64Aとをウエアラブル端末装置12に提供する提供部180を備えている。そして、管理装置14は、ウエアラブル端末装置12と無線通信を行うことで、ウエアラブル端末装置12から知覚情報を取得する取得部182を備えている。従って、管理装置14によれば、視野検査の効率的な実施に寄与することができる。
また、管理装置14は、視野検査の進捗状況に応じた進捗状況画面190をディスプレイ86Aに対して表示させるようにディスプレイ86Aを制御する表示制御部184を備えている。従って、ウエアラブル端末装置12は、医療サービス者に対して視野検査の進捗状況を容易に把握させることができる。
また、管理装置14では、提供部180が、複数台のウエアラブル端末装置12の各々と無線通信を行うことで、ウエアラブル端末装置12の各々に対して検査対象眼指示情報と患者情報64Aとを提供する。そして、取得部182は、複数台のウエアラブル端末装置12の各々と無線通信を行うことで、ウエアラブル端末装置12の各々から知覚情報を取得する。従って、ウエアラブル端末装置12は、1人の医療サービス者が複数人の患者に対して視野検査を並行して実施することができる。
[第2実施形態]
上記第1実施形態では、1つの光源からレーザ光が照射される場合について説明したが、本第2実施形態では、2つの光源の各々からレーザ光が照射される場合について説明する。
上記第1実施形態では、1つの光源からレーザ光が照射される場合について説明したが、本第2実施形態では、2つの光源の各々からレーザ光が照射される場合について説明する。
なお、本第2実施形態では、上記第1実施形態と同一の構成要素については同一の符号を付し、その説明を省略し、上記第1実施形態と異なる部分について説明する。
一例として図17に示すように本第2実施形態に係る眼科システム500は、眼科システム10に比べ、ウエアラブル端末装置12に代えてウエアラブル端末装置502を有する点が異なる。
ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、制御装置18に代えて制御装置503を有する点、アイウエア端末装置16に代えてアイウエア端末装置506を有する点、及び光分岐部20を有しない点が異なる。また、ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、光ファイバ30,38,40を有しない点が異なる。なお、眼科システム500も、眼科システム10と同様に、ウエアラブル端末装置502を複数台有しており、各々のウエアラブル端末装置502は、管理装置14と無線通信可能な状態で接続される。
アイウエア端末装置506は、アイウエア端末装置16に比べ、光学系27に代えて光学系507を有する点、スキャナ28に代えてスキャナ508を有する点、
光学系507は、光学系27に比べ、右眼用光学系27Rに代えて右側用光学系507Rを有する点、及び左眼用光学系27Lに代えて左側用光学系507Lを有する点が異なる。また、光学系506は、光学系27に比べ、スキャナ28に代えてスキャナ508を有する点が異なる。
スキャナ508は、スキャナ28に比べ、右眼用スキャナ28Rに代えて右眼用スキャナ508Rを有する点、及び左眼用スキャナ28Lに代えて左眼用スキャナ508Lを有する点が異なる。
右眼用スキャナ508Rは、右眼用スキャナ28Rに比べ、右眼用照射部52に代えて右眼用レーザ光源510Rを有する点が異なる。右眼用レーザ光源510Rは、本開示の技術に係る右眼用光源の一例である。右眼用レーザ光源510Rは、右眼用照射部52と同様にレーザ光をMEMSミラー54に射出する。右眼用レーザ光源510Rは、右眼用レーザ光源制御回路(図示省略)を介してバスライン32に接続されており、CPU120の制御下で作動する。なお、右眼用レーザ光源制御回路は、CPU120の指示に従って右眼用レーザ光源510Rを制御するドライバである。
左眼用スキャナ508Lは、左眼用スキャナ28Lに比べ、左眼用照射部58に代えて左眼用レーザ光源510Lを有する点が異なる。左眼用レーザ光源510Lは、本開示の技術に係る左眼用光源の一例である。左眼用レーザ光源510Lは、左眼用照射部58と同様にレーザ光をMEMSミラー60に射出する。左眼用レーザ光源510Lは、左眼用レーザ光源制御回路(図示省略)を介してバスライン32に接続されており、CPU120の制御下で作動する。なお、右眼用レーザ光源制御回路は、CPU120の指示に従って左眼用レーザ光源510Lを制御するドライバである。
一例として図18に示すように、制御装置503は、制御装置18に比べ、主制御部110に代えて主制御部510を有する点が異なる。主制御部510は、主制御部110に比べ、端末側プログラム124Aに代えて端末側プログラム524Aが二次記憶部124に記憶されている点が異なる。
CPU120は、二次記憶部124から端末側プログラム524Aを読み出し、読み出した端末側プログラム524Aを一次記憶部162に展開する。そして、CPU120は、一次記憶部122に展開した端末側プログラム524Aを実行する。
CPU120は、端末側プログラム524Aを実行することで、一例として図23に示すように、制御部570及び出力部172として動作する。
制御部570は、右眼用レーザ光及び/又は左眼用レーザ光の光学系507への供給が行われることで網膜46R及び/又は網膜46Lの視野検査が行われるように右眼用レーザ光源510R及び左眼用レーザ光源510Lを制御する。右眼用レーザ光は、本開示の技術に係る右眼用光の一例であり、左眼用レーザ光は、本開示の技術に係る左眼用光の一例である。なお、右眼用レーザ光とは、右眼用レーザ光源510Rからのレーザ光を指す。左眼用レーザ光とは、左眼用レーザ光源510Lからのレーザ光を指す。
なお、本第2実施形態に係るウエアラブル端末装置502では、右眼用レーザ光源フラグがオンされた場合に右眼用レーザ光源510Rの使用が許可され、左眼用レーザ光源フラグがオンされた場合に左眼用レーザ光源510Lの使用が許可される。以下では、説明の便宜上、右眼用レーザ光源フラグ及び左眼用レーザ光源フラグを区別して説明する必要がない場合、「レーザ光源フラグ」と称する。
次に、ウエアラブル端末装置502の主電源(図示省略)が投入された場合にCPU120が端末側プログラム524Aを実行することで実現される端末側処理について図19及び図9Bを参照して説明する。
なお、以下では、説明の便宜上、上記第1実施形態に係る端末管理処理と同一の処理については同一のステップ番号を付してその説明を省略する。
本第2実施形態に係る端末側処理は、上記第1実施形態に係る端末側処理に比べ、ステップ258Aに代えてステップ258A1を有する点、及びステップ258Bに代えてステップ258B1を有する点が異なる。また、本第2実施形態に係る端末側処理は、上記第1実施形態に係る端末側処理に比べ、ステップ258Cに代えてステップ258C1を有する点、及びステップ258Uに代えてステップ258U1(図9B参照)を有する点が異なる。
図19に示すステップ258A1で、制御部570は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、現時点でオンされているレーザ光源フラグを変更する必要があるか否かを判定する。
ステップ258A1において、現時点でオンされているレーザ光源フラグを変更する必要がない場合は、判定が否定されて、ステップ258C1へ移行する。ステップ258A1において、現時点でオンされているレーザ光源フラグを変更する必要がある場合は、判定が肯定されて、ステップ258B1へ移行する。
ステップ258A1で、制御部570は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、レーザ光源フラグの変更を行い、その後、ステップ308へ移行する。ここで、「レーザ光源フラグの変更」とは、オンされているレーザ光源フラグをオフしたり、オフされているレーザ光源フラグをオンしたりすることを指す。
例えば、網膜46Rに対してレーザ光による走査が行われる場合、右眼用レーザ光源フラグをオンし、左眼用レーザ光源フラグをオフする。また、網膜46Lに対してレーザ光による走査が行われる場合、左眼用レーザ光源フラグをオンし、右眼用レーザ光源フラグをオフする。
ステップ258C1で、制御部570は、右眼用レーザ光源510R及び左眼用レーザ光源510Lのうち、現時点でオン状態のレーザ光源フラグに対応するレーザ光源からのレーザ光の照射を開始させることで、網膜46に対するレーザ光による走査を開始させる。例えば、現時点で右眼用レーザ光源フラグがオンされている場合、右眼用レーザ光源510Rからの右眼用レーザ光の照射を開始させることで、網膜46Rに対する右眼用レーザ光による走査を開始させる。また、例えば、現時点で左眼用レーザ光源フラグがオンされている場合、左眼用レーザ光源510Lからの左眼用レーザ光の照射を開始させることで、網膜46Lに対する左眼用レーザ光による走査を開始させる。
図9Bに示すステップ258U1で、制御部570は、網膜46Rに対する右眼用レーザ光による走査が行われている場合に、右眼用レーザ光源510Rを制御することで、右眼用レーザ光源510Rによる走査を終了させる。また、制御部570は、網膜46Lに対する左眼用レーザ光による走査が行われている場合に、左眼用レーザ光源510Lを制御することで、左眼用レーザ光源510Lによる走査を終了させる。
以上説明したように、ウエアラブル端末装置502は、右眼用レーザ光を網膜46Rに導き、且つ、左眼用レーザ光を網膜46Lに導く光学系507を備えている。そして、ウエアラブル端末装置502は、右眼用レーザ光及び/又は左眼用レーザ光の光学系507への供給が行われることで網膜46R及び/又は網膜46Lの視野検査が行われるように右眼用レーザ光源510R及び左眼用レーザ光源510Lを制御する制御部570を備えている。従って、ウエアラブル端末装置502によれば、視野検査の効率的な実施に寄与することができる。
なお、上記第1実施形態では、アイウエア端末装置16の外側に制御装置18及び光分岐部20が引き出されたウエアラブル端末装置12を例示したが、本開示の技術はこれに限定されるものではない。例えば、図20に示すように、眼科システム10に代えて眼科システム600を採用してもよい。
眼科システム600は、眼科システム10に比べ、制御装置18、光分岐部20、及びケーブル25,34,36を有しない点が異なる。また、眼科システム600は、眼科システム10に比べ、アイウエア端末装置16に代えてアイウエア端末装置610を有する点が異なる。
アイウエア端末装置610は、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とが一体化されたコントローラ352が左側テンプル24Lに収容されている。この場合、ケーブル34,36に相当するケーブルもアイウエア端末装置350のフレームに収容される。ここで、アイウエア端末装置350のフレームとは、例えば、リム22及びテンプル24を指す。
アイウエア端末装置610で、応答反応を検出する方法の一例としては、テンプル24に設けられたタッチセンサ(図示省略)が患者によってタッチされることで応答反応を検出する方法が挙げられる。また、アイウエア端末装置610で、応答反応を検出する方法の他の例としては、音声認識装置を用いて応答反応を検出する方法が挙げられる。この場合、例えば、音声認識装置が、患者の「YES」(マーク(光)を感じた場合の意思表示の発話)及び「NO」(マーク(光)を感じなかった場合の意思表示の発話)を認識することで応答反応を検出する。また、応答ボタン19だけを別構成にして患者に把持させ、応答ボタン19による応答結果をアイウエア端末装置610に送信するようにしてもよい。
コントローラ352は、右側テンプル24Rに設けられていてもよい。また、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とが別々にアイウエア端末装置350のフレームに収容されていてもよい。この場合、ケーブル25に相当するケーブル、すなわち、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とを接続するケーブルもアイウエア端末装置350のフレームに収容される。
従って、アイウエア端末装置610によれば、ケーブル25,34,36及び光分岐部20が不要になるので、装置全体の小型化に寄与することができる。
なお、上記第2実施形態に係るウエアラブル端末装置500についても、図20に示すウエアラブル端末装置610のように、ワイヤレスのウエアラブル端末装置にすることが可能である。すなわち、右眼用レーザ光源510R、左眼用レーザ光源510L、光学系507、及び制御装置503に相当する装置のうちの少なくとも光学系507を有するアイウエア端末装置を含むウエアラブル端末装置が採用されてもよい。この場合も、装置全体の小型化に寄与することができる。
また、上記第1実施形態では、シャッタ121を例示したが、本開示の技術はこれに限定されるものではなく、シャッタ121に代えて、液晶シャッタ等の光の透過を制御することが可能なデバイスを採用してもよい。
また、上記各実施形態では、レーザ光を例示したが、本開示の技術はこれに限定されるものではなく、例えば、レーザ光に代えて、スーパールミネッセントダイオード(Super Luminescent Diode)による光を採用してもよい。
また、上記各実施形態では、応答ボタン19を例示したが、本開示の技術はこれに限定されるものではない。例えば、応答ボタン19に代えてタッチパネル・ディスプレイ、キーボード、又はマウス等を用いてもよい。
また、上記各実施形態では、ウエアラブル端末装置12(502)で視野欠損マップが作成される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図15に示すように、管理装置14で視野欠損マップが作成されるようにしてもよい。この場合、例えば、処理部171が知覚情報と知覚情報に関連するマーク投影位置情報とを対応付けた対応付け情報を生成し、生成した対応付け情報を、無線通信部112を介して管理装置14に送信し、管理装置14が対応付け情報に基づいて視野欠損マップを作成するようにしてもよい。なお、知覚情報に関連するマーク投影位置情報とは、応答ボタン19が押されたタイミングでマークが投影された位置に対応するマーク投影位置情報を指す。また、応答ボタン19が押されたタイミングでマークが投影された位置に対応するマーク投影位置情報を、処理部171が無線通信部112を介して管理装置14に送信し、管理装置14がマーク投影位置情報に基づいて視野欠損マップを作成するようにしてもよい。
また、上記各実施形態では、MEMSミラー54,56,60,62を例示したが、本開示の技術はこれに限定されるものではない。例えば、MEMSミラー54,56,60,62に代えて、又は、MEMSミラー54,56,60,62のうちの少なくとも1つと共に、ガルバノミラー及び/又はポリゴンミラー等の、電気的に反射面の位置を制御可能なミラーを用いてもよい。
また、上記各実施形態では、端末側プログラム124A(524A)を二次記憶部124から読み出す場合を例示したが、必ずしも最初から二次記憶部124に記憶させておく必要はない。例えば、図21に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体700に先ずは端末側プログラム124A(524A)を記憶させておいてもよい。この場合、記憶媒体700の端末側プログラム124A(524A)がウエアラブル端末装置12(502)にインストールされ、インストールされた端末側プログラム124A(524A)がCPU120によって実行される。
また、通信網(図示省略)を介してウエアラブル端末装置12(502)に接続される他のコンピュータ又はサーバ装置等の記憶部に端末側プログラム124A(524A)を記憶させておき、端末側プログラム124A(524A)がウエアラブル端末装置12(502)の要求に応じてインストールされるようにしてもよい。この場合、インストールされた端末側プログラム124A(524A)はCPU120によって実行される。
また、上記各実施形態では、管理装置側プログラムを二次記憶部94から読み出す場合を例示したが、必ずしも最初から二次記憶部94に記憶させておく必要はない。例えば、図22に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体750に先ずは管理装置側プログラムを記憶させておいてもよい。この場合、記憶媒体750の管理装置側プログラムが管理装置14にインストールされ、インストールされた管理装置側プログラムがCPU90によって実行される。
また、通信網(図示省略)を介して管理装置14に接続される他のコンピュータ又はサーバ装置等の記憶部に管理装置側プログラムを記憶させておき、管理装置側プログラムが管理装置14の要求に応じてインストールされるようにしてもよい。この場合、インストールされた管理装置側プログラムはCPU90によって実行される。
また、上記実施形態で説明した端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
また、上記実施形態では、コンピュータを利用したソフトウェア構成により端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA又はASIC等のハードウェア構成のみによって、端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理のうちの少なくとも1つの処理が実行されるようにしてもよい。端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理のうちの少なくとも1つの処理がソフトウェア構成とハードウェア構成との組み合わせた構成によって実行されるようにしてもよい。
つまり、端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理等の各種処理を実行するハードウェア資源としては、例えば、プログラムを実行することで各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、他のハードウェア資源としては、例えば、専用に設計されたFPGA、PLD、又はASICなどの回路構成を有するプロセッサである専用電気回路が挙げられる。また、これらのプロセッサのハードウェア的な構造としては、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。各種処理を実行するハードウェア資源は、上述した複数種類のプロセッサのうちの1つであってもよいし、同種または異種の2つ以上のプロセッサの組み合わせであってもよい。
また、一例として図14に示す管理装置14の処理部180、取得部182、及び表示制御部184は、ウエアラブル型の眼科機器ではなく、据置型で両眼を観察することができる視野検査機能を有する装置(例えば、据置型眼科機器)と通信可能に接続された管理装置に対しても適用可能である。つまり、管理装置14によって実行される処理は、据置型で両眼を観察することができる視野検査機能を有する装置でも実行可能である。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (13)
- 光源と、制御部と、を有する制御装置と、
前記光源からの光を右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を有する光学系を備えたアイウエア端末と、を含み、
前記アイウエア端末と前記制御装置は、前記光源からの光を前記アイウエア端末に供給する光ファイバを含むケーブルで接続されており、
前記制御部は、視野検査用の複数のマーク投影位置情報に基づいて前記光学系を制御することで視野検査を実行する
眼科機器。 - 前記制御部は、前記マーク投影位置情報に基づいて、視野検査光が前記視野検査の検査対象眼の網膜に照射されるように前記光源及び前記光学系を制御する請求項1に記載の眼科機器。
- 制御部を有する制御装置と、
右眼用光源からの光である右眼用光を被検者の右眼網膜に導き、且つ、左眼用光源からの光である左眼用光を前記被検者の左眼網膜に導く光学系を備えたアイウエア端末と、を含み、
前記右眼用光源からの前記右眼用光及び前記左眼用光源からの前記左眼用光を前記アイウエア端末に供給する光ファイバを含むケーブルで、前記アイウエア端末と前記制御装置は接続されており、
前記制御部は、視野検査用の複数のマーク投影位置情報に基づいて前記光学系を制御するための制御信号を前記ケーブルで前記アイウエア端末に送信し、視野検査を実行する
眼科機器。 - 右眼用光源と、左眼用光源と、前記右眼用光源からの光である右眼用光を被検者の右眼網膜に導き、且つ、前記左眼用光源からの光である左眼用光を前記被検者の左眼網膜に導く光学系と、前記右眼用光源、前記左眼用光源、及び前記光学系を視野検査用の複数のマーク投影位置情報に基づいて制御する制御部と、を有するアイウエア端末
を含む眼科機器。 - 前記光学系は、視野検査に用いられる光源に基づく光である視野検査光を前記右眼網膜に対して走査する右眼用スキャナと、前記視野検査に用いられる光源に基づく光である視野検査光を前記左眼網膜に対して走査する左眼用スキャナと、を有する請求項1から請求項4の何れか1項に記載の眼科機器。
- 被検眼の前眼部を撮影する前眼部カメラを更に含み、
前記右眼用スキャナは、前記視野検査光を前記右眼網膜に導く右眼用反射部材を有し、
前記左眼用スキャナは、前記視野検査光を前記左眼網膜に導く左眼用反射部材を有し、
前記制御部は、前記前眼部カメラにより撮影されて得られた前眼部画像に基づいて瞳孔間距離を検出し、検出した前記瞳孔間距離に基づいて前記右眼用反射部材及び/又は左眼用反射部材の位置を制御する請求項5に記載の眼科機器。 - 前記前眼部カメラは、右眼の前眼部を撮影する右眼用カメラ、及び左眼の前眼部を撮影する左眼用カメラである請求項6に記載の眼科機器。
- 前記制御部と接続されている応答部を更に含み、
前記制御部は、前記応答部によって受け付けられた応答情報と前記マーク投影位置情報とを組み合わせて、外部装置に送信する請求項1から請求項7の何れか1項に記載の眼科機器。 - 眼科機器とデータの送受信を行う通信部と、
前記通信部によって前記眼科機器に送信される送信データを生成し、前記通信部によって受信された受信データを処理する処理部と、
前記眼科機器を用いた視野検査の結果を示す検査結果情報を取得する取得部と、を含み、
前記眼科機器は、光源と、光学系と、制御部と、応答部と、を含み、
前記光学系は、前記光源からの光を被検者の右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を含み、
前記制御部は、前記光学系を制御し、
前記応答部は、前記眼科機器のユーザが前記光源からの光を知覚したことに応答する場合の前記ユーザによる操作を受け付け、
前記送信データは、少なくとも被検者の両眼のうちの前記視野検査の検査対象眼を指示する指示情報を含み、
前記受信データは、前記視野検査の進捗情報と、前記応答部の応答信号と、を少なくとも含む
管理装置。 - 前記視野検査の進捗状況に応じた進捗状況画面を生成し、生成した前記進捗状況画面を含む画像を示す画像信号を出力する表示制御部を更に含む請求項9に記載の管理装置。
- 前記画像信号に基づいて前記進捗状況画面を表示する表示部を更に含む請求項10に記載の管理装置。
- 前記眼科機器は、ウエアラブル型眼科機器であり、
前記ウエアラブル型眼科機器は複数台存在し、
前記通信部は、前記ウエアラブル型眼科機器の各々と通信を行うことで、前記ウエアラブル型眼科機器の各々に対して前記指示情報を送信し、
前記取得部は、前記通信部を介して前記ウエアラブル型眼科機器の各々と通信を行うことで、前記ウエアラブル型眼科機器の各々から前記検査結果情報を取得する請求項9から請求項11の何れか1項に記載の管理装置。 - 眼科機器の管理方法であって、
被検者の両眼のうちの前記眼科機器を用いた視野検査の検査対象眼を指示する指示情報を送信するステップと、
前記視野検査の結果を示す検査結果情報を取得するステップと、を含み、
前記眼科機器は、
光源と、応答部と、制御部と、を有する制御装置と、
前記光源からの光を右眼網膜に導く右眼用光学系と、前記光源からの光を左眼網膜に導く左眼用光学系と、を有する光学系を備えたアイウエア端末と、を含み、
前記アイウエア端末と前記制御装置は、前記光源からの光を前記アイウエア端末に供給する光ファイバを含むケーブルで接続されており、
前記制御部は、前記光学系を制御し、
前記応答部は、前記眼科機器のユーザが前記光源からの光を知覚したことに応答する場合の前記ユーザによる操作を受け付ける
眼科機器の管理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/645,105 US20210121059A1 (en) | 2017-09-11 | 2018-09-11 | Ophthalmic instrument, management device, and method for managing an ophthalmic instrument |
JP2019541055A JP7088198B2 (ja) | 2017-09-11 | 2018-09-11 | 眼科機器、管理装置、及び眼科機器の管理方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-173944 | 2017-09-11 | ||
JP2017173944 | 2017-09-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019050048A1 true WO2019050048A1 (ja) | 2019-03-14 |
Family
ID=65635174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/033718 WO2019050048A1 (ja) | 2017-09-11 | 2018-09-11 | 眼科機器、管理装置、及び眼科機器の管理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210121059A1 (ja) |
JP (1) | JP7088198B2 (ja) |
WO (1) | WO2019050048A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119913A1 (ja) * | 2021-12-24 | 2023-06-29 | 株式会社ファインデックス | 視野検査装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011132606A1 (ja) * | 2010-04-21 | 2011-10-27 | パナソニック電工株式会社 | 視機能検査装置 |
WO2016132804A1 (ja) * | 2015-02-17 | 2016-08-25 | ローム株式会社 | 視力検査装置および視力検査システム |
US20160270648A1 (en) * | 2015-03-17 | 2016-09-22 | Ocutrx Vision Technologies, LLC | System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display |
JP2017223943A (ja) * | 2016-06-09 | 2017-12-21 | 株式会社Qdレーザ | 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9213163B2 (en) * | 2011-08-30 | 2015-12-15 | Microsoft Technology Licensing, Llc | Aligning inter-pupillary distance in a near-eye display system |
JP6518044B2 (ja) * | 2014-07-18 | 2019-05-22 | 株式会社トプコン | 視機能検査装置および視機能検査システム |
NZ773831A (en) * | 2015-03-16 | 2022-07-01 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
JP6231541B2 (ja) * | 2015-06-25 | 2017-11-15 | 株式会社Qdレーザ | 画像投影装置 |
JP6714234B2 (ja) * | 2016-09-21 | 2020-06-24 | 株式会社トーメーコーポレーション | 走査型レーザ検眼鏡 |
JP7224288B2 (ja) * | 2017-01-11 | 2023-02-17 | マジック リープ, インコーポレイテッド | 医療アシスタント |
-
2018
- 2018-09-11 US US16/645,105 patent/US20210121059A1/en not_active Abandoned
- 2018-09-11 WO PCT/JP2018/033718 patent/WO2019050048A1/ja active Application Filing
- 2018-09-11 JP JP2019541055A patent/JP7088198B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011132606A1 (ja) * | 2010-04-21 | 2011-10-27 | パナソニック電工株式会社 | 視機能検査装置 |
WO2016132804A1 (ja) * | 2015-02-17 | 2016-08-25 | ローム株式会社 | 視力検査装置および視力検査システム |
US20160270648A1 (en) * | 2015-03-17 | 2016-09-22 | Ocutrx Vision Technologies, LLC | System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display |
JP2017223943A (ja) * | 2016-06-09 | 2017-12-21 | 株式会社Qdレーザ | 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置 |
Non-Patent Citations (3)
Title |
---|
MURAI, YASUYUKI ET AL.: " Development of the fitting method of HMD (eyesight aid) to support visibility of low vision", LECTURE PROCEEDINGS OF THE 14TH FORUM ON INFORMATION TECHNOLOGY, vol. 3, 24 August 2015 (2015-08-24), pages 545 - 546, XP009520434 * |
OGUCHI YOSHIHISA: "Passage, Ophthalmic examination method handbook", OPHTHALMIC EXAMINATION METHOD HANDBOOK, 1 June 2005 (2005-06-01), pages 156 - 157, XP009520442, ISBN: 4-260-13780-8 * |
SHIMIZU, EIJI: "Retina scan and projection-type display", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 65, no. 6, 2011, pages 758 - 763, XP009515367 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023119913A1 (ja) * | 2021-12-24 | 2023-06-29 | 株式会社ファインデックス | 視野検査装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7088198B2 (ja) | 2022-06-21 |
US20210121059A1 (en) | 2021-04-29 |
JPWO2019050048A1 (ja) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7355144B2 (ja) | 眼科機器、管理方法、及び管理装置 | |
US11026572B2 (en) | Ophthalmic examination system and ophthalmic examination management server | |
JP2022502221A (ja) | 眼球検査及び測定を行う方法、装置並びにシステム | |
US9888847B2 (en) | Ophthalmic examination system | |
JP6869032B2 (ja) | 眼科検査システム | |
JP2017143992A (ja) | 眼科検査システム及び眼科検査装置 | |
KR101942465B1 (ko) | 망막 촬영 장치 및 이를 이용한 망막 촬영 방법 | |
KR102295587B1 (ko) | 가상현실 기반의 시야검사 방법 및 시스템 | |
JP7088198B2 (ja) | 眼科機器、管理装置、及び眼科機器の管理方法 | |
WO2015102092A1 (ja) | 眼科装置 | |
JP2020151551A (ja) | 眼科装置 | |
JP7057410B2 (ja) | 眼科検査システム | |
WO2019044710A1 (ja) | 眼科機器、画像生成装置、プログラム、及び眼科システム | |
JP2022177043A (ja) | 眼科検査システム及び眼科検査装置 | |
JP2018086304A (ja) | 眼科装置 | |
JP6788723B2 (ja) | 眼科検査システム及び眼科検査管理サーバ | |
JP6788724B2 (ja) | 眼科検査システム及び眼科検査管理サーバ | |
JP7150000B2 (ja) | 眼科検査システム | |
JP2018167118A (ja) | 眼科装置 | |
JP2020036983A (ja) | 眼科検査システム及び眼科検査管理サーバ | |
JP2020044355A (ja) | 眼科検査システム及び眼科検査管理サーバ | |
CN119730771A (zh) | 主觉式验光系统及主觉式验光程序 | |
JP2021137293A (ja) | 検眼システム、検眼用コントローラ、および検眼プログラム | |
JP2022073154A (ja) | 検眼装置 | |
JP2020048748A (ja) | 検眼装置及び検眼方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18853822 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019541055 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18853822 Country of ref document: EP Kind code of ref document: A1 |