JP2002083156A - Automated eyeglasses information processor and its method - Google Patents
Automated eyeglasses information processor and its methodInfo
- Publication number
- JP2002083156A JP2002083156A JP2000338183A JP2000338183A JP2002083156A JP 2002083156 A JP2002083156 A JP 2002083156A JP 2000338183 A JP2000338183 A JP 2000338183A JP 2000338183 A JP2000338183 A JP 2000338183A JP 2002083156 A JP2002083156 A JP 2002083156A
- Authority
- JP
- Japan
- Prior art keywords
- glasses
- user
- frame
- visual acuity
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Ophthalmology & Optometry (AREA)
- Optics & Photonics (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Testing Of Optical Devices Or Fibers (AREA)
- Eyeglasses (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、職住近接した比
較的近い場所において、何人でも検眼等をすることがで
き、必要に応じメガネを購入することができる、無人の
メガネ情報処理装置およびその方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an unmanned eyeglasses information processing apparatus and an unmanned eyeglasses information processing apparatus, in which any number of persons can perform optometry, etc., and purchase eyeglasses as necessary, in a relatively close place close to work and residence. About the method.
【0002】[0002]
【従来の技術】現在、裸眼視力あるいは矯正後の視力の
測定を行うには、眼科医に行って診療を受けることによ
って行われたりあるいは眼鏡店に用意されている視力測
定機器をもって視力の測定が行われている。近年、たと
えば、インターネットのようなネットワーク上で、仮想
的な商店街が形成されているが、この仮想的な商店街に
設けられた眼鏡店舗において、メガネフレームをかけた
状態においてフレームをかけた顔を見て、オンラインで
メガネをオーダーすることができ且つ販売することがで
きるシステムは存在しない。2. Description of the Related Art At present, measurement of visual acuity or corrected visual acuity is carried out by going to an ophthalmologist and receiving medical treatment, or by using a visual acuity measuring instrument prepared at an eyeglass store. Is being done. In recent years, for example, a virtual shopping street has been formed on a network such as the Internet. There is no system that can order and sell glasses online.
【0003】[0003]
【発明が解決しようとする課題】眼鏡店に行くには、時
間や距離等から困難な場合に、通信販売によりメガネを
オーダーし販売することができる方法が考えられる。し
かしながら、メガネの販売は、対面販売をその典型的な
販売形態とするもので、ヒューマン的な部分が全くない
アプローチからクロージングまで利用者一人で完結する
通信販売形態でのオーダーメガネの販売は利用者に受け
入れられにくい面があることが懸念されている。それゆ
えに、この発明の主たる目的は、対面販売的要素を残し
たしかも職住に近接した便利な位置においてメガネに関
する情報を処理し、必要に応じて購入することができ
る、無人メガネ情報処理装置およびその方法を提供する
ことである。In order to go to an eyeglass store, a method is conceivable in which it is possible to order and sell eyeglasses by mail order when it is difficult due to time or distance. However, sales of eyeglasses are face-to-face sales as a typical sales form, and sales of order glasses in a mail-order sales form that is completed by a single user from an approach that has no human part to closing is a user There is a concern that some aspects are difficult to accept. Therefore, a main object of the present invention is to process information about glasses at a convenient position close to work and residence, while leaving face-to-face sales elements, and to be able to purchase as needed, an unmanned glasses information processing apparatus and It is to provide the method.
【0004】[0004]
【課題を解決するための手段】この発明の請求項1の無
人メガネ情報処理装置は、人間が入ることができる一定
の空間においてメガネおよび/またはレンズに関する情
報を処理する装置であって、裸眼視力の測定を行う視力
測定手段と、前記視力測定手段によって測定されたデー
タを情報処理し、矯正視力を調整する視力調整手段と、
レンズに関する指示を表示および/または音声で伝える
出力手段と、レンズに関する指示を入力する入力手段と
を含む、無人メガネ情報処理装置である。この発明の請
求項2の無人メガネ情報処理装置は、人間が入ることが
できる一定の空間からメガネフレームに関する情報を処
理する装置であって、前記空間に入った利用者の顔を撮
影し、撮影した画像を立体化する手段と、利用者が選択
したメガネフレームを選定する手段と、 選定したメガ
ネフレームを利用者の立体画像に反映させ、利用者が装
用したイメージを表示する手段と、メガネフレームに関
する指示を表示および/または音声で伝える出力手段
と、メガネフレームに関する指示を入力する入力手段と
を含む、無人メガネ情報処理装置である。この発明の請
求項3の無人メガネ情報処理装置は、人間が入ることが
できる一定の空間においてメガネおよび/またはレンズ
に関する情報を処理する装置であって、メガネを外した
状態における視力の測定を行う視力測定手段と、前記視
力測定手段によって測定されたデータを情報処理し、矯
正視力を調整する視力調整手段と、レンズに関する指示
を表示および/または音声で伝える出力手段と、レンズ
に関する指示を入力する入力手段とを含む、請求項1に
記載の無人メガネ情報処理装置である。この発明の請求
項4の無人メガネ情報処理装置は、人間が入ることがで
きる一定の空間からメガネフレームに関する情報を処理
する装置であって、人間が一定の空間に入ったことを検
知する手段と、前記手段によって準備され、前記空間に
入った利用者の顔を少なくとも2方向から撮影し、撮影
した画像を実像に近くなるように補正してから立体化す
る手段と、利用者が選択したメガネフレームを選定する
手段と、選定したメガネフレームを利用者の立体画像に
反映させ、利用者が装用したイメージを表示する手段
と、メガネフレームに関する指示を表示および/または
音声で伝える出力手段と、メガネフレームに関する指示
を入力する入力手段とを含む、請求項2に記載の無人メ
ガネ情報処理装置である。この発明の請求項5の無人メ
ガネ情報処理装置は、人間が入ることができる一定の空
間においてメガネおよび/またはレンズに関する情報を
送信する装置であって、裸眼視力の測定を行う視力測定
手段と、 前記視力測定手段によって測定されたデータ
を情報処理し、矯正視力を調整する視力調整手段と、レ
ンズに関する指示を表示および/または音声で伝える出
力手段と、レンズに関する指示を入力する入力手段とを
含む、無人メガネ情報処理装置である。この発明の請求
項6の無人メガネ情報処理装置は、人間が入ることがで
きる一定の空間からメガネフレームに関する情報を送信
する装置であって、前記空間に入った利用者の顔を撮影
し、撮影した画像を立体化する手段と、利用者が選択し
たメガネフレームを選定する手段と、 選定したメガネ
フレームを利用者の立体画像に反映させ、利用者が装用
したイメージを表示する手段と、メガネフレームに関す
る指示を表示および/または音声で伝える出力手段と、
メガネフレームに関する指示を入力する入力手段とを含
む、無人メガネ情報処理装置である。この発明の請求項
7の無人メガネ情報処理装置は、人間が入ることができ
る一定の空間においてメガネおよび/またはレンズに関
する情報を送信する装置であって、メガネを外した状態
における視力の測定を行う視力測定手段と、前記視力測
定手段によって測定されたデータを情報処理し、矯正視
力を調整する視力調整手段と、レンズに関する指示を表
示および/または音声で伝える出力手段と、レンズに関
する指示を入力する入力手段とを含む、請求項5に記載
の無人メガネ情報処理装置である。この発明の請求項8
の無人メガネ情報処理装置は、人間が入ることができる
一定の空間からメガネフレームに関する情報を送信する
装置であって、人間が一定の空間に入ったことを検知す
る手段と、前記手段によって準備され、前記空間に入っ
た利用者の顔を少なくとも2方向から撮影し、角膜頂点
部と耳の位置を測定し、撮影した画像を実像に近くなる
ように補正してから立体化する手段と、利用者が選択し
たメガネフレームを選定する手段と、選定したメガネフ
レームを利用者の立体画像に反映させ、利用者が装用し
たイメージを表示する手段とメガネフレームに関する指
示を表示および/または音声で伝える出力手段と、メガ
ネフレームに関する指示を入力する入力手段とを含む、
請求項6に記載の無人メガネ情報処理装置である。この
発明の請求項9の無人メガネ情報処理装置は、さらに、
既に使用しているメガネの度数を測定する既使用レンズ
の度数測定手段を含む、請求項1ないし請求項8に記載
の無人メガネ情報処理装置である。この発明の請求項1
0の無人メガネ情報処理装置は、既使用レンズの度数測
定手段は、現在かけているメガネを特定の場所に載置
し、使用されているレンズの度数を測定するレンズメー
ターを含む、請求項9に記載の無人メガネ情報処理装置
である。この発明の請求項11の無人メガネ情報処理装
置は、視力測定手段は、自動的に裸眼視力を測定し、裸
眼視力の矯正に必要なレンズ度数を算出する視力測定装
置を含む、請求項1、請求項3、請求項5、請求項7、
請求項9または請求項10に記載の無人メガネ情報処理
装置である。この発明の請求項12の無人メガネ情報処
理装置は、さらに通信手段を有する、請求項1ないし請
求項11のいずれかに記載の無人メガネ情報処理装置で
ある。この発明の請求項13の無人メガネ情報処理装置
は、通信手段は、前記既使用レンズの度数測定手段によ
って測定されたデータを情報処理し、有人のメガネ処理
センタに送信する手段を含む、請求項12に記載の無人
メガネ情報処理装置である。この発明の請求項14の無
人メガネ情報処理装置は、通信手段は、CPU、データ
圧縮装置、画像処理装置、データの格納、WWWブラウ
ザのいずれかを含む、請求項12または請求項13に記
載の無人メガネ情報処理装置である。この発明の請求項
15の無人メガネ情報処理装置は、出力手段および入力
手段には、タッチパネルを含む、請求項1ないし請求項
14のいずれかに記載の無人メガネ情報処理装置であ
る。この発明の請求項16の無人メガネ情報処理装置
は、入力手段にはカメラを含む、請求項1ないし請求項
15のいずれかに記載の無人メガネ情報処理装置であ
る。この発明の請求項17の無人メガネ情報処理装置
は、入力手段には、キーボード、音声入力手段のいずれ
かを含む、請求項1ないし請求項16のいずれかに記載
の無人メガネ情報処理装置である。この発明の請求項1
8の無人メガネ情報処理装置は、人間が入ることができ
る一定の空間は、一方に入口が設けられたブースであっ
て、入口には人間の出入を検知手段が形成され、人間の
出入を検知する手段によって前記した既使用レンズの度
数測定手段、視力測定手段、通信手段、出力手段および
入力手段のうち少なくとも1つがオン状態になり、退出
時にはオフ状態になるように形成されている、請求項1
ないし請求項17のいずれかに記載の無人メガネ情報処
理装置である。この発明の請求項19の無人メガネ情報
処理装置は、既使用レンズの度数測定手段および/また
は視力測定手段の使用に要する料金を投入する料金受渡
し手段を備える、請求項1ないし請求項18のいずれか
に記載の無人メガネ情報処理装置である。この発明の請
求項20の無人メガネ情報処理方法は、人間が入ること
ができる一定の空間においてメガネおよび/またはレン
ズに関する情報を処理する方法であって、人間が一定の
空間に入ったことを検知するステップ(1)と、裸眼視
力の測定を行う視力測定ステップ(2)と、前記視力測
定ステップによって測定されたデータを情報処理し、視
力を調整する視力調整ステップ(3)と、レンズに関す
る指示を表示および/または音声で伝える出力ステップ
(4)と、レンズに関する指示を入力する入力ステップ
(5)とを含む、無人メガネ情報処理方法である。この
発明の請求項21の無人メガネ情報処理方法は、人間が
入ることができる一定の空間からメガネフレームに関す
る情報を処理する方法であって、空間に入った利用者の
顔を撮影した画像を実像に近くなるように立体化するス
テップ(1)と、利用者が選択したメガネフレームを選
定するステップ(2)と、選定したメガネフレームを利
用者の立体画像に反映させ、利用者が装用したイメージ
を表示するステップ(3)と、メガネフレームに関する
指示を表示および/または音声で伝える出力ステップ
(4)と、メガネフレームに関する指示を入力する入力
ステップ(5)とを含む、無人メガネ情報処理方法であ
る。この発明の請求項22の無人メガネ情報処理方法
は、人間が入ることができる一定の空間においてメガネ
に関する情報を処理する方法であって、人間が一定の空
間に入ったことを検知するステップ(1)と、 前記ス
テップ(1)によって準備され、メガネを外した状態に
おける視力の測定を行う視力測定ステップ(2)と、前
記視力測定ステップによって測定されたデータを情報処
理し、視力を調整する視力調整ステップ(3)と、レン
ズに関する指示を表示および/または音声で伝える出力
ステップ(4)と、レンズに関する指示を入力する入力
ステップ(5)とを含む、請求項20に記載の無人メガ
ネ情報処理方法である。この発明の請求項23の無人メ
ガネ情報処理方法は、人間が入ることができる一定の空
間からメガネフレームに関する情報を処理する方法であ
って、人間が一定の空間に入ったことを検知するステッ
プ(1)と、前記ステップ(1)によって準備され、空
間に入った利用者の顔を少なくとも2方向から撮影し、
撮影した画像を実像に近くなるように立体化するステッ
プ(2)と、利用者が選択したメガネフレームを選定す
るステップ(3)と、選定したメガネフレームを利用者
の立体画像に反映させ、利用者が装用したイメージを表
示するステップ(4)と、メガネフレームに関する指示
を表示および/または音声で伝える出力ステップ(5)
と、メガネフレームに関する指示を入力する入力ステッ
プ(6)とを含む、請求項21に記載の無人メガネ情報
処理方法である。この発明の請求項24の無人メガネ情
報処理方法は、人間が入ることができる一定の空間にお
いてメガネおよび/またはレンズに関する情報を送信す
る方法であって、人間が一定の空間に入ったことを検知
するステップ(1)と、裸眼視力の測定を行う視力測定
ステップ(2)と、前記視力測定ステップによって測定
されたデータを情報処理し、視力を調整する視力調整ス
テップ(3)と、レンズに関する指示を表示および/ま
たは音声で伝える出力ステップ(4)と、レンズに関す
る指示を入力する入力ステップ(5)とを含む、無人メ
ガネ情報処理方法である。この発明の請求項25の無人
メガネ情報処理方法は、人間が入ることができる一定の
空間からメガネフレームに関する情報を送信する方法で
あって、空間に入った利用者の顔を撮影した画像を実像
に近くなるように立体化するステップ(1)と、利用者
が選択したメガネフレームを選定するステップ(2)
と、選定したメガネフレームを利用者の立体画像に反映
させ、利用者が装用したイメージを表示するステップ
(3)と、メガネフレームに関する指示を表示および/
または音声で伝える出力ステップ(4)と、メガネフレ
ームに関する指示を入力する入力ステップ(5)とを含
む、無人メガネ情報処理方法である。この発明の請求項
26の無人メガネ情報処理方法は、人間が入ることがで
きる一定の空間においてメガネおよび/またはレンズに
関する情報を送信する方法であって、人間が一定の空間
に入ったことを検知するステップ(1)と、前記ステッ
プ(1)によって準備され、メガネを外した状態におけ
る視力の測定を行う視力測定ステップ(2)と、 前記
視力測定ステップによって測定されたデータを情報処理
し、視力を調整する視力調整ステップ(3)と、レンズ
に関する指示を表示および/または音声で伝える出力ス
テップ(4)と、レンズに関する指示を入力する入力ス
テップ(5)とを含む、請求項24に記載の無人メガネ
情報処理方法である。この発明の請求項27の無人メガ
ネ情報処理方法は、人間が入ることができる一定の空間
からメガネフレームに関する情報を送信する方法であっ
て、人間が一定の空間に入ったことを検知するステップ
(1)と、前記ステップ(1)によって準備され、空間
に入った利用者の顔を少なくとも2方向から撮影し、撮
影した画像を実像に近くなるように立体化するステップ
(2)と、利用者が選択したメガネフレームを選定する
ステップ(3)と、選定したメガネフレームを利用者の
立体画像に反映させ、利用者が装用したイメージを表示
するステップ(4)と、メガネフレームに関する指示を
表示および/または音声で伝える出力ステップ(5)
と、メガネフレームに関する指示を入力する入力ステッ
プ(6)とを含む、請求項25に記載の無人メガネ情報
処理方法である。この発明の請求項28の無人メガネ情
報処理方法は、さらに、既に使用しているメガネの度数
を測定する既使用レンズの度数測定ステップを含む、請
求項20ないし請求項27のいずれかに記載の無人メガ
ネ情報処理方法である。この発明の請求項29の無人メ
ガネ情報処理方法は、利用者に、視力測定、メガネ仮装
体験、メガネの購入のうち、少なくとも1つを選択させ
るステップを含む、請求項20ないし請求項28のいず
れかに記載の無人メガネ情報処理方法である。この発明
の請求項30の無人メガネ情報処理方法は、視力測定ス
テップで測定された度数を反映させた複数種のレンズを
表示するステップと、レンズの特徴などの選択条件に沿
って、利用者にレンズの選定を促すステップを含む、請
求項20ないし請求項29のいずれかに記載の無人メガ
ネ情報処理方法である。この発明の請求項31の無人メ
ガネ情報処理方法は、視力測定ステップで測定された度
数に対応するレンズを横から見た画像を表示するステッ
プを含む、請求項20ないし請求項30のいずれかに記
載の無人メガネ情報処理方法である。この発明の請求項
32の無人メガネ情報処理方法は、視力測定ステップで
選択されたレンズを、前記フレーム選択ステップで選択
したフレームに装着させたイメージを表示させるステッ
プを含む、請求項20ないし請求項30のいずれかに記
載の無人メガネ情報処理方法である。この発明の請求項
33の無人メガネ情報処理方法は、前記ステップで測定
された使用者の顔画像に、前記ステップで選択したフレ
ームを前記ステップで選択したレンズを装着したイメー
ジを重ね合わせて表示するステップを含む、請求項20
ないし請求項32のいずれかに記載の無人メガネ情報処
理方法である。この発明の請求項34の無人メガネ情報
処理方法は、フレームおよびレンズのうち、使用者が選
択した少なくとも1つを表示し、使用者の確認をとるス
テップおよび/または価格を表示して使用者の購入を促
すステップを含む、請求項20ないし請求項33のいず
れかに記載の無人メガネ情報処理方法である。According to the first aspect of the present invention, there is provided an unmanned glasses information processing apparatus for processing information relating to glasses and / or lenses in a certain space into which a human can enter. A visual acuity measuring means for performing the measurement, information processing data measured by the visual acuity measuring means, a visual acuity adjusting means for adjusting the corrected visual acuity,
An unmanned glasses information processing apparatus includes an output unit that transmits an instruction regarding a lens by display and / or voice, and an input unit that inputs an instruction regarding a lens. An unmanned glasses information processing apparatus according to a second aspect of the present invention is an apparatus for processing information regarding a glasses frame from a certain space into which a human can enter, wherein the apparatus captures a face of a user entering the space, Means for three-dimensionalizing the selected image, means for selecting the glasses frame selected by the user, means for reflecting the selected glasses frame on the three-dimensional image of the user, and displaying the image worn by the user, and glasses frame An unmanned glasses information processing apparatus includes an output unit for displaying and / or transmitting an instruction regarding an eyeglass frame and an input unit for inputting an instruction regarding an eyeglass frame. An unmanned glasses information processing apparatus according to a third aspect of the present invention is an apparatus for processing information regarding glasses and / or lenses in a certain space where a person can enter, and measures visual acuity with glasses removed. A visual acuity measuring means, a visual acuity adjusting means for processing data measured by the visual acuity measuring means and adjusting a corrected visual acuity, an output means for displaying and / or transmitting an instruction regarding the lens, and inputting an instruction regarding the lens. The unmanned glasses information processing apparatus according to claim 1, further comprising an input unit. An unmanned glasses information processing apparatus according to a fourth aspect of the present invention is an apparatus for processing information about a glasses frame from a certain space into which a person can enter, and means for detecting that a person has entered a certain space. Means for photographing a user's face entering the space from at least two directions, correcting the photographed image so as to be close to a real image, and then stereoscopically preparing glasses selected by the means; Means for selecting a frame, means for reflecting the selected glasses frame on the three-dimensional image of the user to display an image worn by the user, output means for displaying and / or transmitting instructions regarding the glasses frame, and glasses The unmanned glasses information processing apparatus according to claim 2, further comprising: an input unit configured to input an instruction regarding a frame. An unmanned glasses information processing apparatus according to claim 5 of the present invention is an apparatus for transmitting information about glasses and / or lenses in a certain space where a human can enter, and a visual acuity measuring means for measuring naked eye acuity, The apparatus includes information processing means for processing data measured by the visual acuity measuring means to adjust the corrected visual acuity, output means for displaying and / or voice instructions regarding the lens, and input means for inputting an instruction regarding the lens. , An unmanned glasses information processing apparatus. An unmanned glasses information processing apparatus according to claim 6 of the present invention is an apparatus for transmitting information about a glasses frame from a certain space into which a person can enter, and captures a face of a user entering the space, Means for three-dimensionalizing the selected image, means for selecting the glasses frame selected by the user, means for reflecting the selected glasses frame on the three-dimensional image of the user, and displaying the image worn by the user, and glasses frame An output unit that displays and / or verifies an instruction regarding the
An unmanned glasses information processing apparatus, comprising: an input unit configured to input an instruction regarding a glasses frame. An unmanned glasses information processing apparatus according to a seventh aspect of the present invention is an apparatus for transmitting information on glasses and / or lenses in a certain space where a person can enter, and measures visual acuity with glasses removed. A visual acuity measuring means, a visual acuity adjusting means for processing data measured by the visual acuity measuring means and adjusting a corrected visual acuity, an output means for displaying and / or transmitting an instruction regarding the lens, and inputting an instruction regarding the lens. The unmanned glasses information processing apparatus according to claim 5, further comprising an input unit. Claim 8 of the present invention
The unmanned glasses information processing apparatus of the present invention is an apparatus for transmitting information about a glasses frame from a certain space where a person can enter, and means for detecting that a person has entered a certain space, and is provided by the means. Means for photographing the face of the user entering the space from at least two directions, measuring the positions of the apex of the cornea and the ears, correcting the photographed image so as to be close to a real image, and then using a three-dimensional image. Means for selecting the spectacle frame selected by the user, means for reflecting the selected spectacle frame on the three-dimensional image of the user, means for displaying the image worn by the user, and displaying and / or transmitting an instruction regarding the spectacle frame by voice Means, and input means for inputting an instruction regarding the glasses frame,
An unmanned glasses information processing apparatus according to claim 6. The unmanned glasses information processing apparatus according to claim 9 of the present invention further comprises:
The unmanned glasses information processing apparatus according to any one of claims 1 to 8, further comprising a power measuring unit for measuring the power of the glasses already in use. Claim 1 of the present invention
10. The unmanned glasses information processing apparatus according to claim 1, wherein the power measuring means for the used lens includes a lens meter for placing the currently worn glasses on a specific place and measuring the power of the used lens. An unmanned glasses information processing apparatus according to (1). The unmanned glasses information processing apparatus according to claim 11 of the present invention, wherein the eyesight measuring means includes an eyesight measuring device that automatically measures naked eye acuity and calculates a lens power necessary for correcting the naked eye acuity. Claim 3, Claim 5, Claim 7,
An unmanned glasses information processing apparatus according to claim 9 or 10. The unmanned glasses information processing apparatus according to claim 12 of the present invention is the unmanned glasses information processing apparatus according to any one of claims 1 to 11, further comprising a communication unit. The unmanned glasses information processing apparatus according to claim 13 of the present invention, wherein the communication means includes means for processing information measured by the power measuring means of the used lens and transmitting the data to a manned glasses processing center. 12. The unmanned glasses information processing apparatus according to item 12. The unmanned glasses information processing apparatus according to claim 14 of the present invention, wherein the communication means includes any of a CPU, a data compression device, an image processing device, data storage, and a WWW browser. It is an unmanned glasses information processing apparatus. An unmanned glasses information processing apparatus according to claim 15 of the present invention is the unmanned glasses information processing apparatus according to any one of claims 1 to 14, wherein the output unit and the input unit include a touch panel. An unmanned glasses information processing apparatus according to claim 16 of the present invention is the unmanned glasses information processing apparatus according to any one of claims 1 to 15, wherein the input means includes a camera. The unmanned glasses information processing apparatus according to claim 17 of the present invention is the unmanned glasses information processing apparatus according to any one of claims 1 to 16, wherein the input unit includes one of a keyboard and a voice input unit. . Claim 1 of the present invention
In the unmanned glasses information processing device of No. 8, the fixed space into which a human can enter is a booth having an entrance provided on one side, and a detection means for detecting human entry and exit is formed at the entrance to detect human entry and exit. The at least one of the power measuring means, the visual acuity measuring means, the communication means, the output means, and the input means of the used lens is turned on by the means for turning on, and is turned off when leaving. 1
An unmanned glasses information processing apparatus according to claim 17. The unmanned glasses information processing apparatus according to a nineteenth aspect of the present invention includes any of the above-described first to eighteenth aspects, further comprising a fee transfer unit for inputting a fee required for using the power measuring unit and / or the visual acuity measuring unit for the used lens. An unmanned glasses information processing apparatus according to the present invention. An unmanned glasses information processing method according to a twentieth aspect of the present invention is a method of processing information on glasses and / or lenses in a certain space where a person can enter, and detects that a person has entered a certain space. (1), a visual acuity measuring step (2) for measuring naked eye visual acuity, a visual acuity adjusting step (3) for processing information measured by the visual acuity measuring step and adjusting a visual acuity, and an instruction regarding a lens. And an input step (5) for inputting an instruction related to a lens. An unmanned glasses information processing method according to claim 21 of the present invention is a method of processing information on a glasses frame from a certain space into which a human can enter, wherein an image of a user's face entering the space is taken as a real image. (1) to select a spectacle frame selected by the user, (2) to reflect the selected spectacle frame on the user's three-dimensional image, and an image worn by the user. , An output step (4) of displaying and / or transmitting an instruction relating to the glasses frame, and an input step (5) for inputting an instruction relating to the glasses frame. is there. An unmanned glasses information processing method according to claim 22 of the present invention is a method of processing information about glasses in a certain space where a person can enter, and detecting that a person has entered a certain space (1). ), A visual acuity measurement step (2) prepared in the step (1) for measuring a visual acuity in a state where glasses are removed, and a visual acuity for processing data measured in the visual acuity measuring step to adjust the visual acuity. 21. The unmanned glasses information processing according to claim 20, comprising an adjustment step (3), an output step (4) of displaying and / or transmitting an instruction regarding the lens, and an input step (5) of inputting an instruction regarding the lens. Is the way. An unmanned glasses information processing method according to claim 23 of the present invention is a method of processing information about a glasses frame from a certain space into which a person can enter, and detecting that a person has entered a certain space ( 1) and photographing the user's face which has been prepared by the step (1) and has entered the space from at least two directions
Step (2) of transforming the photographed image into a three-dimensional image so as to be close to a real image, step (3) of selecting a spectacle frame selected by the user, and reflecting the selected spectacle frame on the stereoscopic image of the user to use the image. Displaying the image worn by the user (4), and outputting and / or transmitting an instruction regarding the glasses frame by voice (5).
22. The unmanned glasses information processing method according to claim 21, comprising: an input step (6) of inputting an instruction regarding an eyeglass frame. An unmanned glasses information processing method according to claim 24 of the present invention is a method for transmitting information about glasses and / or lenses in a certain space where a person can enter, and detects that a person has entered a certain space. (1), a visual acuity measuring step (2) for measuring naked eye visual acuity, a visual acuity adjusting step (3) for processing information measured by the visual acuity measuring step and adjusting a visual acuity, and an instruction regarding a lens. And an input step (5) for inputting an instruction related to a lens. An unmanned glasses information processing method according to claim 25 of the present invention is a method for transmitting information on a glasses frame from a certain space into which a human can enter, wherein an image of a face of a user entering the space is taken as a real image. (1) and step (2) of selecting a spectacle frame selected by the user.
(3) displaying the image worn by the user by reflecting the selected eyeglass frame on the stereoscopic image of the user, and displaying and / or displaying an instruction regarding the eyeglass frame.
Alternatively, there is provided an unmanned glasses information processing method including an output step (4) of transmitting by voice and an input step (5) of inputting an instruction regarding a glasses frame. An unmanned glasses information processing method according to claim 26 of the present invention is a method for transmitting information on glasses and / or lenses in a certain space where a person can enter, and detects that a person has entered a certain space. (1), a visual acuity measuring step (2) prepared in the step (1) for measuring visual acuity in a state where glasses are removed, and information processing of data measured in the visual acuity measuring step. 25. The method according to claim 24, comprising: a visual acuity adjusting step (3) of adjusting an image, an output step (4) of displaying and / or transmitting an instruction regarding the lens, and an input step (5) of inputting an instruction regarding the lens. This is an unmanned glasses information processing method. An unmanned glasses information processing method according to claim 27 of the present invention is a method for transmitting information about a glasses frame from a certain space into which a person can enter, wherein the step of detecting that a person has entered a certain space ( (1) capturing the user's face in the space prepared in the step (1) from at least two directions, and stereoscopically capturing the captured image so as to be close to a real image; (3) selecting the selected eyeglasses frame, reflecting the selected eyeglasses frame on the stereoscopic image of the user, displaying the image worn by the user (4), and displaying an instruction on the eyeglasses frame. And / or an output step (5) for transmitting by voice
The unmanned glasses information processing method according to claim 25, further comprising: an input step (6) of inputting an instruction related to an eyeglass frame. 28. The unmanned glasses information processing method according to claim 28 of the present invention, further comprising the step of measuring the power of an already used lens for measuring the power of glasses already in use. This is an unmanned glasses information processing method. The unmanned glasses information processing method according to claim 29 of the present invention includes a step of allowing a user to select at least one of eyesight measurement, glasses disguise experience, and purchase of glasses. An unmanned glasses information processing method described in Crab. The unmanned glasses information processing method according to claim 30 of the present invention provides a step of displaying a plurality of types of lenses reflecting the power measured in the eyesight measuring step, and providing the user with a selection condition such as a feature of the lens. The unmanned glasses information processing method according to any one of claims 20 to 29, comprising a step of prompting selection of a lens. The unmanned glasses information processing method according to claim 31 of the present invention includes the step of displaying an image of a lens corresponding to the power measured in the eyesight measuring step as viewed from the side. It is an unmanned glasses information processing method described. The unmanned glasses information processing method according to claim 32 of the present invention includes a step of displaying an image in which the lens selected in the eyesight measuring step is mounted on the frame selected in the frame selecting step. 30. The unmanned glasses information processing method according to any one of 30. In the unmanned glasses information processing method according to claim 33 of the present invention, the image selected by mounting the lens selected in the step is displayed by superimposing the frame selected in the step on the face image of the user measured in the step. 21. The method of claim 20, comprising steps.
An unmanned glasses information processing method according to claim 32. An unmanned glasses information processing method according to a thirty-fourth aspect of the present invention displays at least one of a frame and a lens selected by a user, and displays a step for confirming the user and / or a price to indicate the user. An unmanned glasses information processing method according to any one of claims 20 to 33, including a step of prompting purchase.
【0005】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の発明の実施
の形態の詳細な説明から一層明らかとなろう。The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments of the present invention with reference to the accompanying drawings.
【0006】[0006]
【発明の実施の形態】図1は、この発明の一実施の形態
における無人型カウンターブースによるメガネの情報発
信装置の図解図であり、図2は、その内部の構造を示す
図解図である。DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is an illustrative view of an information transmitting apparatus for glasses using an unmanned counter booth according to an embodiment of the present invention, and FIG. 2 is an illustrative view showing an internal structure thereof.
【0007】1:カウンターブースの構成 図1および図2に示すように、この無人メガネ情報発信
装置におけるカウンターブース1は、メガネ購入者によ
りネットワークを活用してオーダー販売される際に利用
される端末であり、例えば、パーソナルコンピュータに
より実現され、利用者端末101と、既に使用している
メガネの度数を測定する既使用レンズの度数測定装置1
02と、利用者たる被検者がメガネを外した状態におけ
る矯正視力の測定を自動的に行う視力測定装置103
と、前記既使用レンズの度数測定手段102および前記
視力測定装置103によって測定されたデータを情報処
理し、他所にある有人のメガネ処理センタに送信する通
信手段104と、メガネの度数測定に関する指示などを
表示および/または音声で伝える出力手段105と、視
力測定装置103などで視力を測定し、測定中の質問に
対し答えるときなどのメガネに関する指示を入力する入
力手段106とを備える。1: Configuration of Counter Booth As shown in FIGS. 1 and 2, the counter booth 1 in the unmanned glasses information transmitting device is a terminal used when an order is sold by a glasses purchaser over a network. For example, a user terminal 101 and a used lens power measuring device 1 that is realized by a personal computer and measures the power of already used glasses
02 and a visual acuity measuring apparatus 103 that automatically measures corrected visual acuity in a state where the subject, who is a user, removes glasses.
And communication means 104 for processing information measured by the used lens power measuring means 102 and the visual acuity measuring device 103 and transmitting the data to a manned eyeglass processing center located elsewhere; instructions for measuring the power of the glasses; And / or input means 106 for inputting an instruction related to eyeglasses, such as when measuring a visual acuity with the visual acuity measuring device 103 and answering a question being measured.
【0008】カウンターブース1のメガネのレンズ情報
発信装置からは、通信手段104により広域コンピュー
タネットワーク(インターネット)を介して、他所にあ
る有人のメガネ処理センタ2に測定したメガネに関する
各種情報を送信するように構成されている。また、カウ
ンターブース1内には、メガネの実物、メガネのフレー
ムのカタログなどが備えられているが、それは種類等が
限られるので必要最小限のものを取り揃えるに過ぎず、
メガネ処理センタ2より送信されたレンズ、フレーム等
のカタログ情報を、利用者端末101で出力手段105
によって表示し、利用者がそれを見て選択できるように
する。From the lens information transmitting device for the glasses of the counter booth 1, various kinds of information on the measured glasses are transmitted to the manned glasses processing center 2 in another place via the wide area computer network (Internet) by the communication means 104. Is configured. In the counter booth 1, there is a catalog of real glasses, a frame of glasses, and the like. However, since the types are limited, only the minimum necessary items are available.
The user terminal 101 outputs catalog information such as lenses and frames transmitted from the glasses processing center 2 to the output unit 105.
And allow the user to view and select it.
【0009】利用者端末101は、パーソナルコンピュ
ータ等から構成され、購入者であるユーザとの間のイン
タフェースとなる入出力装置であり、具体的には、タッ
チパネル107、デジタルカメラ108を含む入力手段
106、並びに、液晶もしくはCRTディスプレイ、P
Cモニタ109、プリンター112、スピーカを含む出
力手段105によって実現される。テキストデータ等の
情報入力装置としてはタッチパネル107が用意されて
いるが、マウス、トラックボール、ジョイスティックな
どのポインティングデバイス、キーボード、スイッチな
どの多種多用な入力装置を用いることができる。さら
に、画像情報の入力手段としてデジタルカメラ108が
用意されているが、テレビカメラ、ビデオカメラ、デジ
タルスチルカメラなど画像情報をデジタイズして入力で
きる装置であればもちろん良い。また、必要に応じて、
フラッシュ等の補助光を提供する装置を設けてもよい。
また、画像あるいはその他の情報を記憶可能な記憶装置
としては、ハードディスクおよびCD−ROMドライブ
が用意されており、CDに記憶された画像情報あるいは
プログラムなどを利用できるようになっている。もちろ
ん、DVD、MO、あるいはメモリユニットなどの記憶
媒体用の装置で構成することも可能である。さらに、こ
の利用者端末101は、コンピュータネットワーク(ネ
ットワーク)としてインターネットに接続できるように
なっており、ネットワークを介して画像情報あるいはソ
フトウェアなどの情報を授受できるようになっている。
また、利用者端末101は、メガネ処理センタ2のサー
バとの間のインタフェースとしてWWWブラウザを有す
る。利用者端末101がパーソナルコンピュータである
場合には、WWWブラウザは、そのメモリに格納される
プログラムとして実現される。The user terminal 101 is an input / output device which comprises a personal computer or the like and serves as an interface with a user who is a purchaser. Specifically, an input means 106 including a touch panel 107 and a digital camera 108 , And liquid crystal or CRT display, P
This is realized by the output unit 105 including the C monitor 109, the printer 112, and the speaker. Although the touch panel 107 is prepared as an information input device for text data and the like, various input devices such as a pointing device such as a mouse, a trackball, and a joystick, a keyboard, and a switch can be used. Further, although the digital camera 108 is prepared as an image information input means, any device that can digitize and input image information, such as a television camera, a video camera, or a digital still camera, may be used. Also, if necessary,
A device for providing auxiliary light such as a flash may be provided.
Further, a hard disk and a CD-ROM drive are prepared as storage devices capable of storing images or other information, so that image information or programs stored on a CD can be used. Of course, it is also possible to configure with a device for a storage medium such as a DVD, MO, or a memory unit. Further, the user terminal 101 can be connected to the Internet as a computer network (network), and can exchange information such as image information or software via the network.
Further, the user terminal 101 has a WWW browser as an interface with the server of the glasses processing center 2. When the user terminal 101 is a personal computer, the WWW browser is realized as a program stored in its memory.
【0010】度数測定装置102は、掛けているメガネ
を所定の場所に置くようなメガネ載置台が形成され、そ
の上にレンズを置くと、レンズをメータ光学中心に合わ
せることにより、レンズメータがそのメガネレンズの度
数を測定するように構成されている。In the power measuring device 102, a spectacles mounting table for placing the spectacles on which it is worn is formed, and when a lens is placed thereon, the lens is adjusted to the center of the meter optical, whereby the lens meter is moved. It is configured to measure the power of the spectacle lens.
【0011】視力測定装置103は、両眼の屈折力を自
動的に他覚的且つ自覚的に測定する装置であって、自動
的に裸眼視力を測定し、裸眼視力の矯正に必要なレンズ
度数を演算することができるよう構成されている。その
一例を示せば図1ないし3に示されるようなものであ
り、この視力測定装置103は、ゴーグル状の顔当て1
03aが設けられ、被検眼の位置をほぼ固定することが
できるように構成され、ジョイステック103bおよび
応答スイッチ103cが設けられ、被検者が、タッチパ
ネル107、ジョイステック103bおよび応答スイッ
チ103cを操作あるいはタッチすることにより、所定
の入力を行うことができるように構成されている。この
視力測定装置103において、遠用・近用測定(但し、
近用は下方視ではなく水平視)を次のように行う。 a.遠用:水平視、3〜5m相当の内方視 b.近用:水平視、35cm相当(PD=64mmのと
き)の内方視 自覚検眼項目は、次の通りである。 視力測定 a)遠用(片眼、両眼):裸眼視力、矯正視力、0.5
D雲霧時視力 b)近用(両眼のみ):加入度入り視力 両眼R/Gテスト(両眼バランス:偏光2色相当) 近用度数測定(クロスシリンダー法) そして、左右眼の自覚検査の進行を行うと同時に使用者
のインストラクションとして、別途利用者端末101に
おいて、被検者を誘導するように形成されている。The visual acuity measuring device 103 is a device for automatically and subjectively measuring the refractive power of both eyes. The visual acuity measuring device 103 automatically measures the naked eye acuity, and determines the lens power necessary for correcting the naked eye acuity. Can be calculated. One example is shown in FIGS. 1 to 3, and this visual acuity measuring device 103 includes a goggle-shaped
The joystick 103b and the response switch 103c are provided, and the subject operates or operates the touch panel 107, the joystick 103b, and the response switch 103c. A predetermined input can be performed by touching. In this visual acuity measuring device 103, distance / near measurement (however,
(For near vision, look down instead of looking down) as follows. a. Distance use: horizontal view, inward view equivalent to 3 to 5 m b. Near vision: Horizontal vision, inward vision equivalent to 35 cm (when PD = 64 mm) The subjective optometry items are as follows. Visual acuity measurement a) Distance use (one eye, both eyes): naked eye vision, corrected vision, 0.5
D Cloud fog b) Near vision (Binocular only): Addition-added vision Binocular R / G test (Binocular balance: Equivalent to two colors of polarized light) Near vision diopter measurement (cross cylinder method) The user terminal 101 is configured to guide the subject at the user terminal 101 separately as the user proceeds while performing the process.
【0012】この視力測定装置103の概略仕様は、次
のとおりである。この視力測定装置103は、図3に示
すように、両眼視における他覚および被検者たる使用者
の意思が反映する自覚検眼を行うもので、各眼に独立の
測定光学系装置103dを用意し、他覚・自覚検眼を行
う。一対の測定光学系装置103d、103dは、一対
の光学ヘッド103e、103eを備え、一対の光学ヘ
ッド103e,103eに入射する被験者の眼の画像を
プリズム103f、103fを通して検知し、画像処理
手段103i、103iを含む中央処理装置103jに
て光を電気信号に変換する等行い、利用者端末101に
送信するように構成されている。プリズム103fはソ
レノイド103gで角度を変えることがえできる。測定
光学系装置103d各々は、オートアライメント103
h、103hにて位置合わせを行い、指標は装置内部に
て提示するよう構成されている。The general specifications of the visual acuity measuring device 103 are as follows. As shown in FIG. 3, the visual acuity measuring device 103 performs a subjective optometry in which the objective in binocular vision and the intention of the user as a subject are reflected, and an independent measuring optical system device 103d is provided for each eye. Prepare and conduct objective and subjective optometry. The pair of measurement optical system devices 103d, 103d include a pair of optical heads 103e, 103e, detect images of the subject's eyes incident on the pair of optical heads 103e, 103e through the prisms 103f, 103f, and perform image processing means 103i, The central processing unit 103j including the processor 103i converts light into an electric signal and transmits the electric signal to the user terminal 101. The angle of the prism 103f can be changed by a solenoid 103g. Each of the measuring optical system devices 103 d
h, 103h, and the index is presented inside the apparatus.
【0013】この視力測定装置103は、CPU等の中
央処理装置103jを備え、視力測定情報入力手段、画
像処理手段103i、視力データ作成手段、記憶手段を
備える。視力測定情報入力手段は、ジョイステック10
3b等より入力される視力測定に関する視力を測定する
ための基準を含むデータを登録するための手段である。
そして、この視力測定情報入力手段は、視力を測定する
ための視力データベースの各ファイルに各データを登録
して管理する手段である。The visual acuity measuring device 103 includes a central processing unit 103j such as a CPU, and includes visual acuity measurement information input means, image processing means 103i, visual acuity data creating means, and storage means. The eyesight measurement information input means is a joystick 10
This is a means for registering data including a reference for measuring visual acuity regarding visual acuity measurement input from 3b or the like.
This visual acuity measurement information input means is a means for registering and managing each data in each file of the visual acuity database for measuring the visual acuity.
【0014】画像処理手段103iは、測定光学系装置
103dより出力された光に関する情報を電気信号に変
換する手段である。[0014] The image processing means 103i is means for converting information on light output from the measuring optical system device 103d into an electric signal.
【0015】視力データ作成手段は、入力された視力を
測定するための基準に基づいて、次の記憶手段により、
管理されているデータベースの近視、遠視および乱視の
度数等の視力測定データを検索し、そして検索して抽出
された該データを含む視力測定結果を作成する手段であ
る。[0015] The visual acuity data creating means, based on the criteria for measuring the input visual acuity, comprises the following storage means:
This is a means for searching visual acuity measurement data such as the frequencies of myopia, hyperopia, and astigmatism in a managed database, and creating a visual acuity measurement result including the searched and extracted data.
【0016】視力測定装置103は、次の視力測定デー
タファイル、視力表データファイル、近視情報データフ
ァイル、遠視情報データファイル、乱視情報データファ
イルを視力データベースとして記録し、管理する記憶手
段を備える。The visual acuity measuring device 103 includes storage means for recording and managing the following visual acuity measurement data file, visual acuity chart data file, myopia information data file, hyperopia information data file, and astigmatism information data file as a visual acuity database.
【0017】視力測定データファイルには、裸眼視力、
矯正視力、瞳孔間距離、遠用矯正度数、近用矯正度数、
測定日付、度数決定者などのデータが格納される。The visual acuity measurement data file includes naked eye acuity,
Corrected vision, interpupillary distance, distance correction power, near correction power,
Data such as a measurement date and a frequency determiner are stored.
【0018】視力データファイルには、自覚検査用チャ
ートに関するデータ等が格納される。 a)他覚測定用チャート(風景) b)視力表1(0.1〜0.6) c)視力表2(0.7〜1.2) d)両眼R/G(両眼バランス用) e)放射チャート f)近用視力表 g)老視チェック用チャート(十字線デャート:クロス
シリンダー法用) h)ブランク(両眼開放にして、片眼の視力検査を行う
ため)The visual acuity data file stores data relating to the chart for subjective examination. a) Objective measurement chart (landscape) b) Visual acuity chart 1 (0.1-0.6) c) Visual acuity chart 2 (0.7-1.2) d) Binocular R / G (for binocular balance) E) Radiation chart f) Near vision chart g) Presbyopia check chart (Cross-line dart: for cross cylinder method) h) Blank (to open both eyes and perform eyesight test for one eye)
【0019】近視情報データファイルには、近視の度、
近視度と視力の関係、近視の種類(度数)、治療法が登
録されて管理され、なお、近視とは眼が調節を全く行っ
ていない時に眼に入った平行光線が網膜の前方の一点に
像を結ぶ眼(遠点が眼前有限)である。近視の度は遠点
距離の逆数をもって表す(例えば、遠点距離=50cm
1/0.5=2Dの如くである。) 近視度と視力の関係は、表1の通りである。The myopia information data file contains the degree of myopia,
The relationship between myopia and visual acuity, the type of myopia (frequency), and the treatment are registered and managed. In addition, myopia is a parallel ray that enters the eye when the eye is not adjusting at all. An eye that connects images (the far point is finite before the eye). The degree of myopia is represented by the reciprocal of the far point distance (for example, far point distance = 50 cm).
1 / 0.5 = 2D. Table 1 shows the relationship between myopia and visual acuity.
【0020】[0020]
【表1】 [Table 1]
【0021】近視の種類(度数)は、次の通りである。
軽度近視(−4D)、中等度近視(−4D乃至−7
D)、強度近視(−7D乃至−10D)、最強度近視
(−10D以上) 近視の治療法として適度の凹レンズを装用する。The types (frequency) of myopia are as follows.
Mild myopia (-4D), moderate myopia (-4D to -7)
D), strong myopia (-7D to -10D), strongest myopia (-10D or more) A moderate concave lens is worn as a treatment for myopia.
【0022】遠視情報データファイルには、遠視の度、
遠視の種類、遠視の治療法が登録されて管理される。な
お、遠視とは眼が調節を全く行っていない時に、眼に入
った平行光線が網膜の後方の一点に像を結ぶ眼(遠点が
眼後有限)である。遠視の度は、遠点距離の逆数(例え
ば遠点距離=50cm 1/0.5=2D)で表す。遠
視の種類は、例えばその度数で表すが次の通りである。
軽度遠視(+4D)、中等度遠視(+4D乃至+7
D)、強度遠視(+7D)遠視の治療として適度の凸レ
ンズを装用する。The hyperopia information data file contains the degree of hyperopia,
The type of hyperopia and the treatment of hyperopia are registered and managed. Note that hyperopia is an eye in which parallel rays entering the eye form an image at a point behind the retina when the eye is not making any adjustment (the far point is a finite posterior eye). The degree of hyperopia is represented by the reciprocal of the far-point distance (for example, far-point distance = 50 cm 1 / 0.5 = 2D). The type of hyperopia is represented by the frequency, for example, as follows.
Mild hyperopia (+ 4D), moderate hyperopia (+ 4D to +7)
D), a moderately convex lens is worn as a treatment for hyperopia (+ 7D) hyperopia.
【0023】乱視情報データファイルには、乱視の度、
乱視の種類、治療法が登録されて管理される。なお、乱
視とは、眼が調節を全く行っていない時に、眼に入った
平行光線が一点に結像しないことである。乱視の種類
は、次の通りである。 正乱視(屈折面の不均整が対称的) 不正乱視(同じ経線の中で変曲度が異なり、結像しな
い) 乱視の治療としては、次の通りである。 単性乱視(適度の円柱レンズを装用) 複性乱視(円柱レンズと球面レンズを組み合わせて装
用) 不正乱視(コンタクトレンズ装用)The astigmatism information data file contains the degree of astigmatism,
The type and treatment of astigmatism are registered and managed. Note that astigmatism means that parallel rays entering the eye do not form an image when the eye is not making any adjustments. The types of astigmatism are as follows. Regular astigmatism (symmetrical asymmetry of the refracting surface) Irregular astigmatism (different degrees of inflection in the same meridian and no imaging) Treatment of astigmatism is as follows. Uniform astigmatism (wearing a moderate cylindrical lens) Compound astigmatism (wearing a combination of a cylindrical lens and a spherical lens) Irregular astigmatism (wearing a contact lens)
【0024】この視力測定装置103は、顔当て103
aののぞき窓のレンズ部分に、矯正視力に基づいた矯正
用レンズがセットされ、レッドグリーンテストなどを行
うことによって、被検者のその見え方を聞き出し、また
掛けていたメガネの度数や今後作成するメガネに対する
希望を考慮することによって微調整を行い、メガネ作成
に必要な矯正度数を決定するものである。The visual acuity measuring device 103 includes a face pad 103
A corrective lens based on corrective vision is set in the lens part of the viewing window of a, and by performing a red-green test, etc., the subject's appearance is heard, and the frequency of the glasses worn, and the future creation Fine adjustment is performed by taking into account the desire for glasses to be performed, and the correction power required for producing glasses is determined.
【0025】1−2:動作環境について 次に、このカウンターブース1における各装置の動作概
要について説明する。カウンターブース1は、利用者が
その中に入ると同時に設けられたオートセンサー等のセ
ンサー110が利用者が入ったことを検知し、前記した
利用者端末101、度数測定装置102、視力測定装置
103、通信手段104、出力手段105、入力手段1
06がすべて通電したオン状態になる。このとき、利用
者端末101の判断によって、出力手段105により音
声でたとえば「いらっしゃいませ」との歓迎の言葉が発
信される。さらに、音声にて「目の前にあるタッチパネ
ルに触れて下さい」と誘導し、入力手段106によりの
タッチパネル107の画面上においても、「このタッチ
パネルに触れて下さい」との誘導表示が表示される。タ
ッチパネル107に利用者が触れると同時に、利用者端
末101、度数測定装置102、視力測定装置103、
通信手段104、出力手段105が起動状態となる。1-2: Operating Environment Next, an outline of the operation of each device in the counter booth 1 will be described. The counter booth 1 detects that a user has entered by a sensor 110 such as an auto sensor provided at the same time as the user enters the counter booth 1, and the user terminal 101, the frequency measuring device 102, and the visual acuity measuring device 103 described above. Communication means 104, output means 105, input means 1
No. 06 is in the ON state in which all power is supplied. At this time, according to the judgment of the user terminal 101, a welcome word such as “welcome” is transmitted by the output unit 105 by voice. Further, a voice prompts “Please touch the touch panel in front of you”, and a guidance display “Please touch this touch panel” is also displayed on the screen of the touch panel 107 by the input unit 106. . At the same time as the user touches the touch panel 107, the user terminal 101, the frequency measuring device 102, the visual acuity measuring device 103,
The communication unit 104 and the output unit 105 are activated.
【0026】利用者端末101は、メガネ処理センタ2
より「初期画面」を受信し、出力手段105によりタッ
チパネル107に表示されるよう、制御装置によって制
御する。初期画面において、このカウンターブース1に
おいて提供されるサービスとしては、「視力測定」、
「メガネ仮想体験」、「レンズ選び」、「度付きメガネ
の購入」である。そして、利用が利用するサービスを初
期画面の中において選択すると、希望するサービスに対
応する料金が表示される。使用者が表示された料金を設
置された料金投入口111に投入すると、利用者端末1
01は、次に視力測定サービスを提供するために、利用
者に対しタッチパネル107およびPCモニタ109上
で各種質問を行い、それに対し利用者より答えを出させ
るという方法により、視力検査に必要な問診を行った
後、裸眼視力測定を行う。次に、PCモニタ109、音
声およびタッチパネル107において利用者に対し、
「今メガネを掛けていますか」との問診を行う。これに
対し、「メガネを掛けている」と答えた利用者に対して
は、今掛けているメガネの度数測定を行うので、度数測
定装置102の所定の場所にメガネを置くように音声お
よびPCモニタ109上でも指示を出す。The user terminal 101 is connected to the glasses processing center 2
The control unit controls the control unit so that the “initial screen” is received and displayed on the touch panel 107 by the output unit 105. On the initial screen, the services provided in the counter booth 1 include “sight measurement”,
“Virtual experience with glasses”, “selection of lens”, and “purchase of prescription glasses”. Then, when a service to be used is selected on the initial screen, a fee corresponding to the desired service is displayed. When the user enters the displayed fee into the installed fee entry slot 111, the user terminal 1
In order to provide a visual acuity measurement service 01, the user asks various questions on the touch panel 107 and the PC monitor 109 and asks the user to answer them. After that, naked eye visual acuity measurement is performed. Next, for the user on the PC monitor 109, the voice and the touch panel 107,
Ask "Do you wear glasses now?" On the other hand, for the user who answered "wearing glasses", the frequency measurement of the glasses currently worn is performed. An instruction is also issued on the monitor 109.
【0027】引き続き、出力手段105よりPCモニタ
109、音声およびタッチパネル107上において、裸
眼視力の測定を行うので、視力測定装置103の前に座
るよう指示を出す。たとえば、見え方や希望に関しては
「どちらがよく見えますか」、「右ですか」、「左です
か」というような二者択一の質問を音声およびPCモニ
タ109で行い、その答えをタッチパネル107で答え
る方法によって、被検者の回答を入力させるように構成
されている。また、矯正度数が決定したならば、備付け
のプリンタによってその結果をプリントアウトすること
ができるように構成されている。Subsequently, the naked eye visual acuity is measured from the output means 105 on the PC monitor 109, the voice, and the touch panel 107, so that an instruction to sit in front of the visual acuity measuring device 103 is issued. For example, with regard to the appearance and the hope, an alternative question such as "Which one looks better?", "Right?", "Left?" Is configured to allow the subject to input his / her answer by the method of answering the above. When the correction power is determined, the result can be printed out by a provided printer.
【0028】「視力測定」ステップにおいて、視力の測
定を終えた利用者は、次に「レンズ選び」に移る。視力
測定ステップにおいて測定した度数を反映させた3種類
程度のレンズをPCモニタ109画面に表示し、価格や
厚みなどレンズの特徴などの条件から利用者に購入した
いレンズを選定させる。さらに、視力測定ステップにお
いて測定された度数を反映したレンズを横から見た画像
をPCモニタ109画面に表示し、レンズの厚み比較を
行い、利用者にレンズの確認をさせる。さらに、視力測
定ステップにおいて測定された利用者の立体顔画像に、
選択したフレームと各種レンズを装着したイメージを重
ね合わせ、実際にレンズを取り付けた感じを利用者にP
Cモニタ109画面によって表示する。通常遠視の場合
目が大きく見え、近視の場合は目が小さく見えるので、
そのように画像処理がなされている。また、画像を回転
させて、選択したレンズの厚み等の印象も併せて利用者
に見てもらうように設定されている。In the "sight measurement" step, the user who has completed the measurement of the vision proceeds to "selection of lens". About three types of lenses reflecting the power measured in the visual acuity measurement step are displayed on the screen of the PC monitor 109, and the user is allowed to select a lens to be purchased from conditions such as the price and thickness of the lens. Further, an image of the lens reflecting the power measured in the visual acuity measurement step is displayed on the screen of the PC monitor 109, the thickness of the lens is compared, and the user confirms the lens. Furthermore, the three-dimensional face image of the user measured in the eyesight measurement step includes:
The selected frame is superimposed on the image with various lenses attached, and the feeling of actually attaching the lens is presented to the user.
This is displayed on the C monitor 109 screen. Normally, the eye looks large in hyperopia and small in myopia,
Image processing is performed in such a manner. In addition, the image is rotated so that the user can also see the impression such as the thickness of the selected lens.
【0029】既に使用しているメガネの度数を測定する
既使用レンズの度数測定装置102によって入力された
データならびに利用者たる被検者がメガネを外した状態
における矯正視力の測定を自動的に行う視力測定装置1
03によって決定されたデータは、通信手段104によ
り広域コンピュータネットワーク(インターネット)を
介して、他所にある有人のメガネ処理センタ2に測定し
たメガネに関する各種情報を送信するように構成されて
いる。The data inputted by the used lens power measuring device 102 for measuring the power of the glasses already used and the measurement of the corrected visual acuity in a state where the subject, who is the user, removes the glasses are automatically performed. Eyesight measuring device 1
The data determined in step 03 is configured to transmit various kinds of information on the measured glasses to the manned glasses processing center 2 in another place via the wide area computer network (Internet) by the communication means 104.
【0030】次に、タッチパネル107の初期画面に表
示された「メガネ仮想体験」を利用者が選択すれば、引
き続き、メガネ仮想体験に進む。まず、利用者を一定の
場所に座らせ、デジタルカメラ108により二方向から
その顔を撮影し、さらに、角膜頂点部と耳の位置を測定
し、撮影した画像を実像に近くなるように補正しながら
立体化する。次に、PCモニタ109画面上に、利用者
の顔を立体的に表示させる。次に、PCモニタ109、
タッチパネル107上および音声において利用者に対し
質問を行い、その答えをタッチパネル107において回
答させるという形式により利用者が掛けてみたいメガネ
フレームを選定させる。まず、PCモニタ109画面に
メガネフレームの画像を表示させるよう利用者端末10
1が制御し、素材、デザイン、形、顔型等によってフレ
ームの絞り込みを行うことができるように構成されてい
る。次に選定したフレームを利用者の立体顔画像に反映
させ、利用者が装用したイメージをPCモニタ109画
面に表示するよう利用者端末101が制御する。このと
きメガネレンズは無色だけでなく、カラーも選択するこ
とができる。利用者は、PCモニタ109画面に映し出
されたフレームを掛けた画像の中から好みのものを選び
出し、フレームの選択を行う。また、必要に応じ利用者
は選定した画像を、利用者端末101の制御の下に出力
手段105によって所定のプリンタ112によりプリン
トすることができる。Next, if the user selects the “glasses virtual experience” displayed on the initial screen of the touch panel 107, the user proceeds to the glasses virtual experience. First, the user is seated in a certain place, the face is photographed from two directions by the digital camera 108, the positions of the corneal apex and the ear are measured, and the photographed image is corrected so as to be close to the real image. While three-dimensional. Next, the user's face is displayed three-dimensionally on the PC monitor 109 screen. Next, the PC monitor 109,
A question is asked to the user on the touch panel 107 and in voice, and the answer is answered on the touch panel 107, so that the user selects a glasses frame to be worn by the user. First, the user terminal 10 displays the image of the glasses frame on the PC monitor 109 screen.
1 is controlled so that frames can be narrowed down according to the material, design, shape, face type, and the like. Next, the user terminal 101 controls so that the selected frame is reflected on the three-dimensional face image of the user, and the image worn by the user is displayed on the PC monitor 109 screen. At this time, the spectacle lens can be selected not only in colorless but also in color. The user selects a desired one from the images multiplied by the frame displayed on the screen of the PC monitor 109, and selects a frame. Further, the user can print the selected image by the predetermined printer 112 by the output unit 105 under the control of the user terminal 101 as needed.
【0031】利用者が、カウンターブース1を退出すれ
ば、メガネ処理センタ2との交信が切断され、利用者端
末101、度数測定装置102、視力測定装置103、
タッチパネル107、デジタルカメラ108、PCモニ
タ109がスクリーンセーブ状態となる。When the user leaves the counter booth 1, communication with the glasses processing center 2 is cut off, and the user terminal 101, the frequency measuring device 102, the visual acuity measuring device 103,
The touch panel 107, the digital camera 108, and the PC monitor 109 enter a screen save state.
【0032】1−3:メガネ処理センタの構成 次に、メガネ処理センタ2について、主として図1乃至
図9に基づいて説明する。メガネ処理センタ2は、電子
ショップ情報処理手段21、表示情報生成手段22、メ
ガネオーダー販売処理手段23、決済処理手段24及び
WWWサーバ/CGI25を備える。1-3: Configuration of Glasses Processing Center Next, the glasses processing center 2 will be described mainly with reference to FIGS. The glasses processing center 2 includes an electronic shop information processing unit 21, a display information generation unit 22, a glasses order sales processing unit 23, a payment processing unit 24, and a WWW server / CGI 25.
【0033】メガネ処理センタ2は、具体的には、パー
ソナルコンピュー、ワークステーション、サーバなどの
情報処理機器を具備する。電子ショップ情報処理手段2
1は、これら情報処理機器が有する、磁気ディスク装
置、光ディスク装置などの記憶装置内に格納される。ま
た、上述した各処理手段、すなわち、WWWサーバ/C
GI25、表示情報生成手段22、メガネオーダー販売
処理手段23及び決済処理手段24は、実際には、情報
処理機器が有するメモリ内にプログラムの形で格納され
て実行される。The glasses processing center 2 specifically includes information processing equipment such as a personal computer, a workstation, and a server. Electronic shop information processing means 2
1 is stored in a storage device such as a magnetic disk device or an optical disk device of these information processing devices. Further, each processing means described above, that is, WWW server / C
The GI 25, the display information generation unit 22, the glasses order sales processing unit 23, and the settlement processing unit 24 are actually stored and executed in a memory of the information processing device in the form of a program.
【0034】電子ショップ情報処理手段21は、入出力
装置を介し、商品定義部を用いて、メガネ処理センタ2
で取り扱うメガネレンズ・フレーム等の商品データの定
義を行う。ここで定義された商品データは、商品データ
情報として、商品データベースに格納される。この実施
の形態において、商品データ情報は、フレーム等の商品
を陳列する商品棚の名称、メガネレンズ・フレーム等の
商品番号、商品名、価格、商品の説明、そして商品管理
情報などのテキストデータと、フレーム等の商品の画像
データを含んでいる。メガネ処理センタ2は、また、電
子カタログの作成者とのインタフェースとして入出力装
置を備えるが、入出力装置は、カタログ作成者から商品
定義に必要となる商品棚名、商品目、価格などのテキス
トデータ、あるいは、商品形状を表すようなイメージデ
ータ等の商品情報の入力を受け付ける。また、購入者に
より購入された商品の受注情報として、商品番号、数量
などの商品情報、商品の送付先情報、外部決済処理機関
名、決済日、金額などの決済情報を含む情報の出力を行
う。メガネ処理センタ2としては、入出力装置としてキ
ーボード、マウス、CRTディスプレイなどを備えるパ
ーソナルコンピュータのような情報処理機器を用いるこ
とができる。この場合、商品定義部は、このような情報
処理機機のメモリに格納されて実行されるプログラムに
より実現することができる。The electronic shop information processing means 21 uses the merchandise definition unit via the input / output device and uses the glasses processing center 2
Defines product data such as eyeglass lenses and frames handled by. The product data defined here is stored in the product database as product data information. In this embodiment, the product data information includes text data such as the name of a product shelf displaying a product such as a frame, a product number such as an eyeglass lens / frame, a product name, a price, a description of the product, and product management information. , Frames, and the like. The glasses processing center 2 also has an input / output device as an interface with the creator of the electronic catalog. The input / output device is provided with texts such as a product shelf name, a product item, and a price required for product definition from the catalog creator. An input of data or product information such as image data representing a product shape is received. In addition, as order information of the product purchased by the purchaser, product information such as a product number and a quantity, destination information of the product, information including payment information such as an external payment processing institution name, a payment date, and an amount are output. . As the glasses processing center 2, an information processing device such as a personal computer having a keyboard, a mouse, a CRT display, and the like as input / output devices can be used. In this case, the product definition unit can be realized by a program stored and executed in the memory of such an information processing device.
【0035】電子ショップ情報処理手段21には、ショ
ップデータベース、商品データベース、バスケットデー
タベースを含む電子ショップ出店情報手段が設けられ
る。ショップデータベースは、電子ショップを出店する
ための情報と、商品情報を表示するためのショップレイ
アウトを定義する情報を格納している。商品データベー
スは、定義された商品データ情報を格納する。また、バ
スケットデータベースは、カウンターブース1の利用者
端末101から購入を指示された商品の情報を蓄積する
ためのものである。電子ショップ情報処理手段21は、
転送された商品データ情報を商品データベースに格納す
る機能を実現する。The electronic shop information processing means 21 is provided with electronic shop opening information means including a shop database, a product database, and a basket database. The shop database stores information for opening an electronic shop and information defining a shop layout for displaying product information. The product database stores the defined product data information. The basket database is for accumulating information on products ordered to be purchased from the user terminal 101 of the counter booth 1. The electronic shop information processing means 21
A function of storing the transferred product data information in the product database is realized.
【0036】表示情報生成手段22は、カウンターブー
ス1の利用者端末101からの要求に応じて、電子カタ
ログなどの表示情報を生成する。表示情報生成手段22
は、パラメータ解析手段221、ファイル検索手段22
2、及び表示データ生成手段223を含んで構成され
る。パラメータ解析手段221は、WWWサーバ/CG
I25を介して受け取ったカウンターブース1の利用者
端末101からの視力測定データ・フレーム選択情報等
を解析し、視力測定データ・フレーム選択情報等に含ま
れるパラメータを抽出する。ファイル検索手段222
は、パラメータ解析手段221により抽出されたパラメ
ータに基づいて、電子ショップ情報処理手段21によっ
て登録され記憶された各データベースを検索する。表示
データ生成手段223は、ファイル検索手段222によ
り検索されたデータをもとにWWWページとして表示可
能な表示データを生成する。すなわち、表示データ生成
手段223は、いわゆるWWWページジェネレータとし
ての機能を有する。The display information generating means 22 generates display information such as an electronic catalog in response to a request from the user terminal 101 of the counter booth 1. Display information generating means 22
Are parameter analysis means 221, file search means 22
2 and display data generating means 223. The parameter analysis means 221 is a WWW server / CG
The visual acuity measurement data / frame selection information and the like from the user terminal 101 of the counter booth 1 received via I25 are analyzed, and parameters included in the visual acuity measurement data / frame selection information and the like are extracted. File search means 222
Searches each database registered and stored by the electronic shop information processing means 21 based on the parameters extracted by the parameter analysis means 221. The display data generation unit 223 generates display data that can be displayed as a WWW page based on the data searched by the file search unit 222. That is, the display data generation unit 223 has a function as a so-called WWW page generator.
【0037】メガネオーダー販売処理手段23は、カウ
ンターブース1の利用者端末101により購入予定商品
(メガネレンズ・フレーム等)が決定されたとき、表示
情報生成手段22から顧客IDと購入予定の商品IDを
受け取り、これらの情報をもとに、商品データベースか
ら購入する商品の詳細情報を取得して、バスケットデー
タベース内の対象としている顧客用の顧客バスケットデ
ータベースにその商品の情報を格納する。その後、対象
顧客が購入予定の商品の一覧をバスケットデータベース
から取得し、表示情報生成手段22に渡す。When the user terminal 101 of the counter booth 1 determines a product to be purchased (glass lens, frame, etc.), the glasses order sales processing means 23 sends a customer ID and a product ID to be purchased from the display information generating means 22. Then, based on the information, the detailed information of the product to be purchased is acquired from the product database, and the information on the product is stored in the customer basket database for the target customer in the basket database. Thereafter, the target customer obtains a list of products to be purchased from the basket database and passes the list to the display information generating means 22.
【0038】決済処理手段24は、カウンターブース1
の利用者端末101により商品の購入が決定されたと
き、表示情報生成手段22から顧客IDを受け取り、バ
スケットデータベースから購入者に対応する商品データ
情報を取り出す。そして、取り出した商品データ情報に
基づいて外部決済処理機関3に決済処理を依頼する。決
済処理手段24は、外部決済処理機関3から決済処理が
終了したことの通知を受け、メガネオーダー販売処理手
段23・電子ショップ情報処理手段21に受注処理が完
了したことを知らせるとともに、カウンターブース1の
利用者端末101に購入処理を知らせるため、ベースと
なる明細書データを作成し、表示情報生成手段22にそ
のデータを渡す。The settlement processing means 24 includes a counter booth 1
When the purchase of a product is determined by the user terminal 101, the customer ID is received from the display information generating means 22, and the product data information corresponding to the purchaser is extracted from the basket database. Then, based on the extracted product data information, the external payment processing institution 3 is requested to perform a payment process. The payment processing means 24 receives the notification from the external payment processing institution 3 that the payment processing has been completed, notifies the glasses order sales processing means 23 and the electronic shop information processing means 21 that the order processing has been completed, and sets the counter booth 1 In order to notify the user terminal 101 of the purchase process, the base statement data is created and the data is passed to the display information generating means 22.
【0039】WWWサーバ(World Wide W
eb)/CGI(Common Gateway In
terface)25は、カウンターブース1の利用者
端末101との間のインターフェースとして機能し、利
用者端末101から表示要求情報を受け取り、また、カ
ウンターブース1の利用者端末101に表示データを転
送する。A WWW server (World Wide W)
eb) / CGI (Common Gateway In)
The terface 25 functions as an interface with the user terminal 101 of the counter booth 1, receives display request information from the user terminal 101, and transfers display data to the user terminal 101 of the counter booth 1.
【0040】外部決済処理機関3では、メガネ処理セン
タ2の決済処理手段24から送られてくる依頼に基づ
き、メガネ処理センタ2に代わってオーダーされたメガ
ネの代金の決済処理業務を行う。The external payment processing institution 3 performs the payment processing for the ordered glasses in place of the glasses processing center 2 based on the request sent from the payment processing means 24 of the glasses processing center 2.
【0041】1−4:動作概要について 更に、カウンターブース1およびメガネ処理センタ2の
動作概要について、以下説明する。メガネ処理センタ2
では、WWWサーバ/CGI25がカウンターブース1
の利用者端末101より送られてきたメガネオーダーペ
ージ情報を受け取り、表示情報生成手段22を起動す
る。1-4: Outline of Operation An outline of the operation of the counter booth 1 and the glasses processing center 2 will be described below. Glasses processing center 2
Then, WWW server / CGI25 is counter booth 1
Receives the glasses order page information sent from the user terminal 101, and activates the display information generating means 22.
【0042】表示情報生成手段22は起動されると、W
WWサーバ/CGI25からメガネオーダーページ情報
を受け取り、パラメータ解析手段221により受け取っ
たメガネオーダーページ情報の解析を行う。パラメータ
解析手段221は、解析結果として、表示対象となる電
子ショップを特定するためのショップID、電子カタロ
グの背景画面の種類を特定するカタログテンプレート、
表示すべき商品の商品ID、購入者を特定するための顧
客IDなどの情報を出力する。パラメータ解析手段22
1により出力されたこれらのデータをもとに、ファイル
検索手段222は、ショップデータベース、商品データ
ベース、バスケットデータベースを検索し、カウンター
ブース1の利用者端末101から表示を要求されたホー
ムページの表示画面を作成するのに必要なデータを取得
する。When the display information generating means 22 is activated, W
The glasses order page information is received from the WW server / CGI 25, and the glasses order page information received by the parameter analysis unit 221 is analyzed. The parameter analysis unit 221 includes, as analysis results, a shop ID for specifying an electronic shop to be displayed, a catalog template for specifying a type of a background screen of the electronic catalog,
Information such as a product ID of a product to be displayed and a customer ID for specifying a purchaser is output. Parameter analysis means 22
1, the file search means 222 searches the shop database, the merchandise database, and the basket database, and displays the display screen of the homepage requested to be displayed by the user terminal 101 of the counter booth 1. Get the data needed to create.
【0043】ファイル検索手段222によりデータが取
得されると、次に、表示データ生成手段223に処理が
移る。表示データ生成手段223は、まず、カウンター
ブース1の利用者端末101からの要求の種類を判別す
る。カウンターブース1の利用者端末101からの要求
が、“購入予定商品の決定”、“商品購入”以外であれ
ば、ファイル検索手段223により、検索された結果を
用いて表示データ生成手段223で表示用のデータを生
成する。When the data is obtained by the file search means 222, the process proceeds to the display data generation means 223. The display data generation means 223 first determines the type of request from the user terminal 101 of the counter booth 1. If the request from the user terminal 101 of the counter booth 1 is other than “determination of a product to be purchased” or “product purchase”, the file is searched by the file search unit 223 and displayed on the display data generation unit 223 using the search result. Generate data for
【0044】カウンターブース1の利用者端末101か
らの要求の種類を判別するステップにおける判別の結
果、カウンターブース1の利用者端末101からの要求
の種類が“購入予定商品の決定”であった場合、すなわ
ち、顧客が表示されている商品の購入予定を指示するべ
く「選択した商品を買物かごに入れる」の指示を行った
場合、表示データ生成手段223は、メガネオーダー販
売処理手段23を起動する。When the type of request from the user terminal 101 of the counter booth 1 is "determination of a product to be purchased" as a result of the determination in the step of determining the type of request from the user terminal 101 of the counter booth 1 In other words, when the customer gives an instruction of “adding the selected item to the shopping basket” to indicate the purchase schedule of the displayed item, the display data generation unit 223 activates the glasses order sales processing unit 23. .
【0045】メガネオーダー販売処理手段23は、起動
されると、表示データ生成手段223から顧客IDと顧
客から購入予定を指示された商品の商品IDを受け取
る。この商品IDをキー情報として商品データベースか
ら該当する商品についての詳細な商品データ情報を取得
する。そして、前記ステップで取得した商品データ情報
をバスケットデータベース内にある表示データ生成手段
223から受け取った顧客IDで識別される顧客の顧客
バスケットデータベースに格納する。このとき、該当す
る顧客バスケットデータベースが存在しないときには、
その顧客IDに対応した顧客バスケットデータベースを
作成して商品データ情報を格納する。さらに、この顧客
バスケットデータベースから顧客がこれまでに選択した
すべての商品データ情報を取り出して表示データ生成手
段223に渡す。この場合、表示データ生成手段223
は、メガネオーダー販売処理手段23から受け取った商
品データ情報から顧客が購入を予定している商品の一覧
の表示情報を作成し、カウンターブース1の利用者端末
101に送る。このとき表示される情報をもとに、顧客
は、購入しようとしている商品の確認、購入予定商品の
一部、あるいは全部の取消しを行うことが可能である。When activated, the glasses order sales processing means 23 receives the customer ID and the product ID of the product designated to be purchased by the customer from the display data generating means 223. Using this product ID as key information, detailed product data information on the corresponding product is obtained from the product database. Then, the merchandise data information obtained in the above step is stored in the customer basket database of the customer identified by the customer ID received from the display data generating means 223 in the basket database. At this time, if there is no corresponding customer basket database,
A customer basket database corresponding to the customer ID is created and product data information is stored. Further, all the product data information selected by the customer so far is taken out from the customer basket database and passed to the display data generating means 223. In this case, the display data generating means 223
Creates display information of a list of products that the customer plans to purchase from the product data information received from the glasses order sales processing means 23 and sends the display information to the user terminal 101 of the counter booth 1. Based on the information displayed at this time, the customer can confirm the product to be purchased and cancel part or all of the product to be purchased.
【0046】カウンターブース1の利用者端末101か
らの要求の種類を判別するステップにおける判別の結
果、カウンターブース1の利用者端末101からの要求
の種類が“商品の購入”であった場合、つまり、顧客が
これまで選択した商品の購入決定を指示した場合、表示
データ生成手段223は、表示データの生成を行うのに
先立って決済処理手段24を起動する。When the type of request from the user terminal 101 of the counter booth 1 is "purchase of goods" as a result of the determination in the step of determining the type of request from the user terminal 101 of the counter booth 1, that is, If the customer has instructed the purchase decision of the commodity selected so far, the display data generating means 223 activates the settlement processing means 24 before generating the display data.
【0047】決済処理手段24は、起動されると、表示
データ生成手段223から顧客IDを受け取る。受け取
った顧客IDをキーとして、決済処理手段24は、バス
ケットデータベースから顧客IDで特定される顧客の顧
客バスケットデータベースに保持された購入商品の商品
データ情報を検索する。検索の結果得られた商品データ
情報に基づいて、外部決済処理機関3に決済処理を依頼
する。外部決済処理機関3は、この依頼に応じ、メガネ
処理センタ2に代わって決済処理業務を実行し、決済処
理が完了するとそのことをメガネ処理センタ2に通知す
る。外部決済処理機関3で行われる決済処理について
は、従来と特に変わるところはないので、ここでは詳細
な説明は省略する。外部決済処理機関3から決済処理が
終了した旨の通知を受けると、決済処理手段24は、商
品番号、受注数量など受注した商品に関する情報、商品
の送り先を示す送付先情報、及び、決済処理を代行する
外部決済処理機関3の名称、決済日、金額情報などから
なる決済情報を含む受注情報をメガネ処理センタ2に転
送する。メガネ処理センタ2では、入出力装置によりW
WWサーバ/CGI25から受け取った受注情報の表示
が行われる。顧客データ、購入商品や度数、支払い方
法、商品引き取り方法等すべてのデータが入力される
と、カウンターブース1においては、その確認のため
に、入力されたデータが記載されたものがプリンタ11
2によって2枚プリントされる。(そのうち、1枚はレ
シートとし、もう1枚は商品預かり証とする。) 商品代金は、クレジットカード支払い、或いは無人カウ
ンターブース1が設置されている店頭での支払いのみと
する。コンビニ、ATM等の店頭支払いの場合は、レシ
ート用控に支払い後に領収印を押してもらう。店頭では
支払い済み情報をメガネ処理センタ2へ送信する。な
お、メガネ代金よりコンビニ、ATM等のサービス料を
差し引く。最後に決済処理手段24は、決済処理が終了
したことを知らせる明細書データを作成して表示データ
生成手段223に渡す。表示データ生成手段223は、
受け取った明細書データを用いて、決済処理完了を知ら
せる表示画面を生成し、カウンターブース1の利用者端
末101に転送する。代金支払いが確認されたら(店頭
払いの場合は、店舗からの支払いデータを確認後)、メ
ガネ処理センタ2のサーバに送信されてきたデータをも
とに、レンズやフレームの受発注が実施され、商品入荷
と同時に加工・物流センタが加工を行う。加工された商
品は、上記で指定された場所へ配送され、利用者が持参
する預かり証と引き換えに商品授受が行われる。When activated, the settlement processing means 24 receives a customer ID from the display data generation means 223. Using the received customer ID as a key, the settlement processing means 24 searches the basket database for product data information of the purchased product stored in the customer basket database of the customer specified by the customer ID. Based on the product data information obtained as a result of the search, an external payment processing institution 3 is requested to perform a payment process. In response to this request, the external payment processing institution 3 executes the payment processing business on behalf of the glasses processing center 2, and notifies the glasses processing center 2 when the payment processing is completed. The payment processing performed by the external payment processing institution 3 is not particularly different from the conventional one, and therefore a detailed description is omitted here. Upon receiving a notification from the external payment processing institution 3 that the payment processing has been completed, the payment processing means 24 performs information on the ordered product such as the product number and the order quantity, destination information indicating the destination of the product, and the payment process. The order receiving information including the payment information including the name of the external payment processing institution 3 acting as a substitute, the payment date, and the amount information is transferred to the glasses processing center 2. In the glasses processing center 2, the input / output device sets the W
The order information received from the WW server / CGI 25 is displayed. When all data such as customer data, purchased products and counts, payment method, product collection method, and the like are input, the counter booth 1 prints the input data on the printer 11 for confirmation.
2 prints two sheets. (One of them is a receipt, and the other is a merchandise receipt.) The merchandise will be paid only by credit card or at the store where the unmanned counter booth 1 is installed. In the case of payment at a store such as a convenience store or ATM, ask the receipt stamp to be stamped after payment. At the store, the paid information is transmitted to the glasses processing center 2. Note that the service fee for convenience stores and ATMs is deducted from the glasses fee. Finally, the settlement processing means 24 creates statement data notifying that the settlement processing has been completed, and passes it to the display data generation means 223. The display data generation means 223 includes:
Using the received statement data, a display screen notifying the completion of the payment process is generated and transferred to the user terminal 101 of the counter booth 1. When the payment is confirmed (in the case of over-the-counter payment, after confirming payment data from the store), ordering of lenses and frames is performed based on the data transmitted to the server of the eyeglass processing center 2, The processing / distribution center performs processing at the same time as the goods arrive. The processed merchandise is delivered to the location specified above, and the merchandise is exchanged in exchange for a receipt issued by the user.
【0048】2−1:メガネのオーダー販売方法 次に、ネットワークによるメガネ・オーダ販売システム
を利用してメガネをオーダー販売する方法について以下
説明する。図5は、ネットワークによるメガネオーダー
販売システムの処理の流れの概要(その1)を示す図で
ある。図6は、ネットワークによるメガネオーダー販売
システムの処理の流れの概要(その2)を示す図であ
る。図7は、既に顧客であった場合のネットワークによ
るメガネオーダー販売システムの処理の流れの概要(ス
テップ2)を示す図である。図8は、顧客でなかったが
処方箋があった場合のネットワークによるメガネオーダ
ー販売システムの処理の流れの概要(ステップ3)を示
す図である。図9は、顧客でなく処方箋もなかった場合
のネットワークによるメガネオーダー販売システムの処
理の流れの概要(ステップ4)を示す図である。図10
は、顧客でなく処方箋もなかった場合のネットワークに
よるメガネオーダー販売システムの処理の流れの概要
(ステップ4´)を示す図である。図11は、既成老眼
鏡を選択した場合のネットワークによるメガネオーダー
販売システムの処理の流れの概要(ステップ5)を示す
図である。2-1: Method for Ordering and Selling Glasses Next, a method for orderly selling glasses using a glasses order sales system via a network will be described below. FIG. 5 is a diagram illustrating an outline (part 1) of a processing flow of the glasses order sales system via the network. FIG. 6 is a diagram illustrating an outline (part 2) of a processing flow of the glasses order sales system via the network. FIG. 7 is a diagram showing an outline (step 2) of the flow of processing of the glasses order sales system via the network when the customer is already a customer. FIG. 8 is a diagram showing an outline (step 3) of a processing flow of the glasses order sales system by the network when the customer is not a customer but has a prescription. FIG. 9 is a diagram showing an outline (step 4) of the flow of processing of the glasses order sales system by the network when there is no customer and no prescription. FIG.
FIG. 9 is a diagram showing an outline (step 4 ′) of a processing flow of the glasses order sales system by the network when there is no customer and no prescription. FIG. 11 is a diagram showing an outline (step 5) of a processing flow of the glasses order sales system by the network when the existing reading glasses are selected.
【0049】まず、カウンターブース1の利用者端末1
01からメガネ処理センタ2に接続すると、利用者認証
画面としてのIDコード入力画面を送信する。利用者認
証画面は、利用者認証情報の入力を促す画面である。カ
ウンターブース1の利用者端末101では、利用者認証
画面を受信して表示し、利用者認証情報を入力して、メ
ガネ処理センタ2へ送信する。利用者認証情報は、パス
ワード、ユーザーID等の情報である。First, the user terminal 1 of the counter booth 1
When connecting to the glasses processing center 2 from 01, an ID code input screen as a user authentication screen is transmitted. The user authentication screen is a screen for prompting input of user authentication information. The user terminal 101 of the counter booth 1 receives and displays the user authentication screen, inputs the user authentication information, and transmits the information to the glasses processing center 2. The user authentication information is information such as a password and a user ID.
【0050】メガネ処理センタ2では、利用者認証情報
を受信し、これを基にメガネオーダー販売処理手段23
・データベース管理手段により購入者情報データベース
を検索して認証を行う。メガネ処理センタ2より、カウ
ンターブース1の利用者端末101に購入者の基本属性
等を入力する基本属性入力画面を送信する。カウンター
ブース1の利用者端末101では、メガネ処理センタ2
より送信された基本属性入力画面に従って、住所、氏
名、生年月日、電話番号等の基本属性、目の調子(手元
が見えにくい等)、メガネに対する要望等を入力する。In the glasses processing center 2, the user authentication information is received, and based on this, the glasses order sales processing means 23
-Search and authenticate the purchaser information database by the database management means. The glasses processing center 2 transmits a basic attribute input screen for inputting the basic attributes of the purchaser to the user terminal 101 of the counter booth 1. At the user terminal 101 of the counter booth 1, the glasses processing center 2
According to the transmitted basic attribute input screen, basic attributes such as an address, a name, a date of birth, a telephone number, the condition of eyes (the hand is difficult to see, etc.), a request for glasses, and the like are input.
【0051】メガネ処理センタ2においては、カウンタ
ーブース1の利用者端末101に送られた購入者の基本
属性等に基づいて、データベース管理手段により管理さ
れている顧客データベースを検索・抽出して、既に顧客
として登録されているかどうかを検索する。The glasses processing center 2 searches and extracts the customer database managed by the database management means on the basis of the purchaser's basic attributes and the like sent to the user terminal 101 of the counter booth 1, and Find out if you are registered as a customer.
【0052】その検索の結果、既に顧客であることが判
明した場合には、図7に示すステップ2に進み、メガネ
処理センタ2において管理されている視力測定データを
抽出する。顧客データベース(バスケットデータベー
ス)に管理されている視力測定データ、フレーム情報デ
ータ及びレンズ情報データに基づき、カウンターブース
1の利用者端末101に前回のデータに基づいてメガネ
を作成してよいかどうか問い合わせる問合せ画面を送信
する。As a result of the search, if it is determined that the customer is already a customer, the process proceeds to step 2 shown in FIG. 7, and the eyesight measurement data managed in the glasses processing center 2 is extracted. Inquiry to ask the user terminal 101 of the counter booth 1 whether or not to make glasses based on the previous data based on the eyesight measurement data, frame information data and lens information data managed in the customer database (basket database). Send the screen.
【0053】カウンターブース1の利用者端末101に
おいては、前回と同じフレームでよく、且つ、前回と同
じレンズでよい場合には、タッチパネル107の問合せ
画面におけるチェックボタン「フレームは前回と同じで
よい」を選択して、カウンターブース1の利用者端末1
01からメガネ処理センタ2に送信する。メガネ処理セ
ンタ2では、選択されたフレームの在庫を電子ショップ
情報処理手段21より確認する。In the user terminal 101 of the counter booth 1, if the same frame as the previous time and the same lens as the previous time are acceptable, the check button on the inquiry screen of the touch panel 107 “The frame may be the same as the previous time” Select the user terminal 1 of the counter booth 1
01 to the glasses processing center 2. The glasses processing center 2 checks the stock of the selected frame from the electronic shop information processing means 21.
【0054】また、新しいフレームおよび/または新し
いレンズにすることを希望する場合には、後述するフレ
ーム選択ステップおよび/または視力測定ステップおよ
び/またはレンズ選択ステップに移る。また、購入者が
医師の処方箋を所持している場合には、処方箋利用ステ
ップに移行する。購入者は、メガネ処理センタ2より送
信されたステップ選択画面において、タッチパネル10
7のチェックボタン「フレーム選択ステップ」「視力測
定ステップ」「レンズ選択ステップ」を選択して、カウ
ンターブース1の利用者端末101からメガネ処理セン
タ2に購入者の意向を送信する。なお、視力測定ステッ
プ又は処方箋利用ステップにおいて、レンズの選択基準
が明確になった段階において、レンズ選択ステップに移
行することになる。If it is desired to use a new frame and / or a new lens, the process proceeds to a frame selecting step and / or a visual acuity measuring step and / or a lens selecting step which will be described later. If the purchaser has a doctor's prescription, the process proceeds to a prescription use step. On the step selection screen transmitted from the glasses processing center 2, the purchaser
The user selects the check buttons “frame selection step”, “visual acuity measurement step”, and “lens selection step” 7 and transmits the purchaser's intention to the eyeglass processing center 2 from the user terminal 101 of the counter booth 1. In the eyesight measurement step or the prescription use step, the process proceeds to the lens selection step when the lens selection criterion becomes clear.
【0055】メガネ処理センタ2においては、基本属性
入力画面において、購入者が入力した基本属性等から、
顧客データベース等を抽出・検索して顧客でないと判断
された時には、処方箋を所持しているか否かを問いかけ
る画面をカウンターブース1の利用者端末101にメガ
ネ処理センタ2より送信する。購入者は、カウンターブ
ース1の利用者端末101に送信された処方箋を所持し
ているか否かを問い合わせる処方箋確認画面によって、
医師の処方箋を所持している場合には、タッチパネル1
07のチェックボタン「YES」を選択し、所持してい
ない場合には、タッチパネル107のチェックボタン
「NO」を選択する。In the glasses processing center 2, on the basic attribute input screen, based on the basic attributes and the like input by the purchaser,
When the customer database is extracted and searched and it is determined that the customer is not a customer, a screen asking whether the user has a prescription is transmitted from the glasses processing center 2 to the user terminal 101 of the counter booth 1. The purchaser uses the prescription confirmation screen for inquiring whether the user has the prescription transmitted to the user terminal 101 of the counter booth 1 or not.
If you have a doctor's prescription, touch panel 1
If the user does not have the check button “YES” at step 07, the user selects the check button “NO” at the touch panel 107.
【0056】医師の処方箋を持っているとき、すなわち
「YES」を選択された場合には、図8に示すステップ
3に進み、メガネ処理センタ2より、処方箋をスキャナ
で読み込み送信するかあるいは処方箋のテキストデータ
を入力するかを問いかける問合せ画面を、カウンターブ
ース1の利用者端末101に送信する。If the doctor has a doctor's prescription, that is, if "YES" is selected, the process proceeds to step 3 shown in FIG. An inquiry screen for asking whether to input text data is transmitted to the user terminal 101 of the counter booth 1.
【0057】購入者は、メガネ処理センタ2より送られ
た処方箋データ入力画面に従って、医師の処方箋に基づ
きデータを入力するか、スキャナーで処方箋を読み込
み、タッチパネル107の送信する旨のチェックボタン
を選択して、スキャナ(図示せず)で読み込んだ画像デ
ータをメガネ処理センタ2へ送信する。According to the prescription data input screen sent from the glasses processing center 2, the purchaser inputs data based on the prescription of the doctor or reads the prescription with a scanner and selects the check button on the touch panel 107 to transmit. Then, the image data read by the scanner (not shown) is transmitted to the glasses processing center 2.
【0058】次に、メガネ処理センタ2においては、フ
レーム選択ステップおよび/またはレンズ選択ステップ
に移行するために、順次カウンターブース1の利用者端
末101に送信する。Next, the glasses processing center 2 sequentially transmits the data to the user terminal 101 of the counter booth 1 in order to proceed to the frame selection step and / or the lens selection step.
【0059】また、眼科医が処方した処方箋を持ってい
ない、すなわちタッチパネル107のチェックボタン
「NO」を選択した購入者に対しては、メガネ処理セン
タ2より、購入者の年齢が40ないし45才を超えてい
るか否かを問いかける問合せ画面を送信する。For the purchaser who does not have a prescription prescribed by the ophthalmologist, that is, selects the check button "NO" on the touch panel 107, the glasses processing center 2 sends the purchaser an age of 40 to 45 years. Send an inquiry screen asking if the number exceeds the limit.
【0060】購入者が40ないし45才を超えていると
きは、タッチパネル107のチェックボタン「YES」
を選択することによって、メガネ処理センタ2より更に
手元が見えにくいか否かを問いかける問合せ画面がカウ
ンターブース1の利用者端末101に送信される。When the purchaser is over 40 to 45 years old, the check button “YES” on the touch panel 107
Is selected, an inquiry screen for asking whether the hand is more difficult to see than the glasses processing center 2 is transmitted to the user terminal 101 of the counter booth 1.
【0061】購入者が手元が見えにくいと自覚している
場合には、タッチパネル107のチェックボタン「YE
S」を選択すると、メガネ処理センタ2においては、老
眼と判断し、更に、老眼をオーダーしたいか否かを問い
かける問合せ画面をカウンターブース1の利用者端末1
01に送信する。If the purchaser is aware that it is difficult to see the hand, the check button “YE
When "S" is selected, the glasses processing center 2 determines that the presbyopia is presbyopia and further displays an inquiry screen for asking whether or not to order presbyopia.
Send to 01.
【0062】オーダー眼鏡を欲しい場合には、タッチパ
ネル107のチェックボタン「YES」を選択すると、
図10に示すステップ4´に進み、次にメガネ処理セン
タ2よりフレーム選択ステップおよびレンズ選択ステッ
プに移行するために、順次カウンターブース1の利用者
端末101に送信する。If you want to order glasses, select the check button "YES" on the touch panel 107,
Proceeding to step 4 'shown in FIG. 10, the glasses processing center 2 sequentially transmits the frames to the user terminal 101 of the counter booth 1 in order to proceed to the frame selection step and the lens selection step.
【0063】また、購入者が手元が見にくいという自覚
症状が無い場合には、タッチパネル107のチェックボ
タン「NO」を選択すると、図10に示すステップ4´
に進み、メガネ処理センタ2においては、フレーム選択
ステップおよびレンズ選択ステップに移行するために、
順次カウンターブース1の利用者端末101に送信をす
る。この場合、年齢から判断すると老眼と思われるの
で、更に老眼鏡か遠近両用かを選ぶステップが増えるこ
とになる。When there is no subjective symptom that it is difficult for the purchaser to see the hand, if the user selects the check button “NO” on the touch panel 107, step 4 ′ shown in FIG.
In the glasses processing center 2, in order to shift to the frame selection step and the lens selection step,
The data is sequentially transmitted to the user terminal 101 of the counter booth 1. In this case, since it is presumed to be presbyopia when judging from the age, the number of steps to select between reading glasses and bifocals is further increased.
【0064】また、購入者が老眼をオーダーすることを
希望せず、既成老眼鏡で良いと判断する場合には、タッ
チパネル107のチェックボタン「NO」を選択して、
既成老眼鏡でよい旨メガネ処理センタ2に送信する。メ
ガネ処理センタ2においては、購入者の年齢から判断で
きる度数を決定し、簡単に老眼鏡を提供するための既成
老眼鏡オーダーシステム(図11図示のステップ5)に
移る。利用者の年齢が40ないし45才を超えていない
場合には、タッチパネル107のチェックボタン「N
O」を選択すると、図9に示すステップ4に進み、メガ
ネ処理センタ2においては、フレーム選択ステップおよ
び/または視力測定ステップよりレンズ選択ステップに
進む。If the purchaser does not wish to order presbyopia and determines that pre-existing reading glasses are sufficient, he / she selects the check button "NO" on the touch panel 107,
A notification is sent to the eyeglass processing center 2 to the effect that pre-made reading glasses may be used. The glasses processing center 2 determines a frequency that can be determined from the age of the purchaser, and proceeds to an existing reading glasses order system (step 5 in FIG. 11) for easily providing reading glasses. If the age of the user does not exceed 40 to 45 years, the check button “N” on the touch panel 107
When "O" is selected, the process proceeds to step 4 shown in FIG. 9, and in the glasses processing center 2, the process proceeds to the lens selection step from the frame selection step and / or the eyesight measurement step.
【0065】2−2:レンズ選び 引き続き、レンズの選択ステップについて、以下説明す
る。直近の視力データと同じでよいと購入者が判断し、
タッチパネル107のチェックボタン「直近の視力デー
タによるレンズ選択」を選択したとき、医師の処方箋デ
ータに基づいてレンズを作成してよいと顧客が判断し、
タッチパネル107のチェックボタン「処方箋によるレ
ンズ選択」を選択したとき、あるいは年令から判断した
既製の老眼鏡でよいと顧客が判断し、タッチパネル10
7のチェックボタン「既製老眼鏡でよい」を選択したと
きは、レンズ選択手段26により、それぞれのデータに
基づいてレンズを選択することになる。2-2: Lens Selection Next, the lens selection step will be described. The buyer decides that it should be the same as the most recent eyesight data,
When the user selects the check button “lens selection based on the most recent visual acuity data” on the touch panel 107, the customer determines that the lens may be created based on the doctor's prescription data,
When the user selects the check button “lens selection by prescription” on the touch panel 107 or judges that the ready-made reading glasses determined from the age are acceptable, the touch panel 10
When the check button 7 "Use ready-made reading glasses" is selected, the lens is selected by the lens selecting means 26 based on the respective data.
【0066】ところが、直近の視力データがあるとき、
あるいは医師の処方箋があるときでも、視力を測定する
ことを希望するときは、視力測定装置103により、遠
隔視力測定ステップへ進むように指示される。However, when there is the most recent visual acuity data,
Alternatively, even when there is a doctor's prescription, if it is desired to measure the visual acuity, the visual acuity measuring device 103 instructs to proceed to the remote visual acuity measuring step.
【0067】3−1:視力測定について 次に、視力測定システムおよびその方法について説明す
る。図14は、視力測定システムのシステム構成例を示
す図である。3-1: Visual Acuity Measurement Next, a visual acuity measuring system and a method thereof will be described. FIG. 14 is a diagram illustrating a system configuration example of the eyesight measurement system.
【0068】3−2:視力測定システムの構成 図14に示すように、この遠隔視力測定システムは、カ
ウンターブース1の利用者端末101、度数測定装置1
02、視力測定装置103およびメガネ処理センタ10
02のハードウェアから構成される。これらはネットワ
ークで物理的に接続されている。なお、以下の説明で
は、カウンターブース1の利用者端末101、メガネ処
理センタ1002を接続するネットワークがインターネ
ットであるものとして説明を行う。この遠隔視力測定シ
ステムは、カウンターブース1の利用者端末101(度
数測定装置102、視力測定装置103)から入力され
た視力を測定するための基準を置くデータに基づき、近
視、遠視および乱視の度等の視力測定データを抽出し、
抽出された該データを含む視力測定結果を出力する出力
手段を含むシステムであって、メガネ処理センタ100
2を備える。3-2: Configuration of Eyesight Measuring System As shown in FIG. 14, this remote eyesight measuring system comprises a user terminal 101 of the counter booth 1,
02, eyesight measuring device 103 and eyeglass processing center 10
02 hardware. These are physically connected by a network. In the following description, it is assumed that the network connecting the user terminal 101 of the counter booth 1 and the glasses processing center 1002 is the Internet. This remote visual acuity measuring system is based on data that sets criteria for measuring visual acuity input from the user terminal 101 (frequency measuring device 102, visual acuity measuring device 103) of the counter booth 1, and determines the degree of myopia, hyperopia and astigmatism. Extract eyesight measurement data such as
A system including an output unit for outputting a visual acuity measurement result including the extracted data, wherein the eyeglass processing center 100
2 is provided.
【0069】メガネ処理センタ1002は、視力測定サ
ーバを備え、利用者情報登録手段1003、視力測定情
報入力手段1004、記憶手段1005、画像処理手段
1006、音声処理手段1007、視力データ作成手段
1008、および利用者情報収録手段1003、視力測
定情報入力手段1004、記憶手段1005、画像処理
手段1006、音声処理手段1007、視力データ作成
手段1008を制御する制御手段1009を備え、更に
WWW(World Wide Web)サーバ101
0を備える。具体的には、パーソナルコンピュータ、ワ
ークステーション、サーバ等を含む情報処理機器をもっ
て構成されている。利用者情報登録手段1003、視力
測定情報入力手段1004、記憶手段1005、画像処
理手段1006、音声処理手段1007、視力データ作
成手段1008およびWWWサーバ1010は、実際に
は情報処理機器が有するメモリ内にプログラムの形で格
納されて実行される。記憶手段1005によって管理さ
れるデータベースは、磁器ディスク装置、光ディスク装
置などの記憶装置内に格納される。そして、メガネ処理
センタ1002は、広域コンピュータネットワーク(イ
ンターネット)を介して、カウンターブース1の利用者
端末101と接続される。The glasses processing center 1002 includes a visual acuity measuring server, and includes user information registration means 1003, visual acuity measurement information input means 1004, storage means 1005, image processing means 1006, audio processing means 1007, visual acuity data creating means 1008, A user information recording unit 1003, an eyesight measurement information input unit 1004, a storage unit 1005, an image processing unit 1006, a voice processing unit 1007, a control unit 1009 for controlling the eyesight data creation unit 1008, and a WWW (World Wide Web) server. 101
0 is provided. Specifically, it is configured with an information processing device including a personal computer, a workstation, a server, and the like. The user information registration unit 1003, the visual acuity measurement information input unit 1004, the storage unit 1005, the image processing unit 1006, the audio processing unit 1007, the visual acuity data creation unit 1008, and the WWW server 1010 are actually stored in a memory of the information processing device. It is stored and executed in the form of a program. The database managed by the storage unit 1005 is stored in a storage device such as a porcelain disk device and an optical disk device. Then, the glasses processing center 1002 is connected to the user terminal 101 of the counter booth 1 via a wide area computer network (Internet).
【0070】記憶手段1005は、利用者情報登録手段
1003、視力測定情報入力手段1004、画像処理手
段1006、音声処理手段1007によって、カウンタ
ーブース1の利用者端末101から収集した情報および
メガネ処理センタ1002によって作成した情報等を利
用者情報データベース、視力を測定するための基準デー
タベース、視力測定データベース、視力表データベー
ス、近視情報データベース、遠視情報データベースおよ
び乱視情報データベースとして管理し、且つ利用者情報
データベース、視力を測定するための基準データベー
ス、視力測定データベース、視力表データベース、近視
情報データベース、遠視情報データベースおよび乱視情
報データベースとして記憶装置に格納された情報を閲覧
する等の機能を有する手段である。また、制御手段10
09は、特定の条件に基づいて、データを抽出する抽出
手段も有し、また、カウンターブース1の利用者端末1
01へ一定の情報を送信する送信手段も有する。The storage means 1005 stores information collected from the user terminal 101 of the counter booth 1 by the user information registration means 1003, the visual acuity measurement information input means 1004, the image processing means 1006, and the voice processing means 1007, and the glasses processing center 1002. The information created by the above is managed as a user information database, a reference database for measuring visual acuity, a visual acuity measurement database, a visual acuity table database, a myopia information database, a hyperopia information database and an astigmatism information database, and a user information database, a visual acuity Has a function of browsing information stored in a storage device as a reference database, a visual acuity measurement database, a visual acuity table database, a myopia information database, a hyperopia information database, and an astigmatism information database for measuring an image. It is a stage. The control means 10
09 also has an extracting means for extracting data based on a specific condition, and the user terminal 1 of the counter booth 1
It also has a transmitting means for transmitting certain information to 01.
【0071】利用者情報登録手段1003は、利用者す
なわち視力測定を求める者に関するデータ、例えば、住
所、氏名、生年月日、電話番号等の基本属性、目の調子
(手元が見えにくい等)、眼鏡に対する要望、利用者識
別子(ID)、利用者パスワード、利用者コード等、利
用者を特定するためのデータを収集し、利用者情報デー
タベースに登録して管理する手段である。その他、利用
者のデータとして、ファックス番号、メールアドレス、
URL等の利用者を特定したり送信するために必要なデ
ータ、及びコンピュータ環境についてのデータが登録さ
れる。The user information registration means 1003 stores data relating to the user, that is, the person who seeks visual acuity measurement, for example, basic attributes such as address, name, date of birth, telephone number, condition of eyes (the hand is difficult to see, etc.), This is a means for collecting data for identifying a user, such as a request for glasses, a user identifier (ID), a user password, a user code, and the like, and registering and managing the data in a user information database. Other data such as fax numbers, email addresses,
Data necessary for specifying or transmitting a user such as a URL, and data on a computer environment are registered.
【0072】視力測定情報入力手段1004は、カウン
ターブース1の利用者端末101から送られてくる視力
測定に関するデータを登録するための手段である。そし
て、この視力測定情報入力手段1004は、視力測定デ
ータベースに各データを登録して管理する手段である。The visual acuity measurement information input means 1004 is a means for registering data relating to the visual acuity measurement sent from the user terminal 101 of the counter booth 1. The visual acuity measurement information input means 1004 is a means for registering and managing each data in the visual acuity measurement database.
【0073】画像処理手段1006は、視力に関連する
画像をカウンターブース1の利用者端末101へ送信し
表示したり、カウンターブース1の利用者端末101よ
り受信し処理する手段である。The image processing means 1006 is a means for transmitting and displaying an image relating to visual acuity to the user terminal 101 of the counter booth 1, and receiving and processing the image from the user terminal 101 of the counter booth 1.
【0074】音声処理手段1007は、カウンターブー
ス1の利用者端末101に送られた画面に基づき、利用
者にメッセージを音声によって送り、また、カウンター
ブース1の利用者端末101から送られてくる音声を判
断して、データとして登録し管理する手段である。The voice processing means 1007 sends a message to the user by voice based on the screen transmitted to the user terminal 101 of the counter booth 1, and outputs a voice transmitted from the user terminal 101 of the counter booth 1. Is a means for registering and managing as data.
【0075】視力データ作成手段1008は、カウンタ
ーブース1の利用者端末101から入力された近視、遠
視および乱視の度数等の視力測定データを検索し、そし
て検索して抽出された該データを含む視力測定結果を作
成する手段である。The visual acuity data creating means 1008 searches for visual acuity measurement data such as the frequency of myopia, hyperopia and astigmatism input from the user terminal 101 of the counter booth 1, and visual acuity including the retrieved data. This is a means for creating a measurement result.
【0076】WWWサーバ1010は、カウンターブー
ス1の利用者端末101がメガネ処理センタ1002の
制御手段1009等にアクセスするためのインタフェー
スとして用いられる、ホームページを構築するWWWサ
ーバ手段を有する。また、WWWサーバ1010は、記
憶手段1005が管理するデータベースに対する登録・
閲覧要求等をする利用者が正規の利用者であるかどうか
等をパスワード・識別子(ID)で認証する、利用者認
証手段を有する。The WWW server 1010 has a WWW server means for constructing a home page, which is used as an interface for the user terminal 101 of the counter booth 1 to access the control means 1009 of the glasses processing center 1002. Further, the WWW server 1010 registers / registers the database with the database managed by the storage unit 1005.
It has a user authentication unit that authenticates with a password / identifier (ID) whether or not the user making the browsing request is an authorized user.
【0077】3−3:視力測定システムの動作概要 以下、この視力測定システムをインターネット(広域コ
ンピュータネットワーク)等のネットワーク上におい
て、ホームページ等を利用して実現する場合について説
明する。3-3: Outline of Operation of Eyesight Measuring System Hereinafter, a case will be described in which the eyesight measuring system is realized on a network such as the Internet (wide area computer network) using a homepage or the like.
【0078】まず、メガネ処理センタ1002は、WW
Wサーバ1010により、インターネット上にホームペ
ージを立ち上げる。利用者は、広域コンピュータネット
ワークに接続されたカウンターブース1の利用者端末1
01のWWWブラウザ等のアクセス手段により、メガネ
処理センタ1002のホームページをインターフェース
とする利用者情報登録手段1003にアクセスし、視力
測定を要求する。メガネ処理センタ1002は、WWW
サーバ1010が有する利用者認証手段によって、利用
者のパスワードおよび/又は利用者識別子(ID)の利
用者認証情報により、利用者が正規に登録された会員で
あることを認証した上で、メガネ処理センタ1002の
利用者情報登録手段1003は、利用者より広域コンピ
ュータネットワークを介して登録が要求されて送信され
た情報を利用者情報データベースに書き込み管理する。First, the glasses processing center 1002 is
A home page is set up on the Internet by the W server 1010. The user is a user terminal 1 of the counter booth 1 connected to the wide area computer network.
No. 01, such as a WWW browser, accesses the user information registration unit 1003 using the homepage of the glasses processing center 1002 as an interface, and requests visual acuity measurement. The glasses processing center 1002 is a WWW
The user authentication means of the server 1010 authenticates the user as a legitimately registered member based on the user's password and / or the user authentication information of the user identifier (ID), and then processes the glasses. The user information registration unit 1003 of the center 1002 writes and manages information requested to be registered by a user via a wide area computer network and transmitted to a user information database.
【0079】この時、利用者が初めて視力測定システム
を利用する者であることが判明した場合は、住所、氏
名、生年月日、電話番号等の基本属性、目の調子(手元
が見えにくい)、眼鏡に対する要望等を入力する、基本
属性等入力画面をカウンターブース1の利用者端末10
1に送信しカウンターブース1の利用者端末101によ
って利用者は必要な事項を入力しメガネ処理センタ10
02に送信する。更に、利用者は、パスワードおよび/
又は利用者会員識別子(ID)等の登録も行い、利用者
情報登録手段1003はかかる利用者からの情報を広域
コンピュータネットワークを介して利用者情報データベ
ースに書き込み管理する。At this time, if it is determined that the user is a user who uses the visual acuity measuring system for the first time, basic attributes such as an address, a name, a date of birth, a telephone number, the condition of eyes (the hand is hard to see). The user terminal 10 of the counter booth 1 displays a basic attribute input screen for inputting a request for glasses, etc.
1 and the user inputs necessary items through the user terminal 101 of the counter booth 1 and the glasses processing center 10
02. In addition, the user has a password and / or
Alternatively, a user member identifier (ID) or the like is also registered, and the user information registration unit 1003 writes and manages information from the user in a user information database via a wide area computer network.
【0080】図15ないし図21は、メガネ処理センタ
1002において記憶手段1005が管理する各データ
ベースの構造の例を示す。利用者情報データベースに
は、例えば図15に示すように利用者を特定する情報と
して、利用者コード、利用者識別子(ID)、利用者パ
スワード、住所、氏名、生年月日、電話番号等の基本属
性等を含む、利用者のデータを利用者情報を格納し記憶
するデータベースである。これらの利用者情報は、利用
者情報登録手段1003によりカウンターブース1の利
用者端末101に送信される利用者情報登録画面に入力
されたデータが登録されるものである。なお、全項目に
ついて必ずしもデータが登録されていなくてもよい。利
用者情報識別子(ID)およびパスワードは、オフライ
ンで入手した利用者情報に基づいて、サービスセンタに
おいて決定してもよく、また利用者からの最初のアクセ
ス時に自動的に付与されるようにしても良い。FIGS. 15 to 21 show examples of the structure of each database managed by the storage means 1005 in the glasses processing center 1002. FIG. In the user information database, for example, as shown in FIG. 15, information such as a user code, a user identifier (ID), a user password, an address, a name, a date of birth, a telephone number, etc. This is a database for storing user information, including user data, including attributes. In the user information, data input to the user information registration screen transmitted to the user terminal 101 of the counter booth 1 by the user information registration unit 1003 is registered. Note that data need not always be registered for all items. The user information identifier (ID) and the password may be determined at the service center based on the user information obtained off-line, or may be automatically given at the first access from the user. good.
【0081】視力を測定するための基準データベースに
は、使用目的、年令、前度数、前度数での両眼視力、前
度数での左右バランス、前メガネの使用年数、コンタク
トの種類(併用の場合)、希望矯正視力、視力に関係す
る病気の有無などのデータが格納される。The reference database for measuring visual acuity includes the purpose of use, age, previous frequency, binocular visual acuity at the previous frequency, left-right balance at the previous frequency, years of use of front glasses, type of contact Case), data such as the desired corrected visual acuity and the presence or absence of a disease related to the visual acuity are stored.
【0082】視力測定データベースには、裸眼視力、矯
正視力、瞳孔間距離、遠用矯正度数、近用矯正度数、測
定日付、度数決定者などのデータが格納される。視力表
データベースには、度数とランドルト環との関係を示す
データが格納される。The visual acuity measurement database stores data such as naked eye acuity, corrected visual acuity, interpupillary distance, distance correction power, near correction power, measurement date, and power determiner. The eyesight table database stores data indicating the relationship between the frequency and the Landolt's ring.
【0083】近視情報データベースには、近視の度、近
視度と視力の関係、近視の種類(度数)、治療法が登録
されて管理され、なお、近視とは眼が調節を全く行って
いない時に眼に入った平行光線が網膜の前方の一点に像
を結ぶ眼(遠点が眼前有限)である。近視の度は遠点距
離の逆数をもって表す(例えば、遠点距離=50cm
1/0.5=2Dの如くである。) 近視度と視力の関係は、表1の通りである。近視の種類
(度数)は、次の通りである。軽度近視(−4D)、中
等度近視(−4D乃至−7D)、強度近視(−7D乃至
−10D)、最強度近視(−10D以上) 近視の治療法として適度の凹レンズを装用する。The myopia information database registers and manages the degree of myopia, the relationship between myopia and visual acuity, the type (frequency) of myopia, and the treatment method. This is an eye in which parallel rays entering the eye form an image at a point in front of the retina (the far point is finite before the eye). The degree of myopia is represented by the reciprocal of the far point distance (for example, far point distance = 50 cm).
1 / 0.5 = 2D. Table 1 shows the relationship between myopia and visual acuity. The types of myopia (frequency) are as follows. Mild myopia (-4D), moderate myopia (-4D to -7D), strong myopia (-7D to -10D), strongest myopia (-10D or more) A moderate concave lens is worn as a treatment for myopia.
【0084】遠視情報データベースには、遠視の度、遠
視の種類、遠視の治療法が登録されて管理される。な
お、遠視とは眼が調節を全く行っていない時に、眼に入
った平行光線が網膜の後方の一点に像を結ぶ眼(遠点が
眼後有限)である。遠視の度は、遠点距離の逆数(例え
ば遠点距離=50cm 1/0.5=2D)で表す。遠
視の種類は、例えばその度数で表すが次の通りである。
軽度遠視(+4D)、中等度遠視(+4D乃至+7
D)、強度遠視(+7D)遠視の治療として適度の凸レ
ンズを装用する。In the hyperopia information database, the degree of hyperopia, the type of hyperopia, and a hyperopia treatment method are registered and managed. Note that hyperopia is an eye in which parallel rays entering the eye form an image at a point behind the retina when the eye is not making any adjustment (the far point is a finite posterior eye). The degree of hyperopia is represented by the reciprocal of the far-point distance (for example, far-point distance = 50 cm 1 / 0.5 = 2D). The type of hyperopia is represented by the frequency, for example, as follows.
Mild hyperopia (+ 4D), moderate hyperopia (+ 4D to +7)
D), a moderately convex lens is worn as a treatment for hyperopia (+ 7D) hyperopia.
【0085】乱視情報データベースには、乱視の度、乱
視の種類、治療法が登録されて管理される。なお、乱視
とは、眼が調節を全く行っていない時に、眼に入った平
行光線が一点に結像しないことである。乱視の種類は、
次の通りである。 正乱視(屈折面の不均整が対称的) 不正乱視(同じ経線の中で変曲度が異なり、結像しな
い) 乱視の治療としては、次の通りである。 単性乱視(適度の円柱レンズを装用) 複性乱視(円柱レンズと球面レンズを組み合わせて装
用) 不正乱視(コンタクトレンズ装用)The astigmatism degree, the type of astigmatism, and the treatment method are registered and managed in the astigmatism information database. Note that astigmatism means that parallel rays entering the eye do not form an image when the eye is not making any adjustments. The types of astigmatism are
It is as follows. Regular astigmatism (symmetrical asymmetry of the refracting surface) Irregular astigmatism (different degrees of inflection in the same meridian and no imaging) Treatment of astigmatism is as follows. Uniform astigmatism (wearing a moderate cylindrical lens) Compound astigmatism (wearing a combination of a cylindrical lens and a spherical lens) Irregular astigmatism (wearing a contact lens)
【0086】3−3:視力測定の方法 まず、カウンターブース1における視力測定装置103
によって行う裸眼視力の測定方法の概略について、説明
する。 利用者は、一方の目を手でふさぎ、片目で裸眼視力測
定画面(図22)を見る。裸眼視力測定画面(図22)
には、片目で注視する点が示されている。 利用者は、頸を固定し、裸眼視力測定画面(図22)
からの距離を一定にする。例えば、顔を固定するために
手の平の上に頸を乗せ、肘を机の上につく。 視力測定装置103により、画面上の「×」のポイン
トに視力表のランドルト環1.0を表す。視力測定装置
103では、裸眼視力測定画面(図22)からの距離を
判断して、視力1.0に相当する大きさの視力表を表示
する。 片目で視力表(図23)のランドルト環を見つめる 視力測定装置103により、タッチパネル107へ画
面のメッセージまたは音声によって音声で「輪の空いて
いるところがみえますか?」と質問する。 見えれば、タッチパネル107の「YES」のところ
をタッチ(音声で返答)する。更に、視力測定装置10
3は、問診画面をタッチパネル107に送信し、タッチ
パネル107の問診画面で「どこが空いていますか」と
質問を続け、ランドルト環の空いている方向を「上、
下、左、右、左上、左下、右上、右下」の8方向から選
択させ、タッチパネル107のボタンをタッチ(音声で
返答)させる。その方向が合っていれば、度1.2の視
力表を表示させ、同じ手順を繰り返す。 見えなかった場合や空いている方向が間違っている場
合は、視力測定装置103より前の視力よりも低い視力
表をタッチパネル107に表示し、同じ手順を繰り返
す。 視力測定装置103は、間違いが2度続いた視力の直
前の正解度数を裸眼視力と判断する。 次にもう片方の目についても同じ作業をおこなう。3-3: Method of measuring visual acuity First, the visual acuity measuring device 103 in the counter booth 1
An outline of a method for measuring the visual acuity performed by the naked eye will be described. The user closes one eye with his / her hand and looks at the naked eye visual acuity measurement screen (FIG. 22) with one eye. The naked eye visual acuity measurement screen (Fig. 22)
Shows a point to be watched with one eye. The user fixes his or her neck and measures the naked eye visual acuity (Fig. 22).
Constant distance from For example, put your neck on the palm of your hand to secure your face and your elbows on the desk. The Landolt ring 1.0 of the visual acuity chart is represented by a point “x” on the screen by the visual acuity measuring device 103. The visual acuity measuring device 103 determines the distance from the naked eye visual acuity measurement screen (FIG. 22) and displays a visual acuity table having a size corresponding to a visual acuity of 1.0. One eye looks at the Landolt's ring of the eyesight chart (FIG. 23). The visual acuity measuring device 103 asks the touch panel 107 by voice or voice message on the touch panel 107 a message "Do you see a vacant ring?" If it can be seen, the user touches “YES” on the touch panel 107 (answers by voice). Further, the eyesight measuring device 10
3 transmits the inquiry screen to the touch panel 107, continues to ask the question "Where is free" on the inquiry screen of the touch panel 107, and changes the direction in which the Landolt ring is available to "up,
The user is allowed to select from eight directions of “down, left, right, upper left, lower left, lower left, upper right, lower right”, and touch the button on the touch panel 107 (answer by voice). If the directions match, a visual acuity table of degree 1.2 is displayed, and the same procedure is repeated. If not visible or if the direction of vacancy is wrong, a visual acuity table lower than the visual acuity before the visual acuity measuring device 103 is displayed on the touch panel 107, and the same procedure is repeated. The visual acuity measuring device 103 determines the correct frequency immediately before the visual acuity in which the error has continued twice as naked eye acuity. Then do the same for the other eye.
【0087】次に、カウンターブース1における視力測
定装置103によって行う矯正視力の測定方法について
説明する。 視力測定装置103は、次の裸眼視力データを入力す
る。裸眼視力データとしては、前記した「裸眼視力測定
方法」の手順で測定したデータ眼科医の処方箋データメ
ガネ処理センタ1002で管理する前回視力データがあ
る。 メガネ処理センタ1002は、入力された前記裸眼視
力データをもとにして、片目ずつ矯正視力が度1.2に
なるようなレンズを使用した矯正後視力測定データを、
カウンターブース1の利用者端末101に送信し、視力
測定装置103に表示する。即ち、「そう見えているで
あろうランドルト環」を視力測定装置103の矯正後視
力測定画面上に表示する。 視力測定装置103では、片目をふさいだ状態の裸眼
で、視力測定装置103の画面に表示されたランドルト
環を見て、度1.2前後の見え方について、測定を行
う。 よく見えた場合は、タッチパネル107のチェックボ
タン「よく見える」をタッチすると、視力測定装置10
3では、その度数を矯正後の視力と判断する。 よく見えない場合は、タッチパネル107のチェックボ
タン「よく見えない」をタッチすると、視力測定装置1
03では乱視と判断し、乱視の検査を行うステップに進
む。Next, a method of measuring the corrected visual acuity performed by the visual acuity measuring device 103 in the counter booth 1 will be described. The visual acuity measuring device 103 inputs the next naked-eye visual acuity data. As the naked eye acuity data, there is the previous eye acuity data managed by the ophthalmologist's prescription data glasses processing center 1002 measured by the procedure of the above-mentioned “method of measuring the naked eye acuity”. The glasses processing center 1002, based on the input naked eye visual acuity data, corrects the visual acuity measurement data using a lens such that the corrected visual acuity is 1.2 for each eye,
The information is transmitted to the user terminal 101 of the counter booth 1 and displayed on the visual acuity measuring device 103. That is, the “Landolt ring that is likely to be seen” is displayed on the corrected vision measurement screen of the vision measurement device 103. The visual acuity measuring device 103 measures the appearance of about 1.2 degrees by looking at the Landolt ring displayed on the screen of the visual acuity measuring device 103 with the naked eye with one eye closed. If you can see well, touch the check button “look good” on the touch panel 107, and
In 3, the frequency is determined as the corrected visual acuity. If the user cannot see the image, the user touches the check button “Invisible” on the touch panel 107.
In 03, it is determined that astigmatism has occurred, and the process proceeds to a step of performing an astigmatism inspection.
【0088】乱視の検査ステップは、視力測定装置10
3において、真上に口のあいたランドルト環、真下、左
90度、右90度に口のあいた4つのランドルト環を表
した視力表を表示し、利用者は矯正後視力測定画面のラ
ンドルト環の見え具合により、乱視であること、並びに
乱視の軸を判断することができる。乱視測定時の度数決
定ポイントとしては、次の通りである。 ランドルト環をゆっくり回転させることで、ランドル
ト環の切れ目がつながる位置がないかどうかチェックす
ることになるが、つながる位置があれば、その時点で矯
正後視力測定画面にてジョイスティック103bで指示
する。指示された位置によって、視力測定装置103で
乱視の軸(AXIS)を特定する。数回同じテストを行
い、ばらつきがあれば、視力測定装置103は、球面度
数(SPH)を加えた矯正後視力測定画面を表し、再度
同様のテストを行う。もし、切れ目がつながらない場
合、視力測定装置103は、タッチパネル107の矯正
後視力測定画面にてチェックボタン「つながらない」を
タッチすることにより視力測定装置103では乱視はな
いと判断する。 更に、視力測定装置103は、放射線状の指標画像を
表示し、視力測定装置103は矯正後視力測定画面にて
一番濃い線と薄い線の位置を判断させ、その位置をジョ
イスティック103bで指示させることにより、視力測
定装置103では乱視の軸(AXIS)を特定する。 乱視が特定できた場合には、乱視の矯正を行った後の
ランドルト環を表した視力表を画面に表示し、見え方を
チェックする。The astigmatism inspection step is performed by the visual acuity measuring device 10.
3, a visual acuity table showing four Landolt rings with the mouth open immediately above, right below, 90 degrees to the left, and 90 degrees to the right 90 degrees is displayed, and the user can use the Landolt ring on the vision correction screen after correction. Based on the appearance, it is possible to determine the astigmatism and the axis of the astigmatism. The frequency determination points at the time of astigmatism measurement are as follows. By slowly rotating the Landolt ring, it is checked whether or not there is a position where a break in the Landolt ring is connected. If there is a connected position, an instruction is given at that time with the joystick 103b on the post-correction visual acuity measurement screen. The axis of astigmatism (AXIS) is specified by the visual acuity measuring device 103 based on the designated position. The same test is performed several times, and if there is a variation, the visual acuity measuring device 103 displays the corrected visual acuity measurement screen to which the spherical power (SPH) is added, and performs the same test again. If the break is not connected, the visual acuity measuring device 103 determines that there is no astigmatism in the visual acuity measuring device 103 by touching the check button “not connected” on the corrected visual acuity measuring screen of the touch panel 107. Further, the visual acuity measuring device 103 displays a radial index image, and the visual acuity measuring device 103 determines the position of the darkest line and the lightest line on the corrected visual acuity measurement screen, and instructs the position with the joystick 103b. Thus, the visual acuity measuring apparatus 103 specifies the axis of astigmatism (AXIS). If astigmatism has been identified, a visual acuity table showing a Landolt's ring after correcting the astigmatism is displayed on the screen, and the appearance is checked.
【0089】度1.2に矯正できた場合に、矯正視力
と判断する。矯正視力は、「きっちり矯正したい=1.
2」「ゆるめにしたい=0.8」「普通=1.0」位は
選択できるように設定されている。遠近両用を希望する
人に対しては、遠用、近用ともに測ることができる。When the correction can be made to the degree of 1.2, it is determined that the corrected visual acuity is obtained. Corrected eyesight is described as "I want to correct exactly = 1.
"2", "I want to loosen = 0.8", and "Normal = 1.0" are set so that they can be selected. For those who wish to use for both distance and near, both distance and near can be measured.
【0090】既成老眼鏡で良いと希望する人に対して
は、年齢から判断できる老眼度数を判断することができ
るが、老眼測定時の度数決定システムは、次の通りであ
る。 カウンターブース1の利用者端末101は、メガネ処
理センタ1002からカウンターブース1の利用者端末
101へ送信されたタッチパネル107のアンケート画
面で、年齢、職業、眼鏡の用途、趣味、スポーツ、病気
の有無等を入力する。 事前にメガネ処理センタ1002の利用者データベー
スに基づいて、前記したの条件での度数を決定してお
く。 とをリンクすることにより加入度数を決定する。For a person who wishes to use pre-existing reading glasses, the presbyopia power which can be judged from the age can be determined. The power determination system at the time of measuring presbyopia is as follows. The user terminal 101 of the counter booth 1 uses the questionnaire screen of the touch panel 107 transmitted from the glasses processing center 1002 to the user terminal 101 of the counter booth 1 to display the age, occupation, use of glasses, hobbies, sports, presence of illness, etc. Enter The frequency under the above conditions is determined in advance based on the user database of the glasses processing center 1002. The addition power is determined by linking.
【0091】このようにして、近視の場合、近視の度、
近視度と視力の関係、近視の種類(度数)、に関するデ
ータを近視情報データベースから抽出して表示する。遠
視の場合には、遠視度と、遠視の種類(度数)を、遠視
情報データベースから抽出して表示する。乱視の場合
は、乱視の度、ランドルト環と度数との関係、乱視の軸
の関係から乱視情報データベースから抽出し表示する。Thus, in the case of myopia, the degree of myopia,
Data on the relationship between the degree of myopia and visual acuity and the type (frequency) of myopia are extracted from the myopia information database and displayed. In the case of hyperopia, the degree of hyperopia and the type (frequency) of hyperopia are extracted from the hyperopia information database and displayed. In the case of astigmatism, it is extracted from the astigmatism information database based on the degree of astigmatism, the relationship between the Landolt's ring and the frequency, and the relationship between the axes of astigmatism, and displayed.
【0092】視力測定装置103の視力測定結果を、例
えば図24に示すような視力測定結果画面をタッチパネ
ル107に送信し表示する。DISTは遠用度数を表
し、READは近用度数を表す。SPHは球面度数を表
し、CYLは乱視度数を表し、AXISは軸を表し、
P.D.は右目の中心から左目の中心の距離を表す。即
ち、瞳孔間距離を表す。なお、遠用度数及び近用度数の
何れも、右目(R・)及び左目(L・)について表す。The visual acuity measurement result of the visual acuity measuring device 103 is transmitted to the touch panel 107, for example, as shown in FIG. DIST represents distance power, and READ represents near power. SPH represents spherical power, CYL represents astigmatic power, AXIS represents an axis,
P. D. Represents the distance from the center of the right eye to the center of the left eye. That is, it represents the distance between pupils. Note that both the distance power and the near power are represented for the right eye (R) and the left eye (L).
【0093】この遠隔視力測定システムおよびその方法
によれば、インターネットにより遠隔的に何人でも裸眼
視力或いは矯正後の視力の測定を行うことができる。According to the remote visual acuity measuring system and method, any person can remotely measure naked eye visual acuity or corrected visual acuity via the Internet.
【0094】この遠隔視力測定システムは、メガネ処理
センタ1002をメガネ処理センタ2に統合して同一機
能の手段を兼用することにより集中的に処理をするよう
にしてもよく、また、メガネ処理センタ1002とメガ
ネ処理センタ2とを、複数のコンピュータ、サーバ等で
分散的に処理をする構成にしてもよい。In this remote visual acuity measuring system, the eyeglass processing center 1002 may be integrated with the eyeglass processing center 2 to perform processing intensively by using means having the same function. The glasses processing center 2 and the glasses processing center 2 may be configured to perform processing in a distributed manner by a plurality of computers, servers, and the like.
【0095】レンズは、種々データベースとして登録さ
れているが、メガネ処理センタ2のレンズ選択手段26
は、その中から直近の視力データ、医師の処方箋および
遠隔視力測定システムにより測定されたデータに基づい
て、顧客からカウンターブース1の利用者端末101に
よって入力され送信された顧客の希望に沿ったレンズお
よび/または、メガネ処理センタ2において顧客に対し
推奨するレンズを表示したレンズ選択画面を、カウンタ
ーブース1の利用者端末101に送信する。また、既に
顧客であった場合は、前回購入したレンズも、レンズ選
択画面に表示する。そのレンズの選択肢としては、メー
カー名、型版、用途、レンズの機能(レンズの厚さ、レ
ンズの軽さ、耐久性、UVカット)、カラー、価格、度
数等があり、顧客はその選択肢を見て希望するレンズを
選択し、レンズ選択画面において希望するレンズの購入
を入力し、メガネ処理センタ2へ送信する。メガネ処理
センタ2においては、レンズ選択手段26・メガネオー
ダー販売処理手段23・決済処理手段24によってメガ
ネオーダー販売処理を行う。Although the lenses are registered as various databases, the lens selecting means 26 of the glasses processing center 2
Is based on the most recent visual acuity data, a doctor's prescription, and data measured by the remote visual acuity measuring system, and the lens according to the customer's wishes input and transmitted by the user terminal 101 of the counter booth 1 from the customer. And / or transmits a lens selection screen displaying lenses recommended for the customer in the glasses processing center 2 to the user terminal 101 of the counter booth 1. If the customer is already a customer, the previously purchased lens is also displayed on the lens selection screen. The choices of the lens include manufacturer name, mold, application, lens function (lens thickness, lens lightness, durability, UV cut), color, price, frequency, etc. The user selects the desired lens by looking at it, inputs the purchase of the desired lens on the lens selection screen, and transmits it to the glasses processing center 2. In the eyeglass processing center 2, the eyeglass order sales processing is performed by the lens selecting means 26, the eyeglass order sales processing means 23, and the settlement processing means 24.
【0096】4:フレームの選択について 次に、フレームの選択ステップについて説明する。例え
ば、既に顧客であった場合など、フレームの機能面およ
び装飾面についてのデータが、メガネ処理センタ2にお
いて存在する場合は、ファッション、イメージ、デザイ
ン等によって、フレームを登録できる。4: Frame Selection Next, a frame selection step will be described. For example, when data on the functional surface and the decorative surface of the frame exists in the glasses processing center 2 such as when the customer is already a customer, the frame can be registered by fashion, image, design, or the like.
【0097】そこで、フレームの機能的なデータおよび
装飾的なデータがメガネ処理センタ2にある場合のフレ
ームの選択について、以下説明する。フレームは、メガ
ネ処理センタ2において、データベースとして登録され
ているが、その中から代表的なフレームを表示したフレ
ーム選択画面を、フレーム選択手段27によって、カウ
ンターブース1の利用者端末101に送信する。そし
て、顧客は、フレーム選択画面において、ファッショ
ン、素材、デザイン、予算等をアンケート式の問い合わ
せに対し、回答することにより、顧客の意向を表したデ
ータに基づき、メガネ処理センタ2において、フレーム
選択手段27によって最適と判断されるフレームを選択
し、再び、メガネ処理センタ2よりカウンターブース1
の利用者端末101に、フレーム選択画面を送信する。
既に顧客であった場合は、前回購入したフレームもフレ
ーム選択画面に表示する。そのフレームの選択肢として
は、ファッション、素材、デザイン、価格等があり、顧
客はその選択肢を見て希望するフレームを選択し、フレ
ーム選択画面において希望するフレームの購入を入力
し、メガネ処理センタ2へ送信する。The selection of a frame when the functional data and the decorative data of the frame are in the glasses processing center 2 will be described below. The frames are registered as a database in the glasses processing center 2, and a frame selection screen displaying a representative frame from the frames is transmitted to the user terminal 101 of the counter booth 1 by the frame selection unit 27. Then, the customer responds to the questionnaire-based inquiry about fashion, material, design, budget, and the like on the frame selection screen. 27, the frame determined to be optimum is selected, and the counter booth 1 is again sent from the glasses processing center 2.
The user terminal 101 transmits a frame selection screen.
If the customer is already a customer, the previously purchased frame is also displayed on the frame selection screen. The options of the frame include fashion, material, design, price, etc. The customer sees the option, selects a desired frame, inputs purchase of the desired frame on the frame selection screen, and goes to the glasses processing center 2. Send.
【0098】次に、フレームの機能的なデータがメガネ
処理センタ2に存在しない場合あるいは顧客が購入した
い仮想フレームを仮想的に顧客の顔画像にかけてフレー
ムを選択したい場合には、フレーム選択手段27によっ
て、次のメガネ装用仮想体験ステップに進むように指示
される。Next, when the functional data of the frame does not exist in the eyeglass processing center 2 or when the customer wants to virtually select the frame to be purchased by applying the virtual frame to the face image of the customer, the frame selecting means 27 Then, the user is instructed to proceed to the next glasses wearing virtual experience step.
【0099】5−1:メガネ仮想体験 次に、メガネ装用仮想体験システム及びその方法につい
て説明する。図25は、メガネ装用仮想体験システムの
構成例を示す図である。この眼鏡の装用仮想体験システ
ムは、利用者の顔の画像に種々の眼鏡フレームを装用さ
せることのできるシステムであって、このシステムは、
カウンターブース1の利用者端末101、メガネ処理セ
ンタ2002から構成される。これらはネットワークで
物理的に接続されている。カウンターブース1の利用者
端末101、メガネ処理センタ2002を接続するネッ
トワークがインターネットであるとして、以下の説明を
する。5-1: Glasses virtual experience Next, the glasses wearing virtual experience system and its method will be described. FIG. 25 is a diagram illustrating a configuration example of a virtual experience system for wearing glasses. This virtual experience system for wearing glasses is a system that allows various eyeglass frames to be worn on an image of a user's face.
It comprises a user terminal 101 of the counter booth 1 and a glasses processing center 2002. These are physically connected by a network. The following description is based on the assumption that the network connecting the user terminal 101 of the counter booth 1 and the glasses processing center 2002 is the Internet.
【0100】5−2:メガネ仮想体験システムの構成 メガネ処理センタ2002は、利用者情報登録手段20
03、フレーム選択情報入力手段2004、記憶手段2
005、入力手段2006、フレーム情報登録手段20
60、フレーム画像登録手段2061、画像処理手段2
007、フレーム選択手段2008、出力手段200
9、および利用者情報登録手段2003、フレーム選択
情報入力手段2004、記憶手段2005、フレーム情
報登録手段2060、フレーム画像登録手段2061、
画像処理手段2007、フレーム選択手段2008、出
力手段2009を制御する制御手段2010を備え、更
にWWWサーバを含むサーバを備える。具体的には、パ
ーソナルコンピュータ、ワークステーション、サ−バな
どを含む情報処理機器を用いればよく、このメガネ処理
センタ2002は、広域コンピュータネットワーク(イ
ンターネット)を介してカウンターブース1の利用者端
末101と接続される。WWWサーバは、カウンターブ
ース1の利用者端末101が制御手段2010等にアク
セスするためのインターフェースとして用いられるホー
ムページを構築するWWWサーバを有する。また、WW
Wサーバは、記憶手段2005が管理するデータベース
に対する登録・閲覧要求等をするカウンターブース1の
利用者端末101からの利用者が正規の利用者であるか
否か等をパスワード・識別子(ID)で認証する利用者
認証手段を有する。5-2: Configuration of the Glasses Virtual Experience System The glasses processing center 2002
03, frame selection information input means 2004, storage means 2
005, input means 2006, frame information registration means 20
60, frame image registration means 2061, image processing means 2
007, frame selecting means 2008, output means 200
9, user information registration means 2003, frame selection information input means 2004, storage means 2005, frame information registration means 2060, frame image registration means 2061,
A control unit 2010 for controlling the image processing unit 2007, the frame selection unit 2008, and the output unit 2009 is provided, and a server including a WWW server is further provided. Specifically, an information processing apparatus including a personal computer, a workstation, a server, and the like may be used. The glasses processing center 2002 communicates with the user terminal 101 of the counter booth 1 via a wide area computer network (Internet). Connected. The WWW server has a WWW server that builds a home page used as an interface for the user terminal 101 of the counter booth 1 to access the control unit 2010 and the like. Also, WW
The W server uses a password / identifier (ID) to determine whether the user from the user terminal 101 of the counter booth 1 making a registration / browsing request to the database managed by the storage unit 2005 is an authorized user, or the like. It has user authentication means for authentication.
【0101】メガネ処理センタ2002においては、キ
ーボード等の入力手段2006は、メガネ処理センタ2
002において提供できるフレームのそれぞれについて
入力する。そして、フレーム機能構造データおよびフレ
ーム装飾構造データに関するテキストデータは、登録さ
れ、管理される。In the glasses processing center 2002, the input means 2006 such as a keyboard is connected to the glasses processing center 2.
In step 002, input is made for each of the frames that can be provided. Then, text data relating to the frame function structure data and the frame decoration structure data is registered and managed.
【0102】メガネ処理センタ2002の入力手段20
06のフレーム画像登録手段2061は、メガネ処理セ
ンタ2002によって提供できるフレームの画像を入力
する。そして、メガネ処理センタ2002において入力
されたフレーム画像が登録され、管理される。Input means 20 of glasses processing center 2002
The frame image registration unit 2061 of 06 inputs a frame image that can be provided by the glasses processing center 2002. Then, the frame image input in the glasses processing center 2002 is registered and managed.
【0103】メガネ処理センタ2002の利用者情報登
録手段2003は、カウンターブース1の利用者端末1
01から送信された顔画像等の利用者の情報を登録し、
管理する。記憶手段2005は、利用者情報登録手段2
003によって入力される利用者の顔画像、および入力
手段2006のフレーム画像登録手段2061によって
入力されるフレームの画像を、記憶し、管理する。The user information registration means 2003 of the glasses processing center 2002 stores the user terminal 1 of the counter booth 1
Register the information of the user such as the face image transmitted from 01,
to manage. The storage unit 2005 stores the user information registration unit 2
003 and a frame image input by the frame image registration unit 2061 of the input unit 2006 are stored and managed.
【0104】メガネ処理センタ2002のフレーム選択
手段2008は、記憶手段2005によって管理されて
いる利用者の希望するフレームの選択基準、すなわち機
能構造データ、装飾構造データ、顔画像データに対応し
て、フレーム情報登録手段2060によって記憶されて
いる記憶手段2005の各フレームのフレーム機能構
造、フレーム装飾構造及びフレーム画像の中から適する
ものを選択し、いくつかの種類の異なる眼鏡フレームを
表示するフレーム画像を生成または選択することが可能
なように構成されている。The frame selection means 2008 of the eyeglass processing center 2002 selects a frame desired by the user, which is managed by the storage means 2005, that is, a frame corresponding to the function structure data, the decoration structure data, and the face image data. A suitable frame function structure, a frame decoration structure, and a frame image of each frame of the storage unit 2005 stored by the information registration unit 2060 are selected to generate a frame image that displays several types of different eyeglass frames. Or it is configured to be selectable.
【0105】メガネ処理センタ2002の画像処理手段
2007は、前記したフレーム選択手段2008によっ
て選択された眼鏡フレーム画像を記憶手段2005によ
って管理されている顔画像データに合成したメガネ装用
画像を出力することができるように構成されている。The image processing means 2007 of the eyeglass processing center 2002 can output an eyeglass wearing image in which the eyeglass frame image selected by the frame selecting means 2008 is combined with the face image data managed by the storage means 2005. It is configured to be able to.
【0106】メガネ処理センタ2002の中核であるコ
ンピュータは、まず、キーボードからメガネ装用仮想体
験システムを操作する命令を受け付けると共に、利用者
の個人情報、視野画像の表示パラメーターなどのデータ
あるいは選択命令を受け付け可能な利用者情報登録手段
2003と、フレーム選択情報入力手段2004と、カ
ウンターブース1の利用者端末101のデジタルカメラ
108からデジタイズされた画像データの入力を受け付
け可能なフレーム画像登録手段2061とを備えてお
り、これらの入力データに従って画像処理を行い適当な
仮想のメガネ装用画像を選択または形成(生成)して出
力可能な画像処理手段2007を備えている。また、メ
ガネ装用仮想体験システムのソフトウェア、画像情報、
および選択して表示可能な視野画像のサンプルなどを記
憶・管理する記憶手段2005を備えている。画像処理
手段2007によって生成または選択された視野画像
は、出力手段2009からカウンターブース1の利用者
端末101のPCモニタ109に出力され、表示され
る。The computer, which is the core of the glasses processing center 2002, first receives a command to operate the glasses-wearing virtual experience system from the keyboard, and also receives data such as personal information of the user, display parameters of the visual field image, or a selection command. A possible user information registration unit 2003, a frame selection information input unit 2004, and a frame image registration unit 2061 capable of accepting input of digitized image data from the digital camera 108 of the user terminal 101 of the counter booth 1 are provided. An image processing unit 2007 capable of performing image processing according to these input data to select or form (generate) an appropriate virtual wearing image and outputting the selected image. In addition, software for the virtual experience system for wearing glasses, image information,
And a storage unit 2005 for storing and managing a sample of a visual field image that can be selectively displayed. The visual field image generated or selected by the image processing unit 2007 is output from the output unit 2009 to the PC monitor 109 of the user terminal 101 of the counter booth 1 and displayed.
【0107】5−3:メガネ仮想体験の方法 以下、このシステムをインターネット(広域コンピュー
タネットワーク)等のネットワーク上において、ホーム
ページ等を通じて実現する場合について説明する。5-3: Method of Virtual Experience of Glasses Hereinafter, a case will be described in which this system is realized through a homepage or the like on a network such as the Internet (wide area computer network).
【0108】まず、メガネ処理センタ2は、WWWサー
バによりインターネット上にホームページを立ち上げ
る。利用者は、広域コンピュータネットワークに接続さ
れたカウンターブース1の利用者端末101のWWWブ
ラウザ等のアクセス手段により、メガネ処理センタ20
02のホームページをインターフェースとするフレーム
選択情報入力手段2004にアクセスし、フレーム選択
基準のデータの登録を要求する。First, the glasses processing center 2 sets up a homepage on the Internet by the WWW server. The user can access the glasses processing center 20 by an access means such as a WWW browser of the user terminal 101 of the counter booth 1 connected to the wide area computer network.
The user accesses the frame selection information input unit 2004 using the home page 02 as an interface, and requests registration of frame selection reference data.
【0109】メガネ処理センタ2002は、WWWサー
バが有する利用者認証手段によって、利用者のパスワー
ドおよび/または利用者識別子(ID)等の利用者認証
情報により、利用者が正規に登録された利用者であるこ
とを認証する。[0109] The glasses processing center 2002 uses the user authentication means of the WWW server to identify the user whose user has been registered properly based on the user authentication information such as the user password and / or user identifier (ID). Certify that
【0110】そのうえで、メガネ処理センタ2002の
フレーム選択情報入力手段2004は、利用者より広域
コンピュータネットワークを介して登録を要求された選
択基準データを記憶手段2005に書き込み管理する。Then, the frame selection information input means 2004 of the glasses processing center 2002 writes and manages the selection reference data requested to be registered by the user via the wide area computer network in the storage means 2005.
【0111】また、メガネ処理センタ2002は、利用
者基本属性の入力画面を、カウンターブース1の利用者
端末101に送信する。利用者は、利用者の基本属性、
例えば、氏名、住所、生年月日、電話番号及び目の調子
(手元が見えにくい等)およびメガネに対する要望を、
カウンターブース1の利用者端末101に送信された利
用者基本属性入力画面に入力する。さらに、フレームの
選択基準、例えば、ファッション性、予算、機能、顔へ
のフィット感等を、メガネ処理センタ2002より送ら
れた利用者基本属性入力画面に入力する。メガネ処理セ
ンタ2002は、記憶手段2005が管理する図26な
いし図29に示す各データベースの構造に示すように利
用者の基本属性、フレームの選択基準等を記憶手段20
05に記憶させ、登録する。また、カウンターブース1
の利用者端末101の画像入力装置たるデジタルカメラ
108によって入力された顔画像についても、メガネ処
理センタ2002に送信される。なお、画像入力装置に
よって入力するときには、備え付けの顔の下に定規等を
位置させ、定規とともに顔画像を入力する。Further, the glasses processing center 2002 transmits an input screen of the user basic attributes to the user terminal 101 of the counter booth 1. The user has the basic attributes of the user,
For example, the name, address, date of birth, telephone number and eye condition (such as difficult to see at hand) and the request for glasses,
The user inputs the basic user attribute input screen transmitted to the user terminal 101 of the counter booth 1. Further, a frame selection criterion, for example, fashion, budget, function, fit to the face, and the like are input to the user basic attribute input screen transmitted from the glasses processing center 2002. The glasses processing center 2002 stores the user's basic attributes, frame selection criteria, and the like as shown in the structure of each database shown in FIGS.
05 and register. Also, counter booth 1
The face image input by the digital camera 108 as the image input device of the user terminal 101 is also transmitted to the glasses processing center 2002. When inputting with the image input device, a ruler or the like is positioned below the provided face, and a face image is input together with the ruler.
【0112】メガネ処理センタ2002に送られた顔画
像の正面と側面(左右とも)を基に、メガネ処理センタ
2002においてフレーム選択基準が作成される。すな
わち、メガネ処理センタ2002のフレーム選択情報入
力手段2004によって、カウンターブース1の利用者
端末101から送信されたテキストデータ及び画像デー
タに基づいて、フレームの機能構造データ及び装飾構造
データが作成され、記憶手段2005によって記憶手段
に記憶され、管理される。Based on the front and side faces (both left and right) of the face image sent to the glasses processing center 2002, a frame selection reference is created in the glasses processing center 2002. That is, the frame structure information input means 2004 of the glasses processing center 2002 creates and stores the functional structure data and the decorative structure data of the frame based on the text data and the image data transmitted from the user terminal 101 of the counter booth 1. The means 2005 stores and manages the information in the storage means.
【0113】フレームの機能構造データとしては、例え
ば、左右の瞳孔間の距離、左右の瞳孔間の中心を基点と
した耳元までの幅、左右の瞳孔間の中心を基点とした耳
元までの幅より決定されたテンプルの開き角、耳元より
角膜頂点までの距離、テンプルの曲げる位置、角膜頂点
と鼻元までの距離、角膜頂点と鼻元までの距離を基に決
定される鼻のクリングス(鼻当て部)の開き角度及び予
算等である。また、メガネ処理センタ2002のフレー
ム選択情報入力手段によって、主として、カウンターブ
ース1の利用者端末101より送信された選択基準(フ
ァッション性、顔へのフィット感)等のテキストデータ
に基づき、フレームの装飾構造データが作成され、記憶
手段2005によって記憶され、管理される。The functional structure data of the frame includes, for example, the distance between the left and right pupils, the width to the ear starting from the center between the left and right pupils, and the width from the center to the ear starting from the center between the left and right pupils. Nose clings (nose pad) determined based on the determined temple opening angle, distance from ear to corneal apex, temple bending position, distance between cornea apex and nose, distance between corneal apex and nose Part) opening angle and budget. The frame decoration is mainly performed by the frame selection information input means of the glasses processing center 2002 based on text data such as selection criteria (fashion, fit to face) and the like transmitted from the user terminal 101 of the counter booth 1. Structural data is created and stored and managed by the storage means 2005.
【0114】フレームの装飾構造データとしては、玉型
(シェイプ)は、ウェリントン、ロイド、オーバル、ス
クエア、トノー、ボストン、バタフライ、オート(ドロ
ップ)である。素材は、縁なし(ツーポイント、スリー
ポイント)、メタルナイロール、セルナイロール、メタ
ル、セル、ブロライン、コンビ、その他である。ブラン
ドは、各種ブランドである。カラーは、各種カラーであ
る。As the decorative structure data of the frame, the target lens (shape) is Wellington, Lloyd, Oval, Square, Tonneau, Boston, Butterfly, and Auto (drop). The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0115】メガネ処理センタ2002においては、キ
ーボード等の入力手段2006およびフレーム画像登録
手段2061によって提供できるフレームのそれぞれに
ついて、フレーム機能構造データおよびフレーム装飾構
造データに関するテキストデータを登録し、管理する。
メガネ処理センタ2002の入力手段2006のフレー
ム画像登録手段2061によって入力されたフレーム画
像は、登録され、管理される。The glasses processing center 2002 registers and manages text data relating to frame function structure data and frame decoration structure data for each of the frames that can be provided by the input means 2006 such as a keyboard and the frame image registration means 2061.
The frame image input by the frame image registration unit 2061 of the input unit 2006 of the glasses processing center 2002 is registered and managed.
【0116】各フレームのフレーム機能構造データとし
ては、サイズは実寸(44Φ〜62Φ)であり、特徴
は、形状記憶合金、超軽量、超弾性、サングラス兼用、
携帯用、その他であり、機能は、左右の瞳孔間の距離、
左右の瞳孔間の中心を基点とした耳元までの幅、左右の
瞳孔間の中心を基点とした耳元までの幅より決定された
テンプルの開き角、耳元より角膜頂点までの距離、テン
プルの曲げる位置、角膜頂点と鼻もとまでの距離、角膜
頂点と鼻もとまでの距離を基に決定される鼻のクリング
ス(鼻当て部)の開き角度である。As the frame functional structure data of each frame, the size is the actual size (44Φ to 62Φ), and the features are shape memory alloy, super light weight, super elasticity,
Portable and other, the function is the distance between the left and right pupil,
The width from the center between the left and right pupils to the ear, the opening angle of the temple determined from the width from the center between the left and right pupils to the ear, the distance from the ear to the apex of the cornea, and the bending position of the temple The opening angle of the nose clings (nose pad) determined based on the distance between the corneal vertex and the nose and the distance between the corneal vertex and the nose.
【0117】また、各フレームのフレーム装飾構造デー
タとしては、玉型(シェイプ)は、ウェリントン、ロイ
ド、オーバル、スクエア、トノー、ボストン、バタフラ
イ、オート(ドロップ)である。素材は、縁なし(ツー
ポイント、スリーポイント)、メタルナイロール、セル
ナイロール、メタル、セル、ブロライン、コンビ、その
他である。ブランドは、各種ブランドである。カラー
は、各種カラーである。As frame decoration structure data of each frame, the target lens (shape) is Wellington, Lloyd, Oval, Square, Tonneau, Boston, Butterfly, and Auto (drop). The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0118】メガネ処理センタ2002の利用者情報登
録手段2003において、カウンターブース1の利用者
端末101から送信された顔画像が登録され、管理され
る。メガネ処理センタ2002の入力手段2006のフ
レーム画像登録手段2061によって入力されたフレー
ム画像が登録され、管理される。利用者情報登録手段2
003によって入力される利用者の顔画像、及び入力手
段2006のフレーム画像登録手段2061によって入
力されるフレームの画像は、記憶手段2005によって
記憶される。In the user information registration means 2003 of the glasses processing center 2002, the face image transmitted from the user terminal 101 of the counter booth 1 is registered and managed. The frame image input by the frame image registration unit 2061 of the input unit 2006 of the glasses processing center 2002 is registered and managed. User information registration means 2
The face image of the user input by the input unit 003 and the image of the frame input by the frame image registration unit 2061 of the input unit 2006 are stored in the storage unit 2005.
【0119】メガネ処理センタ2002のフレーム選択
手段2008によって、記憶手段2005によって管理
されている利用者の希望するフレームの選択基準、すな
わち機能構造データ、装飾構造データ、顔画像データに
対応して、フレーム情報登録手段2060によって記憶
されている記憶手段2005の各フレームのフレーム機
能構造、フレーム装飾構造及びフレーム画像の中から適
するものを選択し、いくつかの種類の異なる眼鏡フレー
ムを表示するフレーム画像を生成または選択することが
可能なように構成されている。The frame selection means 2008 of the glasses processing center 2002 selects a frame desired by the user, which is managed by the storage means 2005, that is, a frame corresponding to the function structure data, the decoration structure data, and the face image data. A suitable frame function structure, a frame decoration structure, and a frame image of each frame of the storage unit 2005 stored by the information registration unit 2060 are selected to generate a frame image that displays several types of different eyeglass frames. Or it is configured to be selectable.
【0120】メガネ処理センタ2002の画像処理手段
2007は、前記したフレーム選択手段2008によっ
て選択された眼鏡フレーム画像を記憶手段2005によ
って管理されている顔画像データに合成したメガネ装用
画像を出力することができるように構成されている。The image processing means 2007 of the eyeglass processing center 2002 can output an eyeglass wearing image in which the eyeglass frame image selected by the frame selecting means 2008 is combined with the face image data managed by the storage means 2005. It is configured to be able to.
【0121】そして画像処理手段2007によって合成
されたメガネ装用画像は、WWWサーバによってインタ
ーネットを介し、カウンターブース1の利用者端末10
1に出力することができるように構成されている。The image wearing glasses synthesized by the image processing means 2007 is sent to the user terminal 10 of the counter booth 1 via the Internet by the WWW server.
1.
【0122】次に、前記したメガネ装用仮想体験システ
ムを利用して、利用者がいろいろなメガネを装用するこ
とのできる方法を以下説明する。まず、カウンターブー
ス1の利用者端末101からメガネ処理センタ2002
に接続すると、利用者認証画面としてのIDコード入力
画面を送信する。利用者認証画面は、利用者認証情報の
入力を促す画面である。Next, a method for allowing the user to wear various glasses using the above-described virtual experience system for wearing glasses will be described below. First, from the user terminal 101 of the counter booth 1 to the glasses processing center 2002
When the connection is made, an ID code input screen as a user authentication screen is transmitted. The user authentication screen is a screen for prompting input of user authentication information.
【0123】カウンターブース1の利用者端末101で
は、利用者認証画面を受信して表示し、利用者認証情報
を入力して、メガネ処理センタ2002へ送信する。利
用者認証情報は、パスワード、ユーザID等の情報であ
る。The user terminal 101 of the counter booth 1 receives and displays a user authentication screen, inputs user authentication information, and transmits the information to the glasses processing center 2002. The user authentication information is information such as a password and a user ID.
【0124】メガネ処理センタ2002では、利用者認
証情報を受信し、これを基に記憶管理手段2005、利
用者情報登録手段2003により利用者情報データベー
スを検索して認証を行う。このとき、利用者が初めて利
用する者の場合は、更に、基本属性を入力する画面を、
メガネ処理センタ2002よりカウンターブース1の利
用者端末101へ送信する。カウンターブース1の利用
者端末101においては、メガネ処理センタ2002よ
り送信された画面に基づき、利用者の属性、例えば、氏
名、住所、生年月日、電話番号等の基本属性を入力す
る。In the glasses processing center 2002, the user authentication information is received, and based on this, the storage management means 2005 and the user information registration means 2003 search the user information database for authentication. At this time, if the user is a first-time user, a screen for inputting basic attributes is further displayed.
The information is transmitted from the glasses processing center 2002 to the user terminal 101 of the counter booth 1. In the user terminal 101 of the counter booth 1, based on the screen transmitted from the glasses processing center 2002, the attributes of the user, for example, basic attributes such as name, address, date of birth, and telephone number are input.
【0125】メガネ処理センタ2002では、利用者の
基本属性情報を受信し、これを基に、記憶手段5、利用
者情報登録手段2003により、利用者情報データベー
スを作成し、併せてパスワード、ユーザID等の登録を
行う。In the glasses processing center 2002, the basic attribute information of the user is received, and based on this, the user information database is created by the storage means 5 and the user information registration means 2003. And so on.
【0126】そして、メガネ処理センタ2002では、
フレーム選択基準を入力するためのフレーム選択基準画
面をカウンターブース1の利用者端末101に送信す
る。フレーム選択基準入力画面は、利用者がフレームを
選択するための基準(ファッション性、予算、機能、顔
へのフィット感等)を入力する画面である。利用者は、
カウンターブース1の利用者端末101のフレーム選択
基準入力画面に、ファッション性、予算、機能、顔への
フィット感等のフレーム選択基準を入力する。Then, in the glasses processing center 2002,
A frame selection reference screen for inputting a frame selection reference is transmitted to the user terminal 101 of the counter booth 1. The frame selection criterion input screen is a screen for inputting criteria (fashion, budget, function, fit to face, etc.) for the user to select a frame. The user
On the frame selection reference input screen of the user terminal 101 of the counter booth 1, frame selection criteria such as fashion, budget, function, and fit to the face are input.
【0127】さらに、かかるテキストデータによるフレ
ーム選択基準の入力を終えた後、利用者の顔画像の送信
を促す画面を、メガネ処理センタ2002よりカウンタ
ーブース1の利用者端末101に送信する。利用者は、
正面と側面(左右とも)の顔画像を画像入力装置、例え
ばデジタルカメラやスキャナーによって、カウンターブ
ース1の利用者端末101に取りこむ。そして、利用者
の正面と側面の顔画像をカウンターブース1の利用者端
末101よりインターネットを介してメガネ処理センタ
2002へ送信する。Further, after the input of the frame selection criterion based on the text data is completed, a screen prompting the transmission of the face image of the user is transmitted from the glasses processing center 2002 to the user terminal 101 of the counter booth 1. The user
The front and side (both left and right) face images are taken into the user terminal 101 of the counter booth 1 by an image input device, for example, a digital camera or a scanner. Then, the front and side face images of the user are transmitted from the user terminal 101 of the counter booth 1 to the glasses processing center 2002 via the Internet.
【0128】メガネ処理センタ2002では、カウンタ
ーブース1の利用者端末101から送られたフレームの
選択基準のテキストデータ及び画像データ(利用者の顔
の画像)をフレーム選択情報入力手段2004で受け取
り、記憶手段2005により登録し、管理する。 利用者の側面画像(図30)をもとにして、利用者の
耳元より角膜頂点までの距離(L1)を左右別々に測定
し、そのデータを記憶手段2005により登録し、管理
する。前記測定数値より、テンプル(つる)の曲げる位
置を左右別々に決定して、登録する。 利用者の側面画像をもとにして、利用者の目の角膜頂
点と鼻もとまでの距離(L2)を測定して、左右の平均
をとった数値を記憶手段2005により登録し、管理す
る。L2は通例12mmである。フレーム選択情報入力
手段2004により、前記測定した数値をもとにして、
鼻のクリングス(鼻当て部)の開き角度を決定し、登録
する。 利用者の正面画像(図31)をもとにして、左右の目
の瞳孔間の中心を基点として、耳元までの幅(L3)を
左右別々に測定し、そのデータを記憶手段2005によ
り登録し、管理する。フレーム選択情報入力手段200
4により、前記測定数値をもとにして、テンプルの開き
角θを左右別々に決定し、登録する。左右の目の瞳孔間
の中心を基点とした耳元までの幅は、まず瞳孔間距離
(PD)を求める。但し、メガネ処理センタ2002に
おいて、利用者の顔画像では瞳孔が明確に検知できない
ので、例えば左眼の左側と右眼の左側の距離(PD1)
を求めることによって(PD)の近似値を求める。次
に、眼の瞳孔と耳元までの距離(L4)も瞳孔から求め
ることは瞳孔が顔画像では検知することができないの
で、左の耳元より眼の右側までの距離(La)及び左側
までの距離(Lb)を求め、演算して眼の瞳孔と耳元ま
での距離(L4)を求める。右眼側も同様にして求める
ことができる。メガネフレ−ムの右テンプル及び左テン
プルの開き角θは、次式より求めた分を補正してわん曲
させる等により調整する。 PD/2+L4 −L5 L5は、メガネフレ−ムのフロントサイズ(図32参
照)である。 遠近両用レンズを指定された場合は、レンズ面の傾斜
角度をさらに5度加入するために、鼻のクリングスの開
き角度を、その加入数値により補正して決定し、登録す
る。At the glasses processing center 2002, the frame selection information input means 2004 receives the text data and image data (image of the user's face) of the frame selection reference sent from the user terminal 101 of the counter booth 1 and stores them. Register and manage by means 2005. Based on the user's side image (FIG. 30), the distance (L 1 ) from the user's ear to the corneal apex is separately measured for the left and right sides, and the data is registered and managed by the storage unit 2005. Based on the measured values, the bending positions of the temple (vine) are determined separately for the left and right sides and registered. Based on the side image of the user, the distance (L 2 ) between the corneal vertex and the nose of the user's eye is measured, and a value obtained by averaging the left and right is registered by the storage unit 2005 and managed. I do. L 2 is usually 12mm. By the frame selection information input means 2004, based on the measured values,
The opening angle of the nose clings (nose pad) is determined and registered. Based on the front image of the user (FIG. 31), the width (L 3 ) to the ear is measured separately for the left and right with the center between the pupils of the left and right eyes as the base point, and the data is registered by the storage means 2005. And manage. Frame selection information input means 200
According to 4, the opening angle θ of the temple is determined separately for the left and right sides based on the measured values and registered. First, the interpupillary distance (PD) is determined for the width from the center between the pupils of the left and right eyes to the ear. However, in the glasses processing center 2002, since the pupil cannot be clearly detected in the face image of the user, for example, the distance (PD 1 ) between the left side of the left eye and the left side of the right eye
To obtain an approximate value of (PD). Next, the distance (L 4 ) between the pupil of the eye and the ear is also determined from the pupil, since the pupil cannot be detected in the face image, so that the distance (La) from the left ear to the right side of the eye and the distance from the left ear to the left side distance seek (Lb), obtains the operation on the distance to the pupil and ear of the eye (L 4). The right eye side can be obtained in the same manner. The opening angle θ of the right temple and the left temple of the glasses frame is adjusted by correcting the portion obtained by the following equation and bending it. PD / 2 + L 4 -L 5 L 5 is Meganefure - a beam front size (see FIG. 32). When a bifocal lens is designated, the angle of opening of the nose clings is corrected by the added numerical value, determined and registered in order to add an additional 5 degrees to the inclination angle of the lens surface.
【0129】このように、メガネ処理センタ2002に
おいては、中央処理装置・フレーム選択情報入力手段2
004により、機能構造データ、装飾構造データ及び顔
画像データを演算・作成し、顔画像データと共に、記憶
手段2005によって記憶する。As described above, in the glasses processing center 2002, the central processing unit / frame selection information input means 2
In step 004, the functional structure data, the decorative structure data, and the face image data are calculated and created, and stored together with the face image data by the storage unit 2005.
【0130】メガネ処理センタ2002においては、予
めフレーム情報登録手段2060及びフレーム画像登録
手段2061によって、各フレームのフレーム機能構
造、フレーム装飾構造及びフレーム画像を入力記憶して
おり、かかるフレーム情報登録手段2060及びフレー
ム画像登録手段2061によって、記憶手段2005に
よって登録された各フレームのフレーム機能構造、フレ
ーム装飾構造及びフレーム画像から、カウンターブース
1の利用者端末101から送信されたフレームの選択基
準による機能構造データ、装飾構造データ、顔画像デー
タに対応して適合するフレームを選択する。In the glasses processing center 2002, the frame information registration means 2060 and the frame image registration means 2061 previously input and store the frame function structure, frame decoration structure, and frame image of each frame. And the frame image registration unit 2061 uses the frame function structure, the frame decoration structure, and the frame image of each frame registered by the storage unit 2005 to output the function structure data based on the frame selection criteria transmitted from the user terminal 101 of the counter booth 1. And a frame suitable for the decoration structure data and the face image data.
【0131】フレーム選択手段2008によって種類の
異なる眼鏡フレームを表示するフレーム画像を生成また
は選択した後、メガネ処理センタ2002の画像処理手
段2007によって、利用者の顔画像に適合するフレー
ムのフレーム画像と利用者の顔画像を合成したメガネ装
用画像を生成する。そして、画像処理手段2007によ
って生成された利用者の顔の画像にフレーム画像を合成
したメガネ装用画像を、出力手段2009・WWWサー
バにより、インターネットを介してカウンターブース1
の利用者端末101に送信される。After generating or selecting a frame image for displaying different types of spectacle frames by the frame selecting unit 2008, the image processing unit 2007 of the spectacles processing center 2002 uses the frame image of the frame suitable for the face image of the user. An eyeglass wearing image is generated by combining the face image of the user. Then, the image of wearing glasses, in which the frame image is combined with the image of the user's face generated by the image processing means 2007, is output to the counter booth 1 via the Internet by the output means 2009 / WWW server.
Is transmitted to the user terminal 101.
【0132】カウンターブース1の利用者端末101に
送信された画像を見た利用者は、自己の希望と合致した
フレームが選択されているか、そしてそのフレームを顔
にかけたときに、いかなる顔になるかを、メガネ装用画
面によって確認することができる。もし、利用者がこの
希望していたフレームと違う画像が送信されてきている
場合、あるいは別のフレームをかけた顔を見たいときに
は、さらに、その旨をメガネ処理センタ2002から送
られたメガネ装用画面に入力し、メガネ処理センタ20
02へ送信する。メガネ処理センタ2002において
は、前記した方法と同様の方法により別のフレームを選
択し、再びカウンターブース1の利用者端末101にW
WWサーバからインターネットを介してメガネ装用画面
を送信する。The user who sees the image transmitted to the user terminal 101 of the counter booth 1 determines whether a frame matching his / her desire has been selected, and what kind of face will be displayed when the frame is applied to the face. Can be confirmed by the glasses wearing screen. If an image different from the frame desired by the user has been transmitted, or if the user wants to see a face with a different frame, the user is further notified to that effect by the glasses wearing center 2002 sent from the glasses processing center 2002. Fill in the screen and enter the glasses processing center 20
02. In the glasses processing center 2002, another frame is selected in the same manner as described above, and the W
The screen for wearing glasses is transmitted from the WW server via the Internet.
【0133】このメガネ装用仮想体験システムおよびそ
の方法によれば、利用者が写真データにいろいろなメガ
ネフレームを装用させることができ、しかも職住に近い
カウンターブースでインターネット等のネットワークを
介して種々の眼鏡フレームをかけ変え、自分の好みにあ
った最適なフレームを選択することができる。しかも、
自分の顔に眼鏡フレームをかけた状態は、第三者的に通
例見ることができないが、このシステムおよび方法によ
れば、自分の既製のメガネやコンタクトレンズをかけた
ままで、すなわち適正な視力で、選択された眼鏡フレー
ムを顔にかけた状態にて選択できるので、自己に最適な
眼鏡フレームを選択することができる。According to the virtual experience system for wearing glasses and the method thereof, the user can wear various glasses frames on the photograph data. You can change the glasses frame and select the most suitable frame for your taste. Moreover,
The state of wearing a spectacle frame on one's face cannot usually be seen by a third party, but according to this system and method, one can keep his or her ready-made glasses or contact lenses on, that is, with proper vision. Since the selected spectacle frame can be selected with the selected spectacle frame being put on the face, the most suitable spectacle frame can be selected.
【0134】なお、メガネ処理センタ1002、200
2は、メガネ処理センタ2と単一のコンピュータ、サー
バで統合して処理するようにしてもよく、複数のコンピ
ュータ、サーバで分散的に処理をするようにしてもよ
い。The glasses processing centers 1002 and 200
2 may be integrated with the glasses processing center 2 and processed by a single computer or server, or may be processed by a plurality of computers and servers in a distributed manner.
【0135】カウンターブースは、図1図示例と同様で
あるが、一部相違した構成を有しているので、以下、そ
れを主として説明する。図33は、この発明の一実施の
形態における無人型カウンターブースにおけるメガネの
情報発信システムの構成を示す図解図であり、図34
は、メガネの情報発信システムの構成を示す図解図であ
り、図35は、無人型カウンターブースの内部の構造を
示す図解図である。The counter booth is the same as the example shown in FIG. 1, but has a partially different structure. FIG. 33 is an illustrative view showing a configuration of an information transmission system of glasses in an unmanned counter booth according to an embodiment of the present invention.
Is an illustrative view showing a configuration of an information transmission system of glasses, and FIG. 35 is an illustrative view showing an internal structure of an unmanned counter booth.
【0136】1:カウンターブースの構成 図33ないし図35に示すように、この無人メガネ情報
発信装置におけるカウンターブース3001は、メガネ
購入者によりネットワークを活用してオーダー販売され
る際に利用される端末であり、例えば、パーソナルコン
ピュータにより実現され、利用者端末3101と、既に
使用しているメガネの度数を測定する既使用レンズの度
数測定装置3202と、利用者たる被検者がメガネを外
した状態における視力の測定を自動的に行う視力測定装
置3203と、前記既使用レンズの度数測定装置320
2および前記視力測定装置3203によって測定された
データを情報処理し、他所にある有人のメガネ処理セン
タ4002に送信する通信手段3204と、メガネの度
数測定に関する指示などを表示および/または音声で伝
えるための出力装置と、視力測定装置3203などで視
力を測定し、測定中の質問に対し答えるときなどのメガ
ネに関する指示等を入力するための入力装置とを備え
る。1: Configuration of Counter Booth As shown in FIGS. 33 to 35, a counter booth 3001 in the unmanned glasses information transmitting apparatus is a terminal used when an order is sold by a glasses purchaser using a network. For example, realized by a personal computer, a user terminal 3101, a used lens power measuring device 3202 for measuring the power of already used glasses, and a state in which a subject who is a user removes the glasses Measuring device 3203 for automatically measuring the visual acuity in the camera, and the power measuring device 320 for the used lens
Communication means 3204 for processing the data measured by the eyesight measurement device 3203 and the data measured by the visual acuity measuring device 3203 and transmitting the data to a manned eyeglass processing center 4002 located elsewhere; And an input device for inputting an instruction or the like relating to eyeglasses such as when measuring the eyesight with the eyesight measuring device 3203 or the like and answering a question during the measurement.
【0137】カウンターブース3001の主として利用
者端末3101から構成されるメガネのレンズ情報発信
装置からは、通信手段3204により広域コンピュータ
ネットワーク(インターネット)を介して、他所にある
有人のメガネ処理センタ4002に測定したメガネに関
する各種情報を送信するように構成されているととも
に、カウンターブース3001に人工音声および/また
は顔画像の信号を双方向に送信するWeb(ウェブ)コ
ールセンタ5001と、主として決済カードの与信を行
うCAFIS(Credit and Finance
Information System、キャフィ
ス)センタ5002に接続されている。また、カウンタ
ーブース3001内には、メガネの実物、メガネのフレ
ームのカタログなどが備えられているが、それは種類等
が限られるので必要最小限のものを取り揃えるに過ぎな
い。その多くは、利用者端末3101によって登録され
管理されたおよび/またはメガネ処理センタ4002よ
り送信されたレンズ、フレーム等のカタログ情報を、利
用者端末3101で出力装置によって表示し、利用者が
それを見て選択できるようにする。The eyeglass lens information transmitting device mainly composed of the user terminal 3101 of the counter booth 3001 measures by a communication means 3204 to a manned eyeglass processing center 4002 in another place via a wide area computer network (Internet). A web (web) call center 5001 configured to transmit various kinds of information related to the paired glasses and an artificial voice and / or a face image signal to and from the counter booth 3001 in both directions, and mainly performs payment of a payment card. CAFIS (Credit and Finance)
Information System (Cafis) center 5002. The counter booth 3001 is provided with catalogs of actual glasses, frames of glasses, and the like. However, since the types and the like are limited, only the minimum necessary items are available. Many of them display catalog information such as lenses and frames registered and managed by the user terminal 3101 and / or transmitted from the glasses processing center 4002 on the user terminal 3101 by an output device, and the user displays the catalog information. Be able to see and select.
【0138】利用者端末3101は、パーソナルコンピ
ュータ等から構成され、利用者(購入者)であるユーザ
との間のインタフェースとなる入出力装置であり、具体
的には、PCモニタを兼ねるタッチパネルモニタ320
7、デジタルカメラ3208、マイクロフォン3209
を含む入力装置とは、入力手段3206をもって接続さ
れ、並びに、PCモニタを兼ねるタッチパネルモニタ3
207、プリンタ3212、スピーカ3213を含む出
力装置とは、出力手段3205をもって接続されること
によって実現される。なお、タッチパネルモニタ320
7は、図35においては、PCモニタ3207aとタッ
チパネル3207bが別々になった形態が示されている
が、タッチパネルとモニタとを兼ねる1つに統合した形
態をとってもよく、以下、タッチパネルモニタとする。
テキストデータ等の情報入力装置としてはタッチパネル
モニタ3207が用意されているが、マウス、トラック
ボール、ジョイスティックなどのポインティングデバイ
ス、キーボード、スイッチなどの多種多用な入力装置を
用いることができる。さらに、画像情報の入力手段とし
てデジタルカメラ3208が用意されているが、テレビ
カメラ、ビデオカメラ、デジタルスチルカメラなど画像
情報をデジタイズして入力できる装置であればもちろん
良い。また、必要に応じて、フラッシュ等の補助光を提
供する装置を設けてもよい。また、画像あるいはその他
の情報を記憶可能な記憶装置としては、ハードディスク
およびCD−ROMドライブが用意されており、CDに
記憶された画像情報あるいはプログラムなどを利用でき
るようになっている。もちろん、DVD、MO、あるい
はメモリユニットなどの記憶媒体用の装置で構成するこ
とも可能である。The user terminal 3101 is composed of a personal computer or the like, and is an input / output device serving as an interface with a user (purchaser). More specifically, the touch panel monitor 320 also serves as a PC monitor.
7, digital camera 3208, microphone 3209
Is connected to the input device including the input unit 3206, and the touch panel monitor 3 also serves as a PC monitor.
An output device including the printer 207, the printer 3212, and the speaker 3213 is realized by being connected with the output unit 3205. Note that the touch panel monitor 320
Although FIG. 35 shows a form in which the PC monitor 3207a and the touch panel 3207b are separated in FIG. 35, a form in which the PC monitor 3207a and the touch panel 3207b are integrated into one that also serves as a touch panel and a monitor may be used.
Although a touch panel monitor 3207 is prepared as an information input device for text data and the like, various input devices such as a pointing device such as a mouse, a trackball, and a joystick, a keyboard, and a switch can be used. Further, although a digital camera 3208 is provided as an image information input means, any device that can digitize and input image information, such as a television camera, a video camera, or a digital still camera, may be used. If necessary, a device for providing auxiliary light such as a flash may be provided. Further, a hard disk and a CD-ROM drive are prepared as storage devices capable of storing images or other information, so that image information or programs stored on a CD can be used. Of course, it is also possible to configure with a device for a storage medium such as a DVD, MO, or a memory unit.
【0139】さらに、この利用者端末3101は、コン
ピュータネットワーク(ネットワーク)としてインター
ネットに接続できるようになっており、ネットワークを
介して画像情報あるいはソフトウェアなどの情報を授受
できるようになっている。もちろん、インターネット以
外の通信手段を用いてもよい。また、利用者端末310
1は、メガネ処理センタ4002のサーバとの間のイン
タフェースとしてWWWブラウザを有する。利用者端末
3101がパーソナルコンピュータである場合には、W
WWブラウザは、そのメモリに格納されるプログラムと
して実現される。Further, the user terminal 3101 can be connected to the Internet as a computer network (network), and can exchange information such as image information or software via the network. Of course, communication means other than the Internet may be used. Also, the user terminal 310
1 has a WWW browser as an interface with the server of the glasses processing center 4002. If the user terminal 3101 is a personal computer, W
The WW browser is realized as a program stored in the memory.
【0140】度数測定装置3202は、掛けているメガ
ネを所定の場所に置くようなメガネ載置台が形成され、
その上にレンズを置くと、レンズをメータ光学中心に合
わせることにより、レンズメータがそのメガネレンズの
度数を測定するように構成されている。この度数測定装
置3202の使用方法については、利用者端末3101
によって制御されたタッチパネルモニタ3207により
案内される。In the frequency measuring device 3202, a glasses mounting table for placing the glasses worn on a predetermined place is formed.
When a lens is placed thereon, the lens meter is configured to measure the power of the spectacle lens by centering the lens on the optical center of the meter. Regarding the usage of the frequency measuring device 3202, the user terminal 3101
Guided by the touch panel monitor 3207 controlled by the user.
【0141】視力測定装置3203は、両眼の屈折力を
自動的に他覚的且つ自覚的に測定する装置であって、自
動的に裸眼視力を測定し、次に他覚の完全矯正度数を測
定し、裸眼視力の矯正に必要なレンズ度数を演算するこ
とができるよう構成されている。その一例を示せば図3
5に示されるようなものであり、図3に示すような、測
定光学系装置を備え、この視力測定装置3203は、ゴ
ーグル状の顔当て3203aが設けられ、被検眼の位置
をほぼ固定することができるように構成され、ジョイス
テック3203bおよび応答スイッチ3203cが設け
られ、利用者(被検者)が、タッチパネルモニタ320
7、ジョイステック3203bおよび応答スイッチ32
03cを操作あるいはタッチすることにより、自覚的に
所定の入力を行うことができるように構成されている。The visual acuity measuring device 3203 is a device for automatically and subjectively measuring the refractive power of both eyes. It is configured to be able to measure and calculate the lens power required to correct the naked eye vision. Figure 3 shows an example
5, which is provided with a measuring optical system device as shown in FIG. And a joystick 3203b and a response switch 3203c are provided.
7. Joystick 3203b and response switch 32
By operating or touching 03c, a predetermined input can be performed subjectively.
【0142】利用者端末3101は、前記入力手段32
06および出力手段3205を制御するとともに、度数
測定装置3202、視力測定装置3203および通信手
段3204を制御する制御手段3102を有している。
そして、利用者端末3101は、Webコールセンタ5
001より受信した音声信号に従って、人工音声をスピ
ーカ3213によって流す人工音声発声手段3110を
備え、制御手段3102によって制御するように構成さ
れている。The user terminal 3101 is connected to the input unit 32
06 and output means 3205, and a control means 3102 for controlling the frequency measuring device 3202, the visual acuity measuring device 3203 and the communication means 3204.
The user terminal 3101 is connected to the Web call center 5
An artificial voice uttering unit 3110 for outputting an artificial voice through a speaker 3213 in accordance with the audio signal received from the control unit 001 is controlled by the control unit 3102.
【0143】利用者端末3101におけるメガネの装用
仮想体験システムは、利用者の顔の画像に種々の眼鏡フ
レームを装用させることのできるシステムであって、こ
のシステムは、図24図示の実施の形態とは異なり、主
として、カウンターブース3001によって実現され
る。The virtual experience system for wearing glasses on the user terminal 3101 is a system that allows various eyeglass frames to be worn on the image of the face of the user. This system is different from the embodiment shown in FIG. However, the present invention is mainly realized by the counter booth 3001.
【0144】利用者端末3101は、利用者情報登録手
段3103、フレーム選択情報入力手段3104、記憶
手段3105、フレーム情報登録手段3160、フレー
ム画像登録手段3161、画像処理手段3107、フレ
ーム選択手段3108、出力手段3205および入力手
段3206を備え、且つ、利用者情報登録手段310
3、フレーム選択情報入力手段3104、記憶手段31
05、フレーム情報登録手段31060、フレーム画像
登録手段3161、画像処理手段3107、フレーム選
択手段3108、出力手段3205および入力手段32
06を制御する制御手段3102を備える。The user terminal 3101 includes user information registration means 3103, frame selection information input means 3104, storage means 3105, frame information registration means 3160, frame image registration means 3161, image processing means 3107, frame selection means 3108, and output. Means 3205 and input means 3206, and user information registration means 310
3. Frame selection information input means 3104, storage means 31
05, frame information registration means 31060, frame image registration means 3161, image processing means 3107, frame selection means 3108, output means 3205, and input means 32
06 is provided.
【0145】カウンターブース3001の利用者端末3
101において、キーボード等の入力装置および入力手
段3206によってあるいはメガネ処理センタ4002
からの情報によって、カウンターブース3001におい
て提供できるフレームのそれぞれのデータについて記録
し管理される。そして、フレーム機能構造データ(図2
8図示)およびフレーム装飾構造データに関するテキス
トデータ(図29図示)は、利用者端末3101によっ
て登録され、管理され、メガネ処理センタ4002より
更新情報が送信され書き替えられる。User terminal 3 of counter booth 3001
At 101, an input device such as a keyboard and input means 3206 or an eyeglass processing center 4002
, Each data of a frame that can be provided in the counter booth 3001 is recorded and managed. Then, the frame function structure data (FIG. 2)
8) and text data (FIG. 29) relating to the frame decoration structure data are registered and managed by the user terminal 3101, and updated information is transmitted from the glasses processing center 4002 and rewritten.
【0146】利用者端末3101のフレーム画像登録手
段3161は、カウンターブース3001および/また
はメガネ処理センタ4002によって提供できるフレー
ムの画像を入力する。そして、フレーム画像登録手段3
161によって入力されたフレーム画像は、登録され、
管理され、メガネ処理センタ4002より更新情報が送
信され書き替えられる。利用者端末3101の利用者情
報登録手段3103は、顔画像等の利用者の情報を登録
し、管理する。記憶手段3105は、利用者情報登録手
段3103によって入力される利用者の顔画像、および
フレーム画像登録手段3161によって入力されるフレ
ームの画像を、記憶し、管理する。利用者端末3101
のフレーム情報登録手段3160は、フレーム機能構
造、フレーム装飾構造及びフレーム画像等のフレーム情
報を登録し、管理する。The frame image registration means 3161 of the user terminal 3101 inputs a frame image which can be provided by the counter booth 3001 and / or the glasses processing center 4002. Then, the frame image registration means 3
The frame image input by 161 is registered,
The updated information is transmitted from the glasses processing center 4002 and rewritten. A user information registration unit 3103 of the user terminal 3101 registers and manages user information such as a face image. The storage unit 3105 stores and manages the face image of the user input by the user information registration unit 3103 and the image of the frame input by the frame image registration unit 3161. User terminal 3101
The frame information registration unit 3160 registers and manages frame information such as a frame function structure, a frame decoration structure, and a frame image.
【0147】利用者端末3101のフレーム選択手段3
108は、記憶手段3105によって管理されている利
用者の希望するフレームの選択基準、すなわち機能構造
データ、装飾構造データ、顔画像データ、価格に対応し
て、フレーム情報登録手段3160によって記憶されて
いる各フレームのフレーム機能構造、フレーム装飾構造
及びフレーム画像の中から適するものを選択し、いくつ
かの種類の異なる眼鏡フレームを表示するフレーム画像
を生成または選択することが可能なように構成されてい
る。[0147] Frame selection means 3 of user terminal 3101
Reference numeral 108 is stored by the frame information registration unit 3160 in accordance with the selection criteria of the frame desired by the user managed by the storage unit 3105, that is, the function structure data, the decoration structure data, the face image data, and the price. It is configured such that a suitable one can be selected from the frame function structure, the frame decoration structure, and the frame image of each frame, and a frame image that displays several types of different eyeglass frames can be generated or selected. .
【0148】利用者端末3101の画像処理手段310
7は、前記したフレーム選択手段3108によって選択
された眼鏡フレーム画像を記憶手段3105によって管
理されている顔画像データに合成したメガネ装用画像を
出力することができるように構成されている。Image processing means 310 of user terminal 3101
Reference numeral 7 is configured to output a spectacle wearing image in which the spectacle frame image selected by the frame selecting unit 3108 is combined with the face image data managed by the storage unit 3105.
【0149】このように、カウンターブース3001の
利用者端末3101は、まず、入力装置および/または
メガネ処理センタ4002から送信される、入力手段3
206にて受けるメガネ装用仮想体験システムを操作す
る命令を受け付けると共に、利用者の個人情報、視野画
像の表示パラメーターなどのデータあるいは選択命令を
受け付け可能で、入力手段3206のデジタルカメラ3
208からデジタイズされた画像データの入力を受け付
け可能な利用者情報登録手段3103およびフレーム選
択情報入力手段3104とを備えており、これらの入力
データに従って画像処理を行い適当な仮想のメガネ装用
画像を選択または形成(生成)して出力可能な画像処理
手段3107を備えている。また、メガネ装用仮想体験
システムのソフトウェア、画像情報、および選択して表
示可能な視野画像のサンプルなどは、記憶手段3105
によって記憶・管理する。画像処理手段3107によっ
て生成または選択された視野画像は、出力手段3205
からPCモニタを兼ねるタッチパネルモニタ3207に
出力され、表示される。As described above, the user terminal 3101 of the counter booth 3001 first receives the input means 3 and / or the input means 3 transmitted from the glasses processing center 4002.
The digital camera 3 of the input unit 3206 can receive a command for operating the virtual environment system for wearing glasses which is received at 206, and can also receive data or selection commands such as personal information of a user, display parameters of a visual field image, and the like.
A user information registration unit 3103 and a frame selection information input unit 3104 capable of accepting the input of image data digitized from the input unit 208, and performing image processing in accordance with these input data to select an appropriate virtual wearing image Alternatively, an image processing unit 3107 that can be formed (generated) and output is provided. The software of the virtual experience system for wearing glasses, image information, and a sample of a view image that can be selectively displayed are stored in the storage unit 3105.
Is stored and managed. The visual field image generated or selected by the image processing unit 3107 is output to the output unit 3205.
Is output to and displayed on a touch panel monitor 3207 also serving as a PC monitor.
【0150】カウンターブース3001の利用者端末3
101は、メガネ処理センタ4002とネットワークで
物理的に接続されている。カウンターブース3001の
利用者端末3101、メガネ処理センタ4002を接続
するネットワークがインターネットであるとして、以下
の説明をする。User terminal 3 of counter booth 3001
101 is physically connected to the glasses processing center 4002 via a network. The following description is based on the assumption that the network connecting the user terminal 3101 of the counter booth 3001 and the glasses processing center 4002 is the Internet.
【0151】2:メガネ処理センタの構成 メガネ処理センタ4002は、利用者端末3101との
通信速度が速くなれば、現在カウンターブース3001
の利用者端末3101で管理するデータを、メガネ処理
センタ4002で管理するため、およびデータのバック
アップのために、利用者端末3101と同様な構成を有
している。すなわち、図34において示すように、メガ
ネ処理センタ4002は、利用者情報登録手段410
3、フレーム選択情報入力手段4104、記憶手段41
05、入力手段4106、フレーム情報登録手段416
1、フレーム画像登録手段4160、画像処理手段41
07、フレーム選択手段4108、出力手段4109、
レンズ選択手段4110、電子ショップ情報処理手段4
111、表示情報生成手段4112、メガネオーダ販売
処理手段4113および決済処理手段4114を備える
とともに、利用者情報登録手段4103、フレーム選択
情報入力手段4104、記憶手段4105、フレーム情
報登録手段4161、フレーム画像登録手段4160、
画像処理手段4107、フレーム選択手段4108、出
力手段4109、レンズ選択手段4110、電子ショッ
プ情報処理手段4111、表示情報生成手段4112、
メガネオーダ販売処理手段4113および決済処理手段
4114を制御する制御手段4102を備える。このレ
ンズ選択手段4110、電子ショップ情報処理手段41
11、表示情報生成手段4112、メガネオーダ販売処
理手段4113および決済処理手段4114は、図4図
示実施の形態と同様な構成を有している。更に、WWW
サーバを含むサーバを備え、外部決済処理機関3と接続
されている。具体的には、パーソナルコンピュータ、ワ
ークステーション、サ−バなどを含む情報処理機器を用
いればよく、このメガネ処理センタ4002は、広域コ
ンピュータネットワーク(インターネット)を介してカ
ウンターブース3001の利用者端末3101と接続さ
れる。WWWサーバは、カウンターブース3001の利
用者端末3101が、メガネ処理センタ4002の制御
手段4102等にアクセスするためのインターフェース
として用いられるホームページを構築するWWWサーバ
を有する。また、WWWサーバは、記憶手段4105が
管理するデータベースに対する登録・閲覧要求等をする
カウンターブース3001の利用者端末3101からの
利用者が正規の利用者であるか否か等をパスワード・識
別子(ID)で認証する利用者認証手段を有する。2: Configuration of Glasses Processing Center The glasses processing center 4002, when the communication speed with the user terminal 3101 increases, makes the current counter booth 3001
It has the same configuration as the user terminal 3101 for managing the data managed by the user terminal 3101 at the eyeglass processing center 4002 and for backing up the data. That is, as shown in FIG. 34, the glasses processing center 4002
3. Frame selection information input means 4104, storage means 41
05, input means 4106, frame information registration means 416
1. Frame image registration means 4160, image processing means 41
07, frame selection means 4108, output means 4109,
Lens selection means 4110, electronic shop information processing means 4
111, display information generation means 4112, glasses order sales processing means 4113, and settlement processing means 4114, and also includes user information registration means 4103, frame selection information input means 4104, storage means 4105, frame information registration means 4161, frame image registration Means 4160,
Image processing means 4107, frame selection means 4108, output means 4109, lens selection means 4110, electronic shop information processing means 4111, display information generation means 4112,
A control unit 4102 for controlling the glasses order sales processing unit 4113 and the settlement processing unit 4114 is provided. The lens selecting means 4110 and the electronic shop information processing means 41
11, the display information generation unit 4112, the glasses order sales processing unit 4113, and the settlement processing unit 4114 have the same configuration as the embodiment shown in FIG. Furthermore, WWW
A server including a server is provided, and is connected to the external settlement processing institution 3. Specifically, an information processing apparatus including a personal computer, a workstation, a server, and the like may be used. The glasses processing center 4002 communicates with the user terminal 3101 of the counter booth 3001 via a wide area computer network (Internet). Connected. The WWW server has a WWW server that builds a home page used as an interface for the user terminal 3101 of the counter booth 3001 to access the control unit 4102 and the like of the glasses processing center 4002. Further, the WWW server determines whether or not the user from the user terminal 3101 of the counter booth 3001 that makes a registration / browsing request to the database managed by the storage unit 4105 is an authorized user, using a password / identifier (ID). ).
【0152】メガネ処理センタ4002においては、キ
ーボード等の入力手段4106は、メガネ処理センタ4
002および/またはカウンターブース3001におい
て提供できるフレームのそれぞれについて入力する。そ
して、フレーム機能構造データおよびフレーム装飾構造
データに関するテキストデータは、カウンターブース3
001で登録され、管理されてもよく、メガネ処理セン
タ4002において登録され、管理されているデータを
取得し、カウンターブース3001の利用者端末310
1で登録し、管理してもよい。In the glasses processing center 4002, the input means 4106 such as a keyboard is
002 and / or each of the frames that can be provided in the counter booth 3001 is input. The text data relating to the frame function structure data and the frame decoration structure data is stored in the counter booth 3
001 may be registered and managed, and the data registered and managed in the glasses processing center 4002 is acquired, and the user terminal 310 of the counter booth 3001 is acquired.
1 may be registered and managed.
【0153】メガネ処理センタ4002の入力手段41
06のフレーム画像登録手段4160は、カウンターブ
ース3001および/またはメガネ処理センタ4002
によって提供できるフレームの画像を入力する。そし
て、カウンターブース3001および/またはメガネ処
理センタ4002において入力されたフレーム画像が登
録され、管理される。メガネ処理センタ4002の利用
者情報登録手段4103は、カウンターブース3001
の利用者端末3101から送信された顔画像等の利用者
の情報を登録し、管理する。記憶手段4105は、利用
者情報登録手段4103によって入力される利用者の顔
画像、および入力手段4106のフレーム画像登録手段
4160によって入力されるフレームの画像を、記憶
し、管理する。メガネ処理センタ4002のフレーム画
像登録手段4160は、フレーム機能構造、フレーム装
飾構造及びフレーム画像等のフレーム情報を登録し、管
理する。Input means 41 of glasses processing center 4002
06 frame image registration means 4160 is provided at the counter booth 3001 and / or the glasses processing center 4002.
Enter the image of the frame that can be provided by. Then, the frame images input in the counter booth 3001 and / or the glasses processing center 4002 are registered and managed. The user information registration unit 4103 of the glasses processing center 4002 is a counter booth 3001
The user information such as a face image transmitted from the user terminal 3101 is registered and managed. The storage unit 4105 stores and manages the face image of the user input by the user information registration unit 4103 and the image of the frame input by the frame image registration unit 4160 of the input unit 4106. The frame image registration unit 4160 of the glasses processing center 4002 registers and manages frame information such as a frame function structure, a frame decoration structure, and a frame image.
【0154】メガネ処理センタ4002のフレーム選択
手段4108は、記憶手段4105によって管理されて
いる利用者の希望するフレームの選択基準、すなわち機
能構造データ、装飾構造データ、顔画像データ、価格に
対応して、フレーム情報登録手段4161によって記憶
されている記憶手段4105の各フレームのフレーム機
能構造、フレーム装飾構造及びフレーム画像の中から適
するものを選択し、いくつかの種類の異なる眼鏡フレー
ムを表示するフレーム画像を生成または選択することが
可能なように構成されている。The frame selection means 4108 of the glasses processing center 4002 corresponds to the frame selection criteria desired by the user managed by the storage means 4105, ie, the function structure data, the decoration structure data, the face image data, and the price. , A frame image for displaying various kinds of different eyeglass frames by selecting a suitable one from the frame functional structure, the frame decoration structure, and the frame image of each frame of the storage unit 4105 stored by the frame information registration unit 4161. Is generated or selected.
【0155】メガネ処理センタ4002の画像処理手段
4107は、前記したフレーム選択手段4108によっ
て選択された眼鏡フレーム画像を記憶手段4105によ
って管理されている顔画像データに合成したメガネ装用
画像を出力することができるように構成されている。The image processing means 4107 of the eyeglass processing center 4002 can output an eyeglass wearing image in which the eyeglass frame image selected by the frame selecting means 4108 is combined with the face image data managed by the storage means 4105. It is configured to be able to.
【0156】メガネ処理センタ4002の中核であるコ
ンピュータは、まず、キーボードからメガネ装用仮想体
験システムを操作する命令を受け付けると共に、利用者
の個人情報、視野画像の表示パラメーターなどのデータ
あるいは選択命令を受け付け可能で、カウンターブース
3001の利用者端末3101のデジタルカメラ320
8からデジタイズされた画像データの入力を受け付け可
能な利用者情報登録手段4103およびフレーム選択情
報入力手段4104とを備えており、これらの入力デー
タに従って画像処理を行い適当な仮想のメガネ装用画像
を選択または形成(生成)して出力可能な画像処理手段
4107を備えている。また、メガネ装用仮想体験シス
テムのソフトウェア、画像情報、および選択して表示可
能な視野画像のサンプルなどは、記憶手段4105によ
って記憶、管理する。画像処理手段4107によって生
成または選択された視野画像は、出力手段4109から
カウンターブース3001の利用者端末3101のPC
モニタを兼ねるタッチパネルモニタ3207に出力さ
れ、表示される。The computer, which is the core of the glasses processing center 4002, first receives a command to operate the glasses-wearing virtual experience system from the keyboard, and also receives data or selection commands such as personal information of the user, display parameters of the visual field image, and the like. Possible, digital camera 320 of user terminal 3101 of counter booth 3001
8 is provided with a user information registration unit 4103 and a frame selection information input unit 4104 capable of accepting input of image data digitized from 8 and performing image processing according to these input data to select an appropriate virtual wearing image Alternatively, an image processing unit 4107 that can be formed (generated) and output is provided. The storage means 4105 stores and manages software of the virtual experience system for wearing glasses, image information, and a sample of a visual field image that can be selectively displayed. The visual field image generated or selected by the image processing unit 4107 is output from the output unit 4109 to the PC of the user terminal 3101 of the counter booth 3001.
The data is output to and displayed on the touch panel monitor 3207 also serving as a monitor.
【0157】3:メガネ仮想体験の方法 次に、メガネ仮想体験の方法について説明する。まず、
メガネ処理センタ4002は、WWWサーバによりイン
ターネット上にホームページを立ち上げる。利用者は、
広域コンピュータネットワークに接続されたカウンター
ブース3001の利用者端末3101のWWWブラウザ
等のアクセス手段により、メガネ処理センタ4002の
ホームページをインターフェースとするフレーム選択情
報入力手段4104にアクセスし、フレーム選択基準の
データの登録を要求する。3: Method of Glasses Virtual Experience Next, a method of glasses virtual experience will be described. First,
The glasses processing center 4002 sets up a homepage on the Internet by the WWW server. The user
An access unit such as a WWW browser of the user terminal 3101 of the counter booth 3001 connected to the wide area computer network accesses the frame selection information inputting unit 4104 using the homepage of the glasses processing center 4002 as an interface, and outputs the frame selection reference data. Request registration.
【0158】メガネ処理センタ4002は、WWWサー
バが有する利用者認証手段によって、利用者のパスワー
ドおよび/または利用者識別子(ID)等の利用者認証
情報により、利用者が正規に登録された利用者であるこ
とを認証する。[0158] The glasses processing center 4002 uses the user authentication means of the WWW server to identify a user whose user has been registered properly based on user authentication information such as a user password and / or a user identifier (ID). Certify that
【0159】そのうえで、カウンターブース3001の
フレーム選択情報入力手段3104および/またはメガ
ネ処理センタ4002のフレーム選択情報入力手段41
04は、利用者よりカウンターブース3001の利用者
端末3101によって登録を要求されたフレーム選択基
準データを、記憶手段3105および/または記憶手段
4105に書き込み管理する。Then, the frame selection information input means 3104 of the counter booth 3001 and / or the frame selection information input means 41 of the glasses processing center 4002
Reference numeral 04 writes and manages the frame selection reference data requested to be registered by the user at the user terminal 3101 of the counter booth 3001 in the storage unit 3105 and / or the storage unit 4105.
【0160】また、メガネ処理センタ4002は、利用
者基本属性の入力画面を、カウンターブース3001の
利用者端末3101に送信する。利用者は、利用者の基
本属性、例えば、氏名、住所、生年月日、電話番号及び
目の調子(手元が見えにくい等)およびメガネに対する
要望を、カウンターブース3001の利用者端末310
1に送信された利用者基本属性入力画面に入力する。さ
らに、カウンターブース3001の利用者端末3101
は、利用者に対し、フレームの選択基準、例えば、ファ
ッション性、予算、機能、顔へのフィット感等を、メガ
ネ処理センタ4002よりインターネットを利用して送
られた利用者基本属性入力画面に入力することを促す。
メガネ処理センタ4002は、図26ないし29に示す
各データベースの構造に示すような利用者の基本属性、
フレームの選択基準等を記憶手段4105に記憶させ、
登録する。また、カウンターブース3001の利用者端
末3101の画像入力装置たるデジタルカメラ3208
によって入力された顔画像についても、メガネ処理セン
タ4002に送信され、利用者情報登録手段4103に
よって登録し、管理される。利用者の顔の寸法は、視力
測定装置3203で測定した実測の瞳孔間距離と、画像
情報の入力手段たるデジタルカメラ3208にて撮影さ
れ入力された利用者の顔画像の寸法との差を、フレーム
選択手段3108で倍率計算し、倍率表示する。(また
は、顔画像を等倍率に補正する。) なお、画像入力装置によって入力するときには、備え付
けの顔の下に定規等を位置させ、定規とともに顔画像を
入力することもできる。[0160] The glasses processing center 4002 transmits an input screen for user basic attributes to the user terminal 3101 of the counter booth 3001. The user inputs the basic attributes of the user, for example, the name, address, date of birth, telephone number, eye condition (the hand is difficult to see, etc.), and the request for the glasses, and the user terminal 310 of the counter booth 3001.
1 is entered in the user basic attribute input screen transmitted to 1. Further, the user terminal 3101 of the counter booth 3001
Input the frame selection criteria, such as fashion, budget, function, and fit to the face, to the user in the user basic attribute input screen sent from the glasses processing center 4002 via the Internet. Encourage them to
The glasses processing center 4002 includes the basic attributes of the user as shown in the structure of each database shown in FIGS.
The storage unit 4105 stores the frame selection criteria and the like,
register. A digital camera 3208 as an image input device of the user terminal 3101 of the counter booth 3001
The face image input by the user is also transmitted to the glasses processing center 4002, and is registered and managed by the user information registration unit 4103. The size of the user's face is the difference between the actually measured pupil distance measured by the visual acuity measuring device 3203 and the size of the user's face image captured and input by the digital camera 3208 which is image information input means. The magnification is calculated by the frame selection unit 3108 and displayed. (Or, the face image is corrected to the same magnification.) When inputting by the image input device, a ruler or the like may be positioned below the provided face, and the face image may be input together with the ruler.
【0161】4:カウンターブースにおける処理 利用者端末3101は、送られた顔画像の正面と側面
(左右とも)を基に、フレーム選択基準を作成する。一
方、利用者端末3101のフレーム情報登録手段316
0およびフレーム画像登録手段3161によって、入力
手段3206により入力されたテキストデータ及び画像
データに基づいて、フレームの機能構造データ及び装飾
構造データが作成され、記憶手段3105によって記憶
され、管理される。利用者端末3101は、図27ない
し29に示すフレームの選択基準等のデータ及び各フレ
ームの価格を、記憶手段3105に記憶させ管理する。4: Processing at Counter Booth The user terminal 3101 creates a frame selection criterion based on the front and side faces (both left and right) of the sent face image. On the other hand, the frame information registration unit 316 of the user terminal 3101
Based on the text data and the image data input by the input unit 3206, the function structure data and the decoration structure data of the frame are created by the 0 and frame image registration unit 3161, and are stored and managed by the storage unit 3105. The user terminal 3101 stores and manages data such as frame selection criteria and the price of each frame shown in FIGS.
【0162】フレームの機能構造データとしては、例え
ば、左右の瞳孔間の距離、左右の瞳孔間の中心を基点と
した耳元までの幅、左右の瞳孔間の中心を基点とした耳
元までの幅より決定されたテンプルの開き角、耳元より
角膜頂点までの距離、テンプルの曲げる位置、角膜頂点
と鼻元までの距離、角膜頂点と鼻元までの距離を基に決
定される鼻のクリングス(鼻当て部)の開き角度及び予
算等である。The functional structure data of the frame includes, for example, the distance between the left and right pupils, the width to the ear starting from the center between the left and right pupils, and the width from the center to the ear starting from the center between the left and right pupils. Nose clings (nose pad) determined based on the determined temple opening angle, distance from ear to corneal apex, temple bending position, distance between cornea apex and nose, distance between corneal apex and nose Part) opening angle and budget.
【0163】また、主として、利用者端末3101のフ
レーム情報登録手段3160により入力された選択基準
(ファッション性、顔へのフィット感)等のテキストデ
ータに基づき、フレームの装飾構造データが作成され、
記憶手段3105によって記憶され、管理される。フレ
ームの装飾構造データとしては、男性タイプ、女性タイ
プ、男女兼用タイプのデータであり、その他、玉型(シ
ェイプ)は、ウェリントン、ロイド、オーバル、スクエ
ア、トノー、ボストン、バタフライ、オート(ドロッ
プ)である。素材は、縁なし(ツーポイント、スリーポ
イント)、メタルナイロール、セルナイロール、メタ
ル、セル、ブロライン、コンビ、その他である。ブラン
ドは、各種ブランドである。カラーは、各種カラーであ
る。Also, mainly based on text data such as selection criteria (fashion, fit to face) and the like input by the frame information registration means 3160 of the user terminal 3101, frame decoration structure data is created.
The information is stored and managed by the storage unit 3105. The frame decoration structure data is male type, female type, unisex type data. In addition, the ball type (shape) is Wellington, Lloyd, Oval, Square, Tonneau, Boston, Butterfly, Auto (drop) is there. The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0164】利用者端末3101においては、入力手段
3206およびフレーム画像登録手段3161によっ
て、提供できるフレームのそれぞれについて、フレーム
機能構造データおよびフレーム装飾構造データに関する
テキストデータを登録し、管理する。利用者端末310
1の入力手段3206のフレーム画像登録手段3161
によって入力されたフレーム画像は、登録され、管理さ
れる。In the user terminal 3101, text data relating to frame function structure data and frame decoration structure data is registered and managed for each of the frames that can be provided by the input means 3206 and the frame image registration means 3161. User terminal 310
Frame image registration means 3161 of the first input means 3206
Is registered and managed.
【0165】各フレームのフレーム機能構造データとし
ては、サイズは、玉径(44Φ〜62Φ)、鼻幅(10
mm〜20mm)、テンプルの長さ(130mm〜15
0mm)であり、特徴は、形状記憶合金、超軽量、超弾
性、サングラス兼用、携帯用、その他であり、機能は、
左右の瞳孔間の距離、左右の瞳孔間の中心を基点とした
耳元までの幅、左右の瞳孔間の中心を基点とした耳元ま
での幅より決定されたテンプルの開き角、耳元より角膜
頂点までの距離、テンプルの曲げる位置、角膜頂点と鼻
もとまでの距離、角膜頂点と鼻もとまでの距離を基に決
定される鼻のクリングス(鼻当て部)の開き角度であ
る。As the frame function structure data of each frame, the size is the ball diameter (44Φ to 62Φ) and the nose width (10
mm to 20mm), Temple length (130mm to 15mm)
0mm) and features are shape memory alloy, super light weight, super elasticity, combined use of sunglasses, portable, etc.
The distance between the left and right pupils, the width to the ear starting from the center between the left and right pupils, the opening angle of the temple determined from the width to the ear starting from the center between the left and right pupils, from the ear to the corneal vertex , The bending position of the temple, the distance between the corneal vertex and the nose, and the opening angle of the nose clings (nose pad) determined based on the distance between the corneal vertex and the nose.
【0166】また、各フレームのフレーム装飾構造デー
タとしては、玉型(シェイプ)は、ウェリントン、ロイ
ド、オーバル、スクエア、トノー、ボストン、バタフラ
イ、オート(ドロップ)である。素材は、縁なし(ツー
ポイント、スリーポイント)、メタルナイロール、セル
ナイロール、メタル、セル、ブロライン、コンビ、その
他である。ブランドは、各種ブランドである。カラー
は、各種カラーである。As frame decoration structure data of each frame, the target lens (shape) is Wellington, Lloyd, Oval, Square, Tonneau, Boston, Butterfly, and Auto (drop). The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0167】利用者端末3101の利用者情報登録手段
3103において、顔画像が登録され、管理される。利
用者端末3101のフレーム画像登録手段3161によ
って入力されたフレーム画像が登録され、管理される。
利用者情報登録手段3103によって入力される利用者
の顔画像、及びフレーム画像登録手段3161によって
入力されるフレームの画像は、記憶手段3105によっ
て記憶される。In the user information registration means 3103 of the user terminal 3101, face images are registered and managed. The frame image input by the frame image registration unit 3161 of the user terminal 3101 is registered and managed.
The face image of the user input by the user information registration unit 3103 and the image of the frame input by the frame image registration unit 3161 are stored by the storage unit 3105.
【0168】利用者端末3101のフレーム選択手段3
108によって、記憶手段3105によって管理されて
いる利用者の希望するフレームの選択基準、すなわち機
能構造データ、装飾構造データ、顔画像データ、価格に
対応して、フレーム情報登録手段3160によって記憶
されている記憶手段3105の各フレームのフレーム機
能構造、フレーム装飾構造及びフレーム画像の中から適
するものを選択し、いくつかの種類の異なる眼鏡フレー
ムを表示するフレーム画像を生成または選択することが
可能なように構成されている。The frame selecting means 3 of the user terminal 3101
108, the frame information registration unit 3160 stores the frame selection criteria desired by the user managed by the storage unit 3105, that is, the function structure data, the decoration structure data, the face image data, and the price. A suitable one is selected from the frame function structure, the frame decoration structure, and the frame image of each frame in the storage unit 3105 so that a frame image that displays several types of different eyeglass frames can be generated or selected. It is configured.
【0169】利用者端末3101の画像処理手段310
7は、前記したフレーム選択手段3108によって選択
された眼鏡フレーム画像を記憶手段3105によって管
理されている顔画像データに合成したメガネ装用画像を
出力することができるように構成されている。Image processing means 310 of user terminal 3101
Reference numeral 7 is configured to output a spectacle wearing image in which the spectacle frame image selected by the frame selecting unit 3108 is combined with the face image data managed by the storage unit 3105.
【0170】そして、画像処理手段3107によって合
成されたメガネ装用画像は、カウンターブース3001
の利用者端末3101にて出力することができるように
構成されている。[0170] The glasses-worn image synthesized by the image processing means 3107 is output to the counter booth 3001.
Of the user terminal 3101.
【0171】5:メガネ処理センタにおける処理 次に、カウンターブース3001の利用者端末3101
により送信された情報に基づく、メガネ処理センタ40
02における処理について説明する。ただし、利用者端
末3101によって処理をするとともに、メガネ処理セ
ンタ4002においても同様な処理をする場合もあり、
利用者端末3101の機能によって、メガネ処理センタ
4002によってのみ処理をしてもよいのは、もちろん
である。これらの選択は、カウンターブース3001と
メガネ処理センタ4002との通信速度や、利用者端末
3101の能力やメガネ処理センタ4002の能力によ
ってなされる。例えば、図26に示すデータは、メガネ
処理センタ4002によって登録し管理し、図27ない
し図29に示すデータは、利用者端末3101によって
登録し管理するように、分割して登録し管理するように
してもよい。5: Processing in Glasses Processing Center Next, the user terminal 3101 of the counter booth 3001
Glasses processing center 40 based on the information transmitted by
02 will be described. However, the same processing may be performed in the glasses processing center 4002 while the processing is performed by the user terminal 3101.
It goes without saying that the processing may be performed only by the glasses processing center 4002 by the function of the user terminal 3101. These selections are made based on the communication speed between the counter booth 3001 and the glasses processing center 4002, the capabilities of the user terminal 3101 and the capabilities of the glasses processing center 4002. For example, the data shown in FIG. 26 is registered and managed by the glasses processing center 4002, and the data shown in FIGS. You may.
【0172】メガネ処理センタ4002に送られた顔画
像の正面と側面(左右とも)を基に、メガネ処理センタ
4002においてフレーム選択基準が作成される。すな
わち、メガネ処理センタ4002のフレーム選択情報入
力手段4104によって、カウンターブース3001の
利用者端末3101から送信されたテキストデータ及び
画像データに基づいて、フレームの機能構造データ及び
装飾構造データが作成され、記憶手段4105によって
記憶手段に記憶され、管理される。Based on the front and side faces (both right and left) of the face image sent to the glasses processing center 4002, a frame selection reference is created in the glasses processing center 4002. That is, the frame structure information input means 4104 of the glasses processing center 4002 creates and stores the functional structure data and the decorative structure data of the frame based on the text data and the image data transmitted from the user terminal 3101 of the counter booth 3001. The information is stored in the storage means and managed by the means 4105.
【0173】フレームの機能構造データとしては、例え
ば、左右の瞳孔間の距離、左右の瞳孔間の中心を基点と
した耳元までの幅、左右の瞳孔間の中心を基点とした耳
元までの幅より決定されたテンプルの開き角、耳元より
角膜頂点までの距離、テンプルの曲げる位置、角膜頂点
と鼻元までの距離、角膜頂点と鼻元までの距離を基に決
定される鼻のクリングス(鼻当て部)の開き角度及び予
算等である。また、メガネ処理センタ4002のフレー
ム選択情報入力手段4104によって、主として、カウ
ンターブース3001の利用者端末3101より送信さ
れた選択基準(ファッション性、顔へのフィット感)等
のテキストデータに基づき、フレームの装飾構造データ
が作成され、記憶手段4105によって記憶され、管理
される。The functional structure data of the frame includes, for example, the distance between the left and right pupils, the width to the ear starting from the center between the left and right pupils, and the width from the center to the ear starting from the center between the left and right pupils. Nose clings (nose pad) determined based on the determined temple opening angle, distance from ear to corneal apex, temple bending position, distance between cornea apex and nose, distance between corneal apex and nose Part) opening angle and budget. Also, the frame selection information input means 4104 of the glasses processing center 4002 mainly uses the frame data based on the selection data (fashion, fit to the face) and the like transmitted from the user terminal 3101 of the counter booth 3001 based on the text data. The decoration structure data is created, stored and managed by the storage unit 4105.
【0174】フレームの装飾構造データとしては、男性
タイプ、女性タイプ、男女兼用タイプのデータであり、
その他、玉型(シェイプ)は、ウェリントン、ロイド、
オーバル、スクエア、トノー、ボストン、バタフライ、
オート(ドロップ)である。素材は、縁なし(ツーポイ
ント、スリーポイント)、メタルナイロール、セルナイ
ロール、メタル、セル、ブロライン、コンビ、その他で
ある。ブランドは、各種ブランドである。カラーは、各
種カラーである。The frame decoration structure data includes male type, female type, and unisex type data.
In addition, lens (shape), Wellington, Lloyd,
Oval, square, tonneau, boston, butterfly,
Auto (drop). The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0175】メガネ処理センタ4002においては、キ
ーボード等と接続された入力手段4106およびフレー
ム画像登録手段4160によって、提供できるフレーム
のそれぞれについて、フレーム機能構造データおよびフ
レーム装飾構造データに関するテキストデータを登録
し、管理する。メガネ処理センタ4002の入力手段4
106のフレーム画像登録手段4160によって入力さ
れたフレーム画像は、登録され、管理される。In the glasses processing center 4002, text data relating to frame function structure data and frame decoration structure data is registered for each of the frames that can be provided by the input means 4106 and the frame image registration means 4160 connected to a keyboard or the like. to manage. Input means 4 of glasses processing center 4002
The frame image input by the frame image registration unit 4160 of 106 is registered and managed.
【0176】各フレームのフレーム機能構造データとし
ては、サイズは、玉径(44Φ〜62Φ)、鼻幅(10
mm〜20mm)、テンプルの長さ(130mm〜15
0mm)であり、特徴は、形状記憶合金、超軽量、超弾
性、サングラス兼用、携帯用、その他であり、機能は、
左右の瞳孔間の距離、左右の瞳孔間の中心を基点とした
耳元までの幅、左右の瞳孔間の中心を基点とした耳元ま
での幅より決定されたテンプルの開き角、耳元より角膜
頂点までの距離、テンプルの曲げる位置、角膜頂点と鼻
もとまでの距離、角膜頂点と鼻もとまでの距離を基に決
定される鼻のクリングス(鼻当て部)の開き角度であ
る。As frame function structure data of each frame, the size is the ball diameter (44Φ to 62Φ), the nose width (10
mm to 20mm), Temple length (130mm to 15mm)
0mm) and features are shape memory alloy, super light weight, super elasticity, combined use of sunglasses, portable, etc.
The distance between the left and right pupils, the width to the ear starting from the center between the left and right pupils, the opening angle of the temple determined from the width to the ear starting from the center between the left and right pupils, from the ear to the corneal vertex , The bending position of the temple, the distance between the corneal vertex and the nose, and the opening angle of the nose clings (nose pad) determined based on the distance between the corneal vertex and the nose.
【0177】また、各フレームのフレーム装飾構造デー
タとしては、玉型(シェイプ)は、ウェリントン、ロイ
ド、オーバル、スクエア、トノー、ボストン、バタフラ
イ、オート(ドロップ)である。素材は、縁なし(ツー
ポイント、スリーポイント)、メタルナイロール、セル
ナイロール、メタル、セル、ブロライン、コンビ、その
他である。ブランドは、各種ブランドである。カラー
は、各種カラーである。As frame decoration structure data of each frame, the target lens (shape) is Wellington, Lloyd, Oval, Square, Tonneau, Boston, Butterfly, and Auto (drop). The material is without edge (two points, three points), metal ny roll, cell ny roll, metal, cell, bro line, combination, and others. Brands are various brands. The colors are various colors.
【0178】メガネ処理センタ4002の利用者情報登
録手段4103において、カウンターブース3001の
利用者端末3101から送信された顔画像が登録され、
管理される。メガネ処理センタ4002の入力手段41
06のフレーム画像登録手段4160によって入力され
たフレーム画像が登録され、管理される。利用者情報登
録手段4103によって入力される利用者の顔画像、及
び入力手段4106のフレーム画像登録手段4160に
よって入力されるフレームの画像は、記憶手段4105
によって記憶される。In the user information registration means 4103 of the glasses processing center 4002, the face image transmitted from the user terminal 3101 of the counter booth 3001 is registered.
Be managed. Input means 41 of glasses processing center 4002
The frame image input by the frame image registration means 4160 is registered and managed. The face image of the user input by the user information registration unit 4103 and the image of the frame input by the frame image registration unit 4160 of the input unit 4106 are stored in the storage unit 4105.
Is stored by
【0179】メガネ処理センタ4002のフレーム選択
手段4108によって、記憶手段4105によって管理
されている利用者の希望するフレームの選択基準、すな
わち機能構造データ、装飾構造データ、顔画像データに
対応して、フレーム情報登録手段4161によって記憶
されている記憶手段4105の各フレームのフレーム機
能構造、フレーム装飾構造及びフレーム画像の中から適
するものを選択し、いくつかの種類の異なる眼鏡フレー
ムを表示するフレーム画像を生成または選択することが
可能なように構成されている。The frame selection means 4108 of the glasses processing center 4002 selects a frame desired by the user managed by the storage means 4105, that is, a frame corresponding to the function structure data, the decoration structure data, and the face image data. An appropriate frame function structure, a frame decoration structure, and a frame image of each frame of the storage unit 4105 stored by the information registration unit 4161 are selected, and a frame image that displays several types of different eyeglass frames is generated. Or it is configured to be selectable.
【0180】メガネ処理センタ4002の画像処理手段
4107は、前記したフレーム選択手段4108によっ
て選択された眼鏡フレーム画像を記憶手段4105によ
って管理されている顔画像データに合成したメガネ装用
画像を出力することができるように構成されている。The image processing means 4107 of the eyeglass processing center 4002 can output an eyeglass wearing image in which the eyeglass frame image selected by the frame selecting means 4108 is combined with the face image data managed by the storage means 4105. It is configured to be able to.
【0181】そして画像処理手段4107によって合成
されたメガネ装用画像は、WWWサーバによってインタ
ーネットを介し、カウンターブース3001の利用者端
末3101に出力することができるように構成されてい
る。The glasses wearing image synthesized by the image processing means 4107 can be output to the user terminal 3101 of the counter booth 3001 by the WWW server via the Internet.
【0182】6:メガネの情報発信をする手順 次に、カウンターブース3001において、利用者(顧
客)が、メガネの情報発信をする手順について説明す
る。図36は、メガネ・レンズ情報発信システムの処理
の流れの概要を示すフローチャートである。図37ない
し図42は、メガネ・レンズ情報発信システムの処理の
イメージフロー図である。6: Procedure for Transmitting Information on Glasses Next, a procedure for transmitting information on glasses by a user (customer) in the counter booth 3001 will be described. FIG. 36 is a flowchart showing an outline of the flow of processing of the glasses / lens information transmission system. FIG. 37 to FIG. 42 are image flow diagrams of the processing of the glasses / lens information transmission system.
【0183】利用者がカウンターブース3001内に存
在しない状態においては、タッチパネルモニタ320
7、視力測定装置3203および度数測定装置3202
には、電源が入っておらず、利用者端末3101は、ス
クリーンセーバ状態にある。そして、利用者がカウンタ
ーブース3001内に入ると、センサ3210(図35
図示)からの電気的信号によって、利用者端末3101
のスクリーンセーバが解除される。そして、利用者端末
3101の制御により、タッチパネルモニタ3207が
オンとなり、WEBコールセンタ5001との通信がな
される状態になり、人工音声発声手段3110によって
「いらっしゃいませ。タッチパネルに触れてくださ
い。」なる音声がスピーカ3213より流される(S1
01)。その音声に促されて、利用者がタッチパネルモ
ニタ3207に触れると、利用者端末3103の制御に
より、タッチパネルモニタ3207は起動状態になり、
初期画面(図37図示)が表示される。次に、タッチパ
ネルの画面は、スクリーンセーバ画面(図37図示)を
表示し、それに従ってオープニング画面(図37図示)
およびスタート画面(図37および図43図示)に移り
(S102およびS103)、続いて、人工音声発声手
段3110によって「スタートを押してください」なる
人工音声が流され、サービス選択画面(「メガネ度数測
定」「視力測定」「フレーム仮想体験」)(図37およ
び図44図示)に移る(S104)。それと同時に、W
EBコールセンタ5001の信号により、人工音声発声
手段3110によって「ご希望のサービスをタッチパネ
ルでお選びください。」なる音声がスピーカ3213よ
り流される。When the user is not present in counter booth 3001, touch panel monitor 320
7. Visual acuity measuring device 3203 and frequency measuring device 3202
Is turned off, and the user terminal 3101 is in a screen saver state. Then, when the user enters the counter booth 3001, the sensor 3210 (FIG. 35)
User terminal 3101 by an electric signal from the
Is released. Then, under the control of the user terminal 3101, the touch panel monitor 3207 is turned on, communication with the WEB call center 5001 is established, and the artificial voice uttering means 3110 outputs a voice saying "Hello, please touch the touch panel." Flowed from the speaker 3213 (S1
01). When the user is prompted by the sound and touches the touch panel monitor 3207, the touch panel monitor 3207 is activated by the control of the user terminal 3103,
An initial screen (shown in FIG. 37) is displayed. Next, on the screen of the touch panel, a screen saver screen (shown in FIG. 37) is displayed, and an opening screen (shown in FIG. 37) is displayed accordingly.
Then, the screen shifts to a start screen (FIGS. 37 and 43) (S102 and S103). Then, the artificial voice uttering means "press the start" is played by the artificial voice uttering means 3110, and the service selection screen ("glasses frequency measurement") is displayed. The process proceeds to “sight measurement” and “frame virtual experience” (illustrated in FIGS. 37 and 44) (S104). At the same time, W
According to the signal from the EB call center 5001, the artificial voice uttering means 3110 causes the speaker 3213 to output a voice saying "Please select the desired service on the touch panel."
【0184】このサービス選択画面において表示された
それぞれのサービスには、サービス利用料が利用者に課
され、各サービス利用料がタッチパネルモニタ3207
に表示され、利用者に対しコイン投入口3211aより
コインを投入することを促す。コイン投入口3211a
より投入されたコインの真偽、金額等をコイン処理装置
3211によって確認し、コイン処理装置3211より
利用者端末3101に電気的信号によってOKあるいは
NOの信号を流す。利用者端末3101において、コイ
ン投入が正確になされたことを確認した後、希望された
サービスに対応する画面(「メガネ度数測定」「視力測
定」「フレーム仮想体験」)が、タッチパネルモニタ3
207に表示される。A service fee is charged to the user for each service displayed on the service selection screen, and each service fee is applied to the touch panel monitor 3207.
Is displayed to urge the user to insert a coin through the coin insertion slot 3211a. Coin slot 3211a
The authenticity and amount of the inserted coin are checked by the coin processing device 3211, and an OK or NO signal is sent from the coin processing device 3211 to the user terminal 3101 by an electric signal. After confirming that coin insertion has been correctly performed at the user terminal 3101, the screen corresponding to the desired service (“glasses power measurement”, “sight measurement”, “frame virtual experience”) is displayed on the touch panel monitor 3.
207 is displayed.
【0185】なお、機器の操作に不慣れな利用者のため
に、オペレータにより説明をすることも可能であり、そ
の場合、WEBコールセンタ5001より、オペレータ
が、利用者に対し応答するようにしてもよい。その場
合、サービス選択画面によってサービスが選択された
後、オペレータが必要か否かを問い合わせる画面を、タ
ッチパネルモニタ3207に表示するとともに、WEB
コールセンタ5001より、人工音声発声手段3110
により「オペレータが必要で「はい」を選ぶと実際にオ
ペレータが操作方法をご案内致します。「いいえ」を選
ぶとご自身で操作できます。また、何か不都合がござい
ましたら「CALL(コール)」を押してください。」
なる音声がスピーカ3213より流される。さらに、人
工音声発声手段3110により「今からいくつかの質問
をします。タッチパネルモニタ3207の「はい」「い
いえ」でお答えください。」なる音声がスピーカ321
3より流される。It is also possible for an operator who is unfamiliar with the operation of the device to give an explanation by an operator. In this case, the operator may respond to the user from the WEB call center 5001. . In this case, after the service is selected on the service selection screen, a screen for inquiring whether or not the operator is necessary is displayed on the touch panel monitor 3207 and the WEB is displayed.
From the call center 5001, the artificial voice utterance means 3110
"If you need an operator and select" Yes ", the operator will actually guide you through the operation method. If you select "No", you can operate it yourself. Also, if you have any inconvenience, please press "CALL". "
Is output from the speaker 3213. Furthermore, the artificial voice utterance means 3110 asks "I will ask some questions from now on. Please answer" Yes "or" No "on the touch panel monitor 3207. Is the speaker 321
Flowed from 3.
【0186】利用者がサービス選択画面において「視力
測定」を選択したならば、問診画面(図38および図4
5図示)がタッチパネルモニタ3207に表示される
(S105)。問診画面においては、眼鏡をかけている
か否かについて問診する「今、眼鏡をかけていますか
?」なる質問が表示され、それと同時に人工音声発声手
段3110により「今、眼鏡をおかけですか?」なる音
声がスピーカ3213より流される(S106)。利用
者は、タッチパネルモニタ3207の問診画面に表示さ
れたチェックボタン「YES」または「NO」をタッチ
することにより、回答する。さらに、コンタクトレンズ
の使用の有無について、利用者の回答を促すために、タ
ッチパネルモニタ3207において、「今、コンタクト
レンズを使用していますか?」なる質問を表示するとと
もに、同時に人工音声発声手段3110により「コンタ
クトをはめていますか?」なる音声がスピーカ3213
より流される。さらに、年令について利用者の回答を促
すために、その質問「年令はおいくつですか?」なる表
示をタッチパネルモニタ3207に表示し、且つタッチ
パネルモニタ3207に、決定ボタン「0」「1」ない
し「9」、「クリア」からなる数字を表示し、必要な数
字を選択するよう、利用者に促す。前記問診画面におい
て、メガネをかけているか否か問いかける質問に対し、
チェックボタン「YES」を選択した利用者に対し、利
用者端末3101の制御により、メガネの度数測定を開
始する(S107)。If the user selects “sight measurement” on the service selection screen, an inquiry screen (FIGS. 38 and 4)
5 is displayed on the touch panel monitor 3207 (S105). On the inquiry screen, a question “Do you wear glasses?” Is displayed asking whether you wear glasses. At the same time, the artificial voice utterance means 3110 asks “Do you wear glasses?” Is output from the speaker 3213 (S106). The user answers by touching the check button “YES” or “NO” displayed on the inquiry screen of the touch panel monitor 3207. Further, in order to prompt the user to answer whether or not the contact lens is used, a question “Do you use a contact lens now?” Is displayed on the touch panel monitor 3207, and at the same time, the artificial voice uttering means 3110 is used. Sounds "Do you have a contact?"
More shed. Further, in order to urge the user to answer the age, the display of the question "How old is the age?" Is displayed on the touch panel monitor 3207, and the enter button "0", "1" or the like is displayed on the touch panel monitor 3207. A number consisting of "9" and "clear" is displayed, and the user is prompted to select a required number. On the inquiry screen, for the question asking whether or not you are wearing glasses,
For the user who has selected the check button “YES”, measurement of the frequency of the glasses is started under the control of the user terminal 3101 (S107).
【0187】スタート画面(図示せず)をタッチパネル
モニタ3207に表示し、人工音声発声手段3110に
より「メガネを測定してください。」「ムービーで説明
する測定方法にしたがってメガネを測定してくださ
い。」「ムービーは繰返されます。測定したら、「装置
の転送」ボタンを押してください。」なる音声がスピー
カ3213より流される。同時に、タッチパネルモニタ
3207に度数測定装置3202の使用方法についての
ムービーを表示するとともに、音声が流れる。A start screen (not shown) is displayed on the touch panel monitor 3207, and the artificial voice utterance means 3110 "measure the glasses.""Measure the glasses according to the measurement method described in the movie.""The movie will repeat. Once measured, press the" Transfer Device "button. Is output from the speaker 3213. At the same time, a movie about how to use the frequency measuring device 3202 is displayed on the touch panel monitor 3207, and sound is played.
【0188】度数測定装置3203の構成および作用
は、次のとおりである。 (1)メガネの度数測定が選択されると同時に、度数測
定装置3202のスクリーンセーバーモード及び省電力
モードが解除される。 (2)モデル顔画像がタッチパネルモニタ3207に表
示されるとともに、人工音声発声手段3110により
「メガネの度数を測定します。これから説明する測定方
法に従って測定してください。」なる音声が流される。 (3)装置使用方法ムービーの放映(音楽・音声付き)
が、タッチパネルモニタ3207において、測定終了ま
で繰り返される。 (4)利用者が、メガネ度数を測定する。 (5)測定データが、インターフェースで利用者端末3
101に転送される。 (6)左右眼の測定結果S,C,Aが表示される。 (7)タッチパネルモニタ3207に「メガネの度数測
定は終わりました。」なる文字を表示するとともに、人
工音声発声手段3110により「メガネの度数測定は終
わりました。」なる音声が流される。The construction and operation of the frequency measuring device 3203 are as follows. (1) At the same time that the frequency measurement of the glasses is selected, the screen saver mode and the power saving mode of the frequency measurement device 3202 are released. (2) The model face image is displayed on the touch panel monitor 3207, and the artificial voice uttering means 3110 plays the sound "Measure the frequency of the glasses. Please measure according to the measuring method described below." (3) How to use the device Broadcasting of movies (with music and audio)
Are repeated on the touch panel monitor 3207 until the measurement is completed. (4) The user measures the spectacle frequency. (5) Measurement data is transmitted to the user terminal 3 via the interface.
It is transferred to 101. (6) The measurement results S, C, A of the left and right eyes are displayed. (7) On the touch panel monitor 3207, the character "Frequency measurement of the glasses is finished." Is displayed, and the sound "Frequency measurement of glasses is finished."
【0189】利用者が、度数測定装置3202におい
て、眼鏡の度数を測定したなら、次に、眼鏡測定結果表
示画面(図示せず)が、タッチパネルモニタ3207に
表示される(S108)。 (8)タッチパネルモニタ3207に、ジョイスティッ
ク画像が表示されるとともに、人工音声発声手段311
0により「測定結果はよろしいでしょうか。」なる音声
が流される。 a)利用者に、測定結果の確認を促す。 b)利用者は、ジョイスティックによって、「はい」
「いいえ」の確認を行う。 c)「はい」で、次の(9)に進み、「いいえ」で前の
(2)に戻る。 (9)タッチパネルモニタ3207の測定結果の表示を
消去する。 (10)度数測定装置3202は、スクリーンセーバー
モード及び省電力モードとなる。When the user measures the frequency of the spectacles with the frequency measuring device 3202, a spectacle measurement result display screen (not shown) is displayed on the touch panel monitor 3207 (S108). (8) The joystick image is displayed on the touch panel monitor 3207 and the artificial voice uttering means 311
With 0, the sound "Is the measurement result OK?" a) Prompt the user to confirm the measurement result. b) The user uses the joystick to answer "Yes"
Confirm "No". c) If “Yes”, proceed to the next (9), and if “No”, return to the previous (2). (9) The display of the measurement result on the touch panel monitor 3207 is deleted. (10) The frequency measuring device 3202 enters a screen saver mode and a power saving mode.
【0190】次に視力測定について説明する。利用者端
末3101は、視力測定初期画面(図示せず)をタッチ
パネルモニタ3207に表示するとともに、WEBコー
ルセンタ5001からの信号によって、人工音声発声手
段3110により「視力測定を始めます。」なる音声を
スピーカ3213より流す。Next, the measurement of visual acuity will be described. The user terminal 3101 displays a visual acuity measurement initial screen (not shown) on the touch panel monitor 3207, and outputs a voice “Start visual acuity measurement” by the artificial voice uttering means 3110 according to a signal from the web call center 5001. Flow from 3213.
【0191】利用者は、視力測定装置3203によっ
て、視力を測定するが、その視力測定装置3203にお
いて、操作の練習をするために、ジョイスティック(視
力入力)練習画面(図38図示)が、タッチパネルモニ
タ3207に表示されるとともに、人工音声発声手段3
110により「視力入力の練習を行います。切れ目の方
向にレバーを倒してください。正解が数回続けば、次に
進みます。」なる音声がスピーカ3213より流され
る。このジョイスティック(視力入力)練習画面におい
ては、ランドルト環が表示され、その切れ目の方向にレ
バーを倒すことにより、視力の測定を行う。The user measures his or her eyesight with the eyesight measuring device 3203. In the eyesight measuring device 3203, a joystick (eyesight input) practice screen (shown in FIG. 38) is displayed on the touch panel monitor to practice the operation. 3207, and the artificial voice utterance means 3
The speaker 3213 plays a voice saying, “I practice eyesight input. Tilt the lever in the direction of the cut. If the correct answer continues several times, proceed to the next.” On the joystick (sight input) practice screen, a Landolt ring is displayed, and the vision is measured by tilting the lever in the direction of the cut.
【0192】次に、視力測定をするステップ(S10
9)に進むが、そのとき、視力測定案内画面(図38図
示)によって、タッチパネルモニタ3207に「視力測
定をします」なる文字が表示されるとともに、タッチパ
ネルモニタ3207に、視力測定装置3203の実際の
使用方法を示すムービーを表示する。それと同時に、人
工音声発声手段3110により「測定手順を説明しま
す。」「測定手順をムービーでご説明いたします。」
「ムービーは繰返します。手順がわかったら、「次へ」
を押してください。」なる音声がスピーカ3213より
流される。Next, the step of measuring the visual acuity (S10)
9), at this time, the characters “I measure eyesight” are displayed on the touch panel monitor 3207 by the visual acuity measurement guide screen (illustrated in FIG. 38), and the actual Displays a movie showing how to use. At the same time, the artificial voice utterance means 3110 "explains the measurement procedure.""I explain the measurement procedure in a movie."
"The movie will repeat.
Please press. Is output from the speaker 3213.
【0193】視力測定として、赤緑テスト練習(レッド
グリーンテスト)が引き続き行われる。まず、視力測定
に先だって、赤緑テストの練習方法について説明する。
利用者端末3101によって、赤緑テスト練習画面(図
39図示)がタッチパネルモニタ3207に表示される
とともに、人工音声発声手段3110により「赤緑テス
トの練習を行います。」「はっきり見える方にレバーを
倒してください。同じ場合は、レバーのボタンを押して
ください。正解が数回続けば、次に進みます。」なる音
声がスピーカ3213より流される。赤緑テスト練習画
面においては、それぞれ赤色と緑色の色の付いた「AB
CD」なる文字を四角で囲った図が2種類表示され、近
視の場合、過矯正で緑色がはっきり見え、矯正不足で赤
色がはっきり見え、完全矯正で赤緑同じとなる。遠視の
場合は、過矯正で赤色がはっきり見え、矯正不足で緑色
がはっきり見える。A red-green test practice (red-green test) is continuously performed as a visual acuity measurement. First, prior to the eyesight measurement, a method of practicing the red-green test will be described.
A red-green test practice screen (shown in FIG. 39) is displayed on the touch panel monitor 3207 by the user terminal 3101, and the artificial voice utterance means 3110 "practice the red-green test." If it is the same, press the button of the lever. If the correct answer is repeated several times, the next step is proceeded. " On the red-green test practice screen, “AB” with red and green colors respectively
In the case of myopia, green is clearly seen when overcorrected, red is clearly seen when undercorrected, and red and green are the same when completely corrected. In the case of hyperopia, red is clearly seen when overcorrected, and green is clearly seen when undercorrected.
【0194】次に、実際の視力を測定するため、視力測
定画面(図38図示)がタッチパネルモニタ3207に
表示されるとともに、タッチパネルモニタ3207にお
いて、視力測定装置3203の使用方法についてのムー
ビーが表示される。それと同時に、人工音声発声手段3
110により、「視力の測定を行います。」「装置に顔
をセットする方法をムービーでご説明いたします。ムー
ビーは繰返します。」「手順が解ったら、顔を装置に当
て、レバーで左右間隔を調整し、眼の位置を合せてくだ
さい。準備できたら、レバーのボタンを押してくださ
い。」なる音声がスピーカ3213より流される。Next, in order to measure the actual visual acuity, a visual acuity measurement screen (shown in FIG. 38) is displayed on the touch panel monitor 3207, and a movie on how to use the visual acuity measuring device 3203 is displayed on the touch panel monitor 3207. You. At the same time, artificial voice utterance means 3
According to 110, "Measure your eyesight.""I will explain how to set the face on the device with a movie. The movie will be repeated." , Adjust the position of the eyes. When you are ready, press the button of the lever. "
【0195】実際の視力の測定は、視力測定装置320
3によって行われるが、視力測定装置3203における
裸眼視力の測定をする手順は、次のとおりである。眼鏡
装用者の場合: (1)メガネ度数測定の後、視力測定装置3203の省
電力モードを解除する。 a)チャート照明、測定LED、CCDカメラ等がONと
なる。 (2)視力測定装置3203をイニシアルセットする。 a)PDは、63mmとする。視標は、両眼とも風景チ
ャートとする。 b)両眼とも、視標のS値は−0.2D(遠用検査距離
5m相当)、Cは0D,Aは180°である。 c)輻輳角は、0.36°{tan−1(63/2/5
000)}とする。 (3)文字及び音声にて「裸眼視力を測定します。これ
から測定方法を説明します。」と説明する。 (4)視力測定装置3203の使用方法が、ムービーで
放映(音楽・音声付き)される。 a)視力測定装置3203にどのように対座するか。 b)ジョイスティックの使用方法。 (5)ランドルト環の切れ目方向にジョイスティックを
倒す入力練習を促す。 a)ランドルト環を一個ディスプレイに表示する。 b)利用者にランドルト環の切れ目方向にジョイスティ
ックを倒すように促す。 c)ランドルト環の切れ目方向とジョイスティックの倒
された方向を識別する。 d)「正解」「不正解」に応じてコメントを出す。 e)上下左右のランドルト環について順次行う。 (6)文字及び音声にて、「ジョイスティックを握っ
て、メガネをはずして視力検査機を覗いてください。」
と指示する。 (7)利用者は、ジョイスティック3203bを握り、
顔当て3203aに額を突き当てる。 (8)オートアライメント(図3図示)機能が、両眼同
時にスタートする。 a)アライメントが合ったら、x,y,z位置を検出
し、PD値を求める。 b)基準位置から離れ過ぎていて、オートアライメント
の動作範囲を超えていたり、睫、眉毛の影響でオートア
ライメントが機能しない場合は、位置を変え、再度オー
トアライメントを指示する。 (9)右眼裸眼視力の測定 a)アライメントが合った段階で、両眼同時に視力値
0.1の視標を提示する。 b)次いで、左眼の視標照明光源をOFFとする。 c)音声にて「視標の切れ目方向にジョイスティックを
倒してください。」と指示する。 d)視標の提示時間は、4秒とする。 e)利用者は、ランドルト環の切れ目方向にジョイステ
ィック3203bを倒す。 f)提示視標とジョイスティック3203bの倒れた方
向が一致しているかどうかを判定する。 g)ジョイスティック3203bが提示時間内に倒され
なかったときは、切れ目方向を判別できないと判断す
る。 h)ランドルト環の切れ目方向とジョイスティックを倒
した方向が合っていれば、両眼同時に次のステップの視
標を提示する。 i)視力値決定をする。 j)音声「利用者様の右眼の裸眼視力値は、0.5
(0.1〜1.2のどれか)です。」とアナウンスす
る。 k)視力値をメモリーする。 (10)左眼裸眼視力の測定 a)両眼に視力値0.1の視標を提示する。 b)左眼の視標照明光源をONとし、右眼の視標照明光
源をOFFとする。 c)上記(9)c)以降を繰り返し、視力値を決定す
る。 d)音声「利用者様の左眼の裸眼視力値は、0.5
(0.1〜1.2のどれか)です。」とアナウンスす
る。 e)視力値をメモリー後、右眼の視標照明光源をONと
する。 (11)両眼視力の測定 a)両眼に視力値0.1の視標を提示する。 b)上記(9)c)以降を繰り返し、視力値を決定す
る。 c)音声「利用者様の両眼による裸眼視力値は、0.5
(0.1〜1.2のどれか)です。」とアナウンスす
る。 d)視力値をメモリーする。 (12)測定結果がタッチパネルモニタ3207に表示
され、それと同時に、人工音声発声手段3110によっ
て「裸眼視力測定は終了しました。裸眼視力値をモニタ
ーに表示します。」なる音声がスピーカ3213より流
される。The measurement of the actual visual acuity is performed by the visual acuity measuring device 320.
3, the procedure for measuring the naked-eye visual acuity in the visual acuity measuring device 3203 is as follows. For the spectacle wearer: (1) After measuring the spectacle frequency, cancel the power saving mode of the eyesight measuring device 3203. a) Chart illumination, measurement LED, CCD camera, etc. are turned on. (2) The visual acuity measuring device 3203 is initially set. a) The PD is 63 mm. The target is a landscape chart for both eyes. b) For both eyes, the S value of the optotype is -0.2D (equivalent to a distance inspection distance of 5 m), C is 0D, and A is 180 °. c) The convergence angle is 0.36 ° {tan −1 (63/2/5)
000)}. (3) In text and voice, "Measure the naked eye acuity. The measurement method will be described." (4) The usage of the visual acuity measuring device 3203 is broadcasted as a movie (with music and sound). a) How to face the eyesight measuring device 3203. b) How to use the joystick. (5) Encourage input practice of tilting the joystick in the direction of the break in the Landolt ring. a) Display one Landolt ring on the display. b) Encourage the user to tilt the joystick in the direction of the Landolt ring cut. c) Identify the direction of the break in the Landolt ring and the direction in which the joystick is tilted. d) Comment out according to “correct answer” or “incorrect answer”. e) Perform sequentially for the upper, lower, left and right Landolt rings. (6) In text and voice, "Grip the joystick, remove the glasses, and look into the eye tester."
And instruct. (7) The user holds the joystick 3203b,
The forehead is struck against the face rest 3203a. (8) The auto alignment (shown in FIG. 3) function starts simultaneously for both eyes. a) If the alignment is correct, the x, y, and z positions are detected, and the PD value is obtained. b) If it is too far from the reference position and exceeds the operation range of the auto alignment, or if the auto alignment does not function due to the influence of eyelashes and eyebrows, change the position and instruct the auto alignment again. (9) Measurement of right-eye and naked-eye visual acuity a) At the stage where alignment is achieved, a target having a visual acuity value of 0.1 is presented to both eyes simultaneously. b) Next, the target illumination light source for the left eye is turned off. c) Instruct by voice "Please tilt the joystick in the direction of the cut line of the target." d) The presentation time of the target is 4 seconds. e) The user tilts the joystick 3203b in the direction of the cut of the Landolt ring. f) It is determined whether the presented target and the joystick 3203b have fallen in the same direction. g) If the joystick 3203b is not tilted within the presentation time, it is determined that the break direction cannot be determined. h) If the direction of the cut of the Landolt ring matches the direction in which the joystick is tilted, the optotype of the next step is presented simultaneously with both eyes. i) Determine visual acuity value. j) Voice "The naked eye acuity value of the right eye of the user is 0.5
(Any of 0.1 to 1.2). "Announcement. k) Store visual acuity values. (10) Measurement of left-eye naked eye acuity a) An optotype having a visual acuity value of 0.1 is presented to both eyes. b) Turn on the optotype illumination light source for the left eye and turn off the optotype illumination light source for the right eye. c) The above (9) c) and subsequent steps are repeated to determine a visual acuity value. d) Voice “The naked eye acuity value of the left eye of the user is 0.5
(Any of 0.1 to 1.2). "Announcement. e) After storing the visual acuity value, the optotype illumination light source of the right eye is turned on. (11) Measurement of binocular visual acuity a) A visual target with a visual acuity value of 0.1 is presented to both eyes. b) The above (9) c) and subsequent steps are repeated to determine a visual acuity value. c) Voice "The naked-eye visual acuity value of both eyes of the user is 0.5
(Any of 0.1 to 1.2). "Announcement. d) Store visual acuity values. (12) The measurement result is displayed on the touch panel monitor 3207, and at the same time, the voice “The measurement of the naked eye acuity has been completed. The naked eye acuity value is displayed on the monitor.” Is output from the speaker 3213 by the artificial voice uttering means 3110. .
【0196】視力が測定されたならば、裸眼視力測定中
画面(図示せず)において、裸眼視力が表示される。裸
眼視力測定中画面においては、ランドルト環が表示さ
れ、「切れ目の方向に倒してください。わからない場合
はボタンを押してください。」なる表示がなされる。When the visual acuity is measured, the naked-eye visual acuity is displayed on the screen for measuring the naked-eye visual acuity (not shown). A Landolt ring is displayed on the screen during the measurement of the visual acuity of the naked eye, and a message such as “Tilt in the direction of the cut. If you do not know, press the button” is displayed.
【0197】次に、視力測定装置3203による視力測
定をする視力測定中画面(図示せず)がタッチパネルモ
ニタ3207に表示される。この視力測定中画面におい
ては、景色が表示され、その景色を利用者が見ることに
よって、完全矯正視力をはかるものであるが、そのと
き、どのように景色を見るかについて、文字及び音声に
て、「ボーッと景色を見ていてください。」と指示をす
る。Next, a visual acuity measuring screen (not shown) for performing visual acuity measurement by the visual acuity measuring device 3203 is displayed on the touch panel monitor 3207. On this screen during eyesight measurement, a scene is displayed, and the user views the scene to obtain a completely corrected eyesight. At that time, how to view the scene is described in text and voice. , "Please look at the scenery."
【0198】視力測定装置3203における視力測定
は、次の手順でなされる。 1.他覚屈折測定: (1)左眼裸眼視力測定が終了した段階で、他覚屈折測
定モードに自動設定する。 a)視標は、両眼同時に風景チャートとする。 b)PDは、先に求めたPD値とする。 c)両眼とも、視標のS値は−0.2D(遠用検査距離
5m相当)、Cは0D、Aは180°とする。 d)輻輳角は、0.36°{tan−1(63/2/5
000)}とする。 (2)文字及び音声にて「必要とするメガネ度数を求め
ます。視力検査機を覗いてください。」と指示する。 (3)オートアライメント機能を両眼同時にスタートさ
せる。 (4)両眼同時他覚測定を行う。 a)ラフ測定を行う。 b)雲霧をかける(現状の片眼のシーケンスを適用す
る)。 c)本測定を行う。 d)測定回数は、エラーを除いて両眼とも3回の測定が
できるまでとする。 e)睫、眉毛の影響で測定できないときは「目を大きく
開けてください。」なる指示音声を、スピーカ3213
より流す。 f)測定結果は、全データをメモリーする。 g)データの出力は、代表値のみとする。 (5)両眼の他覚測定が終了した段階で、文字及び音声
にて「必要とするメガネ度数を求めました。次いで、こ
のメガネ度数で視力検査を行います。」と説明する。The visual acuity measurement by the visual acuity measuring device 3203 is performed in the following procedure. 1. Objective refraction measurement: (1) Automatically set to the objective refraction measurement mode when the measurement of left-eye naked eye acuity is completed. a) The target is a landscape chart for both eyes at the same time. b) PD is the previously determined PD value. c) For both eyes, the S value of the optotype is -0.2D (equivalent to a distance inspection distance of 5 m), C is 0D, and A is 180 °. d) The angle of convergence is 0.36 ° {tan −1 (63/2/5)
000)}. (2) Instruct by text and voice: "Find the required degree of glasses. Look into the eye tester." (3) Start the auto alignment function with both eyes simultaneously. (4) Perform binocular simultaneous objective measurement. a) Perform a rough measurement. b) Fog (apply the current single eye sequence). c) Perform the main measurement. d) The number of measurements is taken until three measurements can be performed for both eyes except for errors. e) When measurement is not possible due to the eyelashes and eyebrows, an instruction sound “Please open your eyes widely.” is given to the speaker 3213.
Shed more. f) Measurement results are stored in all data. g) Output of data is only a representative value. (5) At the stage where the objective measurement of both eyes is completed, a description will be given in text and voice that "The required eyeglass power is obtained. Then, an eyesight test is performed using this eyeglass power."
【0199】2.矯正視力測定: (1)他覚測定結果で得られたS,C,Aを両眼にセッ
トする。 (2)文字及び音声「矯正視力を測定します。これから
測定方法を説明します。モニターをご覧ください。」 (3)次の装置使用方法をムービーで放映(音楽・音声
付き)する。 a)R&Gテストの説明 b)R(赤)視標がはっきり見える場合,G(緑)視標
がはっきり見える場合c)ジョイスティックの使い方 (4)文字及び音声にて「測定を始めます。ジョイステ
ィックを握って、視力検査機を覗いてください。」と指
示する。 (5)右眼のR&Gテスト a)両眼にR&Gチャートを提示する。 b)左眼に+1.5Dを加え、雲霧をかける。 c)R&Gチャートは、RM−8300のR&Gチャー
トを使用する(右が緑、左が赤)。 (6)両眼同時にオートアライメントを行う。 (7)文字及び音声にて「赤と緑の視標は同じように見
えますか?それともどちらかの視標がはっきりしていま
すか?」なる質問をする。 a)2秒間ポーズする。 (8)音声にて「赤と緑の視標が同じように見えるなら
ばジョイスティックのボタンを押してください。見え方
に違いがあるならば、はっきり見える方向にジョイステ
ィックを倒してください。」と指示をする。 a)視表提示時間は、4〜15秒で選択できるように
し、実験で決定する。 b)ジョイスティックのボタンが押されたら、視力値
0.5を提示する。 c)右側(緑がはっきり見える)に倒されたら、球面度
に+0.25Dを加えて、再度(7)の音声をアナウン
スする。 d)左側(赤がはっきり見える)に倒されたら、球面度
に−0.25Dを加えて、再度(7)の音声をアナウン
スする。 e)応答がないときは、再度(7)の音声をアナウンス
する。これを2度繰り返しても応答がないときは、同じ
に見えていると判断し、視力値0.5を提示する。 f)右側(緑)に倒された後、左側(赤)となったら、
次のように球面度を決定する。 ・例1:S−4.00で右側(緑)→S+0.25を加
え、S−3.75とする。 S−3.75で左側(赤)→利用者のS値は、−3.7
5Dとする。 ・例2:S+4.00で右側(緑)→S+0.25を加
え、S+4.25とする。 S+4.25で左側(赤)→利用者のS値は、S+4.
25Dとする。 g)左側(赤)に倒された後、右側(緑)となったら、
次のように球面度を決定する。 ・例1:S−4.00で左側(赤)→S−0.25を加
え、S−4.25とする。 S−4.25で右側(緑)→利用者のS値は、−4.0
0Dとなる。 ・例2:S+4.00で左側(赤)→S−0.25を加
え、S+3.75となる。 S+3.75で右側(緑)→利用者のS値は、S+4.
00Dとなる。 h)続けて6回、同じ側にジョイスティックが倒された
場合は、R&Gテストに入る前のS値に戻し、視力値
0.5を提示する。この場合は、6.測定結果の表示に
「右眼R&Gテストで大きくずれた。」のコメントを出
す。 (9)右眼の視力値の測定:文字及び音声にて「視標の
切れ目方向にジョイスティックを倒してください。」と
指示をする。 a)視標の提示時間は、一文字4秒とする。 b)利用者は、ランドルト環の切れ目方向にジョイステ
ィックを倒す。 c)提示視標とジョイスティックの倒れた方向が一致し
ているかどうかを判定する。 d)ランドルト環の切れ目方向とジョイスティックを倒
した方向が合っていれば、両眼同時に次のステップの視
標を提示する。 e)視力値決定をする。 f)視力値0.7以上が得られたら、人工音声にて「利
用者様のメガネ装用時の視力値は、0.7(または0.
8〜1.5)です。」と視力値をアナウンスし、右眼の
視力検査を終了する。 g)視力値をメモリーする。 h)視力値が0.7未満の場合は、乱視表を提示する。 (10)右眼の乱視テスト:文字及び音声にて「乱視テ
ストを行います。乱視テストについて説明します。」と
説明する。 (11)装置使用方法ムービーの放映(音楽・音声付
き) a)濃い緑薄い線の説明 b)ジョイスティックの扱い方の説明 (12)文字及び音声にて「測定を始めます。ジョイス
ティックを握って、視力検査機を覗いてください。」と
促す。 (13)人工音声にて「どの線も一様に見えますか?一
様に見えるならば、ジョイスティックを前側に、どこか
濃い線があるならば、ジョイスティックを後側に倒して
ください。」とアナウンスする。 (14)前側(一様に見える)に倒されたら、視力値
0.5を提示する。 a)人工音声にて「視標の切れ目方向にジョイスティッ
クを倒してください。 」とアナウンスする。 b)利用者は、ランドルト環の切れ目方向にジョイステ
ィックを倒す。 c)提示視標とジョイスティックの倒れた方向が一致し
ているかどうかを判定する。 d)ランドルト環の切れ目方向とジョイスティックを倒
した方向が合っていれば、両眼同時に次のステップの視
標を提示する。 e)視力値決定をする。 f)視力値をメモリーする。 (15)ジョイスティックが後側(一様でない。濃い線
がある。)に倒されたら、(9)で測定した視力値をも
って利用者の視力値とし、音声で視力値をアナウンスす
る。この場合は、6.測定結果の表示に「乱視テストで
濃い線が残った。」とコメントを出す。 (16)左眼のR&Gテスト、視力値の測定、乱視テス
ト a)両眼にR&Gチャートを提示する。 b)左眼に−1.5Dを加え雲霧をとき、右眼に+1.
5Dを加え雲霧をかける。 c)以降は、(6)〜(15)に準ずる。 d)右眼に−1.5Dを加え、雲霧をとく。 e)両眼に風景チャートを提示する。2. Corrected visual acuity measurement: (1) S, C, and A obtained from the objective measurement result are set in both eyes. (2) Text and voice "Measure corrected eyesight. I will explain the measuring method. Please look at the monitor." (3) Broadcast the following device usage with a movie (with music and voice). a) Explanation of R & G test b) When R (red) target is clearly visible, G (green) target is clearly visible c) How to use joystick (4) "Start measurement with text and voice. Hold and look into the eye tester. " (5) R & G test of right eye a) Present R & G chart to both eyes. b) Add + 1.5D to the left eye and apply fog. c) As the R & G chart, use the RM-8300 R & G chart (green on the right and red on the left). (6) Perform auto alignment with both eyes simultaneously. (7) Ask the text and voice the question, "Do the red and green optotypes look the same or are the optotypes clear?" a) Pause for 2 seconds. (8) Instruct the voice, "If the red and green optotypes look the same, press the joystick button. If there is a difference in the appearance, tilt the joystick in the direction that you can clearly see." I do. a) The visual table presentation time can be selected from 4 to 15 seconds and is determined by experiment. b) When the button of the joystick is pressed, a visual acuity value of 0.5 is presented. c) When it is tilted to the right (green is clearly visible), + 0.25D is added to the sphericity, and the sound of (7) is announced again. d) If the camera is tilted to the left (red is clearly visible), add -0.25D to the sphericity, and announce the sound of (7) again. e) If there is no response, the voice of (7) is announced again. If there is no response even after repeating this twice, it is determined that they look the same, and a visual acuity value of 0.5 is presented. f) After being defeated to the right (green) and then to the left (red),
The sphericity is determined as follows. -Example 1: Right side (green) at S-4.00 → Add S + 0.25 to S-3.75. S-3.75 left side (red) → S value of user is -3.7
5D. Example 2: Right side (green) at S + 4.00 → S + 0.25 is added to make S + 4.25. S + 4.25 at left (red) → S value of user is S + 4.25.
25D. g) After being defeated to the left (red) and then to the right (green),
The sphericity is determined as follows. -Example 1: Add S-0.25 to the left (red) at S-4.00 to make S-4.25. S-4.25 right side (green) → S value of user is -4.0
0D. Example 2: Left side (red) at S + 4.00 → S−0.25 is added to obtain S + 3.75. Right side (green) at S + 3.75 → S value of user is S + 4.
00D. h) If the joystick is tilted to the same side six times in succession, return to the S value before entering the R & G test and present a visual acuity value of 0.5. In this case, 6. A comment "Large shift in right eye R & G test" is displayed on the measurement result display. (9) Measurement of the visual acuity value of the right eye: An instruction is given by text and voice that “Please tilt the joystick in the direction of the eye cut.” a) The presentation time of the target is 4 seconds per character. b) The user tilts the joystick in the direction of the cut of the Landolt ring. c) It is determined whether or not the presentation target and the direction in which the joystick has fallen match. d) If the direction of the cut of the Landolt ring matches the direction in which the joystick is tilted, both eyes present the optotype for the next step simultaneously. e) Determine visual acuity value. f) When a visual acuity value of 0.7 or more is obtained, an artificial voice indicates “the visual acuity value when the user wears glasses is 0.7 (or 0.
8 to 1.5). And announce the visual acuity value, and terminate the visual acuity test for the right eye. g) Store visual acuity values. h) If the visual acuity value is less than 0.7, present an astigmatism table. (10) Right-eye astigmatism test: A description is given using characters and voices as follows: “Astigmatism test is performed. (11) How to use the device Broadcasting a movie (with music and audio) a) Explanation of the dark green thin line b) Explanation of how to handle the joystick (12) Using text and audio, "Start measurement. Look into the eye tester. " (13) Artificial voice says, "Do all lines look uniform? If they look uniform, tilt the joystick to the front, and if there is some dark line, tilt the joystick to the rear." Announce. (14) If fall down to the front side (it looks uniform), present a visual acuity value of 0.5. a) The artificial voice announces, "Please tilt the joystick in the direction of the cut of the target." b) The user tilts the joystick in the direction of the cut of the Landolt ring. c) It is determined whether or not the presentation target and the direction in which the joystick has fallen match. d) If the direction of the cut of the Landolt ring matches the direction in which the joystick is tilted, both eyes present the optotype for the next step simultaneously. e) Determine visual acuity value. f) Store visual acuity values. (15) When the joystick is tilted to the rear side (not uniform, there is a dark line), the visual acuity value measured in (9) is used as the user's visual acuity value, and the visual acuity value is announced by voice. In this case, 6. Make a comment on the display of the measurement result saying "Dense line remained in the astigmatism test." (16) R & G test of left eye, measurement of visual acuity value, astigmatism test a) Present an R & G chart to both eyes. b) Add -1.5D to the left eye and apply fog.
Add 5D and fog. c) and subsequent steps are based on (6) to (15). d) Add -1.5D to the right eye to remove fog. e) Present a landscape chart to both eyes.
【0200】3.両眼バランステスト: (1)下記前提条件を満たしている場合: 両眼の球面度の差が、1.5D以上ある場合 両眼の乱視度の差が、1.5D以上ある場合 両眼の等価球面度の差が、1.5D以上ある場合 どちらかの球面度が5D以上ある場合 どちらかの乱視度が1.5D以上ある場合 右眼もしくは左眼のどちらかの視力値が0.7未満の
場合 a)文字及び音声にて、「視力検査は終了しました。眼
科医による精密検査の受診をおすすめします。」と説明
する。 b)利用者の測定データ(メガネ度数、コンタクトレン
ズ装用時の矯正視力、裸眼視力、他覚屈折測定値、右眼
と左眼の視力値の内測定したデータすべて)を表示す
る。表示は、6.測定結果の表示に従う。併せて、〜
に関するコメントを、例えば、「両眼の屈折度の差が
2.0Dあります」等のコメントを出す。 c)イニシアルセット (2)(1)の前提を満たしていない場合:両眼同時に
オートアライメントを行う。 (3)文字及び音声「両眼の視力検査を行います。」 (4)両眼バランステスト a)前記矯正視力測定で得られた左右眼の視力値を比較
する。 ※0.1以上の差がある場合: b)両眼に視力値の良い方で得られた視力値の視標を提
示する。(以下、右眼が左眼より視力値が良い場合につ
いて記述する。左眼が右眼より視力値が良い場合は、右
と左を読み分ける。) c)左眼にS+1.5Dを加え、雲霧をかける。 d)文字及び音声にて「視標の切れ目方向にジョイステ
ィックを倒してください。」と促す。 e)切れ目方向とジョイスティックの倒された方向が一
致したら、右眼に球面度+0.25Dを加え、d)に戻
る。 f)切れ目方向とジョイスティックの倒された方向が一
致しない場合は、両眼同時に視力値を1ステップ落と
し、右眼と左眼の視力値を比較する。さらに、右眼の視
力値が良ければ、d)に戻る。 g)f)で右眼と左眼の視力値が同じであれば、左眼に
S−1.5Dを加え、両眼バランステストを終了し、次
の両眼視力検査に入る。 ※両眼の視力値が同じ場合 h)次の両眼視力検査に入る。 (5)両眼視力検査 a)両眼に両眼バランステストで得られた視力値の1ス
テップ低い視力値の視標を提示する。 b)文字及び音声にて「視標の切れ目方向にジョイステ
ィックを倒してください。」と促す。 c)切れ目方向とジョイスティックの倒された方向があ
ったら、両眼同時に視力値を1ステップ上げる。 d)切れ目方向とジョイスティックの倒された方向が一
致していなかったら、その前の視力値をもって両眼視力
値とする。 e)文字及び音声にて「利用者さんのメガネ装用時の視
力値は0.7(または0.8〜1.5)です。」と説明
する。 f)両眼のS,C,A値及び視力値をメモリーする。 g)両眼に風景チャートを提示する。[0200] 3. Binocular balance test: (1) When the following prerequisites are satisfied: When the difference in sphericity of both eyes is 1.5D or more When the difference in astigmatism of both eyes is 1.5D or more When the difference in equivalent sphericity is 1.5D or more When either sphericity is 5D or more When either astigmatism is 1.5D or more The visual acuity value of either the right eye or the left eye is 0.7 In the case of less than a) In text and voice, explain that "The visual acuity test has been completed. It is recommended to have a close examination by an ophthalmologist." b) Display the user's measurement data (all the measured data of the eyeglass power, corrected vision when wearing a contact lens, naked eye vision, objective refraction measurement value, and visual acuity values of the right and left eyes). The display is 6. Follow the display of the measurement result. together,~
For example, a comment such as "the difference between the refractive indices of both eyes is 2.0D" is given. c) Initial setting (2) When the precondition of (1) is not satisfied: Auto alignment is performed simultaneously for both eyes. (3) Character and voice “Perform binocular visual acuity test.” (4) Binocular balance test a) Compare the visual acuity values of the left and right eyes obtained by the corrected visual acuity measurement. * If there is a difference of 0.1 or more: b) Present the optotype of the visual acuity value obtained with the better visual acuity value to both eyes. (Hereinafter, a case where the right eye has a better visual acuity value than the left eye will be described. If the left eye has a better visual acuity value than the right eye, the right and left are read separately.) C) S + 1.5D is added to the left eye, Spray cloud. d) Prompt by text and voice, "Please tilt the joystick in the direction of the cut line of the target." e) If the direction of the cut and the direction in which the joystick is tilted match, add the spherical power + 0.25D to the right eye and return to d). f) If the direction of the cut does not match the direction in which the joystick is tilted, the visual acuity value is decreased by one step for both eyes simultaneously, and the visual acuity values of the right eye and the left eye are compared. Further, if the visual acuity value of the right eye is good, the procedure returns to d). g) If the right eye and the left eye have the same visual acuity value in f), S-1.5D is added to the left eye, the binocular balance test is terminated, and the next binocular visual acuity test is started. * When the visual acuity values of both eyes are the same h) Start the next binocular visual acuity test. (5) Binocular visual acuity test a) A visual target with a visual acuity value one step lower than the visual acuity value obtained by the binocular balance test is presented to both eyes. b) Prompt "Please tilt the joystick in the direction of the cut line of the target." c) If there is a cut direction and a direction in which the joystick is tilted, raise the visual acuity value by one step simultaneously for both eyes. d) If the direction of the cut does not match the direction in which the joystick is tilted, the visual acuity value before that is used as the binocular visual acuity value. e) The text and the voice explain that "the user's eyesight value when wearing glasses is 0.7 (or 0.8 to 1.5)." f) Store the S, C, A values and visual acuity values of both eyes. g) Present a landscape chart to both eyes.
【0201】4.近用テスト: (1)前提 45才以上を対象とする。 近用距離は33cmとする。 PD距離に応じて、本体をあおって、33cに輻輳さ
せる。あおり角度は、次式から求められる。 θ=tan−1(PD/2/330) EX.PD:78mm 63mm 48mm θ :6.74° 5.45° 4.16° (2)近用度数の測定:モデル顔及び音声「近用テスト
を行います。近用テストについて説明します。」 (3)近用テスト方法についてのムービーの放映 a)近用テストチャートの説明 b)「同じようにはっきり見える。」「横線がはっきり
見え、縦線がぼけて見える。」のデモ c)ジョイスティック操作の説明 (4)輻輳角の設定 a)両眼の視標照明光源をOFFにする。 b)両眼にS−3.00Dを加えながら(視標を33c
m位置に移動させることに相当する)、本体を(1)
に記した式に従い、近用距離33cm位置に輻輳させ
る。 c)視標を近用テストチャートとする。 d)±0.5Dのクロスシリンダーを加えた状態に、
S,Cを変換する。 e)両眼の視標光源を点灯する。 (5)文字及び音声にて「近用テストを行います。ジョ
イスティックを握って、視力検査機を覗いてくださ
い。」と促す。 (6)両眼同時にオートアライメントを行う。 (7)文字及び音声にて、「縦線と横線は同じようには
っきりと見えますか?同じようにはっきり見えたらジョ
イスティックのボタンを押してください。横線がはっき
り見え、縦線がぼけて見えたらジョイスティックを後方
に、縦線がはっきり見え、横線がぼけて見えたらジョイ
スティックを前方に、倒してください。」と促す。 a)視標提示時間は、4〜15秒で選択できるように
し、実験で決定する。 b)ジョイスティックのボタンが押されたら(縦線、横
線とも同じように見える)、音声「お客様は、近用メガ
ネは必要としません。」とアナウンスして近用テストを
終了し、後記6.測定結果の表示とする。 c)ジョイスティックが後方に倒されたら(横線がはっ
きり見え、縦線がぼけて見える)、両眼同時に球面度
(S)+0.25Dを加える。 d)文字及び音声にて「縦線と横線は同じようにはっき
りと見えますか?同じようにはっきり見えたらジョイス
ティックのボタンを押してください。横線がはっきり見
え、縦線がぼけて見えたらジョイスティックを後方に、
縦線がはっきり見え、横線がぼけて見えたらジョイステ
ィックを前方に倒してください。」と促す。 e)ジョイスティックが後方に倒されたら(横線がはっ
きり見え、縦線がぼけて見える)、さらに、両眼に球面
度(S)+0.25Dを加える。 f)文字及び音声で「いかがですか?」と尋ねる。 g)ジョイスティックのボタンが押されるまで、もしく
はジョイスティックが前方に倒されるまでe)とf)を
繰返す。 h)ボタンが押されたら、もしくはジョイスティックが
前方に倒されたら、文字及び音声にて「お客様の近用加
入度は2.5D(縦線と横線が同じに見えるまで、もし
くは前方に倒されるまでに加えた球面度の和)です。」
とアナウンスし、近用テストを終了する。 i)近用加入度をメモリーする。4. Near test: (1) Prerequisites For subjects aged 45 and over. The near distance is 33 cm. According to the PD distance, the main body is lifted up and congested at 33c. The tilt angle is obtained from the following equation. θ = tan −1 (PD / 2/330) EX. PD: 78 mm 63 mm 48 mm θ: 6.74 ° 5.45 ° 4.16 ° (2) Measurement of near power: Model face and voice “Perform a near test. We will explain the near test.” 3) Broadcasting a movie on the near vision test method a) Explanation of the near vision test chart b) Demonstration of "Looks the same", "Horizontal lines are clearly visible and vertical lines are blurred" c) Joystick operation Description (4) Setting of convergence angle a) Turn off the optotype illumination light source of both eyes. b) While adding S-3.00D to both eyes (target 33c
m), the body is (1)
Is converged at a near distance of 33 cm according to the equation described in (1). c) The target is a near test chart. d) With the addition of a ± 0.5D cross cylinder,
S and C are converted. e) Turn on the target light sources of both eyes. (5) Prompt by text and voice: "Perform a near vision test. Hold the joystick and look into the eye tester." (6) Perform auto alignment with both eyes simultaneously. (7) In the text and voice, "Do you see the vertical and horizontal lines in the same way? Press the joystick button if they are the same. Press the joystick if the horizontal lines are clear and the vertical lines are blurred. If you can see the vertical line behind and the horizontal line is blurred, tilt the joystick forward and down. " a) The target presentation time can be selected from 4 to 15 seconds and is determined by experiment. b) When the button of the joystick is pressed (the vertical and horizontal lines look the same), an announcement "The customer does not need near glasses" is issued, and the near vision test is terminated. Display the measurement result. c) When the joystick is tilted backward (horizontal lines are clearly visible and vertical lines are blurred), add sphericity (S) + 0.25D for both eyes simultaneously. d) In the text and voice, "Do you see the vertical line and the horizontal line in the same way? Press the joystick button if it is the same. Press the joystick backward if the horizontal line is clearly visible and the vertical line is blurred. To
When the vertical line is clearly visible and the horizontal line is blurred, tilt the joystick forward. ". e) When the joystick is tilted backward (horizontal lines are clearly visible and vertical lines are blurred), a sphericity (S) + 0.25D is added to both eyes. f) Ask "How about?" g) Repeat steps e) and f) until the joystick button is pressed or the joystick is tilted forward. h) When the button is pressed or the joystick is tilted forward, the message and voice will indicate "Your near power addition is 2.5D (until the vertical and horizontal lines look the same or until they are tilted forward) Is the sum of the spherical degrees added to the
And announce the near test. i) Store the near add power.
【0202】5.近用視力テスト: (1)前提 近用テストを行った場合のみとする。 (2)両眼同時にオートアライメントを行う。 (3)両眼近用視力テスト a)文字及び音声にて「両眼の近用視力測定を行いま
す。」と説明する。 b)両眼にランドルト環視標0.5をセットする。 c)文字及び音声「視標の切れ目方向にジョイスティッ
クを倒してください。」 d)視標の提示時間は、一文字4秒とする。 e)利用者は、ランドルト環の切れ目方向にジョイステ
ィックを倒す。 f)提示視標とジョイスティックの倒れた方向が一致し
ているかどうかを判定する。 g)ランドルト環の切れ目方向とジョイスティックを倒
した方向が一致していれば、両眼同時に次のステップの
視標を提示する。 h)視力値決定をする。 i)文字及び音声で「利用者様の両眼近用視力値は、
0.5(0.1〜1.2のどれか)です。」とアナウン
スする。 j)視力値をメモリーする。 6.測定結果の表示 7.視力測定終了: (1)文字及び音声で「視力測定はすべて終了しまし
た。」と説明する。 (2)イニシアルセット a)PDは、63mmとする。視標は、両眼とも風景チ
ャートとする。 b)両眼とも、視標のS値は−0.2D位置(遠用検査
距離5m相当)、Cは0D、Aは180°とする。 c)輻輳角は、0.36°{tan−1(63/2/5
000)}とする。 d)本体をスリープ状態とする。5. Near vision test: (1) Premise Only when a near vision test is performed. (2) Perform auto alignment with both eyes simultaneously. (3) Binocular near vision test a) A description is given in characters and voices as "measure near vision for both eyes." b) Set the Landolt ring target 0.5 on both eyes. c) Characters and voices "Tilt the joystick in the direction of the break in the optotype." d) The presentation time of the optotype shall be 4 seconds per character. e) The user tilts the joystick in the direction of the cut of the Landolt ring. f) It is determined whether or not the presentation target and the direction in which the joystick has fallen match. g) If the direction of the cut of the Landolt ring matches the direction in which the joystick is tilted, the optotypes of the next step are presented simultaneously with both eyes. h) Determine the visual acuity value. i) In text and voice, "The user's binocular near vision value is
0.5 (one of 0.1 to 1.2). "Announcement. j) Store visual acuity values. 6. 6. Display of measurement results Completion of eyesight measurement: (1) The text and voice explain that "all eyesight measurements have been completed." (2) Initial set a) PD is 63 mm. The target is a landscape chart for both eyes. b) For both eyes, the S value of the optotype is -0.2D position (equivalent to a distance inspection distance of 5 m), C is 0D, and A is 180 °. c) The convergence angle is 0.36 ° {tan −1 (63/2/5)
000)}. d) Put the main unit in the sleep state.
【0203】前記した視力測定装置3203によって、
視力測定が行われている間、それぞれ対応する画面がタ
ッチパネルモニタ3207に表示される。測定中画面に
おいて、チェックボタン「次へ」を押すと、片目矯正視
力測定中画面(赤緑テスト版)(図示せず)が、タッチ
パネルモニタ3207に表示されるとともに、人工音声
発声手段3110により「はっきり見える方向に倒して
ください。同じならボタンを押してください。」なる音
声がスピーカ3213より流され、利用者に、赤色と緑
色の測定表示がなされる。そして、片目矯正視力測定
(赤緑テスト)が行われた後、データが表示される。[0203] With the above-mentioned visual acuity measuring device 3203,
While the visual acuity measurement is being performed, a corresponding screen is displayed on the touch panel monitor 3207. When the check button “next” is pressed on the screen during measurement, a screen during red-eye correction eyesight measurement (red-green test version) (not shown) is displayed on the touch panel monitor 3207 and the artificial voice utterance unit 3110 displays “ Please push down the button if it is the same as the direction you can see clearly. "The sound is played from the speaker 3213, and a red and green measurement display is made to the user. Then, after the one-eye corrected eyesight measurement (red-green test) is performed, the data is displayed.
【0204】チェックボタン「次へ」を押すと、片目矯
正視力測定中画面(視力入力版)(図示せず)がタッチ
パネルモニタ3207に表示されるとともに、人工音声
発声手段3110により「切れ目の方向に傾けてくださ
い。わからない場合はボタンを押してください。」なる
音声がスピーカ3213より流される。片目矯正視力測
定中画面(視力入力版)においては、ランドルト環が表
示され、ジョイスティックを、ランドルト環の開いてい
る方向(切れ目の方向)に倒すことにより、視力が測定
される。そして、片目矯正視力測定(視力入力)が行わ
れた後、データが表示される。When the check button “next” is pressed, a one-eye corrected eyesight measurement screen (eyesight input version) (not shown) is displayed on the touch panel monitor 3207, and the artificial voice uttering means 3110 displays “in the direction of the cut”. Please tilt it. If you don't know, press the button. " A Landolt ring is displayed on the one-eye corrected visual acuity measuring screen (sight input plate), and the visual acuity is measured by tilting the joystick in the direction in which the Landolt ring opens (the direction of the cut). Then, after one-eye correction eyesight measurement (eyesight input) is performed, data is displayed.
【0205】チェックボタン「次へ」が押されると、片
目矯正視力測定中画面(乱視確認版)(図示せず)が、
タッチパネルモニタ3207に表示されるとともに、人
工音声発声手段3110により「一様であればボタン
を。違うなら倒してください。」なる音声がスピーカ3
213より流される。片目矯正視力測定中画面(乱視確
認版)においては、放射線状の視標画像を表示し、その
視標画像を利用者が見て乱視を確認する。When the check button “next” is pressed, the one-eye corrected visual acuity measuring screen (astigmatism confirmation version) (not shown) is displayed.
In addition to being displayed on the touch panel monitor 3207, the artificial voice uttering means 3110 outputs a voice saying “If uniform, press the button.
213. On the one-eye corrected visual acuity measurement screen (astigmatism confirmation version), a radial target image is displayed, and the user checks the target image to check the astigmatism.
【0206】チェックボタン「次へ」を押すと、タッチ
パネルおよびPCモニタには、両眼矯正視力測定中画面
(図示せず)が表示され、同画面にランドルト環が表示
されるとともに、人工音声発声手段3110により「切
れ目の方向に傾けてください。わからない場合はボタン
を押してください。」なる音声がスピーカ3213より
流される。When the check button "next" is pressed, a screen (not shown) for measuring the binocular correction visual acuity is displayed on the touch panel and the PC monitor. By means 3110, a sound "Tilt in the direction of the cut. If you do not understand, press the button." Is output from the speaker 3213.
【0207】チェックボタン「次へ」が押されると、タ
ッチパネルモニタ3207に、視力測定結果表示画面
(図39及び図46図示)が表示され、視力の測定結果
が表示されるとともに、人工音声発声手段3110によ
り「お客様のお選びになった度数で、視力表を見ていた
だいております。」「視力の測定は終わりました。」な
る音声がスピーカ3213より流される(S110)。When the check button “next” is pressed, an eyesight measurement result display screen (shown in FIGS. 39 and 46) is displayed on the touch panel monitor 3207, the eyesight measurement result is displayed, and the artificial voice utterance means is displayed. 3110, the voice "The eyesight chart is being viewed at the frequency selected by the customer.""The eyesight measurement has been completed." Is output from the speaker 3213 (S110).
【0208】チェックボタン「次へ」が押されると、視
力測定終了画面がタッチポネルモニタ3207に表示さ
れ、メインシステムに戻ることになる(S111)。測
定結果は、プリンタ3212により印刷される。測定結
果を示す表は、図46に示すとおりである(S11
2)。利用者が、視力測定のみを希望している場合に
は、ここで、ブースを退出する。When the check button "next" is pressed, a visual acuity measurement end screen is displayed on the touchponel monitor 3207, and the process returns to the main system (S111). The measurement result is printed by the printer 3212. The table showing the measurement results is as shown in FIG. 46 (S11
2). If the user wants only the eyesight measurement, the user exits the booth here.
【0209】さらに、フレーム仮想体験を希望する利用
者は、サービス選択画面(図37及び図44図示)にお
いて、チェックボタン「フレーム仮想体験」を選択する
(S113)。利用者が「フレーム仮想体験」を選択す
れば、利用者端末3101の制御により、タッチパネル
モニタ3207に、仮想体験選択画面(図 39及び
図47図示)が表示されるとともに、人工音声発声手段
3110により「何をお探しですか?メガネ、サングラ
スの内から、希望されるものをお選びください。」なる
音声がスピーカ3213より流される。利用者は、希望
するフレーム仮想体験として、メガネあるいはサングラ
スのうち、どちらかをチェックボタンにより選択する
(S114)。Further, the user who desires the frame virtual experience selects the check button “frame virtual experience” on the service selection screen (FIG. 37 and FIG. 44) (S113). When the user selects “frame virtual experience”, a virtual experience selection screen (shown in FIGS. 39 and 47) is displayed on the touch panel monitor 3207 under the control of the user terminal 3101, and The sound "What are you looking for? Please select the desired one from glasses and sunglasses." The user selects either a pair of glasses or sunglasses with a check button as a desired frame virtual experience (S114).
【0210】次に、利用者端末3101の制御により、
タッチパネルモニタ3207に撮影開始画面(図39及
び図48図示)が表示されるとともに、人工音声発声手
段3110により「お客様の顔写真を撮らせていただき
ますので、撮影ボタンに手を置いて、正面を向いてくだ
さい。」なる音声がスピーカ3213より流される。撮
影は、利用者の顔の正面および左側をデジタルカメラ3
208によって撮影され、入力手段3206を介して、
利用者端末3101に送信された利用者の顔画像の画像
処理がなされ、記録される。そして、デジタルカメラ3
208で撮影された画像が、利用者端末3101によっ
て、タッチパネルモニタ3207に撮影確認画面(図3
9及び図49図示)として表示されるとともに、人工音
声発声手段3110により「この撮影でよろしいですか
?」なる音声がスピーカ3213より流される。利用者
は、撮影確認画面において表示される利用者の顔の正面
および左側の画面を見て、撮影された内容を確認し、そ
の内容でよければ、チェックボタン「決定する」を押
す。Next, under the control of the user terminal 3101,
The shooting start screen (shown in FIGS. 39 and 48) is displayed on the touch panel monitor 3207, and the artificial voice uttering means 3110 says, "I will take a photo of the customer's face. Please face me. "Is output from the speaker 3213. The digital camera 3 shoots the front and left sides of the user's face.
208, and via the input means 3206,
The image processing of the user's face image transmitted to the user terminal 3101 is performed and recorded. And digital camera 3
The image photographed by the user 208 is displayed on the touch panel monitor 3207 by the user terminal 3101 on a photographing confirmation screen (FIG. 3).
9 and FIG. 49), and the artificial voice uttering means 3110 outputs a sound “Is this OK for shooting?” From the speaker 3213. The user looks at the screens on the front and left sides of the user's face displayed on the photographing confirmation screen, confirms the photographed contents, and presses the check button “OK” if the contents are acceptable.
【0211】撮影確認画面において表示された内容が、
利用者の希望に沿っていないときは、チェックボタン
「再撮影」を押すと、再び、前記撮影開始画面(図48
図示)に戻る。そして、再び撮影を行い、撮影確認画面
(図49図示)が表示される。撮影確認画面において、
チェックボタン「決定する」が押されると、次に、利用
者端末3101は、性別確認画面(図40及び図50図
示)を、タッチパネルモニタ3207に表示するととも
に、人工音声発声手段3110により「あなたは、女性
ですか。男性ですか。」との質問の音声がスピーカ32
13より流される。この性別確認画面において、利用者
は、性を確認するために、チェックボタン「女性」また
は「男性」を押す。利用者端末3101は、性別確認画
面において押された女性あるいは男性の性別に対応し
て、制御手段3102により制御して、フレーム選択手
段3108によって、必要なフレームの画像を選択し、
画像処理手段3107によって、タッチパネルモニタ3
207に、サンプル表示画面(図40及び図51図示)
を表示するとともに、人工音声発声手段3110により
「どのタイプのフレームがいいですか」との質問の音声
をスピーカ3213より流す。The contents displayed on the shooting confirmation screen are
When the user does not meet the wishes, pressing the check button “re-shooting” causes the shooting start screen again (FIG. 48).
Return to illustration). Then, shooting is performed again, and a shooting confirmation screen (shown in FIG. 49) is displayed. On the shooting confirmation screen,
When the check button “OK” is pressed, next, the user terminal 3101 displays a gender confirmation screen (shown in FIGS. 40 and 50) on the touch panel monitor 3207, and the “you , A woman or a man? "
13 On this gender confirmation screen, the user presses a check button “female” or “male” to confirm gender. The user terminal 3101 is controlled by the control means 3102 in accordance with the gender of the female or male pressed on the gender confirmation screen, selects an image of a necessary frame by the frame selecting means 3108,
By the image processing means 3107, the touch panel monitor 3
At 207, a sample display screen (shown in FIGS. 40 and 51)
Is displayed, and the voice of the question "What type of frame is better" is played from the speaker 3213 by the artificial voice uttering means 3110.
【0212】次に、サンプル表示画面において、例え
ば、「女性・ツーボ・ナイロ」「女性・セル」「女性・
メタル」「ユニセックス・ツーボ・ナイロ」「ユニセッ
クス・セル」「ユニセックス・メタル」の6つの画面が
表示され、その中から利用者に希望するサンプルの選択
をするように促す。利用者は、サンプル表示画面のフレ
ームのサンプル表示を見て、希望するサンプルを選択し
て、希望するサンプル表示を押す。Next, on the sample display screen, for example, “female / two-bo Niro”, “female / cell”, “female / cell”
Metal, Unisex Tubo Niro, Unisex Cell, and Unisex Metal screens are displayed, prompting the user to select the desired sample. The user looks at the sample display in the frame of the sample display screen, selects a desired sample, and presses the desired sample display.
【0213】利用者端末3101は、図34に示すメガ
ネ処理センタ4002の電子ショップ情報処理手段41
11および表示情報生成手段4112より取得したデー
タに基づき、サンプル表示画面において選択されたメガ
ネフレームに対応した価格帯選択画面(図40及び図5
2図示)を、タッチパネルモニタ3207に表示すると
ともに、人工音声発声手段3110により「どんなフレ
ームがいいですか?」という価格帯選択を促す質問音声
をスピーカ3213より流す。The user terminal 3101 is connected to the electronic shop information processing means 41 of the glasses processing center 4002 shown in FIG.
11 and a price range selection screen corresponding to the glasses frame selected on the sample display screen based on the data acquired from the display information generation unit 4112 (FIGS. 40 and 5).
2 is displayed on the touch panel monitor 3207, and the artificial voice uttering means 3110 outputs a question voice prompting the user to select a price range such as "What kind of frame is better?"
【0214】価格帯選択画面(図52図示)において、
利用者が希望する価格帯が選択されると、次に、利用者
端末3101の制御により、その利用者が選択した価格
帯に対応する候補フレームを利用者に示すべく、図33
図示カウンターブース3001のフレーム選択手段31
08および画像処理手段3107ならびに図34図示メ
ガネ処理センタ4002の電子ショップ情報処理手段4
111および表示情報生成手段4112より取得したデ
ータに基づき、候補フレーム選択画面(図40及び図5
3図示)がタッチパネルモニタ3207に表示されると
ともに、人工音声発声手段3110により「どのフレー
ムを候補にしますか」との候補フレームの選択を促す音
声がスピーカ3213より流される。この候補フレーム
選択画面においては、フレームを10個まで選択するこ
とができるが、表示されたタイプのフレームでは、利用
者の希望に合わないときは、利用者がチェックボタン
「別のタイプを選択する」を押すか、チェックボタン
「別の価格帯・ブランドを選択する」を押せば、利用者
端末3101は、別の候補を表示するように制御する。
フレームのフィッティングについては、デジタルカメラ
3208による顔の画像の撮影および視力測定装置32
03により得られた眼の瞳孔間距離によって得られた寸
法値ならびにフレームに関する各サイズのデータに基づ
き、フレーム選択手段3108により適するフレームが
選択される。In the price range selection screen (shown in FIG. 52),
When the price range desired by the user is selected, next, under the control of the user terminal 3101, a candidate frame corresponding to the price range selected by the user is shown to the user in FIG.
Frame selection means 31 of counter booth 3001 shown
08 and the image processing means 3107 and the electronic shop information processing means 4 of the glasses processing center 4002 shown in FIG.
A candidate frame selection screen (see FIGS. 40 and 5)
3) is displayed on the touch panel monitor 3207, and a voice prompting selection of a candidate frame “which frame is a candidate” is played from the speaker 3213 by the artificial voice uttering means 3110. On this candidate frame selection screen, up to ten frames can be selected. However, if the displayed type of frame does not meet the user's desire, the user selects the check button “select another type”. Is pressed or the check button "select another price range / brand" is pressed, the user terminal 3101 controls to display another candidate.
For the fitting of the frame, the photographing of the face image by the digital camera 3208 and the visual acuity measuring device 32
A suitable frame is selected by the frame selecting means 3108 based on the dimension value obtained by the interpupillary distance of the eye obtained in step 03 and the data of each size relating to the frame.
【0215】この候補フレーム選択画面において、候補
フレームを選択し、チェックボタン「これで候補を決定
する」を押すと、利用者端末3101は、さらに、候補
フレーム選択画面において選択された候補フレームの中
から、それぞれのフレームを比較して選択することがで
きるように、比較フレーム選択画面(図40及び図54
図示)を、タッチパネルモニタ3207に表示する。比
較フレーム選択画面において、利用者に、比較を希望す
るフレームの選択を促し、利用者が比較を希望するフレ
ームを4本選択すると、利用者端末3101は、タッチ
パネルモニタ3207に、フレーム比較画面(図41及
び図55図示)を表示するとともに、同画面内に、選択
された4つのフレームをそれぞれ顔画像にかけた状態の
画像を表示する。さらに、人工音声発声手段3110に
より、4フレームの中より1つのフレームの選択を促す
「どのフレームが気に入りましたか?」との音声をスピ
ーカ3213より流す。4本の比較するフレームの中か
ら、利用者が希望するフレームを1本選択すると、利用
者端末3101は、タッチパネルモニタ3207に、フ
レーム確定画面(図41及び図56図示)を表示すると
ともに、人工音声発声手段3110により「このフレー
ムでよろしいですか?」なる確認の音声をスピーカ32
13より流す。さらに、利用者端末3101は、フレー
ム確定画面において、レンズの選択をするか否かを問い
かける「レンズを選びますか?」なる表示をするととも
に、人工音声発声手段3110により「レンズを選びま
すか?」なる問いの音声をスピーカ3213より流す。
あわせて、レンズの度数の必要性をといかける「レンズ
(度)はいらないですか?」なる表示をするとともに、
人工音声発声手段3110により「レンズ(度)はいら
ないですか?」なる問いの音声をスピーカ3213より
流す。ここで、利用者端末3101は、仮想体験結果を
プリントアウトする指示を出し、フレーム仮想体験をし
た利用者に対し、仮想体験結果の印刷物を受け取ること
ができるように指示をする。仮想体験結果を受け取った
利用者は、フレーム仮想体験のみを希望する場合には、
ここでブースより退出すればよい。When a candidate frame is selected on this candidate frame selection screen and the check button “determine a candidate with this” is pressed, the user terminal 3101 further displays the candidate frame selected on the candidate frame selection screen. From the comparison frame selection screen (FIGS. 40 and 54) so that each frame can be compared and selected.
Is displayed on the touch panel monitor 3207. On the comparison frame selection screen, the user is prompted to select a frame desired to be compared, and when the user selects four frames desired to be compared, the user terminal 3101 displays a frame comparison screen (FIG. 41 and FIG. 55) are displayed, and an image of the selected four frames applied to the face image is displayed on the screen. In addition, the artificial voice uttering means 3110 outputs a voice “What frame do you like?” From the speaker 3213 prompting selection of one of the four frames. When the user selects one desired frame from the four frames to be compared, the user terminal 3101 displays a frame determination screen (shown in FIG. 41 and FIG. The voice uttering means 3110 outputs a confirmation voice “Do you want to use this frame?” To the speaker 32.
Flow from 13. Further, the user terminal 3101 displays “Would you like to select a lens?” On the frame confirmation screen asking whether or not to select a lens. The sound of the question "" is played from the speaker 3213.
At the same time, the message "Do you need a lens (degree)?"
An artificial voice uttering unit 3110 outputs a voice asking “Do you need a lens (degree)?” From the speaker 3213. Here, the user terminal 3101 issues an instruction to print out the virtual experience result, and instructs the user who has performed the frame virtual experience to receive the printed material of the virtual experience result. If the user who receives the virtual experience result wants only the frame virtual experience,
Here you can leave the booth.
【0216】次に、レンズ選びの手順について説明す
る。利用者端末3101は、利用者に希望するレンズの
選択を促すために、まず、図34図示メガネ処理センタ
4002のレンズ選択手段4110および表示情報生成
手段4112によって、視力測定装置3203によって
導き出された視力データに基づく、必要なレンズの情報
を取得する。メガネ処理センタ4002において登録し
管理されている図12図示レンズ選択基準データベース
および図13図示レンズデータベースより必要なデータ
を抽出し、カウンターブース3001のタッチパネルモ
ニタ3207に、レンズの薄さ選択画面(図41及び図
57図示)を表示するとともに、人工音声発声手段31
10により「どんなレンズにしますか?3種類のレンズ
よりお選びください。」「まず、1のレンズは・・・。
2のレンズは・・・。3のレンズは・・・です。レンズ
の厚みを比較してください。」なる、利用者にレンズの
選択を促す音声をスピーカ3213より流す。レンズ
は、標準レンズ、中級レンズ、最上級レンズによってそ
の薄さが異なるため、レンズの画像と厚さの数値を表示
して、各レンズを明確にして利用者にいずれかのレンズ
を選択させるための画面を表示する。利用者がレンズの
薄さを選択すると、次に利用者端末3101は、利用者
にレンズの色を選択させるために、タッチパネルモニタ
3207にレンズの色を示す、レンズの色選択画面(図
41及び図58図示)を表示するとともに、人工音声発
声手段3110により「色はどんな色にしますか?」な
るレンズの色の選択を促す音声をスピーカ3213より
流す。なお、図12および図13において図示されたデ
ータベースにおいて管理されているデータを、利用者端
末3101において登録し管理するようにしてもよく、
そのときは、利用者端末3101にレンズ選択手段、表
示情報生成手段および電子ショップ情報処理手段を備え
るようにする。Next, the procedure for selecting a lens will be described. In order to prompt the user to select a desired lens, the user terminal 3101 firstly obtains the visual acuity derived by the visual acuity measuring device 3203 by the lens selecting means 4110 and the display information generating means 4112 of the glasses processing center 4002 shown in FIG. Obtain necessary lens information based on the data. Necessary data is extracted from the lens selection reference database shown in FIG. 12 and the lens database shown in FIG. 13 registered and managed in the glasses processing center 4002, and is displayed on the touch panel monitor 3207 of the counter booth 3001 on the thinness selection screen of the lens (FIG. 41). 57 shown in FIG. 57) and the artificial voice uttering means 31
According to 10, "What kind of lens do you want? Please choose from three types of lenses."
The second lens is ... The third lens is ... Compare lens thickness. ", A voice prompting the user to select a lens is played from the speaker 3213. Since the thickness of the lens varies depending on the standard lens, intermediate lens, and high-end lens, the image of the lens and the numerical value of the thickness are displayed, each lens is clarified, and the user can select one of the lenses Display the screen of. When the user selects the thickness of the lens, the user terminal 3101 then displays a lens color selection screen (FIG. 41 and FIG. 41) indicating the lens color on the touch panel monitor 3207 to allow the user to select the lens color. 58 is displayed, and a voice prompting the user to select the color of the lens “What color is it?” Is played from the speaker 3213 by the artificial voice uttering means 3110. The data managed in the database illustrated in FIGS. 12 and 13 may be registered and managed in the user terminal 3101.
In this case, the user terminal 3101 is provided with a lens selecting unit, a display information generating unit, and an electronic shop information processing unit.
【0217】次に、利用者端末3101は、利用者に商
品の確認をさせるため、利用者が選択したフレーム、レ
ンズ(薄さおよび色)のデータに対応して、利用者の希
望に沿ったフレームおよびレンズの画像を合成し、利用
者の顔にかけた状態の画像を表示し、さらに、利用者の
顔に髪型と眉型を合成し表示する。このように、利用者
端末3101は、商品確認・各種合成画面(図41及び
図59図示)に、購入予定商品を利用者の顔にかけた状
態で表示するとともに、人工音声発声手段3110によ
り「このメガネでよろしいですか?」なる商品の確認の
ための音声をスピーカ3213より流す。利用者は、商
品確認・各種合成画面において、購入するメガネの確認
を終えて、表示された内容で購入すると判断すれば、チ
ェックボタン「購入手続に進む」を押す(S115)。
利用者が購入手続に進まず、これまでの段階で終了する
ことを希望すれば、チェックボタン「終了する」を押せ
ば、結果がプリンタ3212で印刷され(S116)、
前記したフレーム仮想体験のみをもって終了することに
なる。Next, the user terminal 3101 corresponds to the data of the frame and the lens (thinness and color) selected by the user in order to allow the user to confirm the product, and in accordance with the user's request. The image of the frame and the lens is combined, an image of the user's face is displayed, and a hairstyle and an eyebrow are combined and displayed on the user's face. As described above, the user terminal 3101 displays the product to be purchased on the user's face on the product confirmation / various combination screen (shown in FIGS. 41 and 59), and outputs the “ Are you sure you want to wear glasses? ”Is output from the speaker 3213 to confirm the product. The user, after confirming the glasses to be purchased on the product confirmation / combination screen, determines that the purchase is to be made based on the displayed content, and presses the check button “proceed to purchase procedure” (S115).
If the user does not proceed with the purchase procedure and desires to end the process at the previous stage, the user presses the check button “end”, and the result is printed by the printer 3212 (S116).
The process ends only with the frame virtual experience described above.
【0218】次に、購入手続を希望する利用者に対し、
利用者端末3101は、タッチパネルモニタ3207
に、メガネ処理センタ4002のメガネオーダ販売処理
手段4113より送られるデータに基づき、購入手続画
面(図60図示)を表示するとともに、人工音声発声手
段3110により「代金の支払い方法をお選びくださ
い。」なる代金の支払いの選択を促す音声をスピーカ3
213より流す。支払い方法は、クレジットカードによ
る支払いと、ブースが設置されている店頭における授受
とに分かれており、利用者端末3101は、支払い方法
および商品の授受方法を選択させるための支払い・商品
の授受画面を、タッチパネルモニタ3207に送信し、
利用者にその選択を促す。Next, for a user who wishes to make a purchase,
The user terminal 3101 is a touch panel monitor 3207
At the same time, based on the data sent from the glasses order sales processing means 4113 of the glasses processing center 4002, the purchase procedure screen (shown in FIG. 60) is displayed, and the artificial voice utterance means 3110 displays "Please select the payment method." Speaker 3 prompts the user to select payment
Flow from 213. The payment method is divided into payment by a credit card and transfer at a store where a booth is installed. The user terminal 3101 displays a payment / product transfer screen for selecting a payment method and a product transfer method. , Transmitted to the touch panel monitor 3207,
Encourage the user to make that choice.
【0219】さらに、利用者端末3101は、商品の受
け取り場所の選択を促す商品受け取場所指定画面(図示
せず)を、タッチパネルモニタ3207に表示するとと
もに、人工音声発声手段3110により「商品受取場所
をご指定ください。なお、「CALL」ボタンを押しま
すと、オペレータが音声入力します。」なる商品受取場
所の指定を促す音声をスピーカより流し、「自宅」、
「勤務先」、「ブースが設置されている店頭」のいずれ
かを選択させる。[0219] Further, the user terminal 3101 displays, on the touch panel monitor 3207, a product receiving location designation screen (not shown) for prompting the user to select a receiving location of the product, and uses the artificial voice utterance means 3110 to display the message " Please press "CALL" button and the operator will input voice. "From the speaker, prompting you to specify the product receiving location
Have the user select either "Work" or "Store where the booth is installed".
【0220】以上の指示がなされると、利用者端末31
01は、購入手続内容を確認させるために、購入手続確
認画面(図61図示)をタッチパネルモニタ3207に
表示するとともに、人工音声発声手段3110により
「購入手続内容を確認してください。」なる確認を促す
音声をスピーカ3213より流す。利用者は、購入手続
確認画面において購入手続をした内容を確認すると、チ
ェックボタン「確認」を押すことにより、利用者端末3
101は、次にレシートプリントアウトの指示をプリン
タ3212に出す。さらに、人工音声発声手段3110
により「商品預り証とレシートを発行いたします。しば
らくお待ちください。店頭支払いの方は、店頭で商品代
金をお支払いください。なお、商品は、代金支払い確認
後、発送いたします。」なる音声をスピーカ3213よ
り流す(S116)。プリントした一例を示せば、店頭
支払いの場合の印刷した受注管理表の1頁目(図62図
示)、店頭支払いの場合の印刷した受注管理表の2頁目
(図63図示)、店頭支払いの場合の印刷した受注管理
表の3頁目(図64図示)および代引の場合の印刷した
受注管理表(図65図示)のとおりである。When the above instruction is made, the user terminal 31
01 displays a purchase procedure confirmation screen (shown in FIG. 61) on the touch panel monitor 3207 in order to confirm the content of the purchase procedure, and confirms "Please confirm the content of the purchase procedure" by the artificial voice utterance means 3110. A prompting voice is played from the speaker 3213. When the user confirms the content of the purchase procedure on the purchase procedure confirmation screen, the user presses the check button “confirm” to check the user terminal 3.
101 then issues a receipt printout instruction to the printer 3212. Further, artificial voice utterance means 3110
"I will issue a receipt for receipt of goods and a receipt. Please wait for a while. If you pay at the store, please pay for the goods at the store. In addition, the goods will be shipped after the payment is confirmed." It flows from 3213 (S116). As an example of the printed form, the first page of the printed order management table (shown in FIG. 62) in the case of store payment, the second page of the printed order management table in the case of store payment (shown in FIG. 63), and This is as shown in the third page of the printed order management table (shown in FIG. 64) in the case and the printed order management table (shown in FIG. 65) in the case of cash on delivery.
【0221】利用者端末3101は、利用者が退出する
とともに、メガネ処理センタ4002との交信を切断
し、視力測定装置3203、度数測定装置3202のほ
か、デジタルカメラ3208、プリンタ3212、タッ
チパネルモニタ3207等の機材をスクリーンセーバ状
態に戻す。The user terminal 3101 disconnects communication with the eyeglass processing center 4002 when the user leaves, and in addition to the eyesight measuring device 3203 and the frequency measuring device 3202, a digital camera 3208, a printer 3212, a touch panel monitor 3207, and the like. To the screen saver state.
【0222】前記実施の形態では、カウンターブース3
001とメガネ処理センタ4002とwebコールセン
タ5001とに分けて分散処理をするように構成した
が、メガネ処理センタ4002およびwebコールセン
タにおけるシステムをカウンターブース3001に備え
るようにしてもよい。例えば、メガネ処理センタ400
2のレンズ選択手段4110、電子ショップ情報処理手
段4111、表示情報生成手段4112、メガネオーダ
販売処理手段4113および決済処理手段4114を、
カウンターブース3001の利用者端末3101にて処
理するように構成してもよく、また、webコールセン
タ5001をなくしてもよい。In the above embodiment, the counter booth 3
001, the glasses processing center 4002, and the web call center 5001 are configured to perform distributed processing. However, a system in the glasses processing center 4002 and the web call center may be provided in the counter booth 3001. For example, the glasses processing center 400
The second lens selection unit 4110, the electronic shop information processing unit 4111, the display information generation unit 4112, the glasses order sales processing unit 4113, and the payment processing unit 4114
The processing may be performed at the user terminal 3101 of the counter booth 3001 and the web call center 5001 may be eliminated.
【0223】[0223]
【発明の効果】この発明によれば、無人のカウンターブ
ースを活用して、顧客それぞれの視力や要望に合わせた
度付きのメガネを遠隔的にオーダー販売することができ
る。According to the present invention, an unmanned counter booth can be used to remotely order and sell glasses with a degree according to the eyesight and demands of each customer.
【図1】この発明の一実施の形態における無人型カウン
ターブースによるメガネの情報発信装置の図解図であ
る。FIG. 1 is an illustrative view of an information transmission device for glasses using an unmanned counter booth according to an embodiment of the present invention;
【図2】無人型カウンターブースによるメガネの情報発
信装置内部の構造を示す図解図である。FIG. 2 is an illustrative view showing a structure inside an information transmitting device of glasses by an unmanned counter booth;
【図3】視力測定装置の構造を示す図解図である。FIG. 3 is an illustrative view showing a structure of a visual acuity measuring device;
【図4】この発明の一実施の形態におけるネットワーク
によるメガネオーダー販売システムのシステム構成例を
示す図である。FIG. 4 is a diagram showing an example of a system configuration of a glasses order sales system via a network according to an embodiment of the present invention;
【図5】ネットワークによるメガネオーダー販売システ
ムの処理の流れの概要(その1)を示す図である。FIG. 5 is a diagram showing an outline (part 1) of a processing flow of the glasses order sales system via the network.
【図6】ネットワークによるメガネオーダー販売システ
ムの処理の流れの概要(その2)を示す図である。FIG. 6 is a diagram showing an outline (part 2) of a processing flow of the glasses order sales system via the network.
【図7】既に顧客であった場合のネットワークによるメ
ガネオーダー販売システムの処理の流れの概要(ステッ
プ2)を示す図である。FIG. 7 is a diagram showing an outline (step 2) of the flow of processing of the glasses order sales system via the network when the customer is already a customer.
【図8】顧客でなかったが処方箋があった場合のネット
ワークによるメガネオーダー販売システムの処理の流れ
の概要(ステップ3)を示す図である。FIG. 8 is a diagram showing an outline (step 3) of the flow of processing of the glasses order sales system via the network when the customer is not a customer but has a prescription.
【図9】顧客でなく処方箋もなかった場合のネットワー
クによるメガネオーダー販売システムの処理の流れの概
要(ステップ4)を示す図である。FIG. 9 is a diagram showing an outline (step 4) of a processing flow of the glasses order sales system by the network when there is no customer and no prescription.
【図10】顧客でなく処方箋もなかった場合のネットワ
ークによるメガネオーダー販売システムの処理の流れの
概要(ステップ4´)を示す図である。FIG. 10 is a diagram showing an overview (step 4 ′) of a processing flow of the glasses order sales system by a network when there is no customer and no prescription.
【図11】既成老眼鏡を選択した場合のネットワークに
よるメガネオーダー販売システムの処理の流れの概要
(ステップ5)を示す図である。FIG. 11 is a diagram showing an outline (step 5) of the flow of processing of the glasses order sales system via the network when the existing reading glasses are selected.
【図12】レンズ選択基準データベースである。FIG. 12 is a lens selection reference database.
【図13】レンズデータベースである。FIG. 13 is a lens database.
【図14】遠隔視力測定システムのシステム構成例を示
す図である。FIG. 14 is a diagram illustrating a system configuration example of a remote visual acuity measurement system.
【図15】メガネ処理センタにおいて記憶手段が管理す
る利用者情報に関するデータベース構造の例を示す図で
ある。FIG. 15 is a diagram illustrating an example of a database structure related to user information managed by a storage unit in the glasses processing center.
【図16】メガネ処理センタにおいて記憶手段が管理す
る視力を測定するための基準情報に関するデータベース
の構造の例を示す図である。FIG. 16 is a diagram illustrating an example of the structure of a database relating to reference information for measuring eyesight managed by a storage unit in the glasses processing center.
【図17】メガネ処理センタにおいて記憶手段が管理す
る視力測定情報に関するデータベース構造の例を示す図
である。FIG. 17 is a diagram illustrating an example of a database structure related to eyesight measurement information managed by a storage unit in the glasses processing center.
【図18】メガネ処理センタにおいて記憶手段が管理す
る視力表に関するデータベース構造の例を示す図であ
る。FIG. 18 is a diagram illustrating an example of a database structure related to an eyesight table managed by a storage unit in the glasses processing center.
【図19】メガネ処理センタにおいて記憶手段が管理す
る、近視情報に関するデータベース構造の例を示す図で
ある。FIG. 19 is a diagram illustrating an example of a database structure related to myopia information managed by a storage unit in the glasses processing center.
【図20】メガネ処理センタにおいて記憶手段が管理す
る、遠視情報に関するデータベース構造の例を示す図で
ある。FIG. 20 is a diagram illustrating an example of a database structure related to hyperopia information managed by a storage unit in the glasses processing center.
【図21】メガネ処理センタにおいて記憶手段が管理す
る、乱視情報に関するデータベース構造の例を示す図で
ある。FIG. 21 is a diagram illustrating an example of a database structure related to astigmatism information managed by a storage unit in the glasses processing center.
【図22】利用者向け、裸眼視力測定画面である。FIG. 22 is a naked eye visual acuity measurement screen for a user.
【図23】利用者向け視力表を表示する画面である。FIG. 23 is a screen displaying a visual acuity table for a user.
【図24】視力測定結果を表す図である。FIG. 24 is a diagram illustrating a result of eyesight measurement.
【図25】メガネ装用仮想体験システムの構成例を示す
図である。FIG. 25 is a diagram illustrating a configuration example of a glasses-equipped virtual experience system.
【図26】メガネ処理センタにおいて記憶手段が管理す
る利用者情報に関するデータベース構造の例を示す図で
ある。FIG. 26 is a diagram illustrating an example of a database structure related to user information managed by a storage unit in the glasses processing center.
【図27】メガネ処理センタにおいて、フレーム選択情
報入力手段より入力されるデータの例を示す図である。FIG. 27 is a diagram illustrating an example of data input from a frame selection information input unit in the glasses processing center.
【図28】メガネ処理センタにおいて記憶手段が管理す
る各フレームのフレーム機能構造に関するデータベース
構造の例を示す図である。FIG. 28 is a diagram illustrating an example of a database structure related to a frame functional structure of each frame managed by the storage unit in the glasses processing center.
【図29】メガネ処理センタにおいて記憶手段が管理す
る各フレームのフレーム装飾構造に関するデータベース
構造の例を示す図である。FIG. 29 is a diagram illustrating an example of a database structure related to a frame decoration structure of each frame managed by the storage unit in the glasses processing center.
【図30】顔画像の側面における測定方法を示す図解図
である。FIG. 30 is an illustrative view showing a measuring method on a side surface of the face image;
【図31】顔画像の正面における測定方法を示す図解図
である。FIG. 31 is an illustrative view showing a measuring method in front of a face image;
【図32】フレームの調整方法を示す図解図である。FIG. 32 is an illustrative view showing a method of adjusting a frame;
【図33】この発明の一実施の形態における無人型カウ
ンターブースにおけるメガネの情報発信システムの構成
を示す図解図である。FIG. 33 is an illustrative view showing a configuration of a glasses information transmitting system in an unmanned counter booth according to an embodiment of the present invention;
【図34】メガネの情報発信システムの構成を示す図解
図である。FIG. 34 is an illustrative view showing a configuration of an information transmission system of glasses.
【図35】無人型カウンターブースの内部の構造を示す
図解図である。FIG. 35 is an illustrative view showing an internal structure of an unmanned counter booth;
【図36】メガネ・レンズ情報発信システムの処理の流
れの概要を示すフローチャートである。FIG. 36 is a flowchart illustrating an outline of a processing flow of the glasses / lens information transmission system.
【図37】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その1)である。FIG. 37 is an image flow diagram (part 1) of processing of the glasses / lens information transmission system;
【図38】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その2)である。FIG. 38 is an image flow diagram (part 2) of the processing of the glasses / lens information transmitting system;
【図39】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その3)である。FIG. 39 is an image flowchart (part 3) of a process of the glasses / lens information transmission system;
【図40】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その4)である。FIG. 40 is an image flow diagram (part 4) of the processing of the glasses / lens information transmission system;
【図41】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その5)である。FIG. 41 is an image flow diagram (part 5) of a process of the glasses / lens information transmission system;
【図42】メガネ・レンズ情報発信システムの処理のイ
メージフロー図(その6)である。FIG. 42 is an image flowchart (part 6) of a process of the glasses / lens information transmission system;
【図43】スタート画面を示す図解図である。FIG. 43 is an illustrative view showing a start screen;
【図44】サービス選択画面を示す図解図である。FIG. 44 is an illustrative view showing a service selection screen;
【図45】問診画面を示す図解図である。FIG. 45 is an illustrative view showing a questionnaire screen;
【図46】視力測定結果画面を示す図解図である。FIG. 46 is an illustrative view showing a visual acuity measurement result screen;
【図47】仮想体験選択画面を示す図解図である。FIG. 47 is an illustrative view showing a virtual experience selection screen;
【図48】撮影開始画面を示す図解図である。FIG. 48 is an illustrative view showing a shooting start screen;
【図49】撮影確認画面を示す図解図である。FIG. 49 is an illustrative view showing a shooting confirmation screen;
【図50】性別確認画面を示す図解図である。FIG. 50 is an illustrative view showing a gender confirmation screen.
【図51】サンプル表示画面を示す図解図である。FIG. 51 is an illustrative view showing a sample display screen;
【図52】価格帯選択画面を示す図解図である。FIG. 52 is an illustrative view showing a price range selection screen;
【図53】候補フレーム選択画面を示す図解図である。FIG. 53 is an illustrative view showing a candidate frame selection screen;
【図54】比較フレーム選択画面を示す図解図である。FIG. 54 is an illustrative view showing a comparison frame selection screen;
【図55】フレーム比較画面を示す図解図である。FIG. 55 is an illustrative view showing a frame comparison screen;
【図56】フレーム確定画面を示す図解図である。FIG. 56 is an illustrative view showing a frame determination screen;
【図57】レンズ薄さ選択画面を示す図解図である。FIG. 57 is an illustrative view showing a lens thickness selection screen;
【図58】レンズの色選択画面を示す図解図である。FIG. 58 is an illustrative view showing a lens color selection screen;
【図59】商品確認・各種合成画面を示す図解図であ
る。FIG. 59 is an illustrative view showing a product confirmation / combination screen;
【図60】購入手続画面を示す図解図である。FIG. 60 is an illustrative view showing a purchase procedure screen;
【図61】購入手続確認画面を示す図解図である。FIG. 61 is an illustrative view showing a purchase procedure confirmation screen;
【図62】店頭支払いの場合の、印刷した受注管理表
(1頁目)の一例である。FIG. 62 is an example of a printed order management table (first page) in the case of in-store payment.
【図63】店頭支払いの場合の、印刷した受注管理表
(2頁目)の一例である。FIG. 63 is an example of a printed order management table (second page) in the case of in-store payment.
【図64】店頭支払いの場合の、印刷した受注管理表
(3頁目)の一例である。FIG. 64 is an example of a printed order management table (3rd page) in the case of in-store payment.
【図65】代引の場合の、印刷した受注管理表の一例で
ある。FIG. 65 is an example of a printed order management table in the case of cash on delivery.
1 カウンターブース 101 利用者端末 102 度数測定装置 103 視力測定装置 103a 顔当て 103b ジョイスティック 103c 応答スイッチ 104 通信手段 105 出力手段 106 入力手段 107 タッチパネル 108 デジタルカメラ 109 PCモニタ 110 センサ 111 料金投入口 112 プリンタ 2、1002、2002 メガネ処理センタ 21 電子ショップ情報処理手段 22 表示情報生成手段 221 パラメータ解析手段 222 ファイル検索手段 223 表示データ生成手段 23 メガネオーダー販売処理手段 24 決済処理手段 25 WWWサーバ/CGI 26 レンズ選択手段 27 フレーム選択手段 28 視力決定手段 3 外部決済処理手段 1003 利用者情報登録手段 1004 視力測定情報入力手段 1005 記憶手段 1006 画像処理手段 1007 音声処理手段 1008 視力データ作成手段 1009 制御手段 1010 WWWサーバ 2003 利用者情報登録手段 2004 フレーム選択情報入力手段 2005 記憶手段 2006 入力手段 2007 画像処理手段 2008 フレーム選択手段 2009 出力手段 2010 制御手段 2060 フレーム情報登録手段 2061 フレーム画像登録手段 3001 カウンターブース 3101 利用者端末 3102 制御手段 3103 利用者情報登録手段 3104 フレーム選択情報入力手段 3105 記憶手段 3107 画像処理手段 3108 フレーム選択手段 3160 フレーム情報登録手段 3161 フレーム画像登録手段 3110 人工音声発声手段 3202 度数測定装置 3203 視力測定装置 3203a 顔当て 3203b ジョイスティック 3203c 応答スイッチ 3204 通信手段 3205 出力手段 3206 入力手段 3207 タッチパネルモニタ 3208 デジタルカメラ 3209 マイクロフォン 3210 センサ 3211 コイン処理装置 3211a コイン投入口 3221b コイン返却口 3212 プリンタ 3213 スピーカ 4002 メガネ処理センタ 4102 制御手段 4103 利用者情報登録手段 4104 フレーム選択情報入力手段 4105 記憶手段 4106 入力手段 4107 画像処理手段 4108 フレーム選択手段 4109 出力手段 4160 フレーム画像登録手段 4161 フレーム情報登録手段 4110 レンズ選択手段 4111 電子ショップ情報処理手段 4112 表示情報生成手段 4113 メガネオーダ販売処理手段 4114 決済処理手段 5001 Webコールセンタ 5002 CAFISセンタ DESCRIPTION OF SYMBOLS 1 Counter booth 101 User terminal 102 Frequency measurement device 103 Eyesight measurement device 103a Face contact 103b Joystick 103c Response switch 104 Communication means 105 Output means 106 Input means 107 Touch panel 108 Digital camera 109 PC monitor 110 Sensor 111 Charge slot 112 Printer 2, 1002, 2002 Glasses processing center 21 Electronic shop information processing means 22 Display information generation means 221 Parameter analysis means 222 File search means 223 Display data generation means 23 Glasses order sales processing means 24 Payment processing means 25 WWW server / CGI 26 Lens selection means 27 Frame selection means 28 Eyesight determination means 3 External settlement processing means 1003 User information registration means 1004 Eyesight measurement information input means 100 Storage means 1006 image processing means 1007 voice processing means 1008 visual acuity data creation means 1009 control means 1010 WWW server 2003 user information registration means 2004 frame selection information input means 2005 storage means 2006 input means 2007 image processing means 2008 frame selection means 2009 output means 2010 control means 2060 frame information registration means 2061 frame image registration means 3001 counter booth 3101 user terminal 3102 control means 3103 user information registration means 3104 frame selection information input means 3105 storage means 3107 image processing means 3108 frame selection means 3160 frame information registration Means 3161 Frame image registration means 3110 Artificial voice utterance means 3202 Frequency measuring device 3203 Visual acuity measuring device 3203a Face contact 3203b Joystick 3203c Response switch 3204 Communication means 3205 Output means 3206 Input means 3207 Touch panel monitor 3208 Digital camera 3209 Microphone 3210 Sensor 3211 Coin processing device 3211a Coin slot 3221b Coin return slot 3212 Printer 3213 Speaker 4002 Glasses center 4002 4103 user information registration means 4104 frame selection information input means 4105 storage means 4106 input means 4107 image processing means 4108 frame selection means 4109 output means 4160 frame image registration means 4161 frame information registration means 4110 lens selection means 4111 electronic shop information processing means 4112 Display information generating means 4113 Ganeoda sale processing means 4114 settlement processing means 5001 Web call center 5002 CAFIS center
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 3/028 G01M 11/02 B 3/10 G06F 3/00 601 3/11 3/16 320A G01M 11/02 330C G06F 3/00 601 A61B 3/02 B 3/16 320 3/10 M 330 A Fターム(参考) 2G086 HH02 5B049 BB11 CC05 CC08 DD00 EE07 FF03 FF06 5E501 AA24 AB21 AC08 AC25 AC33 BA03 BA05 CA02 CB02 CB06 CB15 EA21 EB05 FA27 FA32 FB23 FB43 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) A61B 3/028 G01M 11/02 B 3/10 G06F 3/00 601 3/11 3/16 320A G01M 11 / 02 330C G06F 3/00 601 A61B 3/02 B 3/16 320 3/10 M 330 A F term (reference) 2G086 HH02 5B049 BB11 CC05 CC08 DD00 EE07 FF03 FF06 5E501 AA24 AB21 AC08 AC25 AC33 BA03 BA05 CA02 CB15 CB06 EB05 FA27 FA32 FB23 FB43
Claims (34)
いてメガネおよび/またはレンズに関する情報を処理す
る装置であって、 裸眼視力の測定を行う視力測定手段と、 前記視力測定手段によって測定されたデータを情報処理
し、矯正視力を調整する視力調整手段と、 レンズに関する指示を表示および/または音声で伝える
出力手段と、 レンズに関する指示を入力する入力手段とを含む、無人
メガネ情報処理装置。1. An apparatus for processing information about glasses and / or lenses in a certain space into which a human can enter, comprising: a visual acuity measuring means for measuring naked eye visual acuity; and data measured by the visual acuity measuring means. An unmanned glasses information processing apparatus, comprising: a visual acuity adjusting means for processing information on a lens to adjust a corrected visual acuity; an output means for displaying and / or transmitting an instruction regarding a lens; and an input means for inputting an instruction regarding a lens.
メガネフレームに関する情報を処理する装置であって、 前記空間に入った利用者の顔を撮影し、撮影した画像を
立体化する手段と、 利用者が選択したメガネフレームを選定する手段と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示する手段と、 メガネフレームに関する指示を表示および/または音声
で伝える出力手段と、 メガネフレームに関する指示を入力する入力手段とを含
む、無人メガネ情報処理装置。2. An apparatus for processing information about an eyeglass frame from a certain space into which a human can enter, comprising: means for photographing a face of a user entering the space, and three-dimensionalizing the photographed image; Means for selecting the eyeglasses frame selected by the user; means for reflecting the selected eyeglasses frame on the three-dimensional image of the user to display an image worn by the user; and displaying and / or sounding instructions regarding the eyeglasses frame. An unmanned glasses information processing apparatus, comprising: an output unit configured to transmit information; and an input unit configured to input an instruction regarding a glasses frame.
いてメガネおよび/またはレンズに関する情報を処理す
る装置であって、 メガネを外した状態における視力の測定を行う視力測定
手段と、 前記視力測定手段によって測定されたデータを情報処理
し、矯正視力を調整する視力調整手段と、 レンズに関する指示を表示および/または音声で伝える
出力手段と、 レンズに関する指示を入力する入力手段とを含む、請求
項1に記載の無人メガネ情報処理装置。3. An apparatus for processing information about glasses and / or lenses in a certain space where humans can enter, wherein the eyesight measuring means for measuring eyesight without the glasses, and the eyesight measuring means. 2. A visual acuity adjusting means for processing information measured by the apparatus and adjusting a corrected visual acuity, an output means for displaying and / or transmitting an instruction regarding a lens, and an input means for inputting an instruction regarding a lens. The information processing apparatus for unmanned glasses according to item 1.
メガネフレームに関する情報を処理する装置であって、 人間が一定の空間に入ったことを検知する手段と、 前記手段によって準備され、前記空間に入った利用者の
顔を少なくとも2方向から撮影し、撮影した画像を実像
に近くなるように補正してから立体化する手段と、 利用者が選択したメガネフレームを選定する手段と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示する手段と、 メガネフレームに関する指示を表示および/または音声
で伝える出力手段と、 メガネフレームに関する指示を入力する入力手段とを含
む、請求項2に記載の無人メガネ情報処理装置。4. An apparatus for processing information related to an eyeglass frame from a certain space into which a human can enter, comprising: means for detecting that a human has entered a certain space; Means for photographing the face of the user entering the camera from at least two directions, correcting the photographed image so as to be close to the real image, and then three-dimensionalizing the image, and means for selecting the eyeglass frame selected by the user. Means for displaying the image worn by the user by reflecting the glasses frame on the stereoscopic image of the user, output means for displaying and / or voice instructions regarding the glasses frame, and input means for inputting the instructions regarding the glasses frame The unmanned glasses information processing apparatus according to claim 2, comprising:
いてメガネおよび/またはレンズに関する情報を送信す
る装置であって、 裸眼視力の測定を行う視力測定手段と、 前記視力測定手段によって測定されたデータを情報処理
し、矯正視力を調整する視力調整手段と、 レンズに関する指示を表示および/または音声で伝える
出力手段と、 レンズに関する指示を入力する入力手段とを含む、無人
メガネ情報処理装置。5. An apparatus for transmitting information about glasses and / or lenses in a certain space where a human can enter, wherein the eyesight measuring means for measuring naked eye acuity, and data measured by the eyesight measuring means. An unmanned glasses information processing apparatus, comprising: a visual acuity adjusting means for processing information on a lens to adjust a corrected visual acuity; an output means for displaying and / or transmitting an instruction regarding a lens; and an input means for inputting an instruction regarding a lens.
メガネフレームに関する情報を送信する装置であって、 前記空間に入った利用者の顔を撮影し、撮影した画像を
立体化する手段と、 利用者が選択したメガネフレームを選定する手段と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示する手段と、 メガネフレームに関する指示を表示および/または音声
で伝える出力手段と、 メガネフレームに関する指示を入力する入力手段とを含
む、無人メガネ情報処理装置。6. An apparatus for transmitting information about a spectacle frame from a certain space into which a human can enter, comprising: means for photographing a face of a user entering the space, and three-dimensionalizing the photographed image; Means for selecting the eyeglasses frame selected by the user; means for reflecting the selected eyeglasses frame on the three-dimensional image of the user to display an image worn by the user; and displaying and / or sounding instructions regarding the eyeglasses frame. An unmanned glasses information processing apparatus, comprising: an output unit configured to transmit information; and an input unit configured to input an instruction regarding a glasses frame.
いてメガネおよび/またはレンズに関する情報を送信す
る装置であって、 メガネを外した状態における視力の測定を行う視力測定
手段と、 前記視力測定手段によって測定されたデータを情報処理
し、矯正視力を調整する視力調整手段と、 レンズに関する指示を表示および/または音声で伝える
出力手段と、 レンズに関する指示を入力する入力手段とを含む、請求
項5に記載の無人メガネ情報処理装置。7. An apparatus for transmitting information about glasses and / or lenses in a certain space where humans can enter, wherein the eyesight measuring means for measuring eyesight without the glasses, and the eyesight measuring means 6. An eyesight adjusting means for processing information measured by the apparatus and adjusting a corrected visual acuity, an output means for displaying and / or transmitting an instruction regarding the lens, and an input means for inputting an instruction regarding the lens. The information processing apparatus for unmanned glasses according to item 1.
メガネフレームに関する情報を送信する装置であって、 人間が一定の空間に入ったことを検知する手段と、 前記手段によって準備され、前記空間に入った利用者の
顔を少なくとも2方向から撮影し、角膜頂点部と耳の位
置を測定し、撮影した画像を実像に近くなるように補正
してから立体化する手段と、 利用者が選択したメガネフレームを選定する手段と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示する手段と、 メガネフレームに関する指示を表示および/または音声
で伝える出力手段と、 メガネフレームに関する指示を入力する入力手段とを含
む、請求項6に記載の無人メガネ情報処理装置。8. An apparatus for transmitting information about an eyeglass frame from a certain space into which a human can enter, comprising: means for detecting that a human has entered a certain space; Means for photographing the face of the user entering the apparatus from at least two directions, measuring the positions of the corneal apex and the ears, correcting the photographed image to be close to a real image, and then stereoscopically selecting Means for selecting the spectacle frame selected, means for reflecting the selected spectacle frame on the three-dimensional image of the user, and displaying an image worn by the user, and output means for displaying and / or transmitting instructions regarding the spectacle frame. The unmanned glasses information processing apparatus according to claim 6, further comprising: an input unit configured to input an instruction regarding a glasses frame.
を測定する既使用レンズの度数測定手段を含む、請求項
1ないし請求項8に記載の無人メガネ情報処理装置。9. The unmanned glasses information processing apparatus according to claim 1, further comprising a power measuring unit for measuring the power of the glasses already in use.
かけているメガネを特定の場所に載置し、使用されてい
るレンズの度数を測定するレンズメーターを含む、請求
項9に記載の無人メガネ情報処理装置。10. The unmanned unattended person according to claim 9, wherein the power measuring means of the used lens includes a lens meter for placing the currently worn glasses on a specific place and measuring the power of the used lens. Glasses information processing device.
測定し、裸眼視力の矯正に必要なレンズ度数を算出する
視力測定装置を含む、請求項1、請求項3、請求項5、
請求項7、請求項9または請求項10に記載の無人メガ
ネ情報処理装置。11. The visual acuity measuring device includes a visual acuity measuring device that automatically measures naked eye acuity and calculates a lens power required for correcting the naked eye acuity.
The unmanned glasses information processing apparatus according to claim 7, 9 or 10.
し請求項11のいずれかに記載の無人メガネ情報処理装
置。12. The unmanned glasses information processing apparatus according to claim 1, further comprising a communication unit.
測定手段によって測定されたデータを情報処理し、有人
のメガネ処理センタに送信する手段を含む、請求項12
に記載の無人メガネ情報処理装置。13. The communication means includes means for processing information measured by the power measuring means of the used lens and transmitting the data to a manned eyeglass processing center.
The information processing apparatus for unmanned glasses according to item 1.
置、画像処理装置、データの格納、WWWブラウザのい
ずれかを含む、請求項12または請求項13に記載の無
人メガネ情報処理装置。14. The unmanned glasses information processing apparatus according to claim 12, wherein the communication unit includes one of a CPU, a data compression device, an image processing device, data storage, and a WWW browser.
パネルを含む、請求項1ないし請求項14のいずれかに
記載の無人メガネ情報処理装置。15. The unmanned glasses information processing apparatus according to claim 1, wherein the output unit and the input unit include a touch panel.
ないし請求項15のいずれかに記載の無人メガネ情報処
理装置。16. The input means includes a camera.
An unmanned glasses information processing apparatus according to claim 15.
手段のいずれかを含む、請求項1ないし請求項16のい
ずれかに記載の無人メガネ情報処理装置。17. The unmanned glasses information processing apparatus according to claim 1, wherein the input unit includes one of a keyboard and a voice input unit.
は、一方に入口が設けられたブースであって、入口には
人間の出入を検知手段が形成され、人間の出入を検知す
る手段によって前記した既使用レンズの度数測定手段、
視力測定手段、通信手段、出力手段および入力手段のう
ち少なくとも1つがオン状態になり、退出時にはオフ状
態になるように形成されている、請求項1ないし請求項
17のいずれかに記載の無人メガネ情報処理装置。18. A certain space into which a human can enter is a booth provided with an entrance on one side, wherein a detection means for detecting human entry is formed at the entrance, and the entrance is provided by means for detecting human entry. Power measurement means for used lenses,
The unmanned glasses according to any one of claims 1 to 17, wherein at least one of the eyesight measurement unit, the communication unit, the output unit, and the input unit is turned on, and is turned off when leaving. Information processing device.
または視力測定手段の使用に要する料金を投入する料金
受渡し手段を備える、請求項1ないし請求項18のいず
れかに記載の無人メガネ情報処理装置。19. A power measuring means for a used lens and / or
19. The unmanned glasses information processing apparatus according to claim 1, further comprising a fee transfer unit that inputs a fee required for using the visual acuity measuring unit.
おいてメガネおよび/またはレンズに関する情報を処理
する方法であって、 人間が一定の空間に入ったことを検知するステップ
(1)と、 裸眼視力の測定を行う視力測定ステップ(2)と、 前記視力測定ステップによって測定されたデータを情報
処理し、視力を調整する視力調整ステップ(3)と、 レンズに関する指示を表示および/または音声で伝える
出力ステップ(4)と、 レンズに関する指示を入力する入力ステップ(5)とを
含む、無人メガネ情報処理方法。20. A method of processing information about glasses and / or lenses in a certain space where a human can enter, comprising the steps of: (1) detecting that a human has entered a certain space; A visual acuity measuring step (2) for measuring the visual acuity; a visual acuity adjusting step (3) for processing the data measured in the visual acuity measuring step to adjust the visual acuity; and displaying and / or transmitting an instruction relating to the lens by display An unmanned glasses information processing method including a step (4) and an input step (5) of inputting an instruction regarding a lens.
らメガネフレームに関する情報を処理する方法であっ
て、 空間に入った利用者の顔を撮影した画像を実像に近くな
るように立体化するステップ(1)と、 利用者が選択したメガネフレームを選定するステップ
(2)と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示するステップ
(3)と、 メガネフレームに関する指示を表示および/または音声
で伝える出力ステップ(4)と、 メガネフレームに関する指示を入力する入力ステップ
(5)とを含む、無人メガネ情報処理方法。21. A method of processing information related to an eyeglass frame from a certain space into which a human can enter, wherein the image of a face of a user entering the space is three-dimensionally approximated to a real image. (1), a step (2) of selecting a spectacle frame selected by the user, and a step (3) of reflecting the selected spectacle frame on the stereoscopic image of the user and displaying an image worn by the user. An unmanned glasses information processing method, comprising: an output step (4) of displaying and / or transmitting an instruction relating to a glasses frame, and an input step (5) for inputting an instruction relating to a glasses frame.
おいてメガネに関する情報を処理する方法であって、 人間が一定の空間に入ったことを検知するステップ
(1)と、 前記ステップ(1)によって準備され、メガネを外した
状態における視力の測定を行う視力測定ステップ(2)
と、 前記視力測定ステップによって測定されたデータを情報
処理し、視力を調整す る視力調整ステップ(3)と、レンズに関する指示を表
示および/または音声で伝える出力ステップ(4)と、 レンズに関する指示を入力する入力ステップ(5)とを
含む、請求項20に記載の無人メガネ情報処理方法。22. A method for processing information about glasses in a certain space where a human can enter, comprising: a step (1) of detecting that a human has entered a certain space; A visual acuity measuring step (2) for measuring the visual acuity in a state where the glasses are prepared and the glasses are removed
A visual acuity adjusting step (3) of processing data measured in the visual acuity measuring step to adjust the visual acuity, an output step (4) of displaying and / or transmitting an instruction regarding the lens, and an instruction regarding the lens. 21. An unmanned glasses information processing method according to claim 20, comprising an inputting step (5) of inputting the information.
らメガネフレームに関する情報を処理する方法であっ
て、 人間が一定の空間に入ったことを検知するステップ
(1)と、 前記ステップ(1)によって準備され、空間に入った利
用者の顔を少なくとも2方向から撮影し、撮影した画像
を実像に近くなるように立体化するステップ(2)と、 利用者が選択したメガネフレームを選定するステップ
(3)と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示するステップ
(4)と、 メガネフレームに関する指示を表示および/または音声
で伝える出力ステップ(5)と、 メガネフレームに関する指示を入力する入力ステップ
(6)とを含む、請求項21に記載の無人メガネ情報処
理方法。23. A method of processing information on a spectacle frame from a certain space into which a human can enter, wherein the step (1) of detecting that a human enters a certain space; and the step (1). (2) photographing the face of the user who has entered the space from at least two directions, stereoscopically transforming the photographed image so as to be close to the real image, and selecting the glasses frame selected by the user (3), reflecting the selected glasses frame on the stereoscopic image of the user and displaying the image worn by the user (4), and displaying and / or transmitting an instruction regarding the glasses frame by voice (5). 22. The unmanned glasses information processing method according to claim 21, comprising: an input step (6) of inputting an instruction regarding an eyeglass frame.
おいてメガネおよび/またはレンズに関する情報を送信
する方法であって、 人間が一定の空間に入ったことを検知するステップ
(1)と、 裸眼視力の測定を行う視力測定ステップ(2)と、 前記視力測定ステップによって測定されたデータを情報
処理し、視力を調整する視力調整ステップ(3)と、 レンズに関する指示を表示および/または音声で伝える
出力ステップ(4)と、 レンズに関する指示を入力する入力ステップ(5)とを
含む、無人メガネ情報処理方法。24. A method for transmitting information about glasses and / or lenses in a certain space where a human can enter, comprising the steps of: (1) detecting that a human enters a certain space; A visual acuity measuring step (2) for measuring the visual acuity; a visual acuity adjusting step (3) for processing the data measured in the visual acuity measuring step to adjust the visual acuity; and displaying and / or transmitting an instruction relating to the lens by display An unmanned glasses information processing method including a step (4) and an input step (5) of inputting an instruction regarding a lens.
らメガネフレームに関する情報を送信する方法であっ
て、 空間に入った利用者の顔を撮影した画像を実像に近くな
るように立体化するステップ(1)と、 利用者が選択したメガネフレームを選定するステップ
(2)と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示するステップ
(3)と、 メガネフレームに関する指示を表示および/または音声
で伝える出力ステップ(4)と、 メガネフレームに関する指示を入力する入力ステップ
(5)とを含む、無人メガネ情報処理方法。25. A method of transmitting information on a spectacle frame from a certain space into which a human can enter, wherein the step of stereoscopically transforming an image of a face of a user entering the space into a real image. (1), a step (2) of selecting a spectacle frame selected by the user, and a step (3) of reflecting the selected spectacle frame on the stereoscopic image of the user and displaying an image worn by the user. An unmanned glasses information processing method, comprising: an output step (4) of displaying and / or transmitting an instruction relating to a glasses frame, and an input step (5) for inputting an instruction relating to a glasses frame.
おいてメガネおよび/またはレンズに関する情報を送信
する方法であって、 人間が一定の空間に入ったことを検知するステップ
(1)と、 前記ステップ(1)によって準備され、メガネを外した
状態における視力の測定を行う視力測定ステップ(2)
と、 前記視力測定ステップによって測定されたデータを情報
処理し、視力を調整する視力調整ステップ(3)と、 レンズに関する指示を表示および/または音声で伝える
出力ステップ(4)と、 レンズに関する指示を入力する入力ステップ(5)とを
含む、請求項24に記載の無人メガネ情報処理方法。26. A method of transmitting information about glasses and / or lenses in a certain space where a human can enter, comprising: detecting (1) that a human has entered a certain space; A visual acuity measuring step (2) for measuring the visual acuity prepared with (1) and with glasses removed;
Information processing data measured in the eyesight measuring step to adjust the visual acuity (3); an output step (4) of displaying and / or transmitting an instruction relating to the lens; and an instruction relating to the lens. The unmanned glasses information processing method according to claim 24, comprising an input step (5) for inputting.
らメガネフレームに関する情報を送信する方法であっ
て、 人間が一定の空間に入ったことを検知するステップ
(1)と、 前記ステップ(1)によって準備され、空間に入った利
用者の顔を少なくとも2方向から撮影し、撮影した画像
を実像に近くなるように立体化するステップ(2)と、 利用者が選択したメガネフレームを選定するステップ
(3)と、 選定したメガネフレームを利用者の立体画像に反映さ
せ、利用者が装用したイメージを表示するステップ
(4)と、 メガネフレームに関する指示を表示および/または音声
で伝える出力ステップ(5)と、 メガネフレームに関する指示を入力する入力ステップ
(6)とを含む、請求項25に記載の無人メガネ情報処
理方法。27. A method of transmitting information about a spectacle frame from a certain space where a human can enter, wherein the step (1) of detecting that a human enters a certain space; and the step (1). (2) photographing the face of the user who has entered the space from at least two directions, stereoscopically transforming the photographed image so as to be close to the real image, and selecting the glasses frame selected by the user (3), reflecting the selected glasses frame on the stereoscopic image of the user and displaying the image worn by the user (4), and displaying and / or transmitting an instruction regarding the glasses frame by voice (5). 26. The unmanned glasses information processing method according to claim 25, further comprising: an input step of inputting an instruction regarding an eyeglass frame.
数を測定する既使用レンズの度数測定ステップを含む、
請求項20ないし請求項27のいずれかに記載の無人メ
ガネ情報処理方法。28. The method according to claim 28, further comprising: measuring a power of the used lens for measuring the power of the glasses already used.
An unmanned glasses information processing method according to any one of claims 20 to 27.
験、メガネの購入のうち、少なくとも1つを選択させる
ステップを含む、請求項20ないし請求項28のいずれ
かに記載の無人メガネ情報処理方法。29. The unmanned glasses information processing method according to claim 20, further comprising the step of allowing a user to select at least one of eyesight measurement, glasses disguise experience, and purchase of glasses. .
反映させた複数種のレンズを表示するステップと、 レンズの特徴などの選択条件に沿って、利用者にレンズ
の選定を促すステップを含む、請求項20ないし請求項
29のいずれかに記載の無人メガネ情報処理方法。30. Displaying a plurality of types of lenses reflecting the power measured in the visual acuity measuring step; and prompting the user to select a lens according to selection conditions such as lens characteristics. An unmanned glasses information processing method according to any one of claims 20 to 29.
対応するレンズを横から見た画像を表示するステップを
含む、請求項20ないし請求項30のいずれかに記載の
無人メガネ情報処理方法。31. The unmanned glasses information processing method according to claim 20, further comprising a step of displaying an image of the lens corresponding to the power measured in the visual acuity measuring step, as viewed from the side.
を、前記フレーム選択ステップで選択したフレームに装
着させたイメージを表示させるステップを含む、請求項
20ないし請求項30のいずれかに記載の無人メガネ情
報処理方法。32. The unmanned glasses according to claim 20, further comprising a step of displaying an image in which the lens selected in the eyesight measuring step is mounted on the frame selected in the frame selecting step. Information processing method.
画像に、前記ステップで選択したフレームを前記ステッ
プで選択したレンズを装着したイメージを重ね合わせて
表示するステップを含む、請求項20ないし請求項32
のいずれかに記載の無人メガネ情報処理方法。33. The method according to claim 20, further comprising the step of superimposing the image selected by attaching the lens selected in the step on the frame selected in the step on the face image of the user measured in the step. Item 32
The unmanned glasses information processing method according to any one of the above.
が選択した少なくとも1つを表示し、使用者の確認をと
るステップおよび/または価格を表示して使用者の購入
を促すステップを含む、請求項20ないし請求項33の
いずれかに記載の無人メガネ情報処理方法。34. Displaying at least one of a frame and a lens selected by a user, confirming the user, and / or displaying a price to prompt the user to purchase. An unmanned glasses information processing method according to any one of claims 20 to 33.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000338183A JP2002083156A (en) | 2000-06-23 | 2000-11-06 | Automated eyeglasses information processor and its method |
AU64321/01A AU6432101A (en) | 2000-06-23 | 2001-06-19 | Unmanned eyeglass information processing apparatus and method |
PCT/JP2001/005204 WO2001097683A1 (en) | 2000-06-23 | 2001-06-19 | Unmanned eyeglass information processing apparatus and method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-189518 | 2000-06-23 | ||
JP2000189518 | 2000-06-23 | ||
JP2000338183A JP2002083156A (en) | 2000-06-23 | 2000-11-06 | Automated eyeglasses information processor and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002083156A true JP2002083156A (en) | 2002-03-22 |
Family
ID=26594553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000338183A Withdrawn JP2002083156A (en) | 2000-06-23 | 2000-11-06 | Automated eyeglasses information processor and its method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2002083156A (en) |
AU (1) | AU6432101A (en) |
WO (1) | WO2001097683A1 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002010981A (en) * | 2000-06-29 | 2002-01-15 | Topcon Corp | Eye refractive power measuring device |
WO2004034893A1 (en) * | 2002-10-21 | 2004-04-29 | Vision Optic Co., Ltd. | Optometric device and optometric method |
JP2004275590A (en) * | 2003-03-18 | 2004-10-07 | Topcon Corp | Optometry device |
JP2004275589A (en) * | 2003-03-18 | 2004-10-07 | Topcon Corp | Optometry device |
JP2004283449A (en) * | 2003-03-24 | 2004-10-14 | Topcon Corp | Optometry device |
JP2004283271A (en) * | 2003-03-20 | 2004-10-14 | Topcon Corp | Optometry device |
JP2004333669A (en) * | 2003-05-02 | 2004-11-25 | Rikio Sato | Method for adjusting lens for spectacles and lens for spectacles |
JPWO2003087755A1 (en) * | 2002-04-12 | 2005-08-18 | 株式会社メニコン | Contact lens user support system and support method |
JP2008508006A (en) * | 2004-07-28 | 2008-03-21 | ノバルティス アクチエンゲゼルシャフト | Automated visual screening apparatus and method |
JPWO2006018877A1 (en) * | 2004-08-19 | 2008-05-01 | 株式会社シンクプラス | Sales support system |
JP2008272029A (en) * | 2007-04-25 | 2008-11-13 | Topcon Corp | A subjective optometry device |
JP2011050769A (en) * | 2009-01-16 | 2011-03-17 | Carl Zeiss Vision Gmbh | Method, computer, computer program, and device for deciding individually required addition degree of optic auxiliary tool |
US8182091B2 (en) | 2004-07-28 | 2012-05-22 | Solohealth, Inc. | Automated vision screening apparatus and method |
JP2016520336A (en) * | 2013-03-12 | 2016-07-14 | リー, スティーブン ピー.LEE, Steven P. | Computer-controlled refraction and astigmatism determination |
US9699123B2 (en) | 2014-04-01 | 2017-07-04 | Ditto Technologies, Inc. | Methods, systems, and non-transitory machine-readable medium for incorporating a series of images resident on a user device into an existing web browser session |
JP2018038481A (en) * | 2016-09-05 | 2018-03-15 | 株式会社ニデック | Subjective optometer and subjective optometry program |
JP2018110726A (en) * | 2017-01-12 | 2018-07-19 | 株式会社ニデック | Subjective optometry apparatus and subjective optometry program |
JP2019062978A (en) * | 2017-09-28 | 2019-04-25 | 株式会社トプコン | Optometry device, method and program |
JP2019062979A (en) * | 2017-09-28 | 2019-04-25 | 株式会社トプコン | Optometry device, method and program |
JP2022056256A (en) * | 2020-09-29 | 2022-04-08 | 株式会社ニデック | Optometric control program and subjective optometric system |
JP2023539159A (en) * | 2020-08-18 | 2023-09-13 | ジュン,ユン・ホ | Virtual fitting service provision method, equipment and system |
JP7559074B2 (en) | 2020-02-28 | 2024-10-01 | エシロール・アンテルナシオナル | Apparatus for recommending optical devices |
JP7591635B2 (en) | 2017-12-11 | 2024-11-28 | 1-800 コンタクツ,インコーポレーテッド | Digital eye examination method for remote evaluation by a physician |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10685457B2 (en) | 2018-11-15 | 2020-06-16 | Vision Service Plan | Systems and methods for visualizing eyewear on a user |
US12186017B2 (en) * | 2021-04-06 | 2025-01-07 | Innovega, Inc. | Automated contact lens design through image capture of the eye |
US11604368B2 (en) * | 2021-04-06 | 2023-03-14 | Innovega, Inc. | Contact lens and eyewear frame design using physical landmarks placed on the eye |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0831114B2 (en) * | 1990-03-03 | 1996-03-27 | 富士通株式会社 | Immediate input check method for medical office system |
JPH08123544A (en) * | 1994-10-21 | 1996-05-17 | Matsushita Electric Ind Co Ltd | Control device |
JPH10334326A (en) * | 1997-06-04 | 1998-12-18 | Syst Consulting Service Kk | Automatic vending machine with information |
JPH11167589A (en) * | 1997-09-30 | 1999-06-22 | Seed Co Ltd | Automatic eyeglass selection apparatus, eyeglass sales system using automatic eyeglass selection apparatus, and recording medium recording program for automatic selection of eyeglasses |
JP3969842B2 (en) * | 1998-05-27 | 2007-09-05 | Hoya株式会社 | Method of creating composite image in spectacle wearing simulation |
-
2000
- 2000-11-06 JP JP2000338183A patent/JP2002083156A/en not_active Withdrawn
-
2001
- 2001-06-19 AU AU64321/01A patent/AU6432101A/en not_active Abandoned
- 2001-06-19 WO PCT/JP2001/005204 patent/WO2001097683A1/en active Application Filing
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002010981A (en) * | 2000-06-29 | 2002-01-15 | Topcon Corp | Eye refractive power measuring device |
JPWO2003087755A1 (en) * | 2002-04-12 | 2005-08-18 | 株式会社メニコン | Contact lens user support system and support method |
US7429109B2 (en) | 2002-10-21 | 2008-09-30 | Vision Optic Co., Ltd. | Optometric apparatus and lens power determination method |
WO2004034893A1 (en) * | 2002-10-21 | 2004-04-29 | Vision Optic Co., Ltd. | Optometric device and optometric method |
JPWO2004034893A1 (en) * | 2002-10-21 | 2006-02-09 | 株式会社ビジョンメガネ | Optometry apparatus and optometry method |
JP2004275590A (en) * | 2003-03-18 | 2004-10-07 | Topcon Corp | Optometry device |
JP2004275589A (en) * | 2003-03-18 | 2004-10-07 | Topcon Corp | Optometry device |
JP2004283271A (en) * | 2003-03-20 | 2004-10-14 | Topcon Corp | Optometry device |
JP2004283449A (en) * | 2003-03-24 | 2004-10-14 | Topcon Corp | Optometry device |
JP2004333669A (en) * | 2003-05-02 | 2004-11-25 | Rikio Sato | Method for adjusting lens for spectacles and lens for spectacles |
US8740386B2 (en) | 2004-07-28 | 2014-06-03 | Solohealth, Inc. | Automated vision screening apparatus and method |
US8182091B2 (en) | 2004-07-28 | 2012-05-22 | Solohealth, Inc. | Automated vision screening apparatus and method |
JP2008508006A (en) * | 2004-07-28 | 2008-03-21 | ノバルティス アクチエンゲゼルシャフト | Automated visual screening apparatus and method |
US9173565B2 (en) | 2004-07-28 | 2015-11-03 | Pursuant Health, Inc. | Automated vision screening apparatus and method |
JPWO2006018877A1 (en) * | 2004-08-19 | 2008-05-01 | 株式会社シンクプラス | Sales support system |
JP4633728B2 (en) * | 2004-08-19 | 2011-02-16 | シンクプラス リミテッド | Sales support system |
JP2008272029A (en) * | 2007-04-25 | 2008-11-13 | Topcon Corp | A subjective optometry device |
JP2011050769A (en) * | 2009-01-16 | 2011-03-17 | Carl Zeiss Vision Gmbh | Method, computer, computer program, and device for deciding individually required addition degree of optic auxiliary tool |
JP2016520336A (en) * | 2013-03-12 | 2016-07-14 | リー, スティーブン ピー.LEE, Steven P. | Computer-controlled refraction and astigmatism determination |
US9699123B2 (en) | 2014-04-01 | 2017-07-04 | Ditto Technologies, Inc. | Methods, systems, and non-transitory machine-readable medium for incorporating a series of images resident on a user device into an existing web browser session |
JP2018038481A (en) * | 2016-09-05 | 2018-03-15 | 株式会社ニデック | Subjective optometer and subjective optometry program |
JP2018110726A (en) * | 2017-01-12 | 2018-07-19 | 株式会社ニデック | Subjective optometry apparatus and subjective optometry program |
US11330978B2 (en) | 2017-01-12 | 2022-05-17 | Nidek Co., Ltd. | Subjective optometry apparatus, subjective optometry method, and recording medium storing subjective optometry program |
JP2019062978A (en) * | 2017-09-28 | 2019-04-25 | 株式会社トプコン | Optometry device, method and program |
JP2019062979A (en) * | 2017-09-28 | 2019-04-25 | 株式会社トプコン | Optometry device, method and program |
JP7016233B2 (en) | 2017-09-28 | 2022-02-04 | 株式会社トプコン | Optometry equipment, methods and programs |
JP2022079772A (en) * | 2017-09-28 | 2022-05-26 | 株式会社トプコン | Optometric apparatus, method, and program |
JP7591635B2 (en) | 2017-12-11 | 2024-11-28 | 1-800 コンタクツ,インコーポレーテッド | Digital eye examination method for remote evaluation by a physician |
JP7559074B2 (en) | 2020-02-28 | 2024-10-01 | エシロール・アンテルナシオナル | Apparatus for recommending optical devices |
JP2023539159A (en) * | 2020-08-18 | 2023-09-13 | ジュン,ユン・ホ | Virtual fitting service provision method, equipment and system |
JP2022056256A (en) * | 2020-09-29 | 2022-04-08 | 株式会社ニデック | Optometric control program and subjective optometric system |
JP7647046B2 (en) | 2020-09-29 | 2025-03-18 | 株式会社ニデック | Optometry control program and subjective optometry system |
US12343079B2 (en) | 2020-09-29 | 2025-07-01 | Nidek Co., Ltd. | Non-transitory computer-readable storage medium and subjective optometry system |
Also Published As
Publication number | Publication date |
---|---|
AU6432101A (en) | 2002-01-02 |
WO2001097683A1 (en) | 2001-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002083156A (en) | Automated eyeglasses information processor and its method | |
JP7420438B2 (en) | Method and system for determining a person's corrective lens prescription | |
US7287853B2 (en) | Spectacle and contact lens selecting system and method thereof | |
US7222091B2 (en) | Method, system and medium for ordering and marketing eyeglasses via a network | |
CA2574329C (en) | Automated vision screening apparatus and method | |
US6692127B2 (en) | Spectacles fitting system and fitting methods useful therein | |
US8740386B2 (en) | Automated vision screening apparatus and method | |
US20130141694A1 (en) | Systems and methods for enabling customers to obtain refraction specifications for and purchase of eyeglasses or contact lenses | |
JP2011192189A (en) | Glasses vending system, lens company terminal, frame company terminal, glasses vending method, and glasses vending program | |
JP2002078681A (en) | Unmanned method and device for transmitting information on lens | |
US20010042028A1 (en) | Method and system for eyeglass ordering on a network | |
JP2002078679A (en) | Unmanned device and method for transmitting information on spectacles | |
JP3572581B2 (en) | Eyeglass sales system | |
JP2001350982A (en) | System and method for ordering and selling spectacles by network | |
US20050029021A1 (en) | Cold-flame propulsion system | |
TWI223764B (en) | System for determining level of magnification of eyeglasses and contact lenses and method thereof | |
EP4555917A1 (en) | Method and apparatus for determining at least one refractive value of an eye | |
JP2001291114A (en) | System and method for virtually experiencing wearing glasses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071106 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090902 |