JP2002345756A - 視線検出装置及び光学機器 - Google Patents
視線検出装置及び光学機器Info
- Publication number
- JP2002345756A JP2002345756A JP2001156860A JP2001156860A JP2002345756A JP 2002345756 A JP2002345756 A JP 2002345756A JP 2001156860 A JP2001156860 A JP 2001156860A JP 2001156860 A JP2001156860 A JP 2001156860A JP 2002345756 A JP2002345756 A JP 2002345756A
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- line
- sight
- observer
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 22
- 230000003287 optical effect Effects 0.000 title claims description 12
- 238000009826 distribution Methods 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 156
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000009304 pastoral farming Methods 0.000 abstract 3
- 239000006185 dispersion Substances 0.000 abstract 2
- 210000005252 bulbus oculi Anatomy 0.000 description 34
- 238000010586 diagram Methods 0.000 description 13
- 238000009825 accumulation Methods 0.000 description 12
- 239000011521 glass Substances 0.000 description 10
- 230000011514 reflex Effects 0.000 description 10
- 238000005286 illumination Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 238000005375 photometry Methods 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 7
- 238000001444 catalytic combustion detection Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 2
- 102100033041 Carbonic anhydrase 13 Human genes 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 101000867860 Homo sapiens Carbonic anhydrase 13 Proteins 0.000 description 1
- 101001094026 Synechocystis sp. (strain PCC 6803 / Kazusa) Phasin PhaP Proteins 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2213/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B2213/02—Viewfinders
- G03B2213/025—Sightline detection
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automatic Focus Adjustment (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
- Viewfinders (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
(57)【要約】
【課題】 注視する能力の個人差によって発生する視線
位置のばらつきの影響を最小限にとどめ、機器を使用す
る人それぞれに対して意図した領域の選択を可能にす
る。 【解決手段】 観察者の画面内における視線を検出する
視線検出手段と、観察者に同一個所を注視させた時に検
出される複数の視線位置から、観察者が注視する際の視
線位置のばらつきを演算する分布演算手段(#311)
とを有し、分布演算手段の演算結果に応じて、観察者が
注視しているとされる注視領域を視線位置から決定する
ための制御を異ならせる。
位置のばらつきの影響を最小限にとどめ、機器を使用す
る人それぞれに対して意図した領域の選択を可能にす
る。 【解決手段】 観察者の画面内における視線を検出する
視線検出手段と、観察者に同一個所を注視させた時に検
出される複数の視線位置から、観察者が注視する際の視
線位置のばらつきを演算する分布演算手段(#311)
とを有し、分布演算手段の演算結果に応じて、観察者が
注視しているとされる注視領域を視線位置から決定する
ための制御を異ならせる。
Description
【0001】
【発明の属する技術分野】本発明は、観察者の視線を検
出する視線検出装置及び光学機器の改良に関するもので
ある。
出する視線検出装置及び光学機器の改良に関するもので
ある。
【0002】
【従来の技術】従来より撮影者(観察者)の視線方向を
検知し、撮影者がファインダ視野内のどの領域(位置)
を観察しているか、いわゆる撮影者の注視方向をカメラ
の一部に設けた視線検出手段で検知し、該視線検出手段
からの信号に基づいて自動焦点調節や自動露出等の各種
撮影機能を制御するようにしたカメラが種々提案されて
いる。
検知し、撮影者がファインダ視野内のどの領域(位置)
を観察しているか、いわゆる撮影者の注視方向をカメラ
の一部に設けた視線検出手段で検知し、該視線検出手段
からの信号に基づいて自動焦点調節や自動露出等の各種
撮影機能を制御するようにしたカメラが種々提案されて
いる。
【0003】例えば本出願人は、特開平1−24151
1号公報において、撮影者の注視方向を検出する視線検
出手段と、複数個の測光感度分布を持つ自動露出制御手
段とを有し、前記視線検出手段からの出力信号に基づい
て焦点検出手段や自動露出制御手段の駆動を制御するよ
うにしたカメラを提案している。
1号公報において、撮影者の注視方向を検出する視線検
出手段と、複数個の測光感度分布を持つ自動露出制御手
段とを有し、前記視線検出手段からの出力信号に基づい
て焦点検出手段や自動露出制御手段の駆動を制御するよ
うにしたカメラを提案している。
【0004】
【発明が解決しようとする課題】上記説明したカメラの
みならず視線検出機能を有する機器を使用する場合、観
察者は、機器の表示部にある選択すべき領域の表示を注
視することになる訳であるが、この注視するという行為
自体が視線検出を行う上で大きな誤差を生む要因となっ
ている。
みならず視線検出機能を有する機器を使用する場合、観
察者は、機器の表示部にある選択すべき領域の表示を注
視することになる訳であるが、この注視するという行為
自体が視線検出を行う上で大きな誤差を生む要因となっ
ている。
【0005】つまり、一点あるいは一方向を所定時間注
視する能力が個人によって異なっているために、前記視
線検出機能を持った機器の表示部にある選択すべき領域
の表示を注視しても、ある人は目的の領域を選択できる
が、またある別の人は選択できないということが発生し
てしまっていた。
視する能力が個人によって異なっているために、前記視
線検出機能を持った機器の表示部にある選択すべき領域
の表示を注視しても、ある人は目的の領域を選択できる
が、またある別の人は選択できないということが発生し
てしまっていた。
【0006】つまり、一点あるいは一方向を所定時間注
視する能力のばらつきは、視線検出機能を誰もが使える
ようになるための大きな障害となっていた。
視する能力のばらつきは、視線検出機能を誰もが使える
ようになるための大きな障害となっていた。
【0007】上記課題に対する一つの対策として、特開
平4−101126号公報においては、画面内を複数の
領域に分割し、複数回の視線検出を行い、前記各領域に
対して視線位置の存在する頻度、停留時間に基づいて注
視点、領域を決定するという提案を行っている。つま
り、視線位置を複数個採取することによって、視線位置
のばらつきを平均化し、安定させようというのがその目
的である。
平4−101126号公報においては、画面内を複数の
領域に分割し、複数回の視線検出を行い、前記各領域に
対して視線位置の存在する頻度、停留時間に基づいて注
視点、領域を決定するという提案を行っている。つま
り、視線位置を複数個採取することによって、視線位置
のばらつきを平均化し、安定させようというのがその目
的である。
【0008】しかしながら、常に視線検出を複数回連続
して実行すると、最終的に視線位置を決定するのに時間
を要するために視線検出機器としての応答性が悪くなる
のが欠点であった。
して実行すると、最終的に視線位置を決定するのに時間
を要するために視線検出機器としての応答性が悪くなる
のが欠点であった。
【0009】また、本出願人は特開平6−308373
号公報において、視線検出手段の出力に基づいてカメラ
の諸動作の制御を行う情報を得るべく領域を、撮影画面
内より選択するカメラにおいて、前記選択領域を、視線
検出手段の出力の信頼性によって切り換えることを特徴
とする視線検出機能付カメラを提案している。例えば、
視線の信頼性が低い時は、本来5つの選択可能な領域を
3つにするといったように、選択できる領域数を切り換
えるようにしたものである。
号公報において、視線検出手段の出力に基づいてカメラ
の諸動作の制御を行う情報を得るべく領域を、撮影画面
内より選択するカメラにおいて、前記選択領域を、視線
検出手段の出力の信頼性によって切り換えることを特徴
とする視線検出機能付カメラを提案している。例えば、
視線の信頼性が低い時は、本来5つの選択可能な領域を
3つにするといったように、選択できる領域数を切り換
えるようにしたものである。
【0010】ここで述べられている視線検出手段の信頼
性とは、眼球像のコントラストあるいは瞳孔の大きさ等
を、あるいは算出されたプルキンエ像及び瞳孔中心の位
置を評価したものを意味しており、実際にこれらの信頼
性判定で効果があるのは、眼球像そのものが何らかの要
因で一時的に不良の時であり、冒頭で述べた本来人間の
生理的問題である注視する能力の差によって発生する視
線位置のばらつきに対する解決とはなっていなかった。
性とは、眼球像のコントラストあるいは瞳孔の大きさ等
を、あるいは算出されたプルキンエ像及び瞳孔中心の位
置を評価したものを意味しており、実際にこれらの信頼
性判定で効果があるのは、眼球像そのものが何らかの要
因で一時的に不良の時であり、冒頭で述べた本来人間の
生理的問題である注視する能力の差によって発生する視
線位置のばらつきに対する解決とはなっていなかった。
【0011】(発明の目的)本発明の目的は、注視する
能力の個人差によって発生する視線位置のばらつきの影
響を最小限にとどめ、機器を使用する人それぞれに対し
て意図した領域の選択を行わせることのできる視線検出
装置及び光学機器を提供しようとするものである。
能力の個人差によって発生する視線位置のばらつきの影
響を最小限にとどめ、機器を使用する人それぞれに対し
て意図した領域の選択を行わせることのできる視線検出
装置及び光学機器を提供しようとするものである。
【0012】
【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、観察者の観察面内におけ
る視線位置を検出する視線検出手段と、観察者に同一個
所を注視させたときに検出される複数の視線位置から、
前記観察者が注視する際の視線位置のばらつきを演算す
る分布演算手段とを有し、前記分布演算手段の演算結果
に応じて、前記観察者が注視しているとされる注視領域
を前記視線位置から決定するための制御を異ならせるこ
とを特徴とする視線検出装置とするものである。
に、請求項1に記載の発明は、観察者の観察面内におけ
る視線位置を検出する視線検出手段と、観察者に同一個
所を注視させたときに検出される複数の視線位置から、
前記観察者が注視する際の視線位置のばらつきを演算す
る分布演算手段とを有し、前記分布演算手段の演算結果
に応じて、前記観察者が注視しているとされる注視領域
を前記視線位置から決定するための制御を異ならせるこ
とを特徴とする視線検出装置とするものである。
【0013】同じく上記目的を達成するために、請求項
2に記載の発明は、観察者の観察面内における視線位置
を検出する視線検出手段と、観察者に同一個所を注視さ
せたときに検出される複数の視線位置から、前記観察者
が注視する際の視線位置のばらつきを演算する分布演算
手段とを有し、前記分布演算手段の演算結果に応じて、
前記観察者が注視しているとされる単一の視線位置を決
定するための制御を異ならせることを特徴とする視線検
出装置とするものである。
2に記載の発明は、観察者の観察面内における視線位置
を検出する視線検出手段と、観察者に同一個所を注視さ
せたときに検出される複数の視線位置から、前記観察者
が注視する際の視線位置のばらつきを演算する分布演算
手段とを有し、前記分布演算手段の演算結果に応じて、
前記観察者が注視しているとされる単一の視線位置を決
定するための制御を異ならせることを特徴とする視線検
出装置とするものである。
【0014】同じく上記目的を達成するために、請求項
5に記載の発明は、観察者の観察面内における視線位置
を検出する視線検出手段を有し、検出された視線位置に
応じて、複数領域に分割された前記観察面から一つの領
域を選択する視線検出装置において、観察者に同一個所
を注視させたときに検出される複数の視線位置から、前
記観察者が注視する際の視線位置のばらつきを演算する
分布演算手段と、前記検出された視線位置が前記分割さ
れた各領域内に存在する数を所定数と比較することで前
記複数領域から一つの領域を選択する領域選択手段とを
有し、前記分布演算手段の演算結果に応じて、前記所定
数を異ならせることを特徴とする視線検出装置とするも
のである。
5に記載の発明は、観察者の観察面内における視線位置
を検出する視線検出手段を有し、検出された視線位置に
応じて、複数領域に分割された前記観察面から一つの領
域を選択する視線検出装置において、観察者に同一個所
を注視させたときに検出される複数の視線位置から、前
記観察者が注視する際の視線位置のばらつきを演算する
分布演算手段と、前記検出された視線位置が前記分割さ
れた各領域内に存在する数を所定数と比較することで前
記複数領域から一つの領域を選択する領域選択手段とを
有し、前記分布演算手段の演算結果に応じて、前記所定
数を異ならせることを特徴とする視線検出装置とするも
のである。
【0015】更には、上記視線検出装置を備えた光学機
器とするものである。
器とするものである。
【0016】
【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
に基づいて詳細に説明する。
【0017】(実施の第1の形態)まず、本発明の実施
の第1の形態を、図1から図11を用いて説明する。
の第1の形態を、図1から図11を用いて説明する。
【0018】図1は本発明を一眼レフカメラに適用した
ときの実施の形態を示す要部構成図、図2(A),
(B)は図1の一眼レフカメラの上面及び背面を示す
図、図3は同じく図1の一眼レフカメラのファインダ内
を示す図である。
ときの実施の形態を示す要部構成図、図2(A),
(B)は図1の一眼レフカメラの上面及び背面を示す
図、図3は同じく図1の一眼レフカメラのファインダ内
を示す図である。
【0019】図1において、1は撮影レンズであり、便
宜上2枚のレンズで示したが、実際はさらに多数のレン
ズから構成されている。2は主ミラーであり、ファイン
ダ系による被写体像の観察状態と被写体像の撮影状態に
応じて撮影光路へ斜設され或は退去される。3はサブミ
ラーであり、主ミラー2を透過した光束をカメラボディ
の下方の後述する焦点検出装置6へ向けて反射する。
宜上2枚のレンズで示したが、実際はさらに多数のレン
ズから構成されている。2は主ミラーであり、ファイン
ダ系による被写体像の観察状態と被写体像の撮影状態に
応じて撮影光路へ斜設され或は退去される。3はサブミ
ラーであり、主ミラー2を透過した光束をカメラボディ
の下方の後述する焦点検出装置6へ向けて反射する。
【0020】4はシャッタである。5は感光部材であ
り、銀塩フィルム或はCCDやMOS型等の固体撮像素
子、或は、ビディコン等の撮像管より成っている。6は
焦点検出装置であり、結像面近傍に配置されたフィール
ドレンズ6a、反射ミラー6b及び6c、絞り6d、二
次結像レンズ6e、複数のCCDから成るラインセンサ
6f等から構成されている。本例における焦点検出装置
6は周知の位相差方式にて焦点検出を行うものであり、
図3に示すように、被写界内の複数の領域(焦点検出領
域マーク70〜74で示される5箇所)を焦点検出領域
として、該焦点検出領域それぞれにて焦点検出可能とな
るように構成されている。
り、銀塩フィルム或はCCDやMOS型等の固体撮像素
子、或は、ビディコン等の撮像管より成っている。6は
焦点検出装置であり、結像面近傍に配置されたフィール
ドレンズ6a、反射ミラー6b及び6c、絞り6d、二
次結像レンズ6e、複数のCCDから成るラインセンサ
6f等から構成されている。本例における焦点検出装置
6は周知の位相差方式にて焦点検出を行うものであり、
図3に示すように、被写界内の複数の領域(焦点検出領
域マーク70〜74で示される5箇所)を焦点検出領域
として、該焦点検出領域それぞれにて焦点検出可能とな
るように構成されている。
【0021】7は撮影レンズ1の予定結像面に配置され
たピント板、8はファインダ光路変更用のペンタプリズ
ムである。9,10は各々観察画面内の被写体輝度を測
定するための結像レンズと測光センサであり、結像レン
ズ9はペンタプリズム8内の反射光路を介してピント板
7と測光センサ10を共役に関係付けている。
たピント板、8はファインダ光路変更用のペンタプリズ
ムである。9,10は各々観察画面内の被写体輝度を測
定するための結像レンズと測光センサであり、結像レン
ズ9はペンタプリズム8内の反射光路を介してピント板
7と測光センサ10を共役に関係付けている。
【0022】11は、ペンタプリズム8の射出後方に配
置される、光分割器11aを備えた接眼レンズ11であ
り、撮影者の眼球15によるピント板7の観察に使用さ
れる。光分割器11aは、例えば可視光を透過し赤外光
を反射するダイクロイックミラーより成っている。
置される、光分割器11aを備えた接眼レンズ11であ
り、撮影者の眼球15によるピント板7の観察に使用さ
れる。光分割器11aは、例えば可視光を透過し赤外光
を反射するダイクロイックミラーより成っている。
【0023】上記の主ミラー2,ピント板7,ペンタプ
リズム8,接眼レンズ11によってファインダ光学系が
構成されている。
リズム8,接眼レンズ11によってファインダ光学系が
構成されている。
【0024】12は結像レンズである。14はCCD等
の光電変換素子列を縦、横それぞれ80画素、100画
素の二次元的に配したイメージセンサ(CCD−EY
E)であり、結像レンズ12に関して所定の位置にある
撮影者の眼球15の瞳孔近傍と共役になるように配置さ
れており、結像レンズ12とイメージセンサ14(CC
D−EYE)にて視線検出を行うための受光手段を構成
している。13a〜13hは各々撮影者の眼球15の瞳
孔近傍を照明するための発光素子からなる照明手段であ
る。これら発光素子には、赤外発光ダイオード(以下、
IREDと記す)が用いられ、図2(B)に示すように
接眼レンズ11の回りに配置されており、一回の視線検
出時に発光するのは13aから13hの内のいづれかの
2個一組のIREDである。
の光電変換素子列を縦、横それぞれ80画素、100画
素の二次元的に配したイメージセンサ(CCD−EY
E)であり、結像レンズ12に関して所定の位置にある
撮影者の眼球15の瞳孔近傍と共役になるように配置さ
れており、結像レンズ12とイメージセンサ14(CC
D−EYE)にて視線検出を行うための受光手段を構成
している。13a〜13hは各々撮影者の眼球15の瞳
孔近傍を照明するための発光素子からなる照明手段であ
る。これら発光素子には、赤外発光ダイオード(以下、
IREDと記す)が用いられ、図2(B)に示すように
接眼レンズ11の回りに配置されており、一回の視線検
出時に発光するのは13aから13hの内のいづれかの
2個一組のIREDである。
【0025】以上、受光手段と照明手段と前述のダイロ
イックミラー11aとによって視線検出装置が構成され
ている。
イックミラー11aとによって視線検出装置が構成され
ている。
【0026】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDであり、ここから発
光された光は投光用プリズム22を介し、主ミラー2で
反射されてピント板7の表示部に設けた微小プリズムア
レイ7aで垂直方向に曲げられ、ペンタプリズム8、接
眼レンズ11を通って撮影者の眼15に達する。
輝度のスーパーインポーズ用LEDであり、ここから発
光された光は投光用プリズム22を介し、主ミラー2で
反射されてピント板7の表示部に設けた微小プリズムア
レイ7aで垂直方向に曲げられ、ペンタプリズム8、接
眼レンズ11を通って撮影者の眼15に達する。
【0027】つまり、図3に示したファインダ視野から
判かるように、各々の焦点検出領域マーク70〜74が
ファインダ視野内で光り、焦点検出領域を表示させるこ
とができるものである(以下、これをスーパーインポー
ズ表示という)。
判かるように、各々の焦点検出領域マーク70〜74が
ファインダ視野内で光り、焦点検出領域を表示させるこ
とができるものである(以下、これをスーパーインポー
ズ表示という)。
【0028】図3において、左右の焦点検出領域マーク
70,74の内部には、ドットマーク70´,74´が
刻印されており、これは眼球の個人差による視線の検出
誤差を補正するための視線補正データを採取する(キャ
リブレーションと称されている)際の視標を示すもので
ある。
70,74の内部には、ドットマーク70´,74´が
刻印されており、これは眼球の個人差による視線の検出
誤差を補正するための視線補正データを採取する(キャ
リブレーションと称されている)際の視標を示すもので
ある。
【0029】また、図3の破線で描かれた60から64
までの5つの領域は、視線検出によって演算された撮影
者の視線位置と前記5つの焦点検出領域を対応させるた
めに設定された視線有効領域であり、例えば演算された
視線位置が領域61内に存在していたら、該領域61内
の焦点検出領域マーク71に対応したCCD−L1セン
サ(後述)にて焦点検出が実行される。又視線有効領域
60から64は図1の測光センサ10の分割形状と概一
致しており、周辺領域65と合わせ測光センサ10は6
分割センサとなっている。
までの5つの領域は、視線検出によって演算された撮影
者の視線位置と前記5つの焦点検出領域を対応させるた
めに設定された視線有効領域であり、例えば演算された
視線位置が領域61内に存在していたら、該領域61内
の焦点検出領域マーク71に対応したCCD−L1セン
サ(後述)にて焦点検出が実行される。又視線有効領域
60から64は図1の測光センサ10の分割形状と概一
致しており、周辺領域65と合わせ測光センサ10は6
分割センサとなっている。
【0030】図3のファインダ画面下部において、51
はシャッタ速度表示、52は絞り値表示のセグメント、
50は視線入力状態であることを示す視線入力マーク、
53は撮影レンズ1の合焦状態を示す合焦マークであ
る。24はファインダ視野外に撮影情報を表示するため
のファインダ内LCD(以下、F−LCDとも記す)
で、照明用LED25によって照明される。
はシャッタ速度表示、52は絞り値表示のセグメント、
50は視線入力状態であることを示す視線入力マーク、
53は撮影レンズ1の合焦状態を示す合焦マークであ
る。24はファインダ視野外に撮影情報を表示するため
のファインダ内LCD(以下、F−LCDとも記す)
で、照明用LED25によって照明される。
【0031】上記F−LCD24を透過した光は三角プ
リズム26によって、図3の24で示したようにファイ
ンダ視野外に導かれ、撮影者は各種の撮影情報を知るこ
とができる。
リズム26によって、図3の24で示したようにファイ
ンダ視野外に導かれ、撮影者は各種の撮影情報を知るこ
とができる。
【0032】図1に戻って、31は撮影レンズ1内に設
けた絞り、32は絞り駆動回路111を含む絞り駆動装
置、33はレンズ駆動用モータ、34は駆動ギヤ等から
成るレンズ駆動部材である。35はフォトカプラであ
り、前記レンズ駆動部材34に連動するパルス板36の
回転を検知してレンズ焦点調節回路110に伝えてお
り、該焦点調節回路110は、この情報とカメラ側から
のレンズ駆動量の情報に基づいて前記レンズ駆動用モー
タ33を所定量駆動させ、撮影レンズ1を合焦位置に移
動させるようになっている。37は公知のカメラとレン
ズとのインターフェイスとなるマウント接点である。
けた絞り、32は絞り駆動回路111を含む絞り駆動装
置、33はレンズ駆動用モータ、34は駆動ギヤ等から
成るレンズ駆動部材である。35はフォトカプラであ
り、前記レンズ駆動部材34に連動するパルス板36の
回転を検知してレンズ焦点調節回路110に伝えてお
り、該焦点調節回路110は、この情報とカメラ側から
のレンズ駆動量の情報に基づいて前記レンズ駆動用モー
タ33を所定量駆動させ、撮影レンズ1を合焦位置に移
動させるようになっている。37は公知のカメラとレン
ズとのインターフェイスとなるマウント接点である。
【0033】27は水銀スイッチ等の姿勢検出スイッチ
であり、カメラが横位置で構えられたか、縦位置で構え
られたかを検出するものである。
であり、カメラが横位置で構えられたか、縦位置で構え
られたかを検出するものである。
【0034】図2(A),(B)において、41はレリ
ーズ釦である。42は外部モニター表示装置としてのモ
ニター用LCDで、予め決められたパターンを表示する
固定セグメント表示部と、可変数値表示用の7セグメン
ト表示部とから成っている。44はモードダイヤルであ
り、撮影モード等の選択を行うためのものである。カメ
ラ本体に刻印された指標43を表示に合わせる事によっ
て、その表示内容で撮影モードが設定される。例えば、
カメラを不作動とするロックポジション、予め設定した
撮影プログラムによって制御される自動撮影モードのポ
ジション、撮影者が撮影内容を認定できるマニュアル撮
影モードで、プログラムAE、シャッタ優先AE、絞り
優先AE、被写体深度優先AE、マニュアル露出の各撮
影モードが設定可能である。また、視線入力用の「CA
L」ポジションもモードダイヤル44中にあり、「CA
L」ポジションにして、後述の電子ダイヤル45を操作
する事により、視線入力のON,OFF、そしてキャリ
ブレーションの実行及び選択を行うことができる。
ーズ釦である。42は外部モニター表示装置としてのモ
ニター用LCDで、予め決められたパターンを表示する
固定セグメント表示部と、可変数値表示用の7セグメン
ト表示部とから成っている。44はモードダイヤルであ
り、撮影モード等の選択を行うためのものである。カメ
ラ本体に刻印された指標43を表示に合わせる事によっ
て、その表示内容で撮影モードが設定される。例えば、
カメラを不作動とするロックポジション、予め設定した
撮影プログラムによって制御される自動撮影モードのポ
ジション、撮影者が撮影内容を認定できるマニュアル撮
影モードで、プログラムAE、シャッタ優先AE、絞り
優先AE、被写体深度優先AE、マニュアル露出の各撮
影モードが設定可能である。また、視線入力用の「CA
L」ポジションもモードダイヤル44中にあり、「CA
L」ポジションにして、後述の電子ダイヤル45を操作
する事により、視線入力のON,OFF、そしてキャリ
ブレーションの実行及び選択を行うことができる。
【0035】45は電子ダイヤルであり、回転してクリ
ックパルスを発生させることによってモードダイヤル4
4で選択されたモードの中でさらに選択されたモードの
中でさらに選択し得る設定値を選択する為のものであ
る。例えば、モードダイヤル44にてシャッタ優先の撮
影モードを選択すると、ファインダ内LCD24及びモ
ニター用LCD42には、現在設定されているシャッタ
速度が表示される。この表示を見て、撮影者が電子ダイ
ヤル45を回転させると、その回転方向にしたがって現
在設定されているシャッタ速度から順次シャッタ速度が
変化していくように構成されている。
ックパルスを発生させることによってモードダイヤル4
4で選択されたモードの中でさらに選択されたモードの
中でさらに選択し得る設定値を選択する為のものであ
る。例えば、モードダイヤル44にてシャッタ優先の撮
影モードを選択すると、ファインダ内LCD24及びモ
ニター用LCD42には、現在設定されているシャッタ
速度が表示される。この表示を見て、撮影者が電子ダイ
ヤル45を回転させると、その回転方向にしたがって現
在設定されているシャッタ速度から順次シャッタ速度が
変化していくように構成されている。
【0036】その他の操作部材については、本発明とは
直接関係ないのでその説明は省略する。
直接関係ないのでその説明は省略する。
【0037】図4は上記構成の一眼レフカメラに内蔵さ
れた電気的構成を示すブロック図であり、図1と同一の
ものは同一番号を付している。
れた電気的構成を示すブロック図であり、図1と同一の
ものは同一番号を付している。
【0038】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101、測光回路102、自動焦点検
出回路103、信号入力回路104、LCD駆動回路1
05、LED駆動回路106、IRED駆動回路10
7、シャッタ制御回路108、モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110、絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
ータの中央処理装置(以下、CPUと記す)100に
は、視線検出回路101、測光回路102、自動焦点検
出回路103、信号入力回路104、LCD駆動回路1
05、LED駆動回路106、IRED駆動回路10
7、シャッタ制御回路108、モータ制御回路109が
接続されている。また、撮影レンズ1内に配置された焦
点調節回路110、絞り駆動回路111とは、図1で示
したマウント接点37を介して信号の伝達がなされる。
【0039】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。
【0040】前記視線検出回路101は、イメージセン
サ14(CCD−EYE)からの眼球像の信号をA/D
変換し、この像情報をCPU100に送信する。CPU
100は視線検出に必要な眼球像の各特徴点を所定のア
ルゴリズムにしたがって抽出し、さらに各特徴点の位置
から撮影者の視線を算出する。前記測光回路102は、
測光センサ10からの信号を増幅後、対数圧縮、A/D
変換し、各センサの輝度情報としてCPU100に送信
する。前記測光センサ10は、ファインダ画面内の6つ
の領域(図3の領域60から65に対応)を測光するS
PC−L2,SPC−L1,SPC−C,SPC−R
1,SPC−R2、SPC−Mから成る6つのフォトダ
イオードから構成されており、いわゆる分割測光が可能
である。
サ14(CCD−EYE)からの眼球像の信号をA/D
変換し、この像情報をCPU100に送信する。CPU
100は視線検出に必要な眼球像の各特徴点を所定のア
ルゴリズムにしたがって抽出し、さらに各特徴点の位置
から撮影者の視線を算出する。前記測光回路102は、
測光センサ10からの信号を増幅後、対数圧縮、A/D
変換し、各センサの輝度情報としてCPU100に送信
する。前記測光センサ10は、ファインダ画面内の6つ
の領域(図3の領域60から65に対応)を測光するS
PC−L2,SPC−L1,SPC−C,SPC−R
1,SPC−R2、SPC−Mから成る6つのフォトダ
イオードから構成されており、いわゆる分割測光が可能
である。
【0041】ラインセンサ6fは、前述の図3に示し
た、画面内の5つの焦点検出領域に対応した5組のライ
ンセンサCCD−L2,CCD−L1,CCD−C,C
CD−R1,CCD−R2から構成される公知のCCD
ラインセンサである。前記自動焦点検出回路103は、
上記のラインセンサ6fから得た電圧をA/D変換し、
CPU100に送る。
た、画面内の5つの焦点検出領域に対応した5組のライ
ンセンサCCD−L2,CCD−L1,CCD−C,C
CD−R1,CCD−R2から構成される公知のCCD
ラインセンサである。前記自動焦点検出回路103は、
上記のラインセンサ6fから得た電圧をA/D変換し、
CPU100に送る。
【0042】SW1はレリーズ釦41の第1ストローク
でONし、測光、AF、視線検出動作等を開始させる為
のスイッチ、SW2はレリーズ釦41の第2ストローク
でONするレリーズスイッチである。SW−DIALI
とSW−DIAL2は、既に説明した電子ダイヤル45
内に設けられたダイヤルスイッチであり、信号入力回路
104のアップダウンカウンタに入力され、電子ダイヤ
ル45の回転クリック量をカウントする。SW−ANG
27は姿勢検出スイッチであり、この信号を基にカメラ
の姿勢状態が検出される。
でONし、測光、AF、視線検出動作等を開始させる為
のスイッチ、SW2はレリーズ釦41の第2ストローク
でONするレリーズスイッチである。SW−DIALI
とSW−DIAL2は、既に説明した電子ダイヤル45
内に設けられたダイヤルスイッチであり、信号入力回路
104のアップダウンカウンタに入力され、電子ダイヤ
ル45の回転クリック量をカウントする。SW−ANG
27は姿勢検出スイッチであり、この信号を基にカメラ
の姿勢状態が検出される。
【0043】これらスイッチの状態信号入力回路104
に入力され、データバスによってCPU100に送信さ
れる。
に入力され、データバスによってCPU100に送信さ
れる。
【0044】前記LCD駆動回路105は、液晶表示素
子であるLCDを表示駆動させるための公知の構成より
成るもので、CPU100からの信号に従い、絞り値、
シャッタ秒時、設定した撮影モード等の表示をモニター
用LCD42とファインダ内LCD(F−LCD)24
の両方に同時に表示させることができる。前記LED駆
動回路106は、照明用LED(F−LED)25とス
ーパーインポーズ用LED21を点灯,点滅制御する。
前記IRED駆動回路107は、CPU100の指示に
従ってIRED13a〜13hを選択的に点灯させた
り、該IRED13a〜13hへの出力電流値(あるい
はパルス数)を変化させて照明パワーを制御する。
子であるLCDを表示駆動させるための公知の構成より
成るもので、CPU100からの信号に従い、絞り値、
シャッタ秒時、設定した撮影モード等の表示をモニター
用LCD42とファインダ内LCD(F−LCD)24
の両方に同時に表示させることができる。前記LED駆
動回路106は、照明用LED(F−LED)25とス
ーパーインポーズ用LED21を点灯,点滅制御する。
前記IRED駆動回路107は、CPU100の指示に
従ってIRED13a〜13hを選択的に点灯させた
り、該IRED13a〜13hへの出力電流値(あるい
はパルス数)を変化させて照明パワーを制御する。
【0045】前記シャッタ制御回路108は、通電する
と先幕を走行させるマグネットMG−1と、後幕を走行
させるマグネットMG−2を制御し、感光部材に所定光
量を露光させる。前記モータ制御回路109は、フィル
ムの巻き上げ、巻き戻しを行うモータM1と主ミラー2
及びシャッタ4のチャージを行うモータM2を制御する
ためのものである。
と先幕を走行させるマグネットMG−1と、後幕を走行
させるマグネットMG−2を制御し、感光部材に所定光
量を露光させる。前記モータ制御回路109は、フィル
ムの巻き上げ、巻き戻しを行うモータM1と主ミラー2
及びシャッタ4のチャージを行うモータM2を制御する
ためのものである。
【0046】上記シャッタ制御回路108とモータ制御
回路109によって、一連のカメラのレリーズシーケン
ス動作する。
回路109によって、一連のカメラのレリーズシーケン
ス動作する。
【0047】次に、視線検出装置を有した上記構成のカ
メラの動作について、図5のフローチャートを用いて説
明する。
メラの動作について、図5のフローチャートを用いて説
明する。
【0048】モードダイヤル44を回転させてカメラを
不作動状態から所定の撮影モードに設定すると(この実
施の形態では、シャッタ優先AEに設定された場合をも
とに説明する)、カメラの電源がONされ(ステップ#
100)、CPU100のEEPROM100aに記憶
された視線のキャリブレーションデータ以外の視線検出
に使われる変数がリセットされる(ステップ#10
1)。そして、カメラはレリーズ釦41が押し込まれて
スイッチSW1がONされるまで待機する(ステップ#
102)。
不作動状態から所定の撮影モードに設定すると(この実
施の形態では、シャッタ優先AEに設定された場合をも
とに説明する)、カメラの電源がONされ(ステップ#
100)、CPU100のEEPROM100aに記憶
された視線のキャリブレーションデータ以外の視線検出
に使われる変数がリセットされる(ステップ#10
1)。そして、カメラはレリーズ釦41が押し込まれて
スイッチSW1がONされるまで待機する(ステップ#
102)。
【0049】レリーズ釦41が押し込まれてスイッチS
W1がONされたことを信号入力回路104が検出する
と、6秒間の測光タイマが作動し、その間カメラは連続
的に測光センサ10と測光回路102、CPU100は
カメラの被写界光の測光値取り込み及び演算を繰り返
し、ファインダ内F−LCD24と外部モニター用LC
D42に常に最新の測光演算値、つまりシャッタ秒時の
表示51と撮影レンズの絞り値表示52を行う。
W1がONされたことを信号入力回路104が検出する
と、6秒間の測光タイマが作動し、その間カメラは連続
的に測光センサ10と測光回路102、CPU100は
カメラの被写界光の測光値取り込み及び演算を繰り返
し、ファインダ内F−LCD24と外部モニター用LC
D42に常に最新の測光演算値、つまりシャッタ秒時の
表示51と撮影レンズの絞り値表示52を行う。
【0050】上記スイッチSW1がONし、測光タイマ
が作動すると同時にCPU100は図2のモードダイヤ
ル44の設定が視線入力がONかOFFの何れにセット
されているのかを信号入力回路104を通じて検知する
(ステップ#103)。ここで、視線入力OFF、つま
り視線禁止モードに設定されているか、あるいは後述の
視線検出が不成功であった場合は視線情報を用いずに焦
点検出領域自動選択サブルーチンによって特定の焦点検
出領域を選択する(ステップ#116)。そして、この
焦点検出領域において自動焦点検出回路103は焦点検
出動作を行う(ステップ#107)。
が作動すると同時にCPU100は図2のモードダイヤ
ル44の設定が視線入力がONかOFFの何れにセット
されているのかを信号入力回路104を通じて検知する
(ステップ#103)。ここで、視線入力OFF、つま
り視線禁止モードに設定されているか、あるいは後述の
視線検出が不成功であった場合は視線情報を用いずに焦
点検出領域自動選択サブルーチンによって特定の焦点検
出領域を選択する(ステップ#116)。そして、この
焦点検出領域において自動焦点検出回路103は焦点検
出動作を行う(ステップ#107)。
【0051】焦点検出領域自動選択のアルゴリズムとし
てはいくつかの方法が考えられるが、多点AFカメラで
は公知となっている中央焦点検出領域に重み付けを置い
た近点優先アルゴリズムが有効である。
てはいくつかの方法が考えられるが、多点AFカメラで
は公知となっている中央焦点検出領域に重み付けを置い
た近点優先アルゴリズムが有効である。
【0052】上記ステップ#103にてカメラの動作モ
ードが視線検出動作を実行する視線検出モードに設定さ
れている時は、視線検出を行う際にどのキャリブレーシ
ョンデータを使用するかを視線検出回路101に確認す
る。さらに、前記キャリブレーションデータナンバーに
対応する視線のキャリブレーションデータが所定の値に
設定されていてそのデータが撮影者により入力されたも
のであることが認識されると、視線検出回路101はそ
のキャリブレーションデータにしたがって視線検出を実
行し、視線はピント板7上の視線位置座標に変換される
(ステップ#104)。
ードが視線検出動作を実行する視線検出モードに設定さ
れている時は、視線検出を行う際にどのキャリブレーシ
ョンデータを使用するかを視線検出回路101に確認す
る。さらに、前記キャリブレーションデータナンバーに
対応する視線のキャリブレーションデータが所定の値に
設定されていてそのデータが撮影者により入力されたも
のであることが認識されると、視線検出回路101はそ
のキャリブレーションデータにしたがって視線検出を実
行し、視線はピント板7上の視線位置座標に変換される
(ステップ#104)。
【0053】上記ステップ#104の視線検出動作につ
いての詳細は後述するとして、次に上記ステップ#10
4で検出された視線検出は成功か否かの判定にかけられ
る(ステップ#105)。ここでの判定条件は、角膜反
射像であるプルキンエ像及び瞳孔中心位置の信頼性及び
眼球の回転角等である。この結果、不成功ならばステッ
プ#116の焦点検出領域自動選択サブルーチンに進
む。また、視線検出が成功ならば、CPU100は該視
線位置座標が属する5つまたは3つの視線有効領域に対
応した焦点検出領域を選択する(ステップ#106)。
そして、自動焦点検出回路103はステップ#106あ
るいはステップ#116にて選択がなされた焦点検出領
域での焦点検出を実行する(ステップ#107)。
いての詳細は後述するとして、次に上記ステップ#10
4で検出された視線検出は成功か否かの判定にかけられ
る(ステップ#105)。ここでの判定条件は、角膜反
射像であるプルキンエ像及び瞳孔中心位置の信頼性及び
眼球の回転角等である。この結果、不成功ならばステッ
プ#116の焦点検出領域自動選択サブルーチンに進
む。また、視線検出が成功ならば、CPU100は該視
線位置座標が属する5つまたは3つの視線有効領域に対
応した焦点検出領域を選択する(ステップ#106)。
そして、自動焦点検出回路103はステップ#106あ
るいはステップ#116にて選択がなされた焦点検出領
域での焦点検出を実行する(ステップ#107)。
【0054】次に、レンズ駆動を行う前の状態でCCD
ラインセンサの信号から、上記フローにより選択された
焦点検出領域の焦点検出が可能か否かの判定が行われ
(ステップ#108)、焦点検出が可能であれば、CP
U100はレンズ焦点調節回路110に信号を送って所
定量撮影レンズ1を駆動させる(ステップ#109)。
ラインセンサの信号から、上記フローにより選択された
焦点検出領域の焦点検出が可能か否かの判定が行われ
(ステップ#108)、焦点検出が可能であれば、CP
U100はレンズ焦点調節回路110に信号を送って所
定量撮影レンズ1を駆動させる(ステップ#109)。
【0055】さらに撮影レンズ駆動後の所定の焦点検出
領域において撮影レンズ1が合焦しているか否かの判定
が行われ(ステップ#110)、合焦していたならば、
CPU100はLCD駆動回路105に信号を送ってフ
ァインダ内LCD24の合焦マーク53を点灯させると
ともに、LED駆動回路106にも信号を送って合焦し
ている焦点検出領域に対応したスーパーインポーズ用L
ED21を点灯させ、該焦点検出領域を光らせることで
合焦表示させる(ステップ#111)。
領域において撮影レンズ1が合焦しているか否かの判定
が行われ(ステップ#110)、合焦していたならば、
CPU100はLCD駆動回路105に信号を送ってフ
ァインダ内LCD24の合焦マーク53を点灯させると
ともに、LED駆動回路106にも信号を送って合焦し
ている焦点検出領域に対応したスーパーインポーズ用L
ED21を点灯させ、該焦点検出領域を光らせることで
合焦表示させる(ステップ#111)。
【0056】上記ステップ#108にて焦点検出判定に
て不能と判定されるか、あるいはステップ#110にて
レンズ駆動後に合焦判定で合焦失敗と判定された場合
は、CPU100はLCD駆動回路105に信号を送っ
てファインダ内LCD24の合焦マーク53を点滅さ
せ、被写体にピントを合わせることができなかったこと
を知らしめ(ステップ#117)、再度スイッチSW1
が一旦OFFし、再度ONするのを待つ(ステップ#1
18)。
て不能と判定されるか、あるいはステップ#110にて
レンズ駆動後に合焦判定で合焦失敗と判定された場合
は、CPU100はLCD駆動回路105に信号を送っ
てファインダ内LCD24の合焦マーク53を点滅さ
せ、被写体にピントを合わせることができなかったこと
を知らしめ(ステップ#117)、再度スイッチSW1
が一旦OFFし、再度ONするのを待つ(ステップ#1
18)。
【0057】ここでステップ#111に戻ると、 撮影
レンズ1の合焦表示がなされた後、CPU100はステ
ップ#102でONした測光タイマの状態が引き続きO
Nしているか否かの検知を行う(ステップ#112)。
ここで合焦した焦点検出領域がファインダ内に表示され
たのを撮影者が見て、その焦点検出領域が正しくない、
あるいは撮影を中止すると判定してレリーズ釦41から
手を離し、スイッチSW1がOFFされるとステップ#
102に戻り、スイッチSW1のON待ちとなる。
レンズ1の合焦表示がなされた後、CPU100はステ
ップ#102でONした測光タイマの状態が引き続きO
Nしているか否かの検知を行う(ステップ#112)。
ここで合焦した焦点検出領域がファインダ内に表示され
たのを撮影者が見て、その焦点検出領域が正しくない、
あるいは撮影を中止すると判定してレリーズ釦41から
手を離し、スイッチSW1がOFFされるとステップ#
102に戻り、スイッチSW1のON待ちとなる。
【0058】一方、撮影者が合焦表示された焦点検出領
域を見て、引き続きスイッチSW1をONし続けられて
いるならば、CPU100は測光回路102に被写界輝
度の測定を実行させ、カメラの露出値を決定させる(ス
テップ#113)。さらにレリーズ釦41を押し込んで
スイッチSW2がONされたならば(ステップ#11
4)、CPU100はシャッタ制御回路108、モータ
制御回路109、及び、絞り駆動回路111にそれぞれ
信号を送信して、公知のシャッタレリーズ動作を行う
(ステップ#115)。
域を見て、引き続きスイッチSW1をONし続けられて
いるならば、CPU100は測光回路102に被写界輝
度の測定を実行させ、カメラの露出値を決定させる(ス
テップ#113)。さらにレリーズ釦41を押し込んで
スイッチSW2がONされたならば(ステップ#11
4)、CPU100はシャッタ制御回路108、モータ
制御回路109、及び、絞り駆動回路111にそれぞれ
信号を送信して、公知のシャッタレリーズ動作を行う
(ステップ#115)。
【0059】具体的には、まず、モータ制御回路109
を介してモータM2に通電して主ミラー2をアップさ
せ、絞り31を絞り込んだ後、マグネットMG−1に通
電し、シャッタ4の先幕を開放する。絞り31の絞り値
及びシャッタ4のシャッタスピードは、前記測光回路1
02にて検出された露出値とフィルム5の感度から決定
される。所定のシャッタ秒時(1/125秒)経過後、
マグネットMG−2に通電し、シャッタ4の後幕を閉じ
る。フィルム5への露光が終了すると、モータM2に再
度通電し、ミラーダウン、シャッタチャージを行うとと
もにフィルム給送用のモータM1にも通電し、フィルム
の駒送りを行い、一連のシャッタレリーズシーケンスの
動作が終了する。
を介してモータM2に通電して主ミラー2をアップさ
せ、絞り31を絞り込んだ後、マグネットMG−1に通
電し、シャッタ4の先幕を開放する。絞り31の絞り値
及びシャッタ4のシャッタスピードは、前記測光回路1
02にて検出された露出値とフィルム5の感度から決定
される。所定のシャッタ秒時(1/125秒)経過後、
マグネットMG−2に通電し、シャッタ4の後幕を閉じ
る。フィルム5への露光が終了すると、モータM2に再
度通電し、ミラーダウン、シャッタチャージを行うとと
もにフィルム給送用のモータM1にも通電し、フィルム
の駒送りを行い、一連のシャッタレリーズシーケンスの
動作が終了する。
【0060】その後、カメラは再びスイッチSW1がO
Nされるまで待機する(ステップ#102)。
Nされるまで待機する(ステップ#102)。
【0061】図6は、視線検出動作アルゴリズムを示す
フローチャートである。
フローチャートである。
【0062】図6において、前述のように視線検出回路
101は、CPU100より信号を受け取ると視線検出
を実行する(ステップ#104)。視線検出回路101
は撮影モードの中での視線検出かあるいは視線のキャリ
ブレーションモードの中での視線検出かの判定を行う
(ステップ#200)。
101は、CPU100より信号を受け取ると視線検出
を実行する(ステップ#104)。視線検出回路101
は撮影モードの中での視線検出かあるいは視線のキャリ
ブレーションモードの中での視線検出かの判定を行う
(ステップ#200)。
【0063】実際には、図2のモードダイヤル44が視
線検出動作のためのキャリブレーションモードに設定さ
れていた場合は、後述するキャリブレーション(CA
L)動作(ステップ#300)を実行する。
線検出動作のためのキャリブレーションモードに設定さ
れていた場合は、後述するキャリブレーション(CA
L)動作(ステップ#300)を実行する。
【0064】モードダイヤル44には視線検出モードの
設定があり、この設定位置で、3人分のキャリブレーシ
ョンデータを登録、実行が可能となるキャリブレーショ
ンデータナンバー1、2、3と、視線検出を実行しない
OFFの計4つのポジション設定が図2の電子ダイヤル
45の操作で可能である。
設定があり、この設定位置で、3人分のキャリブレーシ
ョンデータを登録、実行が可能となるキャリブレーショ
ンデータナンバー1、2、3と、視線検出を実行しない
OFFの計4つのポジション設定が図2の電子ダイヤル
45の操作で可能である。
【0065】そこで、カメラがキャリブレーションモー
ドに設定されていない場合、視線検出回路101はカメ
ラが現在どのキャリブレーションデータナンバーに設定
されているかを認識する。
ドに設定されていない場合、視線検出回路101はカメ
ラが現在どのキャリブレーションデータナンバーに設定
されているかを認識する。
【0066】続いて視線検出回路101は、撮影モード
での視線検出の場合はまず最初にカメラがどのような姿
勢になっているかを信号入力回路104を介して検出す
る(ステップ#201)。信号入力回路104は図1中
の姿勢検出スイッチ27(SW−ANG)の出力信号を
処理してカメラが横位置であるか縦位置であるか、また
縦位置である場合は例えばレリーズ釦41が天方向にあ
るか地(面)方向にあるか判定する。
での視線検出の場合はまず最初にカメラがどのような姿
勢になっているかを信号入力回路104を介して検出す
る(ステップ#201)。信号入力回路104は図1中
の姿勢検出スイッチ27(SW−ANG)の出力信号を
処理してカメラが横位置であるか縦位置であるか、また
縦位置である場合は例えばレリーズ釦41が天方向にあ
るか地(面)方向にあるか判定する。
【0067】次に、先に検出されたカメラの姿勢情報と
キャリブレーションデータに含まれる撮影者の眼鏡情報
よりIRED13a〜13hの選択を行う(ステップ#
202)。すなわち、カメラが横位置に構えられ、撮影
者が眼鏡をかけていなかったならば、図2(B)に示す
IRED13a,13bが選択される。また、カメラが
横位置で、撮影者が眼鏡をかけていれば、撮影者の眼鏡
反射光の影響が少なくなるように、IRED13a,1
3bの間隔よりもさらに間隔の広い13c,13dのI
REDが選択される。
キャリブレーションデータに含まれる撮影者の眼鏡情報
よりIRED13a〜13hの選択を行う(ステップ#
202)。すなわち、カメラが横位置に構えられ、撮影
者が眼鏡をかけていなかったならば、図2(B)に示す
IRED13a,13bが選択される。また、カメラが
横位置で、撮影者が眼鏡をかけていれば、撮影者の眼鏡
反射光の影響が少なくなるように、IRED13a,1
3bの間隔よりもさらに間隔の広い13c,13dのI
REDが選択される。
【0068】又カメラが、例えばレリーズ釦41が天方
向にあるか地(面)方向に縦位置で構えられていたなら
ば、撮影者の眼球を下方から照明するようなIREDの
組み合わせ、すなわち撮影者が眼鏡をかけていなかった
ならば、13a,13fを、撮影者が眼鏡をかけていれ
ば、13c,13eの組み合わせが選択される。
向にあるか地(面)方向に縦位置で構えられていたなら
ば、撮影者の眼球を下方から照明するようなIREDの
組み合わせ、すなわち撮影者が眼鏡をかけていなかった
ならば、13a,13fを、撮影者が眼鏡をかけていれ
ば、13c,13eの組み合わせが選択される。
【0069】次に、イメージセンサ14(以下、CCD
−EYEと記す)の本蓄積に先だって予備蓄積が行われ
る(ステップ#203)。上記CCD−EYE14の予
備蓄積というのは、本蓄積の直前に一定時間、たとえば
1msと蓄積時間を決めて常に像信号を取り込むこと
で、その信号レベルの強弱に応じて実際の眼球像取り込
みの蓄積時間を制御することで、安定した眼球像信号を
得ることが可能となる。つまり、予備蓄積の像信号出力
に基づいて、観察者の眼球近傍の明るさ(外光量)が測
定される(ステップ#204)。
−EYEと記す)の本蓄積に先だって予備蓄積が行われ
る(ステップ#203)。上記CCD−EYE14の予
備蓄積というのは、本蓄積の直前に一定時間、たとえば
1msと蓄積時間を決めて常に像信号を取り込むこと
で、その信号レベルの強弱に応じて実際の眼球像取り込
みの蓄積時間を制御することで、安定した眼球像信号を
得ることが可能となる。つまり、予備蓄積の像信号出力
に基づいて、観察者の眼球近傍の明るさ(外光量)が測
定される(ステップ#204)。
【0070】次に、CCD−EYE14の蓄積時間及び
IREDの照明パワーが、ステップ#204の外光量あ
るいは眼鏡装着か否かの情報等に基づいて設定される
(ステップ#205)。上記CCD−EYE14の蓄積
時間及びIREDの照明パワーが設定されると、CPU
100はIRED駆動回路107を介してIRED13
を所定のパワーで点灯させるとともに、視線検出回路1
01はCCD−EYE14の蓄積を開始する(ステップ
#206)。また、先に設定されたCCD−EYE14
の蓄積時間にしたがってここでの蓄積を終了し、それと
ともにIRED13も消灯される。
IREDの照明パワーが、ステップ#204の外光量あ
るいは眼鏡装着か否かの情報等に基づいて設定される
(ステップ#205)。上記CCD−EYE14の蓄積
時間及びIREDの照明パワーが設定されると、CPU
100はIRED駆動回路107を介してIRED13
を所定のパワーで点灯させるとともに、視線検出回路1
01はCCD−EYE14の蓄積を開始する(ステップ
#206)。また、先に設定されたCCD−EYE14
の蓄積時間にしたがってここでの蓄積を終了し、それと
ともにIRED13も消灯される。
【0071】次に、CCD−EYE14にて蓄積された
像信号は順次読み出され、視線検出回路101でA/D
変換された後にCPU100にメモリされる(ステップ
#207)。
像信号は順次読み出され、視線検出回路101でA/D
変換された後にCPU100にメモリされる(ステップ
#207)。
【0072】ここで簡単に視線検出の原理について、図
7及び図8を用いて説明する。
7及び図8を用いて説明する。
【0073】図7はCCD−EYE14の眼球像信号を
画像化したもので、図8中の眼球15の角膜16におい
て、仮にIRED13aと13bが発光することで、図
7及び図8に示すプルキンエ19a,19bが生じる。
また、17は虹彩、18は瞳孔である。
画像化したもので、図8中の眼球15の角膜16におい
て、仮にIRED13aと13bが発光することで、図
7及び図8に示すプルキンエ19a,19bが生じる。
また、17は虹彩、18は瞳孔である。
【0074】図6に戻り、これらの像信号に対して公知
であるところの視線検出処理が行われる(ステップ#2
08)。すなわち、CPU100において、眼球の照明
に使用された1組のIRED13a,13bの虚像であ
るプルキンエ像19a,19bの位置が検出される。
であるところの視線検出処理が行われる(ステップ#2
08)。すなわち、CPU100において、眼球の照明
に使用された1組のIRED13a,13bの虚像であ
るプルキンエ像19a,19bの位置が検出される。
【0075】前述の通り、プルキンエ像19a,19b
は光強度の強い輝点として現れるため、光強度に対する
所定の閾値を設け、該閾値を超える光強度のものをプル
キンエ像とすることにより検出可能である。また、瞳孔
の中心位置は瞳孔18と虹彩17の境界点を複数検出
し、各境界点を基に円の最小二乗近似を行うことにより
算出される。これらプルキンエ像位置と瞳孔中心位置と
から眼球における回転角度θが求まり、さらに2つのプ
ルキンエ像19の間隔からカメラの接眼レンズ11と撮
影者の眼球15との距離が算出され、CCD−EYE1
4に投影された眼球像の結像倍率βを得ることができ
る。
は光強度の強い輝点として現れるため、光強度に対する
所定の閾値を設け、該閾値を超える光強度のものをプル
キンエ像とすることにより検出可能である。また、瞳孔
の中心位置は瞳孔18と虹彩17の境界点を複数検出
し、各境界点を基に円の最小二乗近似を行うことにより
算出される。これらプルキンエ像位置と瞳孔中心位置と
から眼球における回転角度θが求まり、さらに2つのプ
ルキンエ像19の間隔からカメラの接眼レンズ11と撮
影者の眼球15との距離が算出され、CCD−EYE1
4に投影された眼球像の結像倍率βを得ることができ
る。
【0076】以上のことから、眼球の回転角度θと結像
倍率β、さらにキャリブレーションで得られた個人差補
正情報を用いて、撮影者の視線方向のピント板7上の位
置座標を求めることができる。
倍率β、さらにキャリブレーションで得られた個人差補
正情報を用いて、撮影者の視線方向のピント板7上の位
置座標を求めることができる。
【0077】図6に戻って、上記ステップ#203から
ステップ#208で行われた視線検出動作が何回行われ
たかが判定され(ステップ#209)、後述するキャリ
ブレーション時に撮影者の注視点分布に基づいて決定さ
れた視線検出実行回数nに達していなければステップ#
203に戻って再度視線検出を実行し、n回に達したな
らば、n回の視線検出で得られた撮影者の視線方向のピ
ント板7上の位置座標のx,y値の各々の平均値を算出
して最終的な視線位置として決定する(ステップ#21
0)。この部分が視線位置を決定する部分であり、ここ
で視線位置が決まると図5のステップ#105の視線よ
り領域選択を行うか否かの判定部分に戻り、視線位置に
対応した視線有効領域が決定し、さらに該領域に対応し
た焦点検出領域が決定される。
ステップ#208で行われた視線検出動作が何回行われ
たかが判定され(ステップ#209)、後述するキャリ
ブレーション時に撮影者の注視点分布に基づいて決定さ
れた視線検出実行回数nに達していなければステップ#
203に戻って再度視線検出を実行し、n回に達したな
らば、n回の視線検出で得られた撮影者の視線方向のピ
ント板7上の位置座標のx,y値の各々の平均値を算出
して最終的な視線位置として決定する(ステップ#21
0)。この部分が視線位置を決定する部分であり、ここ
で視線位置が決まると図5のステップ#105の視線よ
り領域選択を行うか否かの判定部分に戻り、視線位置に
対応した視線有効領域が決定し、さらに該領域に対応し
た焦点検出領域が決定される。
【0078】次に、図9のフローチャートを用いて、キ
ャリブレーション動作アルゴリズムの説明を行う。
ャリブレーション動作アルゴリズムの説明を行う。
【0079】前述したようにキャリブレーションとは、
撮影者がファインダ視野内の焦点検出領域のドットマー
ク右端74´,左端70´をそれぞれ一定時間固視する
ことで行い、そこから得られた眼球像データから視線補
正データを採取するというものであり、本実施の形態で
はこのキャリブレーション動作そのものが前記図6の視
線検出アルゴリズム中の視線検出実行回数を決める手段
となっている。
撮影者がファインダ視野内の焦点検出領域のドットマー
ク右端74´,左端70´をそれぞれ一定時間固視する
ことで行い、そこから得られた眼球像データから視線補
正データを採取するというものであり、本実施の形態で
はこのキャリブレーション動作そのものが前記図6の視
線検出アルゴリズム中の視線検出実行回数を決める手段
となっている。
【0080】モードダイヤル44が「CAL」ポジショ
ンに設定されることで、キャリブレーション動作がスタ
ートする(ステップ#300)。
ンに設定されることで、キャリブレーション動作がスタ
ートする(ステップ#300)。
【0081】まず最初にカメラがどのような姿勢になっ
ているかを姿勢検出スイッチ27(SW−ANG)の出
力信号と信号入力回路104を介して検出する(ステッ
プ#301)。これは図6のステップ#201と同じ検
出処理である。次に、ファインダ視野内の焦点検出領域
のドットマーク右端74´を点滅表示して撮影者に固視
すべき目標を表示する(ステップ#302)。また同時
に、現在設定されているキャリブレーションナンバーか
らEEPROM100aにメモリされているキャリブレ
ーションデータの確認を行い、既に登録済みの場合は、
図2のモニター用LCD42の「CAL」表示をそのま
ま点灯に、未登録の場合には、「CAL」表示を点滅さ
せる。
ているかを姿勢検出スイッチ27(SW−ANG)の出
力信号と信号入力回路104を介して検出する(ステッ
プ#301)。これは図6のステップ#201と同じ検
出処理である。次に、ファインダ視野内の焦点検出領域
のドットマーク右端74´を点滅表示して撮影者に固視
すべき目標を表示する(ステップ#302)。また同時
に、現在設定されているキャリブレーションナンバーか
らEEPROM100aにメモリされているキャリブレ
ーションデータの確認を行い、既に登録済みの場合は、
図2のモニター用LCD42の「CAL」表示をそのま
ま点灯に、未登録の場合には、「CAL」表示を点滅さ
せる。
【0082】続いてカメラは、キャリブレーションを行
う際の撮影者の眼球を照明するIREDの選択動作を行
う(ステップ#303)。この場合のIREDの選択動
作は、図6中で説明した動作と多少異なり、カメラの姿
勢情報を用いるのは同様であるが、キャリブレーション
を過去に行って、キャリブレーションデータが既にカメ
ラに記憶されている場合には、記憶されているIRED
の組を、つまり、眼鏡装着時用か非装着時(裸眼)用の
組の何れかを記憶情報に従って最初から選択する。一
方、初めてキャリブレーションを行う場合は、眼鏡装着
時用か非装着時用のIREDの組を選択する情報がない
ため、キャリブレーションの第1回目の眼球像照明は眼
鏡非装着時用のIREDの組を選択発光し、後述のCC
Dの眼球像信号中に眼鏡の反射によるゴーストの有無の
判定に従って、眼鏡ゴースト発生が検知されれば、2回
目以降の照明は眼鏡用のIREDの組に変更する。
う際の撮影者の眼球を照明するIREDの選択動作を行
う(ステップ#303)。この場合のIREDの選択動
作は、図6中で説明した動作と多少異なり、カメラの姿
勢情報を用いるのは同様であるが、キャリブレーション
を過去に行って、キャリブレーションデータが既にカメ
ラに記憶されている場合には、記憶されているIRED
の組を、つまり、眼鏡装着時用か非装着時(裸眼)用の
組の何れかを記憶情報に従って最初から選択する。一
方、初めてキャリブレーションを行う場合は、眼鏡装着
時用か非装着時用のIREDの組を選択する情報がない
ため、キャリブレーションの第1回目の眼球像照明は眼
鏡非装着時用のIREDの組を選択発光し、後述のCC
Dの眼球像信号中に眼鏡の反射によるゴーストの有無の
判定に従って、眼鏡ゴースト発生が検知されれば、2回
目以降の照明は眼鏡用のIREDの組に変更する。
【0083】ステップ#303にて、発光を行うべきI
REDの組が決定され、カメラは撮影者のスイッチSW
1のON信号待ちとなり、スイッチSW1のON信号を
検知すると前記図6のフローチャートの説明で行ったス
テップ#203から#ステップ205と同じ眼球像取り
込み動作が行われる。
REDの組が決定され、カメラは撮影者のスイッチSW
1のON信号待ちとなり、スイッチSW1のON信号を
検知すると前記図6のフローチャートの説明で行ったス
テップ#203から#ステップ205と同じ眼球像取り
込み動作が行われる。
【0084】つまり、CCD−EYE14の蓄積時間と
IRED13の照明パワーが設定され(ステップ#30
4)、実際にCCD−EYE14の蓄積とIRED13
の照明が実行され(ステップ#305)、CCD−EY
E14にて蓄積された像信号が順次読み出され、AD変
換後にCPU100にメモリされる(ステップ#30
6)。次にCPU100はメモリ上のAD変換された像
信号を定められた計算式に従って撮影者の眼球の回転角
度θを算出する(ステップ#307)。
IRED13の照明パワーが設定され(ステップ#30
4)、実際にCCD−EYE14の蓄積とIRED13
の照明が実行され(ステップ#305)、CCD−EY
E14にて蓄積された像信号が順次読み出され、AD変
換後にCPU100にメモリされる(ステップ#30
6)。次にCPU100はメモリ上のAD変換された像
信号を定められた計算式に従って撮影者の眼球の回転角
度θを算出する(ステップ#307)。
【0085】なお、眼球像取り込み動作中はファインダ
視野内の焦点検出領域のドットマーク右端74´の点滅
は点灯表示に変わり、撮影者に眼球像取り込み動作を実
行している最中であることを知らしめている。
視野内の焦点検出領域のドットマーク右端74´の点滅
は点灯表示に変わり、撮影者に眼球像取り込み動作を実
行している最中であることを知らしめている。
【0086】続いて、算出された回転角度θは、その値
が妥当か否かの判定にかけられる(ステップ#30
8)。眼球光軸と視軸のズレが生体的に数十度もずれて
いることはほとんどないので、ここでは判定の閾値を±
10度に設定してある。このステップ#308では、検
出された眼球の回転角度OK,NGの判定を行っている
だけで、その結果がOKでもNGでも次のステップ#3
09に進み、眼球の回転角度検出の総回数が10回未満
であればステップ#304に戻り、再度眼球像取り込み
動作が行われ、眼球の回転角度検出の総回数が10回に
達すると、今度はその10回のうちOKが何回発生した
かによってキャリブレーション(CAL)成功、失敗の
判定を行う(ステップ#310)。
が妥当か否かの判定にかけられる(ステップ#30
8)。眼球光軸と視軸のズレが生体的に数十度もずれて
いることはほとんどないので、ここでは判定の閾値を±
10度に設定してある。このステップ#308では、検
出された眼球の回転角度OK,NGの判定を行っている
だけで、その結果がOKでもNGでも次のステップ#3
09に進み、眼球の回転角度検出の総回数が10回未満
であればステップ#304に戻り、再度眼球像取り込み
動作が行われ、眼球の回転角度検出の総回数が10回に
達すると、今度はその10回のうちOKが何回発生した
かによってキャリブレーション(CAL)成功、失敗の
判定を行う(ステップ#310)。
【0087】ここでは6回以上の回転角度検出成功で右
端74´でのキャリブレーション成功となり、引き続
き、今度は左端70´でのキャリブレーション動作を開
始する。左端70´でのキャリブレーションが同様に成
功すると右端指標74´と左端指標70´それぞれにお
ける注視点(正確には注視回転角)の分布が得られる。
図10(A)と図10(B)にその一例を示す。
端74´でのキャリブレーション成功となり、引き続
き、今度は左端70´でのキャリブレーション動作を開
始する。左端70´でのキャリブレーションが同様に成
功すると右端指標74´と左端指標70´それぞれにお
ける注視点(正確には注視回転角)の分布が得られる。
図10(A)と図10(B)にその一例を示す。
【0088】図10(A)と図10(B)は、撮影者a
と撮影者bという2人の該カメラのキャリブレーション
対象者に、各人右端指標74´を見てキャリブレーショ
ンを行ってもらい、10回の回転角度検出に全て成功し
たデータをθx,θy座標系にプロットしたものであ
り、便宜的にθx,θy座標系の原点に各θx,θy、
10個づつのデータの平均値を一致させてあるため、原
点を平均中心とした分布となっている。
と撮影者bという2人の該カメラのキャリブレーション
対象者に、各人右端指標74´を見てキャリブレーショ
ンを行ってもらい、10回の回転角度検出に全て成功し
たデータをθx,θy座標系にプロットしたものであ
り、便宜的にθx,θy座標系の原点に各θx,θy、
10個づつのデータの平均値を一致させてあるため、原
点を平均中心とした分布となっている。
【0089】図10(A)と図10(B)から明らかな
ように、撮影者aの人に対し、撮影者bの人は1点(こ
の場合指標74´)を注視していてもその注視点のばら
つきが大きいことがわかる。そこで、これら注視点分布
を定量化するためにθx,θy各々に対して標準偏差を
計算する(ステップ#311)。標準偏差σは次式で算
出する(式はθxについてのもの)。
ように、撮影者aの人に対し、撮影者bの人は1点(こ
の場合指標74´)を注視していてもその注視点のばら
つきが大きいことがわかる。そこで、これら注視点分布
を定量化するためにθx,θy各々に対して標準偏差を
計算する(ステップ#311)。標準偏差σは次式で算
出する(式はθxについてのもの)。
【0090】
【数式1】 よって、上式より、指標47´を注視したときのX方
向、y方向の標準偏差をそれぞれ、σRx,σRy、ま
た指標40´を注視したときのX方向、y方向の標準偏
差をそれぞれ、σLx,σLyと各々計算することがで
きる。本説明のカメラでは視線検出で選択すべき視線有
効領域60から64が水平方向のみに並んでいることか
ら、ここではX方向のみの注視点分布を示す標準偏差
「σx=(σRx+σLx)/2」を定義して以下説明
を続ける。
向、y方向の標準偏差をそれぞれ、σRx,σRy、ま
た指標40´を注視したときのX方向、y方向の標準偏
差をそれぞれ、σLx,σLyと各々計算することがで
きる。本説明のカメラでは視線検出で選択すべき視線有
効領域60から64が水平方向のみに並んでいることか
ら、ここではX方向のみの注視点分布を示す標準偏差
「σx=(σRx+σLx)/2」を定義して以下説明
を続ける。
【0091】次に、計算されたX方向の注視点分布の標
準偏差σxを閾値と比較する(ステップ#312)。閾
値はここでは0.7度としている。実際には視線検出で
選択すべき領域60から64を選択するためには隣接し
た各領域中心間の距離/2(ここでは視線角度にして約
2度)が分離できれば可能であるはずであるが、実際に
は注視時のばらつき以外にも撮影者のファインダの覗き
方の差、キャリブレーションでの誤差、視線検出時の誤
差等が視線検出の結果に影響するため、ここでの閾値は
厳しい値を設定してある。
準偏差σxを閾値と比較する(ステップ#312)。閾
値はここでは0.7度としている。実際には視線検出で
選択すべき領域60から64を選択するためには隣接し
た各領域中心間の距離/2(ここでは視線角度にして約
2度)が分離できれば可能であるはずであるが、実際に
は注視時のばらつき以外にも撮影者のファインダの覗き
方の差、キャリブレーションでの誤差、視線検出時の誤
差等が視線検出の結果に影響するため、ここでの閾値は
厳しい値を設定してある。
【0092】説明の便宜上「σx=σRx」とすると、
上記撮影者aは標準偏差σx=0.39であることより
閾値0.7を下回っているので注視点分布のばらつきは
少ない人であると判定し、図6で説明したところの視線
検出動作実行為時における視線検出実行回数(実検出回
数)はn=1と決定され、その回数がEEPROM10
0aにメモリされる(ステップ#313)。
上記撮影者aは標準偏差σx=0.39であることより
閾値0.7を下回っているので注視点分布のばらつきは
少ない人であると判定し、図6で説明したところの視線
検出動作実行為時における視線検出実行回数(実検出回
数)はn=1と決定され、その回数がEEPROM10
0aにメモリされる(ステップ#313)。
【0093】一方、上記撮影者bは標準偏差σx=0.
85であることより閾値0.7を上回っているので注視
点分布のばらつきは大きい人であると判定し、視線検出
実行回数はn=3と決定され、その回数がEEPROM
100aにメモリされる(ステップ#314)。
85であることより閾値0.7を上回っているので注視
点分布のばらつきは大きい人であると判定し、視線検出
実行回数はn=3と決定され、その回数がEEPROM
100aにメモリされる(ステップ#314)。
【0094】図11(A)と図11(B)は、前記図1
0(A)と図10(B)で説明した撮影者a,bが実際
に視線検出を行って、視線有効領域61が選択されるこ
とを説明したものである。
0(A)と図10(B)で説明した撮影者a,bが実際
に視線検出を行って、視線有効領域61が選択されるこ
とを説明したものである。
【0095】図11(A)において、撮影者aはキャリ
ブレーション時の注視点分布採取手段によって注視点分
布のばらつきが少ない人と判定されているため、n=1
回のみの視線検出で検出されたピント板7上の座標80
がそのまま視線位置として決定され、その座標が属する
視線有効領域61が選択されている。
ブレーション時の注視点分布採取手段によって注視点分
布のばらつきが少ない人と判定されているため、n=1
回のみの視線検出で検出されたピント板7上の座標80
がそのまま視線位置として決定され、その座標が属する
視線有効領域61が選択されている。
【0096】一方、図11(B)において、撮影者bは
注視点分布のばらつきが大きい人と判定されるため、視
線検出はn=3回実行され、それぞれピント板7上の座
標81,82,83が視線位置として検出される。そし
て、最終的には座標81,82、83のそれぞれのX,
Y座標値が平均された84が視線位置として決定し、そ
の座標が属する視線有効領域61が選択されている。
注視点分布のばらつきが大きい人と判定されるため、視
線検出はn=3回実行され、それぞれピント板7上の座
標81,82,83が視線位置として検出される。そし
て、最終的には座標81,82、83のそれぞれのX,
Y座標値が平均された84が視線位置として決定し、そ
の座標が属する視線有効領域61が選択されている。
【0097】図9に戻って、ステップ#313およびス
テップ#314にて視線検出実行回数が決定されるとモ
ニター用LCD42の「CAL」表示はキャリブレーシ
ョン成功を意味する点灯表示となり、キャリブレーショ
ンデータはCPU100にメモリされる。キャリブレー
ションが成功すると、CPU100はキャリブレーショ
ンによって得られた撮影者の眼球の個人差による視線の
検出誤差を補正するための視線補正データをCPU10
0のEEPROM100aに記憶する。もし既にキャリ
ブレーションデータが登録されていた場合、新たに採取
されたキャリブレーションデータは、メモリされていた
過去のデータと統合される(ステップ#316)。
テップ#314にて視線検出実行回数が決定されるとモ
ニター用LCD42の「CAL」表示はキャリブレーシ
ョン成功を意味する点灯表示となり、キャリブレーショ
ンデータはCPU100にメモリされる。キャリブレー
ションが成功すると、CPU100はキャリブレーショ
ンによって得られた撮影者の眼球の個人差による視線の
検出誤差を補正するための視線補正データをCPU10
0のEEPROM100aに記憶する。もし既にキャリ
ブレーションデータが登録されていた場合、新たに採取
されたキャリブレーションデータは、メモリされていた
過去のデータと統合される(ステップ#316)。
【0098】また、上記ステップ#310にて回転角度
の検出成功回数が6回未満の場合にはCAL失敗とな
り、モニター用LCD42の「CAL」表示は点滅表示
にかわり、撮影者にキャリブレーションが失敗したこと
を知らしめる(ステップ#315)。
の検出成功回数が6回未満の場合にはCAL失敗とな
り、モニター用LCD42の「CAL」表示は点滅表示
にかわり、撮影者にキャリブレーションが失敗したこと
を知らしめる(ステップ#315)。
【0099】上記説明において、視線検出の実行回数を
決定するのに撮影者の注視点分布座標の標準偏差を算出
して求めたが、標準偏差以外にも分散の値などの統計処
理によって求めるようにしても良い。
決定するのに撮影者の注視点分布座標の標準偏差を算出
して求めたが、標準偏差以外にも分散の値などの統計処
理によって求めるようにしても良い。
【0100】また、上記説明では注視点分布座標の標準
偏差から求まった視線検出の実行回数の値をキャリブレ
ーションナンバーと対応させてEEPROM100aに
記憶するようにしてあるが、標準偏差そのものの値を記
憶しておき、実際にカメラを撮影する際の視線検出実行
時にこの標準偏差値をCPU100が読み取り、視線検
出実行回数をその場で判定するようにしても良い。
偏差から求まった視線検出の実行回数の値をキャリブレ
ーションナンバーと対応させてEEPROM100aに
記憶するようにしてあるが、標準偏差そのものの値を記
憶しておき、実際にカメラを撮影する際の視線検出実行
時にこの標準偏差値をCPU100が読み取り、視線検
出実行回数をその場で判定するようにしても良い。
【0101】さらには視線検出実行回数と標準偏差の両
方を記憶し、キャリブレーションの積み重ね時に得られ
る新しい標準偏差の値と過去の標準偏差の値から最新の
視線検出実行回数の値を更新するのがより実用的であ
る。
方を記憶し、キャリブレーションの積み重ね時に得られ
る新しい標準偏差の値と過去の標準偏差の値から最新の
視線検出実行回数の値を更新するのがより実用的であ
る。
【0102】上記実施の第1の形態によれば、観察者が
同一個所を注視した時の複数の視線位置情報を得るため
の注視点分布演算を行う手段(#311)と、該手段の
出力に基づいて、視線検出を実行する回数を可変し、得
られた一つ以上の視線位置情報から前記観察者の視線位
置を決定する手段(#312〜#314,#210,#
106)とを有する構成にしているので、注視する能力
の個人差によって発生する視線位置のばらつきの影響を
最小限にとどめ、機器を使用する人それぞれに対して意
図した領域の選択を行わせることが可能となる。
同一個所を注視した時の複数の視線位置情報を得るため
の注視点分布演算を行う手段(#311)と、該手段の
出力に基づいて、視線検出を実行する回数を可変し、得
られた一つ以上の視線位置情報から前記観察者の視線位
置を決定する手段(#312〜#314,#210,#
106)とを有する構成にしているので、注視する能力
の個人差によって発生する視線位置のばらつきの影響を
最小限にとどめ、機器を使用する人それぞれに対して意
図した領域の選択を行わせることが可能となる。
【0103】(実施の第2の形態)図12から図13は
本発明の実施の第2の形態に係る主要部分の動作を示す
フローチャート図である。なお、上記実施の第1の形態
において説明した、図1〜図5まではこの実施の第2の
形態のカメラにおいても共通であるものとする。
本発明の実施の第2の形態に係る主要部分の動作を示す
フローチャート図である。なお、上記実施の第1の形態
において説明した、図1〜図5まではこの実施の第2の
形態のカメラにおいても共通であるものとする。
【0104】図12は本発明の実施の第2の形態に係る
カメラの視線検出動作アルゴリズムを示すフローチャー
トであり、ステップ#104,#400〜#408まで
は、上記実施の第1の形態における図6のフローチャー
トのステップ#104,#200〜#208とまで全く
同一であるため、その説明を割愛する。
カメラの視線検出動作アルゴリズムを示すフローチャー
トであり、ステップ#104,#400〜#408まで
は、上記実施の第1の形態における図6のフローチャー
トのステップ#104,#200〜#208とまで全く
同一であるため、その説明を割愛する。
【0105】図12のステップ#408にて視線検出処
理が終了し、撮影者の視線位置座標が決定すると、その
座標が図3の視線有効領域60から64の何れに存在し
ているかの判定が行われる。その結果、何れかの視線有
効領域に存在していれば、その視線有効領域に存在した
回数をカウントしていく。ある領域においてカウント数
がm回に達したと判定されたならば(ステップ#40
9)、その視線有効領域を撮影者は視線検出により選択
したと見なして領域を決定し(ステップ#410)、図
5のステップ#105→#106へと進み、最終的には
ステップ#410で選択された視線有効領域に対応した
焦点検出領域が選択されることになる(厳密には図5の
ステップ#105で受け取るのは視線位置座標であり、
この実施の第2の形態ではステップ#410自体が領域
選択する手段になっており、上記実施の第1の形態で述
べたステップ#105とは機能が若干異なる)。
理が終了し、撮影者の視線位置座標が決定すると、その
座標が図3の視線有効領域60から64の何れに存在し
ているかの判定が行われる。その結果、何れかの視線有
効領域に存在していれば、その視線有効領域に存在した
回数をカウントしていく。ある領域においてカウント数
がm回に達したと判定されたならば(ステップ#40
9)、その視線有効領域を撮影者は視線検出により選択
したと見なして領域を決定し(ステップ#410)、図
5のステップ#105→#106へと進み、最終的には
ステップ#410で選択された視線有効領域に対応した
焦点検出領域が選択されることになる(厳密には図5の
ステップ#105で受け取るのは視線位置座標であり、
この実施の第2の形態ではステップ#410自体が領域
選択する手段になっており、上記実施の第1の形態で述
べたステップ#105とは機能が若干異なる)。
【0106】ステップ#409に戻って、何れかの視線
有効領域内においてもまだs回の視線位置座標が存在し
ていない場合は、視線検出が何回行われているか判定を
行い(ステップ#411)、視線検出回数がt回に達し
ていたら、視線検出NG(ステップ#412)として図
5の#105へ進み、t回未満であれば再度ステップ#
403に戻り、再度視線検出動作を繰り返す。視線検出
の回数を制限したのは、カメラ動作の応答性の面からの
考慮である。
有効領域内においてもまだs回の視線位置座標が存在し
ていない場合は、視線検出が何回行われているか判定を
行い(ステップ#411)、視線検出回数がt回に達し
ていたら、視線検出NG(ステップ#412)として図
5の#105へ進み、t回未満であれば再度ステップ#
403に戻り、再度視線検出動作を繰り返す。視線検出
の回数を制限したのは、カメラ動作の応答性の面からの
考慮である。
【0107】上記ステップ#409におけるカウント数
sおよびステップ#410におけるカウント数tは、次
に述べる図13におけるキャリブレーション動作のアル
ゴリズムで決定される。
sおよびステップ#410におけるカウント数tは、次
に述べる図13におけるキャリブレーション動作のアル
ゴリズムで決定される。
【0108】図13において、ステップ#500からス
テップ#511までは、上記実施の第1の形態の図7の
動作と全く同一である。つまり、キャリブレーション動
作を行うことで視線補正データを得ることができる訳で
あるが、撮影者が2つの指標を注視し、10回の眼球回
転角の検出を行うことによって、同時に注視点(正確に
は注視角度)の分布を得ることができ、これから得られ
るデータから標準偏差σxを算出(注視点分布演算)す
るというのがステップ#511までの概略である。
テップ#511までは、上記実施の第1の形態の図7の
動作と全く同一である。つまり、キャリブレーション動
作を行うことで視線補正データを得ることができる訳で
あるが、撮影者が2つの指標を注視し、10回の眼球回
転角の検出を行うことによって、同時に注視点(正確に
は注視角度)の分布を得ることができ、これから得られ
るデータから標準偏差σxを算出(注視点分布演算)す
るというのがステップ#511までの概略である。
【0109】次のステップ#512においては、得られ
た標準偏差の値σxは閾値0.7と比較され、0.7よ
りも小さいときは、前記図12の視線検出動作アルゴリ
ズムのステップ#409の判定値であるsを、s=1、
t=1(回)とする(ステップ#513)。一方、標準
偏差の値σxが閾値0.7以上であるときは、s=3、
t=4(回)とする(ステップ#514)。
た標準偏差の値σxは閾値0.7と比較され、0.7よ
りも小さいときは、前記図12の視線検出動作アルゴリ
ズムのステップ#409の判定値であるsを、s=1、
t=1(回)とする(ステップ#513)。一方、標準
偏差の値σxが閾値0.7以上であるときは、s=3、
t=4(回)とする(ステップ#514)。
【0110】図14(A),図14(B)はそれぞれσ
xが0.7より小さい人(実施の第1の形態の撮影者
a)、0.7以上の人(実施の第1の形態の撮影者b)
の場合に対応して視線検出動作によって視線有効領域6
1が選択されることを説明した図である。
xが0.7より小さい人(実施の第1の形態の撮影者
a)、0.7以上の人(実施の第1の形態の撮影者b)
の場合に対応して視線検出動作によって視線有効領域6
1が選択されることを説明した図である。
【0111】図14(A)において、撮影者aはキャリ
ブレーション時の注視点分布演算(#511)によって
注視点分布のばらつきが少ない人と判定されているた
め、m=1回のみの視線検出で検出されたピント板7上
の座標90が属する視線有効領域61がそのまま選択さ
れている。
ブレーション時の注視点分布演算(#511)によって
注視点分布のばらつきが少ない人と判定されているた
め、m=1回のみの視線検出で検出されたピント板7上
の座標90が属する視線有効領域61がそのまま選択さ
れている。
【0112】一方、図14(B)においては、撮影者b
は注視点分布のばらつきが大きい人と判定されるため、
視線有効領域60から64の内の何れかに3回視線位置
が属しないと領域が確定されない。ここではピント板7
上の視線位置座標94が領域61内に検出された時点で
視線検出動作は終了し、座標91,92,94の3個の
視線位置が領域61内に検出され、93が領域62内に
検出され、視線有効領域61が条件を満たしたことで選
択されている。
は注視点分布のばらつきが大きい人と判定されるため、
視線有効領域60から64の内の何れかに3回視線位置
が属しないと領域が確定されない。ここではピント板7
上の視線位置座標94が領域61内に検出された時点で
視線検出動作は終了し、座標91,92,94の3個の
視線位置が領域61内に検出され、93が領域62内に
検出され、視線有効領域61が条件を満たしたことで選
択されている。
【0113】以上の実施の第2の形態によれば、画面内
を、該機器の諸動作の制御を行うための情報を得るべく
複数に分割された領域(この例では、焦点検出領域)と
を有し、観察者が同一個所を注視した時の複数の視線位
置情報を得るための注視点分布演算を行う手段(#51
1)と、該手段の出力に基づいて所定値を決定し、視線
位置が前記分割された領域内に存在する数を前記所定値
と比較することで、前記複数の領域の中から一つの領域
を決定する手段(#512〜#514,#410,#1
06)を有する構成としているので、人間の生理的問題
である注視する能力の個人差によって発生する視線位置
のばらつきの影響を最小限にとどめ、機器を使用する人
それぞれに対して意図した領域の選択を行わせることが
可能となる。つまり、機器を使用する人それぞれに応じ
て精度の良い、快適に動作する視線検出機能を実行する
ことが可能となる。
を、該機器の諸動作の制御を行うための情報を得るべく
複数に分割された領域(この例では、焦点検出領域)と
を有し、観察者が同一個所を注視した時の複数の視線位
置情報を得るための注視点分布演算を行う手段(#51
1)と、該手段の出力に基づいて所定値を決定し、視線
位置が前記分割された領域内に存在する数を前記所定値
と比較することで、前記複数の領域の中から一つの領域
を決定する手段(#512〜#514,#410,#1
06)を有する構成としているので、人間の生理的問題
である注視する能力の個人差によって発生する視線位置
のばらつきの影響を最小限にとどめ、機器を使用する人
それぞれに対して意図した領域の選択を行わせることが
可能となる。つまり、機器を使用する人それぞれに応じ
て精度の良い、快適に動作する視線検出機能を実行する
ことが可能となる。
【0114】(変形例)上記実施の各形態では、一眼レ
フカメラに適用した場合を述べているが、レンズシャッ
タカメラ、ビデオカメラ等の光学機器にも適用可能であ
る。更に、ヘッドマウント式の視線検出ユニットとディ
スプレイを組み合わせた機器やその他の機器、構成ユニ
ットとしても適用することができるものである。
フカメラに適用した場合を述べているが、レンズシャッ
タカメラ、ビデオカメラ等の光学機器にも適用可能であ
る。更に、ヘッドマウント式の視線検出ユニットとディ
スプレイを組み合わせた機器やその他の機器、構成ユニ
ットとしても適用することができるものである。
【0115】
【発明の効果】以上説明したように、本発明によれば、
注視する能力の個人差によって発生する視線位置のばら
つきの影響を最小限にとどめ、機器を使用する人それぞ
れに対して意図した領域の選択することができる視線検
出装置又は光学機器を提供できるものである。
注視する能力の個人差によって発生する視線位置のばら
つきの影響を最小限にとどめ、機器を使用する人それぞ
れに対して意図した領域の選択することができる視線検
出装置又は光学機器を提供できるものである。
【図面の簡単な説明】
【図1】本発明の実施の第1の形態に係る一眼レフカメ
ラの概略図である。
ラの概略図である。
【図2】図1の一眼レフカメラの上面および後部外観を
示す図である。
示す図である。
【図3】図1の一眼レフカメラのファインダ視野図であ
る。
る。
【図4】図1の一眼レフカメラの電気的構成を示すブロ
ック図である。
ック図である。
【図5】図1の一眼レフカメラの一連の動作を示すフロ
ーチャートである。
ーチャートである。
【図6】図5のステップ#104の視線検出動作を示す
フローチャートである。
フローチャートである。
【図7】一般的な視線検出の原理を説明する為の図であ
る。
る。
【図8】同じく一般的な視線検出の原理を説明する為の
図である。
図である。
【図9】図6のステップ#300のキャリブレーション
動作を示すフローチャートである。
動作を示すフローチャートである。
【図10】本実施の第1の形態に係る注視点分布図であ
る。
る。
【図11】本実施の第1の形態に係る視線選択領域の説
明図である。
明図である。
【図12】本実施の第2の形態におけるカメラの視線検
出動作を示すフローチャートである。
出動作を示すフローチャートである。
【図13】本実施の第2の形態におけるカメラのキャリ
ブレーション動作を示すフローチャートである。
ブレーション動作を示すフローチャートである。
【図14】本実施の第2の形態に係る視線選択領域の説
明図である。
明図である。
6 焦点検出装置 6f イメージセンサ 10 測光センサ 13 赤外発光ダイオード(IRED) 14 イメージセンサ(CCD−EYE) 70〜74 焦点検出領域マーク 100 CPU 101 視線検出回路 103 焦点検出回路 106 LED駆動回路 107 IRED駆動回路 110 焦点調節回路
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G03B 13/04 G03B 17/20 5C022 13/36 H04N 5/232 A 17/18 101:00 A61B 3/10 B 17/20 G02B 7/11 N H04N 5/232 C // H04N 101:00 G03B 3/00 A Fターム(参考) 2H002 DB02 DB14 EB00 GA63 HA01 JA02 2H011 BA23 DA00 2H018 AA22 AA24 2H051 BA04 DA08 DA24 GA03 GA12 GA13 2H102 AA33 AA44 AA71 BB08 CA13 5C022 AA13 AC02 AC12 AC51 AC69 AC74
Claims (9)
- 【請求項1】 観察者の観察面内における視線位置を検
出する視線検出手段と、観察者に同一個所を注視させた
ときに検出される複数の視線位置から、前記観察者が注
視する際の視線位置のばらつきを演算する分布演算手段
とを有し、 前記分布演算手段の演算結果に応じて、前記観察者が注
視しているとされる注視領域を前記視線位置から決定す
るための制御を異ならせることを特徴とする視線検出装
置。 - 【請求項2】 観察者の観察面内における視線位置を検
出する視線検出手段と、観察者に同一個所を注視させた
ときに検出される複数の視線位置から、前記観察者が注
視する際の視線位置のばらつきを演算する分布演算手段
とを有し、 前記分布演算手段の演算結果に応じて、前記観察者が注
視しているとされる単一の視線位置を決定するための制
御を異ならせることを特徴とする視線検出装置。 - 【請求項3】 前記観察者の注視領域を、検出された所
定数の視線位置から決定し、前記制御を異ならせると
は、前記所定数を変更することであることを特徴とする
請求項1に記載の視線検出装置。 - 【請求項4】 前記観察面は複数の領域に分割されてお
り、前記観察者の注視領域とは、前記複数の領域のうち
の何れかの領域であることを特徴とする請求項1に記載
の視線検出装置。 - 【請求項5】 観察者の観察面内における視線位置を検
出する視線検出手段を有し、検出された視線位置に応じ
て、複数領域に分割された前記観察面から一つの領域を
選択する視線検出装置において、 観察者に同一個所を注視させたときに検出される複数の
視線位置から、前記観察者が注視する際の視線位置のば
らつきを演算する分布演算手段と、前記検出された視線
位置が前記分割された各領域内に存在する数を所定数と
比較することで前記複数領域から一つの領域を選択する
領域選択手段とを有し、 前記分布演算手段の演算結果に応じて、前記所定数を異
ならせることを特徴とする視線検出装置。 - 【請求項6】 前記視線位置のばらつきが大きいほど、
前記所定数を大きくすることを特徴とする請求項4又は
5に記載の視線検出装置。 - 【請求項7】 前記分布演算手段は、観察者の複数の視
線位置を統計処理により数値化し、記憶手段に記憶させ
ることを特徴とする請求項1から6の何れかに記載の視
線検出装置。 - 【請求項8】 前記視線検出手段で検出された視線位置
を補正するための値を演算するキャリブレーションにお
いて、前記分布演算手段が演算を行うことを特徴とする
請求項1から7の何れかに記載の視線検出装置。 - 【請求項9】 請求項1から8の何れかに記載の視線検
出装置を備えた光学機器。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001156860A JP2002345756A (ja) | 2001-05-25 | 2001-05-25 | 視線検出装置及び光学機器 |
US10/152,233 US6674964B2 (en) | 2001-05-25 | 2002-05-21 | Visual axis detecting apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001156860A JP2002345756A (ja) | 2001-05-25 | 2001-05-25 | 視線検出装置及び光学機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002345756A true JP2002345756A (ja) | 2002-12-03 |
Family
ID=19000804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001156860A Pending JP2002345756A (ja) | 2001-05-25 | 2001-05-25 | 視線検出装置及び光学機器 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6674964B2 (ja) |
JP (1) | JP2002345756A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252595A (ja) * | 2007-03-30 | 2008-10-16 | Casio Comput Co Ltd | 撮像装置及びそのコンピュータプログラム |
JP2014021708A (ja) * | 2012-07-18 | 2014-02-03 | Nikon Corp | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 |
JP2015049721A (ja) * | 2013-09-02 | 2015-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2015126451A (ja) * | 2013-12-27 | 2015-07-06 | レノボ・シンガポール・プライベート・リミテッド | 画像の記録方法、電子機器およびコンピュータ・プログラム |
WO2016098406A1 (ja) * | 2014-12-17 | 2016-06-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018146966A (ja) * | 2018-04-05 | 2018-09-20 | 株式会社ニコン | 情報入出力装置、及び情報入出力方法 |
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4646442B2 (ja) * | 2001-06-05 | 2011-03-09 | キヤノン株式会社 | デジタル一眼レフカメラ及びその制御方法、並びに記憶媒体 |
US20050123899A1 (en) * | 2002-06-28 | 2005-06-09 | Nobutaka Wakamiya | Anti-hiv agent |
JP2006243074A (ja) * | 2005-02-28 | 2006-09-14 | Olympus Imaging Corp | 防水ハウジング |
US8467672B2 (en) * | 2005-10-17 | 2013-06-18 | Jeffrey C. Konicek | Voice recognition and gaze-tracking for a camera |
JP4337871B2 (ja) * | 2006-12-19 | 2009-09-30 | ソニー株式会社 | 撮像装置 |
JP2009047956A (ja) * | 2007-08-21 | 2009-03-05 | Sony Corp | 撮像装置 |
JP5627438B2 (ja) * | 2010-12-14 | 2014-11-19 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム及び記憶媒体 |
JP7446913B2 (ja) * | 2020-05-21 | 2024-03-11 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03109030A (ja) * | 1989-09-22 | 1991-05-09 | Canon Inc | 注視点検出装置 |
JP2974383B2 (ja) * | 1990-08-21 | 1999-11-10 | キヤノン株式会社 | 視線検出装置及び視線検出装置を有する機器 |
US5745174A (en) * | 1995-04-07 | 1998-04-28 | Canon Kabushiki Kaisha | Viewpoint detection apparatus with selected correction coefficent generation |
US6456788B1 (en) * | 2000-08-21 | 2002-09-24 | Canon Kabushiki Kaisha | Optical apparatus and camera provided with line-of-sight detecting device |
-
2001
- 2001-05-25 JP JP2001156860A patent/JP2002345756A/ja active Pending
-
2002
- 2002-05-21 US US10/152,233 patent/US6674964B2/en not_active Expired - Lifetime
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11818458B2 (en) | 2005-10-17 | 2023-11-14 | Cutting Edge Vision, LLC | Camera touchpad |
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
JP2008252595A (ja) * | 2007-03-30 | 2008-10-16 | Casio Comput Co Ltd | 撮像装置及びそのコンピュータプログラム |
US8542305B2 (en) | 2007-03-30 | 2013-09-24 | Casio Computer Co., Ltd. | Imaging device having display brightness control function |
JP2014021708A (ja) * | 2012-07-18 | 2014-02-03 | Nikon Corp | 頭部装着型情報入出力装置、及び頭部装着型情報入出力方法 |
US9939894B2 (en) | 2013-09-02 | 2018-04-10 | Sony Corporation | Information processing to operate a display object based on gaze information |
US10180718B2 (en) | 2013-09-02 | 2019-01-15 | Sony Corporation | Information processing apparatus and information processing method |
JP2015049721A (ja) * | 2013-09-02 | 2015-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2015126451A (ja) * | 2013-12-27 | 2015-07-06 | レノボ・シンガポール・プライベート・リミテッド | 画像の記録方法、電子機器およびコンピュータ・プログラム |
WO2016098406A1 (ja) * | 2014-12-17 | 2016-06-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10452137B2 (en) | 2014-12-17 | 2019-10-22 | Sony Corporation | Information processing apparatus and information processing method |
CN111493809A (zh) * | 2014-12-17 | 2020-08-07 | 索尼公司 | 信息处理装置和方法、眼镜式终端以及存储介质 |
US11635806B2 (en) | 2014-12-17 | 2023-04-25 | Sony Corporation | Information processing apparatus and information processing method |
JP2018146966A (ja) * | 2018-04-05 | 2018-09-20 | 株式会社ニコン | 情報入出力装置、及び情報入出力方法 |
Also Published As
Publication number | Publication date |
---|---|
US20020176708A1 (en) | 2002-11-28 |
US6674964B2 (en) | 2004-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002345756A (ja) | 視線検出装置及び光学機器 | |
JP3297481B2 (ja) | 視線検出装置 | |
JPH08563A (ja) | 光学装置及びカメラ | |
US5402199A (en) | Visual axis detecting apparatus | |
JP2004008323A (ja) | 視線機能付光学装置 | |
JP2002301030A (ja) | 視線検出機能付き機器 | |
JP2003307774A (ja) | 視線検出機能付き光学機器 | |
JP3304408B2 (ja) | 視線検出装置および視線検出装置を有する機器 | |
JP3184633B2 (ja) | カメラ | |
JP3530647B2 (ja) | 視線検出装置及び光学装置 | |
JP2003339642A (ja) | 視線検出装置及びそれを有した光学装置 | |
JP3176147B2 (ja) | 視線検出装置 | |
JP3605081B2 (ja) | 視線検出装置 | |
JP3184634B2 (ja) | 視線検出装置を有する光学装置 | |
JP3219491B2 (ja) | 視線検出装置 | |
JP2002341239A (ja) | 視線検出装置 | |
JPH06138373A (ja) | 視線検出装置 | |
JP3530648B2 (ja) | 視線検出装置及び光学装置 | |
JP3211427B2 (ja) | 視線検出装置 | |
JP2003084193A (ja) | 光学機器 | |
JP3391892B2 (ja) | 視線検出装置、光学装置及び視線検出方法 | |
JP3186249B2 (ja) | 視線検出装置及び視線検出方法 | |
JP3605080B2 (ja) | 視線検出装置 | |
JP2004004300A (ja) | 視線検出装置及びそれを有した光学装置 | |
JPH08194154A (ja) | 視線検出機能付き観察装置 |