[go: up one dir, main page]

JP2022124778A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2022124778A
JP2022124778A JP2021022615A JP2021022615A JP2022124778A JP 2022124778 A JP2022124778 A JP 2022124778A JP 2021022615 A JP2021022615 A JP 2021022615A JP 2021022615 A JP2021022615 A JP 2021022615A JP 2022124778 A JP2022124778 A JP 2022124778A
Authority
JP
Japan
Prior art keywords
light source
line
distance
light
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021022615A
Other languages
Japanese (ja)
Inventor
宏史 工藤
Hiroshi Kudo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021022615A priority Critical patent/JP2022124778A/en
Publication of JP2022124778A publication Critical patent/JP2022124778A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

To provide an electronic apparatus capable of accurate visual line detection independent of a distance to an eye ball.SOLUTION: The electronic apparatus, which is capable of visual line detection to detect a visual line of a user, comprises: a first light source which applies light of a first wavelength to an eye of the user; a second light source which applies light of a second wavelength different from the first wavelength to the eye of the user; a sensor which receives light for the visual line detection; and control means which switches a light source to use for the visual line detection between the first light source and the second light source.SELECTED DRAWING: Figure 8

Description

本発明は、視線検出機能を有する電子機器に関するものである。 The present invention relates to an electronic device having a line-of-sight detection function.

視線検出機能でユーザーの視線(視線方向)を検出し、視線の検出結果に基づいて測距点選択などを行うことが可能なカメラ(ビデオカメラを含む)が実用化されている。例えば、特許文献1には、被写体に対して第1の波長の光と第2の波長の光を照射して肌領域のうちの眼領域を特定し、第1の波長の光を照射したときの眼画像(眼領域の画像)に基づいて視線を検出する技術が開示されている。 Cameras (including video cameras) that can detect a user's line of sight (line of sight direction) with a line of sight detection function and can select a range-finding point based on the result of the line of sight detection have been put to practical use. For example, in Patent Document 1, when a subject is irradiated with light of a first wavelength and light of a second wavelength to specify an eye region in a skin region, and irradiated with light of the first wavelength, A technique for detecting a line of sight based on an eye image (image of an eye region) is disclosed.

特開2013-62560号公報JP 2013-62560 A

しかしながら、特許文献1に開示された従来技術では、単一の波長の光を照射して視線検出が行われるため、眼球距離(眼までの距離)に依っては、ピントのずれた眼画像が得られ、視線検出精度が低下することがある。 However, in the conventional technology disclosed in Patent Document 1, the line of sight is detected by irradiating light of a single wavelength. resulting in decreased accuracy of line-of-sight detection.

そこで本発明は、眼球距離に依らず精度の高い視線検出が可能な電子機器を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an electronic device capable of highly accurate line-of-sight detection regardless of eyeball distance.

上記目的を達成するために、本発明の電子機器は、ユーザーの視線を検出する視線検出を実行可能な電子機器であって、前記ユーザーの眼に第1の波長の光を照射する第1光源と、前記ユーザーの眼に前記第1の波長とは異なる第2の波長の光を照射する第2光源と、前記視線検出のために受光するセンサーと、前記視線検出に使用する光源を前記第1光源と前記第2光源の間で切り替える制御手段とを有することを特徴とする。 In order to achieve the above object, an electronic device of the present invention is an electronic device capable of detecting a line of sight of a user, comprising: a first light source for irradiating light of a first wavelength to the eye of the user; a second light source for irradiating the eyes of the user with light having a second wavelength different from the first wavelength; a sensor for receiving light for detecting the line of sight; and control means for switching between the first light source and the second light source.

本発明によれば、眼球距離に依らず精度の高い視線検出が可能な電子機器を提供することができる。 According to the present invention, it is possible to provide an electronic device capable of highly accurate line-of-sight detection regardless of eyeball distance.

カメラの外観図である。1 is an external view of a camera; FIG. カメラのブロック図である。1 is a block diagram of a camera; FIG. カメラの断面図である。It is a sectional view of a camera. カメラのEVF部分を示す図である。It is a figure which shows the EVF part of a camera. 赤外LEDからの光路を示す図である。FIG. 4 is a diagram showing optical paths from infrared LEDs; 視線検出方法の原理を説明するための図である。It is a figure for demonstrating the principle of a line-of-sight detection method. 眼画像を示す図である。FIG. 4 is a diagram showing an eye image; 視線検出動作のフローチャートである。It is a flow chart of sight line detection operation. 赤外LEDの波長と眼画像の結像状態の関係を説明するための図である。FIG. 4 is a diagram for explaining the relationship between the wavelength of an infrared LED and the imaging state of an eye image; 視線検出動作のフローチャートである。It is a flow chart of sight line detection operation.

[第1の実施形態]
以下、本発明の第1の実施形態について説明する。
[First Embodiment]
A first embodiment of the present invention will be described below.

<構成の説明>
図1(a),1(b)は、第1の実施形態に係る撮像装置であるカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。なお、本発明は、ユーザーの視線を検出する視線検出を実行可能な任意の電子機器に適用可能である。ユーザーは、例えば、表示デバイスに表示された画像、文字等の情報を視認したり、接眼光学系を通して光学像を視認したりする。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、ヘッドマウントディスプレイ、双眼鏡などが含まれてよい。
<Description of configuration>
1(a) and 1(b) show the appearance of a camera 1 (digital still camera; interchangeable lens camera), which is an imaging device according to the first embodiment. Note that the present invention is applicable to any electronic device capable of executing line-of-sight detection for detecting the user's line of sight. A user, for example, visually recognizes information such as images and characters displayed on a display device, or visually recognizes an optical image through an eyepiece optical system. These electronic devices may include, for example, mobile phones, game machines, tablet terminals, personal computers, watch-type or spectacle-type information terminals, head-mounted displays, and binoculars.

図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン34が配置されている。図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の第2表示パネル6をユーザーが覗き込むための接眼窓枠121が配置されている。接眼窓枠121は覗き口12を形成し、カメラ筐体1Bに対しては外側(背面側)に突出している。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。 FIG. 1(a) is a front perspective view, and FIG. 1(b) is a rear perspective view. As shown in FIG. 1(a), the camera 1 has a photographing lens unit 1A and a camera housing 1B. The camera housing 1B is provided with a release button 34, which is an operation member for receiving an imaging operation from a user (photographer). As shown in FIG. 1B, an eyepiece window frame 121 for the user to look into a second display panel 6 (described later) included in the camera housing 1B is arranged on the rear surface of the camera housing 1B. ing. The eyepiece window frame 121 forms the peephole 12 and protrudes outward (to the rear side) with respect to the camera housing 1B. Operation members 41 to 43 for receiving various operations from the user are also arranged on the rear surface of the camera housing 1B. For example, the operation member 41 is a touch panel that accepts touch operations, the operation member 42 is an operation lever that can be pushed down in each direction, and the operation member 43 is a four-way key that can be pushed in each of four directions. The operation member 41 (touch panel) includes a display panel such as a liquid crystal panel, and has a function of displaying an image on the display panel.

図2は、カメラ1内の構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration inside the camera 1. As shown in FIG.

撮像素子2は例えばCCDやCMOSセンサー等の撮像素子であり、撮影レンズユニット1Aの光学系により撮像素子2の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部(不図示)に出力する。A/D変換部は、撮像素子2により得られたアナログ画像信号をA/D変換し、画像データとして出力する。 The image pickup device 2 is an image pickup device such as a CCD or CMOS sensor, and photoelectrically converts an optical image formed on the image pickup surface of the image pickup device 2 by the optical system of the photographing lens unit 1A, and converts the obtained analog image signal. Output to an A/D converter (not shown). The A/D converter A/D-converts the analog image signal obtained by the imaging element 2 and outputs it as image data.

撮影レンズユニット1Aは、ズームレンズ、フォーカスレンズ、絞り等を含む光学系で構成され、カメラ筐体1Bに装着された状態で、被写体からの光を撮像素子2に導き、被写体像を撮像素子2の撮像面上に結像する。絞り制御部118、焦点調節部119、ズーム制御部120は、それぞれマウント接点117を介してCPU3からの指示信号を受信し、該指示信号に従い、絞り、フォーカスレンズ、ズームレンズを駆動制御する。 The photographing lens unit 1A is composed of an optical system including a zoom lens, a focus lens, an aperture, etc., and is attached to the camera housing 1B. is imaged on the imaging surface of The aperture control unit 118, the focus adjustment unit 119, and the zoom control unit 120 each receive an instruction signal from the CPU 3 via the mount contact 117, and drive and control the aperture, focus lens, and zoom lens according to the instruction signal.

カメラ筐体1Bが備えるCPU3は、カメラ筐体1Bが備える各ブロックに対する制御プログラムをメモリ部4の有するROM4aより読み出し、メモリ部4の有するRAM4bに展開して実行する。これによりCPU3は、カメラ筐体1Bが備える各ブロックの動作を制御する。CPU3には、視線検出部201、測光部202、自動焦点検出部203、信号入力部204、表示デバイス駆動部208、光源駆動部205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された絞り制御部118、焦点調節部119、ズーム制御部120に、マウント接点117を介して信号を伝達する。第1の実施形態では、メモリ部4は、撮像素子2および視線検出センサー30からの撮像信号の記憶機能を備える。 The CPU 3 provided in the camera housing 1B reads a control program for each block provided in the camera housing 1B from the ROM 4a of the memory section 4, develops it in the RAM 4b of the memory section 4, and executes it. Thereby, the CPU 3 controls the operation of each block provided in the camera housing 1B. A line-of-sight detection unit 201, a photometry unit 202, an automatic focus detection unit 203, a signal input unit 204, a display device drive unit 208, a light source drive unit 205, and the like are connected to the CPU3. The CPU 3 also transmits signals via the mount contact 117 to the aperture control section 118, the focus control section 119 and the zoom control section 120 arranged in the photographing lens unit 1A. In the first embodiment, the memory unit 4 has a function of storing imaging signals from the imaging element 2 and the line-of-sight detection sensor 30 .

視線検出部201は、視線検出センサー30近傍に眼球像が結像した状態での視線検出センサー30の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信
する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視線位置)を算出する。
The line-of-sight detection unit 201 A/D-converts the output of the line-of-sight detection sensor 30 when the eyeball image is formed in the vicinity of the line-of-sight detection sensor 30 (the eye image of the eye), and transmits the result to the CPU 3 . The CPU 3 extracts feature points necessary for line-of-sight detection from the eye image according to a predetermined algorithm, which will be described later, and calculates the user's line of sight (line-of-sight position in the image for visual recognition) from the positions of the feature points.

測光部202は、測光センサーの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報としてCPU3に送る。 A photometry unit 202 performs amplification, logarithmic compression, A/D conversion, and the like of a signal obtained from the image sensor 2 that also serves as a photometry sensor, specifically, a luminance signal corresponding to the brightness of the object scene. The result is sent to the CPU 3 as field luminance information.

自動焦点検出部203は、撮像素子2(例えばCCD)の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。第1の実施形態では、一例として、ファインダー内の視野像(視認用画像)を分割し、撮像面上の分割された180か所のそれぞれに、焦点検出ポイントがあるとする。 The autofocus detection unit 203 A/D-converts signal voltages from a plurality of detection elements (a plurality of pixels) used for phase difference detection, which are included in the imaging element 2 (for example, CCD), send to The CPU 3 calculates the distance to the object corresponding to each focus detection point from the signals of the plurality of detection elements. This is a well-known technique known as imaging plane phase difference AF. In the first embodiment, as an example, it is assumed that the viewfinder image (visual recognition image) is divided and each of the 180 divided locations on the imaging plane has a focus detection point.

光源駆動部205は、CPU3からの信号(指示)に基づいて、後述する赤外LED18,19,22~27を駆動する。 A light source drive unit 205 drives infrared LEDs 18, 19, 22 to 27, which will be described later, based on a signal (instruction) from the CPU 3. FIG.

画像処理部206は、RAM4bに格納されている画像データに対して、各種画像処理を行う。例えば、光学系や撮像素子に起因する画素欠陥の補正処理、デモザイキング処理、ホワイトバランス補正処理、色補間処理、ガンマ処理など、デジタル画像データを現像し表示・記録するための様々な画像処理が行われる。 The image processing unit 206 performs various image processing on the image data stored in the RAM 4b. For example, various image processing for developing, displaying, and recording digital image data, such as correction processing for pixel defects caused by optical systems and image sensors, demosaicing processing, white balance correction processing, color interpolation processing, and gamma processing. done.

信号入力部204には、スイッチSW1とスイッチSW2が接続されている。スイッチSW1は、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチであり、レリーズボタン34の第1のストローク(例えば半押し)でONする。スイッチSW2は、撮影動作を開始するためのスイッチであり、レリーズボタン34の第2のストローク(例えば全押し)でONする。スイッチSW1,SW2からのON信号は信号入力部204に入力され、CPU3に送信される。また信号入力部204は、図1(b)の操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)からの操作入力も受け付ける。 A switch SW1 and a switch SW2 are connected to the signal input unit 204 . The switch SW1 is a switch for starting photometry, distance measurement, line-of-sight detection, etc. of the camera 1, and is turned ON by the first stroke of the release button 34 (for example, half-press). The switch SW2 is a switch for starting the photographing operation, and is turned ON by the second stroke of the release button 34 (for example, full depression). ON signals from the switches SW1 and SW2 are input to the signal input unit 204 and transmitted to the CPU3. The signal input unit 204 also receives operation input from the operation member 41 (touch panel), the operation member 42 (operation lever), and the operation member 43 (four-way key) shown in FIG. 1B.

記録/出力部207は、着脱可能なメモリカード等の記録媒体に画像データを含むデータを記録、またはこれらのデータを外部インターフェースを介して外部装置に出力する。 A recording/output unit 207 records data including image data on a recording medium such as a removable memory card, or outputs the data to an external device via an external interface.

表示デバイス駆動部208は、CPU3からの信号に基づいて、表示デバイス209を駆動する。表示デバイス209は、後述する第1表示パネル5と第2表示パネル6である。 The display device driving section 208 drives the display device 209 based on the signal from the CPU3. The display devices 209 are a first display panel 5 and a second display panel 6, which will be described later.

図3は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の構成を概念的に示した図である。 FIG. 3 is a cross-sectional view of the camera 1 cut along the YZ plane formed by the Y-axis and Z-axis shown in FIG.

シャッター32と撮像素子2は撮影レンズユニット1Aの光軸方向に順に並ぶ。 The shutter 32 and the image sensor 2 are arranged in order along the optical axis of the photographing lens unit 1A.

カメラ筐体1Bの背面には第1表示パネル5が設けられ、第1表示パネル5は、カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のために、メニュー表示や画像表示を行う。第1表示パネル5は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。 A first display panel 5 is provided on the rear surface of the camera housing 1B. The first display panel 5 displays menus and images for operating the camera 1 and for viewing and editing images obtained by the camera 1. conduct. The first display panel 5 is composed of a liquid crystal panel with a backlight, an organic EL panel, or the like.

カメラ筐体1Bに設けられたEVFは、通常のEVFとして第1表示パネル5のように
メニューや画像の表示が行えることに加えて、EVFを覗くユーザーの視線を検出し、検出結果をカメラ1の制御に反映することが可能な構成となっている。
The EVF provided in the camera housing 1B can display menus and images like the first display panel 5 as a normal EVF. It has a configuration that can be reflected in the control of

第2表示パネル6は、ユーザーがファインダーを覗いているときに、第1表示パネル5と同様の表示(カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のためのメニュー表示や画像表示)を行う。第2表示パネル6は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。第2表示パネル6は一般的なカメラにおける撮影画像と同様に、3:2や4:3、16:9といったX軸方向(水平方向)のサイズがY軸方向(垂直方向)のサイズよりも長い長方形で構成される。 The second display panel 6 provides the same display as the first display panel 5 (menu display and image display for operating the camera 1 and viewing/editing images obtained by the camera 1) when the user is looking through the viewfinder. display). The second display panel 6 is composed of a liquid crystal panel with a backlight, an organic EL panel, or the like. The size of the second display panel 6 in the X-axis direction (horizontal direction), such as 3:2, 4:3, or 16:9, is larger than the size in the Y-axis direction (vertical direction), as with images captured by a general camera. Consists of long rectangles.

パネルホルダー7は第2表示パネル6を保持するパネルホルダーで、第2表示パネル6とパネルホルダー7は接着固定され、表示パネルユニット8を構成している。 A panel holder 7 is a panel holder for holding the second display panel 6 , and the second display panel 6 and the panel holder 7 are adhered and fixed to form a display panel unit 8 .

第1光路分割プリズム9、第2光路分割プリズム10は貼り付け接着されて光路分割プリズムユニット11(光路分割部材)を構成している。光路分割プリズムユニット11は、第2表示パネル6からの光を覗き口12に設けられたアイピース窓17に導き、逆にアイピース窓17から導かれる目(瞳)からの反射光などを視線検出センサー30に導く。 The first optical path splitting prism 9 and the second optical path splitting prism 10 are adhered together to form an optical path splitting prism unit 11 (optical path splitting member). The optical path splitting prism unit 11 guides the light from the second display panel 6 to an eyepiece window 17 provided in the peephole 12, and conversely detects the reflected light from the eye (pupil) led from the eyepiece window 17 as a line of sight detection sensor. lead to 30.

表示パネルユニット8と光路分割プリズムユニット11は、マスク33を挟んで固定され、一体形成されている。 The display panel unit 8 and the optical path splitting prism unit 11 are fixed with a mask 33 interposed therebetween and are integrally formed.

接眼光学系16は、ユーザーが接眼する部分(接眼部)に設けられた光学系であり、G1レンズ13、G2レンズ14、G3レンズ15により構成される。 The eyepiece optical system 16 is an optical system provided in a portion (eyepiece portion) where the user eyepieces, and is composed of the G1 lens 13 , the G2 lens 14 and the G3 lens 15 .

アイピース窓17は、可視光を透過する透明な部材である。表示パネルユニット8に表示された画像は、光路分割プリズムユニット11と接眼光学系16とアイピース窓17を通して観察される。 The eyepiece window 17 is a transparent member that transmits visible light. An image displayed on the display panel unit 8 is observed through the optical path splitting prism unit 11 , eyepiece optical system 16 and eyepiece window 17 .

照明窓20,21は、赤外LED18,19,22~27が外から視認できないように隠すための窓で、可視光を吸収し赤外光を透過する樹脂で構成されている。 The illumination windows 20, 21 are windows for hiding the infrared LEDs 18, 19, 22 to 27 from being visible from the outside, and are made of a resin that absorbs visible light and transmits infrared light.

図4(a)は、カメラ1のEVF部分の構成を示す斜視図、図4(b)はEVF部分の赤外LED付近の構成を示す側面図、図4(b)はEVF部分の光軸の横断面図である。 4(a) is a perspective view showing the configuration of the EVF portion of the camera 1, FIG. 4(b) is a side view showing the configuration of the EVF portion near infrared LEDs, and FIG. 4(b) is the optical axis of the EVF portion. is a cross-sectional view of the.

赤外LED18,19,22,23,24,25,26,27は、各々が覗き口12に向けて光(赤外光)を照射するように、互いに異なる位置・姿勢で配置されている。赤外LED18,19,23,25は近距離照明用の赤外LED(光源)であり、第1の波長λ1の赤外光を照射する。赤外LED22,24,26,27は遠距離照明用の赤外LED(光源)であり、第1の波長λ1よりも長い第2の波長λ2の赤外光を照射する。なお、赤外LED以外の光源が使用されてもよい。 The infrared LEDs 18 , 19 , 22 , 23 , 24 , 25 , 26 , 27 are arranged at different positions and orientations so that each of them emits light (infrared light) toward the peephole 12 . The infrared LEDs 18, 19, 23, and 25 are infrared LEDs (light sources) for short-distance illumination, and emit infrared light with a first wavelength λ1. The infrared LEDs 22, 24, 26, and 27 are infrared LEDs (light sources) for long-distance illumination, and emit infrared light with a second wavelength λ2 longer than the first wavelength λ1. Light sources other than infrared LEDs may be used.

絞り28、視線結像レンズ29を含む視線検出光学系は、光路分割プリズムユニット11によってアイピース窓17から導かれた赤外反射光を、視線検出センサー30に導く。 A line-of-sight detection optical system including an aperture 28 and a line-of-sight imaging lens 29 guides reflected infrared light guided from the eyepiece window 17 by the optical path splitting prism unit 11 to a line-of-sight detection sensor 30 .

視線検出センサー30は、CCDやCMOSなどの固体撮像素子(撮像センサー)で構成される。赤外LED18,19,22~27はユーザーの眼球に赤外光を照射し、視線検出センサー30は、視線検出のために、ユーザーの眼球からの反射光(赤外LED18,19,22~27から発せられ眼球で反射した反射光)を受光する。 The line-of-sight detection sensor 30 is composed of a solid-state imaging device (imaging sensor) such as a CCD or CMOS. The infrared LEDs 18, 19, 22 to 27 irradiate the user's eyeballs with infrared light. Receives reflected light emitted from and reflected by the eyeball).

図4(b)において、角度θ1は、近距離照明用の赤外LED18,19,23,25
の照射方向L1と接眼光学系16の光軸LFとのなす角度である。角度θ2は、遠距離照明用の赤外LED22,24,26,27の照射方向L2と接眼光学系16の光軸LFとのなす角度である。そして、角度θ1は角度θ2よりも大きい。こうすることで、赤外LED18,19,22~27のそれぞれは、照射強度(放射強度)の大きい角度でユーザーの眼球へ赤外光を照射することができ。そして、赤外LEDの消費電力に対する眼球への照射強度の効率を向上することができる。例えば、角度θ1=30°であり、角度θ2=20°である。
In FIG. 4B, the angle θ1 is the infrared LEDs 18, 19, 23, 25 for short-distance illumination.
, and the optical axis LF of the eyepiece optical system 16. The angle θ2 is the angle between the irradiation direction L2 of the infrared LEDs 22, 24, 26, and 27 for long-distance illumination and the optical axis LF of the eyepiece optical system 16. FIG. And the angle θ1 is larger than the angle θ2. By doing so, each of the infrared LEDs 18, 19, 22 to 27 can irradiate the user's eyeball with infrared light at an angle with a high irradiation intensity (radiation intensity). And the efficiency of the irradiation intensity to the eyeball can be improved with respect to the power consumption of the infrared LED. For example, the angle θ1=30° and the angle θ2=20°.

ここで、赤外LED18,19,22~27の少なくともいずれかから、ファインダーを覗いているユーザーの眼球に赤外光が照射された場合を考える。図4(c)の光路31aで示すように、赤外光が照射された眼球の光学像(眼球像)が、アイピース窓17、G3レンズ15、G2レンズ14、G1レンズ13を通り、第2光路分割プリズム10の第2面10aから第2光路分割プリズム10内に入る。第2光路分割プリズム10の第1面10bには、赤外光を反射するダイクロイック膜が形成されており、反射光路31bで示すように、第2光路分割プリズム10内に入った眼球像は、第1面10bで、第2面10aの側に反射される。そして、結像光路31cで示すように、反射された眼球像は、第2面10aで全反射され、第2光路分割プリズム10の第3面10cから第2光路分割プリズム10外へ出て、絞り28を通り、視線結像レンズ29により視線検出センサー30近傍に結像される。視線検出には、このような眼球像と共に、赤外LEDから発せられた赤外光が角膜で正反射して形成された角膜反射像が用いられる。なお、視線検出センサー30近傍は視線検出センサー30上を含む。 Here, consider the case where the eyeball of the user looking into the finder is irradiated with infrared light from at least one of the infrared LEDs 18, 19, 22-27. As shown by the optical path 31a in FIG. 4(c), an optical image (eyeball image) of an eyeball irradiated with infrared light passes through the eyepiece window 17, the G3 lens 15, the G2 lens 14, and the G1 lens 13, and passes through the second lens. It enters the second optical path splitting prism 10 from the second surface 10 a of the optical path splitting prism 10 . A dichroic film that reflects infrared light is formed on the first surface 10b of the second optical path splitting prism 10. As shown by the reflected light path 31b, the eyeball image entering the second optical path splitting prism 10 is The first surface 10b reflects toward the second surface 10a. Then, as indicated by the imaging optical path 31c, the reflected eyeball image is totally reflected by the second surface 10a, and exits the second optical path splitting prism 10 from the third surface 10c of the second optical path splitting prism 10, The light passes through the diaphragm 28 and is imaged in the vicinity of the line-of-sight detection sensor 30 by the line-of-sight imaging lens 29 . For line-of-sight detection, a corneal reflection image formed by regular reflection of infrared light emitted from an infrared LED on the cornea is used together with such an eyeball image. The vicinity of the line-of-sight detection sensor 30 includes above the line-of-sight detection sensor 30 .

図5は、近距離照明用の赤外LED18,19,23,25から発せられた赤外光が眼球の角膜37で正反射し、視線検出センサー30で受光されるまでの光路の例を示す。 FIG. 5 shows an example of an optical path from the infrared light emitted from the infrared LEDs 18, 19, 23, 25 for short-distance illumination to specular reflection by the cornea 37 of the eyeball and reception by the line-of-sight detection sensor 30. .

<視線検出動作の説明>
図6,7(a),7(b),8,9(a),9(b),9(c)を用いて、視線検出方法について説明する。図6は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図6に示すように、赤外LED18,25はユーザーの眼球140に赤外光を照射する。赤外LED18,25から発せられて眼球140で反射した赤外光の一部は、視線結像レンズ29によって、視線検出センサー30近傍に結像される。図6では、視線検出方法の原理が理解しやすいよう、赤外LED18,25、視線結像レンズ29、視線検出センサー30の位置が調整されている。なお、例として赤外LED18,25が赤外光を照射する場合について説明したが、その他の赤外LED19,22,23,24,26,27が赤外光を照射する場合についても同様である。
<Description of gaze detection operation>
A line-of-sight detection method will be described with reference to FIGS. FIG. 6 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic diagram of an optical system for performing line-of-sight detection. As shown in FIG. 6, the infrared LEDs 18 and 25 illuminate the user's eyeball 140 with infrared light. Part of the infrared light emitted from the infrared LEDs 18 and 25 and reflected by the eyeball 140 is imaged near the line-of-sight detection sensor 30 by the line-of-sight imaging lens 29 . In FIG. 6, the positions of the infrared LEDs 18 and 25, the line-of-sight imaging lens 29, and the line-of-sight detection sensor 30 are adjusted so that the principle of the line-of-sight detection method can be easily understood. Although the case where the infrared LEDs 18 and 25 emit infrared light has been described as an example, the same applies to cases where the other infrared LEDs 19, 22, 23, 24, 26, and 27 emit infrared light. .

図7(a)は、視線検出センサー30で撮像された眼画像(視線検出センサー30に投影された眼球像)の概略図であり、図7(b)は視線検出センサー30(例えばCCD)の出力強度を示す図である。図8は、視線検出動作の概略フローチャートを表す。図9(a)~9(c)は、第1の実施形態に係る赤外LEDの波長と眼画像の結像状態との関係を説明するための図である。 FIG. 7A is a schematic diagram of an eye image captured by the line-of-sight detection sensor 30 (an eyeball image projected on the line-of-sight detection sensor 30), and FIG. FIG. 4 is a diagram showing output intensity; FIG. 8 shows a schematic flow chart of the line-of-sight detection operation. FIGS. 9(a) to 9(c) are diagrams for explaining the relationship between the wavelength of the infrared LED and the imaging state of the eye image according to the first embodiment.

視線検出動作が開始すると、図8のステップS801で、CPU3は眼球距離sを検出する。第1の実施形態では、CPU3は、ユーザーからの入力に基づいて眼球距離sを検出するとする。例えば、CPU3は、ユーザーに対し眼鏡の着用の有無を問う旨を、表示デバイス209に表示する。ユーザーは操作部材42,43を用いて、カメラ1に対して眼鏡の着用の有無を入力する。ユーザーにより眼鏡の着用が無い旨の入力がなされると、CPU3は眼球距離sが30mmであると判断する(眼球距離s=30mmを検出する)。一方、ユーザーにより眼鏡の着用が有る旨の入力がなされると、CPU3は眼球距離sが50mmであると判断する(眼球距離s=50mmを検出する)。眼球距離sは、カメ
ラ1からユーザーの眼までの距離であり、例えば接眼部から眼までの距離である。第1の実施形態では、視線結像レンズ29から眼までの距離(視線結像レンズ29の光軸に沿った距離;最短の光路長)を、眼球距離sとする。
When the line-of-sight detection operation starts, the CPU 3 detects the eyeball distance s in step S801 of FIG. In the first embodiment, the CPU 3 detects the eyeball distance s based on an input from the user. For example, the CPU 3 displays on the display device 209 that the user is asked whether or not he/she wears glasses. The user uses the operation members 42 and 43 to input to the camera 1 whether or not to wear eyeglasses. When the user inputs that the eyeglasses are not worn, the CPU 3 determines that the eyeball distance s is 30 mm (detects the eyeball distance s=30 mm). On the other hand, when the user inputs that the eyeglasses are worn, the CPU 3 determines that the eyeball distance s is 50 mm (detects the eyeball distance s=50 mm). The eyeball distance s is the distance from the camera 1 to the eyes of the user, for example, the distance from the eyepiece to the eyes. In the first embodiment, the distance from the line-of-sight imaging lens 29 to the eye (the distance along the optical axis of the line-of-sight imaging lens 29; the shortest optical path length) is defined as the eyeball distance s.

ステップS802では、CPU3は、視線検出に使用する赤外LEDを決定する。第1の実施形態では、CPU3は、ステップS801で検出した視線距離sに応じて、視線検出に使用する赤外LEDを、近距離照明用の赤外LEDと遠距離照明用の赤外LEDとの間で切り替える。具体的には、ステップS802では、CPU3は、眼球距離sが所定の距離(閾値)40mm以下であるか否かを判定する。CPU3は、眼球距離sが所定の距離(閾値)40mm以下であると判定した場合に、近距離照明用の赤外LEDを視線検出に使用する赤外LEDとして決定し、ステップS803に処理を進める。また、CPU3は、眼球距離sが所定の距離40mmよりも長いと判定した場合は、遠近距離照明用の赤外LEDを視線検出に使用する赤外LEDとして決定し、ステップS804に処理を進める。 In step S802, CPU 3 determines an infrared LED to be used for line-of-sight detection. In the first embodiment, the CPU 3 selects an infrared LED for short-distance lighting and an infrared LED for long-distance lighting as the infrared LEDs used for visual line detection according to the line-of-sight distance s detected in step S801. switch between Specifically, in step S802, the CPU 3 determines whether or not the eyeball distance s is equal to or less than a predetermined distance (threshold value) of 40 mm. When the CPU 3 determines that the eyeball distance s is equal to or less than the predetermined distance (threshold value) 40 mm, the CPU 3 determines the infrared LED for short-distance lighting as the infrared LED to be used for line-of-sight detection, and advances the process to step S803. . If the CPU 3 determines that the eyeball distance s is longer than the predetermined distance 40 mm, the CPU 3 determines the infrared LED for far and near distance illumination as the infrared LED to be used for line-of-sight detection, and advances the process to step S804.

ステップS803では、CPU3は、光源駆動部205を介して、近距離照明用の赤外LED18,19,23,25のうちの2つを駆動する。この場合は、近距離照明用の赤外LED18,19,23,25のうちの2つがユーザーの眼球140に向けて赤外光を照射する。残りの赤外LED(遠距離照明用の赤外LED22,24,26,27)は消灯する。赤外光によって照明されたユーザーの眼球像は、視線結像レンズ29(受光レンズ)を通して視線検出センサー30近傍に結像され、視線検出センサー30により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。 In step S<b>803 , CPU 3 drives two of infrared LEDs 18 , 19 , 23 , and 25 for short-distance lighting via light source driving section 205 . In this case, two of the infrared LEDs 18 , 19 , 23 , 25 for short-distance illumination emit infrared light toward the user's eyeball 140 . The remaining infrared LEDs (infrared LEDs 22, 24, 26, 27 for long-distance illumination) are extinguished. The user's eyeball image illuminated by the infrared light is formed in the vicinity of the line-of-sight detection sensor 30 through the line-of-sight imaging lens 29 (light receiving lens), and photoelectrically converted by the line-of-sight detection sensor 30 . This provides an electrical signal of the eye image that can be processed.

ステップS804では、CPU3は、光源駆動部205を介して、遠距離照明用の赤外LED22,24,26,27のうちの2つを駆動する。この場合は、遠距離照明用の赤外LED22,24,26,27のうちの2つがユーザーの眼球140に向けて赤外光を照射する。残りの赤外LED(近距離照明用の赤外LED18,19,23,25)は消灯する。上述したように、赤外光によって照明されたユーザーの眼球像は、視線結像レンズ29を通して視線検出センサー30近傍に結像され、視線検出センサー30により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。 In step S<b>804 , CPU 3 drives two of the infrared LEDs 22 , 24 , 26 , 27 for long-distance lighting via light source driving section 205 . In this case, two of the infrared LEDs 22 , 24 , 26 , 27 for long-distance illumination emit infrared light toward the user's eyeball 140 . The rest of the infrared LEDs (infrared LEDs 18, 19, 23, 25 for near-field illumination) are extinguished. As described above, the user's eyeball image illuminated by the infrared light is formed in the vicinity of the line-of-sight detection sensor 30 through the line-of-sight imaging lens 29 and photoelectrically converted by the line-of-sight detection sensor 30 . This provides an electrical signal of the eye image that can be processed.

ここで、図9(a)~9(c)を用いて赤外LEDの波長と眼画像の結像状態との関係について説明する。図9(a)~9(c)は、視線検出機構の概念図であり、第2光路分割プリズム10による反射を展開した位置に視線結像レンズ29及び視線検出センサー30を配置したストレート系の断面図である。なお、接眼光学系16などの部材の表示は省略している。 Here, the relationship between the wavelength of the infrared LED and the imaging state of the eye image will be described with reference to FIGS. 9(a) to 9(c). 9(a) to 9(c) are conceptual diagrams of the line-of-sight detection mechanism, which is a straight system in which the line-of-sight imaging lens 29 and the line-of-sight detection sensor 30 are arranged at the position where the reflection by the second optical path splitting prism 10 is developed. It is a sectional view. The illustration of members such as the eyepiece optical system 16 is omitted.

図9(a)は、眼球距離sが近いとき、かつ、近距離照明用の赤外LEDにより第1の波長λ1の赤外光を眼に照射したときの眼球像の結像状態を表す。眼球距離sが近い場合とは、例えば眼鏡を着用していない場合である。この場合に、視線結像レンズ29は、瞳孔像を視線検出センサー30上に結像させる。そのため、ピントが合った眼画像が得られ、高精度な視線検出が可能となる。 FIG. 9A shows an eyeball image formation state when the eyeball distance s is short and the eye is irradiated with infrared light of the first wavelength λ1 by the infrared LED for short-distance illumination. The case where the eyeball distance s is short is, for example, the case where the eyeglasses are not worn. In this case, the line-of-sight imaging lens 29 forms a pupil image on the line-of-sight detection sensor 30 . Therefore, an in-focus eye image can be obtained, and highly accurate line-of-sight detection is possible.

図9(b)は、眼球距離sが遠いとき、かつ、近距離照明用の赤外LEDにより第1の波長λ1の赤外光を眼に照射したときの眼球像の結像状態を表す。眼球距離sが遠い場合とは、例えば眼鏡を着用している場合である。図9(b)の場合には、ニュートンの結像公式により、視線結像レンズ29は瞳孔像を視線検出センサー30の手前に結像させることになる。。そのため、ピントのずれた眼画像が得られ、視線検出精度が低下してしまう。 FIG. 9(b) shows the formed state of the eyeball image when the eyeball distance s is long and the eye is irradiated with the infrared light of the first wavelength λ1 by the infrared LED for short-distance illumination. A case where the eyeball distance s is long is, for example, a case where spectacles are worn. In the case of FIG. 9B, the line-of-sight imaging lens 29 forms the pupil image in front of the line-of-sight detection sensor 30 according to Newton's imaging formula. . As a result, an out-of-focus eye image is obtained, and the line-of-sight detection accuracy is lowered.

そこで、第1の実施形態では、図9(c)で示すように、眼球距離sが遠いときには、第1の波長λ1より長い第2の波長λ2を眼球に照射する。図9(c)は、眼球距離sが遠いとき、かつ、遠距離照明用の赤外LEDにより第2の波長λ2の光を眼に照射したときの眼球像の結像状態を表す。視線結像レンズ29の材料として一般的なガラスや樹脂は、波長が長いほど屈折率が小さくなる光学的特性を有している。そのため、視線結像レンズ29に入射する光の波長を長くし、対応する屈折率を小さくすることによって、瞳孔像の結像位置は奥に移動する。これにより、眼球距離sが遠いときでも、視線結像レンズ29は瞳孔像を視線検出センサー30上に結像させることができる。ひいては、ピントが合った眼画像が得られ、高精度な視線検出が可能となる。 Therefore, in the first embodiment, as shown in FIG. 9C, when the eyeball distance s is long, the eyeball is irradiated with the second wavelength λ2 longer than the first wavelength λ1. FIG. 9(c) shows the formed state of the eyeball image when the eyeball distance s is long and the eye is irradiated with the light of the second wavelength λ2 by the infrared LED for long-distance illumination. Glass and resin, which are generally used as materials for the line-of-sight imaging lens 29, have optical characteristics such that the longer the wavelength, the smaller the refractive index. Therefore, by lengthening the wavelength of the light incident on the line-of-sight imaging lens 29 and decreasing the corresponding refractive index, the imaging position of the pupil image moves to the back. Thus, even when the eyeball distance s is long, the line-of-sight imaging lens 29 can form the pupil image on the line-of-sight detection sensor 30 . As a result, an in-focus eye image is obtained, and highly accurate line-of-sight detection becomes possible.

ここで、近い眼球距離s1が30mmであり、遠い眼球距離s2が50mmであるとする。また、視線結像レンズ29は薄肉の球面レンズであるとし、視線結像レンズ29の前面側(眼の側)の曲率半径r1が2mmであり、背面側(視線検出センサー30の側)の曲率半径r2が-1mmであるとする。視線結像レンズ29と視線検出センサー30の距離s’は0.8mmであるとする。そして、視線結像レンズ29が、波長λ=850nmに対応する屈折率N1=1.570かつ波長λ=1150nmに対応する屈折率N2=1.561の光学的特性を有するものとする。この場合には、第1の波長λ1を850nmとし、第2の波長λ2を1150nmとすることで、眼球距離sが近いときも遠いときもピントの合った眼球像が得られ、高精度な視線検出が可能となる。 Here, it is assumed that the near eyeball distance s1 is 30 mm and the far eyeball distance s2 is 50 mm. Also, the line-of-sight imaging lens 29 is assumed to be a thin spherical lens. Assume that the radius r2 is -1 mm. It is assumed that the distance s' between the line-of-sight imaging lens 29 and the line-of-sight detection sensor 30 is 0.8 mm. It is assumed that the line-of-sight imaging lens 29 has optical characteristics of refractive index N1=1.570 corresponding to wavelength λ=850 nm and refractive index N2=1.561 corresponding to wavelength λ=1150 nm. In this case, by setting the first wavelength λ1 to 850 nm and the second wavelength λ2 to 1150 nm, an in-focus eyeball image can be obtained regardless of whether the eyeball distance s is short or long, and a highly accurate line of sight can be obtained. Detection becomes possible.

なお、第1の波長λ1や第2の波長λ2などの具体的な値は上述した値に限定されず、眼球距離sが変わった際に波長を変えることにより、単一の波長を用いた場合に比べ結像状態が改善すれば、どのような値であってもよい。 Note that specific values such as the first wavelength λ1 and the second wavelength λ2 are not limited to the values described above, and when a single wavelength is used by changing the wavelength when the eyeball distance s changes Any value may be used as long as the imaging state is improved compared to .

但し、視線結像レンズ29の一般的な光学的特性や形状、視線検出センサー30の一般的な分光感度特性等を考慮すると、第1の波長λ1は700nm以上かつ1000nm以下であることが好ましい。そして、第2の波長λ2は900nm以上かつ1200nm以下であることが好ましい。また、第1の波長λ1は、眼鏡を着用しているユーザーで統計的に発生しやすい眼球距離s等を考慮して決定することが好ましく、第2の波長λ2は、眼鏡を着用していないユーザーで統計的に発生しやすい眼球距離s等を考慮して決定することが好ましい。さらに、第1の波長λ1や第2の波長λ2が可視光領域の波長である場合には、第1の波長λ1の光や第2の波長λ2の光が、第2表示パネル6に表示された画像をユーザーが見る際の視認性に影響する虞がある。そのため、第1の波長λ1や第2の波長λ2は不可視光領域の波長(800nm以上)であることが好ましい。 However, considering the general optical characteristics and shape of the line-of-sight imaging lens 29 and the general spectral sensitivity characteristics of the line-of-sight detection sensor 30, the first wavelength λ1 is preferably 700 nm or more and 1000 nm or less. The second wavelength λ2 is preferably 900 nm or more and 1200 nm or less. In addition, the first wavelength λ1 is preferably determined in consideration of the eyeball distance s, etc., which is statistically likely to occur in users wearing eyeglasses, and the second wavelength λ2 is not wearing eyeglasses. It is preferable to determine the eyeball distance s, which is statistically likely to occur in the user, and the like. Furthermore, when the first wavelength λ1 and the second wavelength λ2 are wavelengths in the visible light region, the light with the first wavelength λ1 and the light with the second wavelength λ2 are displayed on the second display panel 6. This may affect the visibility when the user sees the image. Therefore, the first wavelength λ1 and the second wavelength λ2 are preferably wavelengths in the invisible light region (800 nm or longer).

ステップS805では、視線検出部201(視線検出回路)は、視線検出センサー30から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。 In step S<b>805 , the line-of-sight detection unit 201 (line-of-sight detection circuit) sends the eye image (eye image signal; electric signal of the eye image) obtained from the line-of-sight detection sensor 30 to the CPU 3 .

ステップS806では、CPU3は、ステップS805で得られた眼画像から、ステップS803またはステップS804で駆動された2つの赤外LEDによる角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。 In step S806, CPU 3 obtains the coordinates of points corresponding to the corneal reflection images Pd and Pe of the two infrared LEDs driven in step S803 or step S804 and the pupil center c from the eye image obtained in step S805. .

2つの赤外LEDより発せられた赤外光は、ユーザーの眼球140の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、視線結像レンズ29により集光され、視線検出センサー30近傍に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光も視線検出センサー30近傍に結像して、眼画像における瞳孔端像a’,b’となる。 Infrared light emitted by the two infrared LEDs illuminates the cornea 142 of the user's eyeball 140 . At this time, the corneal reflection images Pd and Pe formed by part of the infrared light reflected on the surface of the cornea 142 are collected by the line-of-sight imaging lens 29 and formed in the vicinity of the line-of-sight detection sensor 30 to form an image of the eye. These are corneal reflection images Pd' and Pe' in the image. Similarly, light from the ends a and b of the pupil 141 is also imaged in the vicinity of the line-of-sight detection sensor 30 to form pupil end images a' and b' in the eye image.

図7(b)は、図7(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。
図7(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。第1の実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図7(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光が視線検出センサー30近傍に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
FIG. 7(b) shows luminance information (luminance distribution) of the region α' in the eye image of FIG. 7(a).
FIG. 7B shows the luminance distribution in the X-axis direction, with the horizontal direction of the eye image being the X-axis direction and the vertical direction being the Y-axis direction. In the first embodiment, the X-axis (horizontal) coordinates of the corneal reflection images Pd' and Pe' are Xd and Xe, and the X-axis coordinates of the pupil edge images a' and b' are Xa and Xb. do. As shown in FIG. 7B, extremely high levels of luminance are obtained at the coordinates Xd and Xe of the corneal reflection images Pd' and Pe'. In the region from the coordinate Xa to the coordinate Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by forming an image of the light from the pupil 141 near the line-of-sight detection sensor 30), except for the coordinates Xd and Xe, Extremely low levels of brightness are obtained. In the area of the iris 143 outside the pupil 141 (the area of the iris image outside the pupil image obtained by forming an image of the light from the iris 143), a brightness intermediate between the above two types of brightness is obtained. Specifically, a luminance intermediate between the above two types of luminance is obtained in an area where the X coordinate (coordinate in the X-axis direction) is smaller than the coordinate Xa and in an area where the X coordinate is larger than the coordinate Xb.

図7(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、視線結像レンズ29の光軸に対する眼球140の光軸の回転角θxが小さい場合には、瞳孔中心cからの光が視線検出センサー30近傍に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。 From the luminance distribution as shown in FIG. 7B, the X coordinates Xd and Xe of the corneal reflection images Pd' and Pe' and the X coordinates Xa and Xb of the pupil edge images a' and b' can be obtained. Specifically, the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd' and Pe', and the coordinates with extremely low brightness can be obtained as the coordinates of the pupil edge images a' and b'. . Further, when the rotation angle θx of the optical axis of the eyeball 140 with respect to the optical axis of the line-of-sight imaging lens 29 is small, the light from the pupil center c forms an image in the vicinity of the line-of-sight detection sensor 30 to form a pupil center image c′. The coordinate Xc of (the center of the pupil image) can be expressed as Xc≈(Xa+Xb)/2. That is, the coordinate Xc of the pupil center image c' can be calculated from the X coordinates Xa and Xb of the pupil edge images a' and b'. In this way, the coordinates of the corneal reflection images Pd' and Pe' and the coordinates of the pupil center image c' can be estimated.

ステップS807では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、視線結像レンズ29に対する眼球140の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて求めることができる。 In step S807, the CPU 3 calculates the imaging magnification β of the eyeball image. The imaging magnification β is a magnification determined by the position of the eyeball 140 with respect to the line-of-sight imaging lens 29, and can be obtained using the function of the interval (Xd-Xe) between the corneal reflection images Pd' and Pe'.

なお、眼球距離sが長いほど、または、赤外LED同士の間隔が短いほど、角膜反射像Pd’,Pe’の間隔は短くなり、角膜反射像Pd’,Pe’の間隔を検出する際の分解能が低下する虞がある。第1の実施形態では、接眼光学系16の光軸に垂直な平面において、接眼光学系16の光軸から遠距離照明用の赤外LED22,24,26,27までの距離は、接眼光学系16の光軸から近距離照明用の赤外LED18,19,23,25までの距離より長い。換言すれば、遠距離照明用の赤外LED22,24,26,27は、接眼光学系16の光軸に対して近距離照明用の赤外LED18,19,23,25よりも外側に配置されている。これにより、眼球距離sが長いときでも角膜反射像Pd’,Pe’の間隔を或る程度を確保することができる。ひいては、遠距離照明用の赤外LEDによる角膜反射像Pd’,Pe’の間隔(Xd-Xe)の検出分解能の低下を抑制し、間隔(Xd-Xe)から算出される眼球像の結像倍率βの精度の低下を抑制することで、視線検出精度の低下を抑制することができる。 The longer the eyeball distance s or the shorter the interval between the infrared LEDs, the shorter the interval between the corneal reflection images Pd′ and Pe′. There is a possibility that the resolution will be lowered. In the first embodiment, on a plane perpendicular to the optical axis of the eyepiece optical system 16, the distance from the optical axis of the eyepiece optical system 16 to the infrared LEDs 22, 24, 26, and 27 for long-distance illumination is 16 from the optical axis to the infrared LEDs 18, 19, 23, 25 for short-distance illumination. In other words, the infrared LEDs 22, 24, 26, 27 for long-distance illumination are arranged outside the infrared LEDs 18, 19, 23, 25 for short-distance illumination with respect to the optical axis of the eyepiece optical system 16. ing. As a result, even when the eyeball distance s is long, it is possible to secure a certain distance between the corneal reflection images Pd' and Pe'. As a result, the reduction in the detection resolution of the interval (Xd-Xe) between the corneal reflection images Pd' and Pe' by the infrared LED for long-distance illumination is suppressed, and the image formation of the eyeball image calculated from the interval (Xd-Xe) By suppressing the deterioration of the accuracy of the magnification β, it is possible to suppress the deterioration of the sight line detection accuracy.

ステップS808では、CPU3は、視線結像レンズ29の光軸に対する眼球140の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球140の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
In step S<b>808 , CPU 3 calculates the rotation angle of the optical axis of eyeball 140 with respect to the optical axis of line-of-sight imaging lens 29 . The X coordinate of the midpoint between the corneal reflection image Pd and the corneal reflection image Pe and the X coordinate of the center of curvature O of the cornea 142 substantially match. Therefore, if the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Oc, then the rotation angle θx of the eyeball 140 in the ZX plane (the plane perpendicular to the Y-axis) is given below. It can be calculated by the formula 1 below. The rotation angle θy of the eyeball 140 within the ZY plane (the plane perpendicular to the X axis) can also be calculated by a method similar to the method for calculating the rotation angle θx.
β×Oc×SINθx≈{(Xd+Xe)/2}−Xc (Formula 1)

ステップS809では、CPU3は、ステップS808で算出した回転角θx,θyを用いて、第2表示パネル6に表示された視認用画像におけるユーザーの視線位置(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視線位置の座標(Hx
,Hy)が瞳孔中心cに対応する座標であるとすると、視線位置の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx)・・・(式2)
Hy=m×(Ay×θy+By)・・・(式3)
In step S809, the CPU 3 uses the rotation angles θx and θy calculated in step S808 to determine the user's line-of-sight position (the position where the user's line of sight is directed) in the image for visual recognition displayed on the second display panel 6. position) is obtained (estimated). Coordinates of line-of-sight position (Hx
, Hy) are the coordinates corresponding to the pupil center c, the coordinates (Hx, Hy) of the line-of-sight position can be calculated by the following equations 2 and 3.
Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)

式2,3のパラメータmは、カメラ1のファインダー光学系(視線結像レンズ29等)の構成で定まる定数であり、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数であり、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、公知のキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部4に格納されるとする。 The parameter m in Equations 2 and 3 is a constant determined by the configuration of the viewfinder optical system (line-of-sight imaging lens 29, etc.) of the camera 1, and the rotation angles θx and θy are converted to coordinates corresponding to the pupil center c in the image for visual recognition. , which is determined in advance and stored in the memory unit 4 . The parameters Ax, Bx, Ay, and By are line-of-sight correction parameters for correcting individual differences in line-of-sight, are obtained by performing a known calibration work, and are stored in the memory unit 4 before the line-of-sight detection operation is started. and

ステップS810では、CPU3は、視線位置の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。 In step S810, the CPU 3 stores the line-of-sight position coordinates (Hx, Hy) in the memory unit 4, and ends the line-of-sight detection operation.

なお、視線検出の方法は上記方法に限られない。視線検出に用いられる赤外LEDの数は2つより多くても少なくてもよい。 Note that the line-of-sight detection method is not limited to the above method. More or less than two infrared LEDs may be used for line-of-sight detection.

以上説明したように、第1の実施形態によれば、視線検出に使用する光源(赤外LED)が、第1の波長の光を発する第1光源と、第2の波長の光を発する第2光源との間で切り替えられる。具体的には、検出された眼球距離に応じて、視線検出に使用する光源が切り替えられる。これにより、単一の波長の光を用いる場合に比べ、眼画像における瞳孔像の結像状態が改善する。そのため、眼球距離に依らず検出精度の高い視線検出が可能な電子機器を提供することができる。 As described above, according to the first embodiment, the light sources (infrared LEDs) used for line-of-sight detection are a first light source that emits light of a first wavelength and a second light source that emits light of a second wavelength. Switchable between 2 light sources. Specifically, the light source used for line-of-sight detection is switched according to the detected eyeball distance. As a result, the imaging state of the pupil image in the eye image is improved as compared with the case of using light of a single wavelength. Therefore, it is possible to provide an electronic device capable of highly accurate line-of-sight detection regardless of eyeball distance.

なお、眼球距離の検出方法は、ユーザーからの入力に基づく方法に限られない。例えば、CPU3は、初回の視線検出動作におけるステップS801では、ユーザーの入力に基づいて眼球距離を検出して、検出した眼球距離をメモリ部4に保存し、二回目以降のステップS801では、メモリ部4から眼球距離を読み出してもよい。また、ステップS801において、CPU3は、近距離照明用の赤外LEDおよび/または遠距離照明用の赤外LEDからの赤外光をユーザーの眼に照射した際の反射光を受光した視線検出センサー30の出力に基づいて、眼球距離を検出してもよい。例えば、CPU3は、近距離照明用の赤外LEDと遠距離照明用の赤外LEDとの少なくとも一方からの赤外光をユーザーの眼に照射した状態で視線検出センサー30により得られた眼画像に基づいて、眼球距離を検出してもよい。眼球距離が長いほど眼画像の全域の平均輝度が低くなることから、当該平均輝度に基づいて眼球距離を検出することが可能である。例えば、CPU3は、ステップS803,S805と同様の処理を行って眼画像を取得し、当該眼画像の平均輝度に基づいて眼球距離を検出してもよい。1つの赤外LEDを用いて取得した眼画像に基づいて眼球距離を検出してもよいし、各々が近距離照明用の赤外LEDまたは遠距離照明用の赤外LEDである複数の赤外LEDを用いて取得した眼画像に基づいて眼球距離を検出してもよい。眼球距離が長いほど、複数の赤外LEDにそれぞれ対応する複数の角膜反射像の間隔が短くなることから、当該間隔に基づいて、眼球距離を検出することも可能である。例えば、CPU3は、ステップS803,S805と同様の処理を行って眼画像を取得し、S806と同様の処理を行って眼画像から複数の角膜反射像を検出し、検出した複数の角膜反射像の間隔に基づいて眼球距離を検出してもよい。 Note that the eyeball distance detection method is not limited to a method based on user input. For example, the CPU 3 detects the eyeball distance based on the user's input in step S801 in the first sight line detection operation, stores the detected eyeball distance in the memory unit 4, and in step S801 after the second time, the memory unit 4, the eyeball distance may be read. Further, in step S801, the CPU 3 receives the reflected light when the user's eyes are irradiated with the infrared light from the infrared LED for short-distance lighting and/or the infrared LED for long-distance lighting. Based on the output of 30, eye distance may be detected. For example, the CPU 3 detects an eye image obtained by the line-of-sight detection sensor 30 while the user's eyes are irradiated with infrared light from at least one of the infrared LED for short-distance lighting and the infrared LED for long-distance lighting. You may detect eyeball distance based on. Since the average brightness of the entire eye image decreases as the eyeball distance increases, it is possible to detect the eyeball distance based on the average brightness. For example, the CPU 3 may acquire an eye image by performing processing similar to steps S803 and S805, and detect the eyeball distance based on the average brightness of the eye image. The eyeball distance may be detected based on an eye image acquired using one infrared LED, or multiple infrared LEDs, each of which is an infrared LED for short-distance illumination or an infrared LED for long-distance illumination, may be used. The eyeball distance may be detected based on the eye image acquired using the LED. Since the longer the eyeball distance, the shorter the interval between the plurality of corneal reflection images corresponding to the plurality of infrared LEDs, the eyeball distance can be detected based on the interval. For example, the CPU 3 performs the same processing as in steps S803 and S805 to acquire an eye image, performs the same processing as in S806 to detect a plurality of corneal reflection images from the eye image, and extracts the detected corneal reflection images. Eyeball distance may be detected based on the distance.

[第2の実施形態]
以下、本発明の第2の実施形態について説明する。図10は、第2の実施形態に係る視線検出動作の概略フローチャートを表す。第2の実施形態において、視線検出動作以外の事項は、第1の実施形態と同一である。第1の実施形態では、検出した眼球距離に応じて
、視線検出に使用する赤外LEDを切り替えた。第2の実施形態では、近距離照明用の赤外LEDまたは遠距離照明用の赤外LEDを用いた視線検出に失敗する場合に、視線検出に使用する赤外LEDを切り替える。
[Second embodiment]
A second embodiment of the present invention will be described below. FIG. 10 represents a schematic flow chart of the line-of-sight detection operation according to the second embodiment. In the second embodiment, matters other than the line-of-sight detection operation are the same as those in the first embodiment. In the first embodiment, the infrared LED used for line-of-sight detection is switched according to the detected eyeball distance. In the second embodiment, when line-of-sight detection using an infrared LED for short-distance lighting or an infrared LED for long-distance lighting fails, the infrared LED used for line-of-sight detection is switched.

図10において、ステップS1001は図8のステップS803と同一であり、ステップS1002,S1006はステップS805と同一であり、ステップS1003,S1007はS806と同一である。そして、ステップS1005はステップS804と同一であり、ステップS1008~S1011はステップS807~S810と同一である。 10, step S1001 is the same as step S803 in FIG. 8, steps S1002 and S1006 are the same as step S805, and steps S1003 and S1007 are the same as step S806. Step S1005 is the same as step S804, and steps S1008 to S1011 are the same as steps S807 to S810.

ステップS1004では、CPU3は、ステップS1003で瞳孔(瞳孔端像a’,b’や瞳孔中心像c’の座標)が検出できたか否かを判定する。瞳孔が検出できなかった場合は、近距離照射用の赤外LEDを用いた視線検出に失敗する。ここでの「失敗」は、視線が検出できないことだけなく、高精度な視線検出が行えないことも含む。CPU3は、瞳孔が検出できたと判定した場合に、ステップS1008に処理を進める。また、CPU3は、瞳孔が検出できなかったと判定した場合に、ステップS1005に処理を進める(視線検出に使用する赤外LEDが、近距離照明用の赤外LEDから遠距離照明用の赤外LEDに切り替えられる)。 In step S1004, the CPU 3 determines whether or not the pupils (the coordinates of the pupil edge images a' and b' and the pupil center image c') could be detected in step S1003. If the pupil cannot be detected, the line-of-sight detection using the infrared LED for short-distance illumination fails. Here, "failure" includes not only the inability to detect the line of sight, but also the inability to detect the line of sight with high accuracy. When the CPU 3 determines that the pupil has been detected, the process proceeds to step S1008. If the CPU 3 determines that the pupil could not be detected, the process advances to step S1005 (the infrared LED used for line-of-sight detection changes from the infrared LED for short-distance illumination to the infrared LED for long-distance illumination). ).

第2の実施形態では、第1の実施形態で行われていたステップS801の処理(眼球距離の検出)と、ステップS802の処理(視線検出用の赤外LEDの決定)とが行われず、初めに、視線検出用の赤外LEDとして、近距離照明用の赤外LEDが使用される。そのため、眼球距離が近いユーザーにとって好適である。眼球距離が近いユーザーの場合には、ステップS1005~S1007の処理は行われず、第1の実施形態に比べ、ステップS801,S802の処理時間の分だけ、視線検出動作の時間を短縮することができる。また、ステップS801でユーザーが行う入力の手間を省くことができる。 In the second embodiment, the processing in step S801 (detection of eyeball distance) and the processing in step S802 (determination of infrared LEDs for line-of-sight detection) performed in the first embodiment are not performed. In addition, an infrared LED for short-distance illumination is used as an infrared LED for line-of-sight detection. Therefore, it is suitable for users whose eyeball distance is short. In the case of a user whose eyeball distance is short, the processing of steps S1005 to S1007 is not performed, and the time for the line-of-sight detection operation can be shortened by the processing time of steps S801 and S802 compared to the first embodiment. . In addition, it is possible to save the trouble of inputting by the user in step S801.

一方、眼球距離が遠いユーザーの場合(ステップS1004において、瞳孔が検出できなかったと判定される場合)には、第1の実施形態のほうが好適である。第2の実施形態では、眼球距離が遠いユーザーの場合に、赤外LEDの駆動から角膜反射像Pd’,Pe’と瞳孔中心像c’の座標の取得までの動作を、ステップS1001~S1003と、ステップS1005~S1007とで、2回行う必要がある。そのため、視線検出動作の時間が第1の実施形態よりも長くなる。 On the other hand, for a user whose eyeball distance is long (when it is determined in step S1004 that the pupil could not be detected), the first embodiment is more suitable. In the second embodiment, in the case of a user with a long eyeball distance, the operations from driving the infrared LEDs to acquiring the coordinates of the corneal reflection images Pd′ and Pe′ and the pupil center image c′ are performed in steps S1001 to S1003. , steps S1005 to S1007 must be performed twice. Therefore, the time required for the line-of-sight detection operation is longer than in the first embodiment.

なお、近距離照明用の赤外LEDを先に使用する例を説明したが、遠距離照明用の赤外LEDを先に使用してもよい。そして、遠距離照射用の赤外LEDを用いた視線検出に失敗する場合に、視線検出に使用する赤外LEDを、遠距離照明用の赤外LEDから近距離照明用の赤外LEDに切り替えてもよい。 Although an example in which the infrared LED for short-distance illumination is first used has been described, the infrared LED for long-distance illumination may be used first. When line-of-sight detection using an infrared LED for long-distance illumination fails, the infrared LED used for line-of-sight detection is switched from an infrared LED for long-distance illumination to an infrared LED for short-distance illumination. may

なお、上述した実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上述した構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上述した構成を適宜組み合わせて得られる構成も、本発明に含まれる。 The above-described embodiment (including modifications) is merely an example, and configurations obtained by appropriately modifying or changing the above-described configurations within the scope of the present invention are also included in the present invention. . A configuration obtained by appropriately combining the configurations described above is also included in the present invention.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1:カメラ
3:CPU 30:視線検出センサー 18,19,22~27:赤外LED
1: Camera 3: CPU 30: Line-of-sight detection sensor 18, 19, 22-27: Infrared LED

Claims (16)

ユーザーの視線を検出する視線検出を実行可能な電子機器であって、
前記ユーザーの眼に第1の波長の光を照射する第1光源と、
前記ユーザーの眼に前記第1の波長とは異なる第2の波長の光を照射する第2光源と、
前記視線検出のために受光するセンサーと、
前記視線検出に使用する光源を前記第1光源と前記第2光源の間で切り替える制御手段と
を有することを特徴とする電子機器。
An electronic device capable of executing line-of-sight detection for detecting a user's line of sight,
a first light source that irradiates the eye of the user with light of a first wavelength;
a second light source that irradiates the eye of the user with light of a second wavelength different from the first wavelength;
a sensor that receives light for detecting the line of sight;
An electronic device, comprising control means for switching a light source used for detecting the line of sight between the first light source and the second light source.
前記第1光源および/または前記第2光源からの光を前記ユーザーの眼に照射した際の反射光を受光した前記センサーの出力に基づいて、前記電子機器から前記ユーザーの眼までの距離を検出する検出手段をさらに有し、
前記制御手段は、前記検出手段により検出された距離に応じて、前記第1光源と前記第2光源のうち、前記視線検出に使用する光源を切り替える
ことを特徴とする請求項1に記載の電子機器。
The distance from the electronic device to the user's eye is detected based on the output of the sensor that receives the reflected light when the user's eye is irradiated with the light from the first light source and/or the second light source. further comprising a detection means for
2. The electronic device according to claim 1, wherein said control means switches between said first light source and said second light source to use for said line of sight detection according to the distance detected by said detection means. machine.
前記検出手段は、前記電子機器の接眼部からユーザーの眼までの距離を検出する
ことを特徴とする請求項2に記載の電子機器。
3. The electronic device according to claim 2, wherein said detection means detects a distance from an eyepiece of said electronic device to a user's eye.
前記第2の波長は前記第1の波長よりも長く、
前記制御手段は、
前記検出された距離が閾値よりも短い場合に、前記第1光源を、前記視線検出に使用する光源として決定し、
前記検出された距離が前記閾値よりも長い場合に、前記第2光源を、前記視線検出に使用する光源として決定する
ことを特徴とする請求項2または3に記載の電子機器。
the second wavelength is longer than the first wavelength;
The control means is
determining the first light source as a light source to be used for the line-of-sight detection when the detected distance is shorter than a threshold;
4. The electronic device according to claim 2, wherein when the detected distance is longer than the threshold, the second light source is determined as the light source used for the line-of-sight detection.
前記制御手段は、前記電子機器から前記ユーザーの眼までの距離が前記ユーザーにより入力された場合に、当該距離に応じて前記第1光源と前記第2光源のうち、前記視線検出に使用する光源を切り替える
ことを特徴とする請求項1に記載の電子機器。
When the distance from the electronic device to the eyes of the user is input by the user, the control means selects one of the first light source and the second light source according to the distance to be used for the line-of-sight detection. 2. The electronic device according to claim 1, wherein the switching is performed between .
前記センサーは撮像センサーであり、
前記検出手段は、前記第1光源と前記第2光源の少なくとも一方からの光を前記ユーザーの眼に照射した状態で前記センサーにより得られた画像の平均輝度に基づいて、前記距離を検出する
ことを特徴とする請求項2~4のいずれか1項に記載の電子機器。
the sensor is an imaging sensor;
The detection means detects the distance based on an average luminance of an image obtained by the sensor while the eyes of the user are irradiated with light from at least one of the first light source and the second light source. The electronic device according to any one of claims 2 to 4, characterized by:
各々が前記第1光源または前記第2光源である複数の光源を有し、
前記センサーは撮像センサーであり、
前記検出手段は、前記複数の光源からの光を前記ユーザーの眼に照射した状態で前記センサーにより得られた画像における、前記複数の光源にそれぞれ対応する複数の角膜反射像の間隔に基づいて、前記距離を検出する
を特徴とする請求項2~4のいずれか1項に記載の電子機器。
having a plurality of light sources, each being said first light source or said second light source;
the sensor is an imaging sensor;
The detection means, based on intervals between a plurality of corneal reflection images respectively corresponding to the plurality of light sources in an image obtained by the sensor while the eyes of the user are irradiated with light from the plurality of light sources, 5. The electronic device according to claim 2, wherein said distance is detected.
前記制御手段は、前記第1光源または前記第2光源を用いた視線検出に失敗する場合に、前記視線検出に使用する光源を切り替える
ことを特徴とする請求項1に記載の電子機器。
2. The electronic device according to claim 1, wherein the control means switches the light source used for the line-of-sight detection when the line-of-sight detection using the first light source or the second light source fails.
前記センサーは撮像センサーであり、
前記制御手段は、前記第1光源と前記第2光源の少なくとも一方からの光を前記ユーザーの眼に照射した状態で前記センサーにより得られた画像から瞳孔が検出できなかった場合に、前記視線検出に使用する光源を切り替える
ことを特徴とする請求項1または8に記載の電子機器。
the sensor is an imaging sensor;
The control means detects the line of sight when the eye of the user is irradiated with light from at least one of the first light source and the second light source and the pupil is not detected from the image obtained by the sensor. 9. The electronic device according to claim 1, wherein the light source used for the electronic device is switched.
前記第1の波長は700nm以上かつ1000nm以下である
ことを特徴とする請求項1~9のいずれか1項に記載の電子機器。
10. The electronic device according to claim 1, wherein the first wavelength is 700 nm or more and 1000 nm or less.
前記第2の波長は900nm以上かつ1200nm以下である
ことを特徴とする請求項1~10のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 10, wherein the second wavelength is 900 nm or more and 1200 nm or less.
前記第1光源の照射方向と、前記ユーザーが接眼する部分に設けられた光学系の光軸とのなす角度は、前記第2光源の照射方向と前記光学系の光軸とのなす角度よりも大きい
ことを特徴とする請求項1~11のいずれか1項に記載の電子機器。
The angle formed by the irradiation direction of the first light source and the optical axis of the optical system provided in the portion where the user eyepieces is larger than the angle formed by the irradiation direction of the second light source and the optical axis of the optical system. The electronic device according to any one of claims 1 to 11, characterized in that it is large.
前記ユーザーが接眼する部分に設けられた光学系の光軸に垂直な平面において、前記光学系の光軸から前記第2光源までの距離は、前記光学系の光軸から前記第1光源までの距離よりも長い
ことを特徴とする請求項1~12のいずれか1項に記載の電子機器。
The distance from the optical axis of the optical system to the second light source is the distance from the optical axis of the optical system to the first light source in a plane perpendicular to the optical axis of the optical system provided in the portion where the user eyepieces. The electronic device according to any one of claims 1 to 12, wherein the distance is longer than the distance.
撮像手段と、
請求項1~13のいずれか1項に記載の電子機器と、
を有することを特徴とする撮像装置。
imaging means;
The electronic device according to any one of claims 1 to 13,
An imaging device characterized by comprising:
ユーザーの眼に第1の波長の光を照射する第1光源と、
前記ユーザーの眼に前記第1の波長とは異なる第2の波長の光を照射する第2光源と、
前記ユーザーの視線を検出する視線検出のために受光するセンサーと
を有する撮像装置の制御方法であって、
前記視線検出に使用する光源を前記第1光源と前記第2光源の間で切り替えるステップと、
前記視線検出を行うステップと
を有することを特徴とする制御方法。
a first light source that irradiates a user's eye with light of a first wavelength;
a second light source that irradiates the eye of the user with light of a second wavelength different from the first wavelength;
A control method for an imaging device having a sensor that receives light for detecting a line of sight of the user,
switching the light source used for the line-of-sight detection between the first light source and the second light source;
and a step of performing the line-of-sight detection.
コンピュータを、請求項1~13のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 13.
JP2021022615A 2021-02-16 2021-02-16 Electronic apparatus Pending JP2022124778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021022615A JP2022124778A (en) 2021-02-16 2021-02-16 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021022615A JP2022124778A (en) 2021-02-16 2021-02-16 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2022124778A true JP2022124778A (en) 2022-08-26

Family

ID=82941975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021022615A Pending JP2022124778A (en) 2021-02-16 2021-02-16 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2022124778A (en)

Similar Documents

Publication Publication Date Title
US11126014B2 (en) Eyewear, eyewear systems and associated methods for enhancing vision
US20210357027A1 (en) Electronic device and control method thereof
US20230013134A1 (en) Electronic device
EP3771967A2 (en) Electronic device, control method, and computer readable medium
JP7604216B2 (en) Eye gaze detection device
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
JP2022124778A (en) Electronic apparatus
JP2021182736A (en) Electronic apparatus
JP7446898B2 (en) Electronics
CN114342352B (en) Electronic device, control method thereof, and computer readable storage medium
JP2023157200A (en) Electronic equipment, control methods and programs
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
JP2021064928A (en) Electronic device
JP2023045131A (en) Detection device, control method and program
CN114631304B (en) Camera equipment, electronic device, viewfinder unit
JP2024003432A (en) Electronic device
JP2023063023A (en) ELECTRONIC DEVICE AND METHOD OF CONTROLLING ELECTRONIC DEVICE
JP2023083695A (en) Electronics
JP2024136766A (en) Display control device, display control method and program
JP2023006629A (en) Control device and control method
JP2021076832A (en) Imaging apparatus, electronic apparatus, and finder unit
JP2019204022A (en) Image capturing device
JPH0990200A (en) Camera provided with line-of-sight detection means