[go: up one dir, main page]

JP2024170159A - Electronic device and method for controlling electronic device - Google Patents

Electronic device and method for controlling electronic device Download PDF

Info

Publication number
JP2024170159A
JP2024170159A JP2023087166A JP2023087166A JP2024170159A JP 2024170159 A JP2024170159 A JP 2024170159A JP 2023087166 A JP2023087166 A JP 2023087166A JP 2023087166 A JP2023087166 A JP 2023087166A JP 2024170159 A JP2024170159 A JP 2024170159A
Authority
JP
Japan
Prior art keywords
subject
user
state
image
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023087166A
Other languages
Japanese (ja)
Inventor
豪也 高梨
Hideya Takanashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2023087166A priority Critical patent/JP2024170159A/en
Publication of JP2024170159A publication Critical patent/JP2024170159A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an electronic apparatus which properly transits a display state and a non-display state of a visual line position and thereby improves the visibility of the visual line position and a captured image.SOLUTION: The electronic apparatus comprises: acquisition means which acquires information on the visual line position of a user viewing a captured image; and control means which performs control to display an item at a position based on the visual line position of the user. The control means transits one of a display state and a non-display state of the visual line position to the other, by a transition system selected out of a plurality of transition systems.SELECTED DRAWING: Figure 8D

Description

本発明は、電子機器および電子機器の制御方法に関する。 The present invention relates to an electronic device and a method for controlling an electronic device.

従来、ファインダー視野内を覗くユーザーの視線位置を検出する機能を搭載した撮像装置が提供されている。また近年では、撮影光学系を通過した光束を受光する撮像素子で取得された画像を表示することが可能な電子ビューファインダを有する撮像装置が提供されている。電子ビューファインダを有する撮像装置は、さまざまな種類の被写体を認識し検出することが可能である。このような撮像装置は、検出した視線位置の情報、および取得した画像での被写体の認識結果に基づいて、ユーザーの意思を反映した被写体位置で、焦点検出制御を行うことが可能である。 Conventionally, imaging devices have been provided that are equipped with a function for detecting the gaze position of a user looking into the viewfinder field of view. In recent years, imaging devices have been provided that have electronic viewfinders that can display images captured by an image sensor that receives a light beam that has passed through a shooting optical system. Imaging devices with electronic viewfinders are capable of recognizing and detecting various types of subjects. Such imaging devices can perform focus detection control at a subject position that reflects the user's intentions, based on information about the detected gaze position and the results of subject recognition in the captured image.

特許文献1は、視線位置の表示状態を好適に制御する技術を開示している。特許文献2は、焦点検出および測光処理での注視位置と撮影直前での注視位置とを、それぞれ異なる表示形態で表示する技術を開示している。 Patent Document 1 discloses a technique for optimally controlling the display state of the gaze position. Patent Document 2 discloses a technique for displaying the gaze position during focus detection and photometry processing and the gaze position immediately before shooting in different display formats.

特開2021-131441号公報JP 2021-131441 A 特開平8-184746号公報Japanese Unexamined Patent Publication No. 8-184746

しかしながら、撮像状況および撮像された被写体の状況を考慮せずに、ユーザーの視線位置の表示状態および表示形態を変更した場合、視線位置および撮像した画像の視認性は低下するおそれがある。 However, if the display state and display format of the user's gaze position are changed without taking into account the imaging conditions and the conditions of the captured subject, the gaze position and visibility of the captured image may be reduced.

そこで、本発明は、視線位置の表示状態と非表示状態とを適切に遷移させることにより視線位置および撮像した画像の視認性を向上させる電子機器を提供することを目的とする。 The present invention aims to provide an electronic device that improves the visibility of the gaze position and captured images by appropriately transitioning between a display state and a non-display state of the gaze position.

本発明の第1の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段とを有し、前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させることを特徴とする電子機器である。 A first aspect of the present invention is an electronic device having an acquisition means for acquiring information on the gaze position of a user viewing a captured image, and a control means for controlling to display an item at a position based on the gaze position of the user, the control means transitioning the item from one of a display state and a non-display state to the other in a transition method selected from a plurality of transition methods.

本発明の第2の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップとを有し、前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させることを特徴とする電子機器の制御方法である。 A second aspect of the present invention is a method for controlling an electronic device, comprising an acquisition step for acquiring information on the gaze position of a user viewing a captured image, and a control step for controlling to display an item at a position based on the gaze position of the user, the control step being characterized in that the item is transitioned from one of a display state and a non-display state to the other in a transition method selected from a plurality of transition methods.

本発明の第3の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶
媒体である。
A third aspect of the present invention is a program for causing a computer to function as each of the means of the electronic device described above.A fourth aspect of the present invention is a computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device described above.

本発明によれば、視線位置の表示状態と非表示状態とを適切に遷移させることにより視線位置および撮像した画像の視認性を向上させる電子機器を提供することができる。 The present invention provides an electronic device that improves the visibility of the gaze position and captured images by appropriately transitioning between a display state and a non-display state of the gaze position.

カメラの外観の一例を示す図である。FIG. 1 is a diagram illustrating an example of the appearance of a camera. カメラの内部構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the internal configuration of a camera. カメラ内の電気的構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of an electrical configuration within the camera. ファインダー内視野の表示例を示す図である。FIG. 4 is a diagram showing an example of a display in a viewfinder field of view. 視線検出方法の原理を説明するための図である。1 is a diagram for explaining the principle of a gaze detection method. 眼画像を示す図である。FIG. 2 shows an eye image. 視線検出処理のフローチャートである。13 is a flowchart of a gaze detection process. アイコン表示制御処理を例示するフローチャートである。11 is a flowchart illustrating an icon display control process. 撮像状況に基づくアイコン表示判定処理のフローチャートである。13 is a flowchart of an icon display determination process based on an imaging situation. 被写体状況に基づくアイコン表示判定処理のフローチャートである。13 is a flowchart of an icon display determination process based on a subject situation. 実施形態1に係るアイコン表示処理のフローチャートである。11 is a flowchart of an icon display process according to the first embodiment. 実施形態1に係るアイコン非表示処理のフローチャートである。10 is a flowchart of an icon non-display process according to the first embodiment. 被写体の動き情報について説明する図である。FIG. 4 is a diagram illustrating subject movement information. 視線位置を示すアイコンについて説明する図である。FIG. 13 is a diagram illustrating an icon indicating a gaze position. ズーム操作に基づくアイコン表示について説明する図である。FIG. 11 is a diagram illustrating icon display based on a zoom operation. カメラの姿勢変化に基づくアイコン表示について説明する図である。11A and 11B are diagrams illustrating icon display based on changes in camera attitude. 被写体数の変化に基づくアイコン表示について説明する図である。11A and 11B are diagrams illustrating icon display based on a change in the number of subjects. 被写体の動き情報に基づくアイコン表示について説明する図である。11A and 11B are diagrams illustrating icon display based on subject movement information. 透過率を変化させてアイコンを表示状態にする例を示す図である。13A and 13B are diagrams illustrating an example in which an icon is displayed by changing the transparency. サイズを変化させてアイコンを表示状態にする例を示す図である。FIG. 13 is a diagram showing an example of changing the size of an icon to a displayed state. 実施形態2に係るアイコン表示処理のフローチャートである。10 is a flowchart of an icon display process according to the second embodiment. 実施形態2に係るアイコン非表示処理のフローチャートである。10 is a flowchart of an icon non-display process according to the second embodiment. 近接する複数被写体に対するアイコン表示について説明する図である。FIG. 13 is a diagram illustrating icon display for multiple subjects that are close to each other. 近接しない複数被写体に対するアイコン表示について説明する図である。FIG. 13 is a diagram illustrating icon display for multiple subjects that are not in close proximity to each other. 実施形態3に係るアイコン表示処理のフローチャートである。13 is a flowchart of an icon display process according to a third embodiment. 実施形態3に係るアイコン非表示処理のフローチャートである。13 is a flowchart of an icon non-display process according to the third embodiment. 他の電子機器の外観図である。FIG. 13 is an external view of another electronic device.

[実施形態1]
以下、添付の図面を参照して本発明の実施形態について説明する。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

<構成の説明>
図1(a),1(b)~図3を参照してカメラの構成の例を説明する。図1(a),1(b)は、実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観の一例を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1Aおよびカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付け可能な操作部材であるレリーズボタン5が配置されている。
<Description of configuration>
An example of the camera configuration will be described with reference to Figs. 1(a), 1(b) to 3. Figs. 1(a) and 1(b) show an example of the appearance of a camera 1 (digital still camera; interchangeable lens camera) according to an embodiment. Fig. 1(a) is a front perspective view, and Fig. 1(b) is a rear perspective view. As shown in Fig. 1(a), the camera 1 has a photographing lens unit 1A and a camera housing 1B. A release button 5, which is an operating member capable of accepting photographing operations from a user (photographer), is arranged on the camera housing 1B.

図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている表示デバイス10(表示パネル)を見るためにユーザーが覗き込む接眼レンズ12(接眼光学系)が配置されている。なお、接眼光学系には複数枚のレンズが含まれていてもよ
い。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付け可能な操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付け可能なタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
As shown in FIG. 1B, an eyepiece lens 12 (eyepiece optical system) into which a user looks to view a display device 10 (display panel) included in the camera housing 1B is disposed on the rear surface of the camera housing 1B. The eyepiece optical system may include a plurality of lenses. Operation members 41 to 43 capable of accepting various operations from a user are also disposed on the rear surface of the camera housing 1B. For example, the operation member 41 is a touch panel capable of accepting touch operations, the operation member 42 is an operation lever that can be pushed down in each direction, and the operation member 43 is a four-way key that can be pushed in each of four directions. The operation member 41 (touch panel) is provided with a display panel such as a liquid crystal panel, and has a function of displaying an image on the display panel.

図2は、図1(a)に示したY軸とZ軸とが成すYZ平面でカメラ1を切断した断面図であり、カメラ1の内部構成の一例を示す。図2において、図1(a),1(b)と同じ構成に対しては同じ符号が付される。 Figure 2 is a cross-sectional view of camera 1 cut along the YZ plane defined by the Y axis and Z axis shown in Figure 1(a), and shows an example of the internal configuration of camera 1. In Figure 2, the same components as in Figures 1(a) and 1(b) are denoted by the same reference numerals.

撮影レンズユニット1Aは、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、焦点調節回路118を含む。また、撮影レンズユニット1Aは、加速度センサ119、ズーム駆動部120、レンズCPU121を含む。なお、簡単のために2枚のレンズ101,102を示したが、撮影レンズユニット1Aは、実際は2枚より多くのレンズを含む。撮影レンズユニット1Aに含まれる各構成は、レンズCPU121により制御される。 The photographing lens unit 1A includes two lenses 101, 102, an aperture 111, an aperture drive section 112, a lens drive motor 113, a lens drive member 114, a photocoupler 115, a pulse plate 116, a mount contact 117, and a focus adjustment circuit 118. The photographing lens unit 1A also includes an acceleration sensor 119, a zoom drive section 120, and a lens CPU 121. Note that for simplicity, two lenses 101, 102 are shown, but the photographing lens unit 1A actually includes more than two lenses. Each component included in the photographing lens unit 1A is controlled by the lens CPU 121.

撮影レンズユニット1A内に設けられた絞り111は、絞り駆動部112によって駆動される。レンズ駆動部材114は駆動ギヤなどを含む。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラ115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェースである。 Aperture 111 provided in photographing lens unit 1A is driven by aperture drive unit 112. Lens drive member 114 includes a drive gear and the like. Photocoupler 115 detects the rotation of pulse plate 116 linked to lens drive member 114 and transmits it to focus adjustment circuit 118. Focus adjustment circuit 118 drives lens drive motor 113 based on information from photocoupler 115 and information from camera housing 1B (lens drive amount information), and moves lens 101 to change the focus position. Mount contact 117 is an interface between photographing lens unit 1A and camera housing 1B.

加速度センサ119は、撮影レンズユニット1Aに内蔵され、レンズ101,102のパンニングを検出する。また、加速度センサ6はカメラ筐体1Bに内蔵され、カメラ筐体1Bのパンニングを検出する。カメラ1のパンニングは、撮影レンズユニット1Aに内蔵される加速度センサ119、およびカメラ筐体1Bに内蔵される加速度センサ6の少なくともいずれかを用いて判定される。 The acceleration sensor 119 is built into the photographing lens unit 1A and detects the panning of the lenses 101 and 102. The acceleration sensor 6 is built into the camera housing 1B and detects the panning of the camera housing 1B. The panning of the camera 1 is determined using at least one of the acceleration sensor 119 built into the photographing lens unit 1A and the acceleration sensor 6 built into the camera housing 1B.

ズーム駆動部120は、不図示のレンズ鏡筒に備えられた操作部材に対するユーザーの手動操作に基づいてズーム駆動を行うか、マウント接点117を介して通知されるカメラ筐体1Bからの指示によりズーム駆動を行う。レンズCPU121は、ズーム駆動の情報を、撮影レンズユニット1Aからマウント接点117を介してカメラ筐体1Bに通知する。カメラ1は、ズーム駆動の情報に基づいて、ズーム操作による画角変更を検出することができる。 The zoom drive unit 120 performs zoom drive based on manual operation by the user using an operating member provided on the lens barrel (not shown), or performs zoom drive based on instructions from the camera housing 1B notified via the mount contact 117. The lens CPU 121 notifies the camera housing 1B of zoom drive information from the photographing lens unit 1A via the mount contact 117. The camera 1 can detect a change in the angle of view due to zoom operation based on the zoom drive information.

カメラ筐体1Bは、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などを含む。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された画像(被写体像)などを表示デバイス10の表示面に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。 The camera housing 1B includes an image sensor 2, a CPU 3, a memory section 4, a display device 10, a display device drive circuit 11, etc. The image sensor 2 is disposed at the intended imaging surface of the photographing lens unit 1A. The CPU 3 is the central processing section of the microcomputer, and controls the entire camera 1. The memory section 4 stores images captured by the image sensor 2, etc. The display device 10 is composed of a liquid crystal or the like, and displays the captured image (subject image) etc. on the display surface of the display device 10. The display device drive circuit 11 drives the display device 10. The user can view the image (such as the image captured by the image sensor 2) displayed on the display surface of the display device 10 through the eyepiece 12.

カメラ筐体1Bは、接眼レンズ12、光源13a,13b、光分割器15、受光レンズ
16、眼用撮像素子17なども含む。光源13a,13bは、ユーザーの眼球14を照明するための光源である。光源13a,13bは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔との関係から視線方向(視線の方向;ユーザーが見ている方向)を検出するために一眼レフカメラなどで用いられている。具体的には、光源13aおよび光源13bのそれぞれは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。
The camera housing 1B also includes an eyepiece 12, light sources 13a and 13b, a light splitter 15, a light receiving lens 16, and an ocular imaging element 17. The light sources 13a and 13b are light sources for illuminating the user's eyeball 14. The light sources 13a and 13b are used in single-lens reflex cameras and the like to detect the line of sight (the direction of the line of sight; the direction in which the user is looking) from the relationship between the reflection image (corneal reflection image; Purkinje image) of light due to the corneal reflection and the pupil. Specifically, the light sources 13a and 13b are infrared light-emitting diodes or the like that emit infrared light that is insensitive to the user, and are arranged around the eyepiece 12.

照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDまたはCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17とを共役な結像関係に位置付けている。眼球14の視線方向は、眼用撮像素子17上に結像された眼球像における瞳孔と角膜反射像との位置関係から、所定のアルゴリズムにより検出される。 The optical image of the illuminated eyeball 14 (eyeball image; an image formed by light emitted from light sources 13a and 13b and reflected by the eyeball 14) passes through the eyepiece 12 and is reflected by the light splitter 15. The eyeball image is then formed by the light receiving lens 16 on the ocular imaging element 17, which is a two-dimensional array of photoelectric elements such as CCD or CMOS. The light receiving lens 16 positions the pupil of the eyeball 14 and the ocular imaging element 17 in a conjugate imaging relationship. The line of sight of the eyeball 14 is detected by a specified algorithm from the positional relationship between the pupil and the corneal reflection image in the eyeball image formed on the ocular imaging element 17.

図3は、カメラ1内の電気的構成の一例を示すブロック図である。図3において、図1(a),1(b)および図2と同じ構成に対しては同じ符号が付され、これらの構成についての詳細な説明は省略される。CPU3は、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205、加速度センサ6、メモリ部4、画像処理部208および姿勢検出部207に接続されている。 Figure 3 is a block diagram showing an example of the electrical configuration within the camera 1. In Figure 3, the same components as those in Figures 1(a), 1(b) and 2 are given the same reference numerals, and detailed descriptions of these components are omitted. The CPU 3 is connected to the line of sight detection circuit 201, the photometry circuit 202, the autofocus detection circuit 203, the signal input circuit 204, the display device drive circuit 11, the light source drive circuit 205, the acceleration sensor 6, the memory unit 4, the image processing unit 208 and the attitude detection unit 207.

また、CPU3は、マウント接点117を介して、レンズCPU121に信号を伝達する。レンズCPU121は、CPU3からの信号に基づいて、撮影レンズユニット1A内に配置された焦点調節回路118、絞り駆動部112に含まれる絞り制御回路206、加速度センサ119およびズーム駆動部120を制御する。 The CPU 3 also transmits a signal to the lens CPU 121 via the mount contact 117. Based on the signal from the CPU 3, the lens CPU 121 controls the focus adjustment circuit 118 arranged in the photographing lens unit 1A, the aperture control circuit 206 included in the aperture drive unit 112, the acceleration sensor 119, and the zoom drive unit 120.

CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能を有している。CPU3は、メモリ部4へ記憶した撮像素子2の撮像信号を撮影画像へ変換し、変換した撮影画像をメモリ部4に接続される記録媒体7へ転送する。 The memory unit 4 associated with the CPU 3 has a function of storing image signals from the image sensor 2 and the eye image sensor 17. The CPU 3 converts the image signal of the image sensor 2 stored in the memory unit 4 into a captured image, and transfers the converted captured image to the recording medium 7 connected to the memory unit 4.

姿勢検出部207は、カメラ1を構えるユーザーの姿勢情報を検出する。姿勢検出部207は、例えば、加速度センサ6を用いてユーザーの姿勢情報を検出することができる。カメラ1は、被写体に対して撮像素子2が水平となる正位置(横位置)での撮影、および被写体に対して撮像素子2が垂直となる縦位置での撮影が可能である。姿勢検出部207は、ユーザーがファインダーを覗きながらカメラ1の姿勢を変えた場合にも、カメラ1の姿勢変化を検出することができる。 The attitude detection unit 207 detects attitude information of the user holding the camera 1. The attitude detection unit 207 can detect the attitude information of the user using, for example, the acceleration sensor 6. The camera 1 can capture images in a normal position (horizontal position) where the image sensor 2 is horizontal to the subject, and in a vertical position where the image sensor 2 is vertical to the subject. The attitude detection unit 207 can detect a change in the attitude of the camera 1 even if the user changes the attitude of the camera 1 while looking through the viewfinder.

視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、所定のアルゴリズムに従って、眼画像から視線検出に用いられる特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。 The gaze detection circuit 201 A/D converts the output of the eye imaging element 17 (eye image captured of the eye) when an eyeball image is formed on the eye imaging element 17, and transmits the result to the CPU 3. The CPU 3 extracts feature points used for gaze detection from the eye image according to a predetermined algorithm, and calculates the user's viewpoint (gaze position; position where the gaze is directed; position where the user is looking) on the display surface of the display device 10 from the positions of the feature points.

測光回路202は、測光センサの役割を兼ねる撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果である被写界輝度情報をCPU3に送る。被写界輝度情報は、撮像された画像の各画素の輝度を示す情報である。また、測光回路202は、撮像素子2により撮像された画像から特定の被写体(特定の物体)を検出し、その結果である被写体情報と被写体領域情報をCPU3に送る。被写体情報(物体情報)は、検出された被写体に関連した情報であり、
被写体領域情報(物体領域情報)は、検出された被写体の領域を示す情報である。被写体情報および被写体領域情報は、被写界輝度情報を解析して得ることもできる。
The photometry circuit 202 amplifies, logarithmically compresses, and A/D converts the signal obtained from the image sensor 2, which also functions as a photometry sensor; specifically, the luminance signal corresponding to the brightness of the field, and sends the resulting field luminance information to the CPU 3. The field luminance information is information indicating the luminance of each pixel in the captured image. The photometry circuit 202 also detects a specific subject (specific object) from the image captured by the image sensor 2, and sends the resulting subject information and subject area information to the CPU 3. The subject information (object information) is information related to the detected subject,
The subject area information (object area information) is information that indicates the area of the detected subject. The subject information and the subject area information can also be obtained by analyzing the field luminance information.

自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図4(a)に示すようなファインダー内視野(ファインダーを覗いたときの視野)、具体的には表示デバイス10の表示面に示した180か所に対応する、撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。 The auto focus detection circuit 203 A/D converts the signal voltage from multiple detection elements (multiple pixels) used for phase difference detection, which are included in the image sensor 2, and sends it to the CPU 3. The CPU 3 calculates the distance to the subject corresponding to each focus detection point from the signals of the multiple detection elements. This is a well-known technique known as image plane phase difference AF. In this embodiment, as an example, it is assumed that there are focus detection points in the viewfinder field (the field of view when looking through the viewfinder) as shown in FIG. 4(a), specifically, at each of the 180 locations on the image plane corresponding to the 180 locations shown on the display surface of the display device 10.

信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストローク(半押し)でONし、カメラ1の測光や焦点検出(測距)などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストローク(全押し)でONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。測光や焦点検出は、設定された測光領域や焦点検出領域内、または選択(決定)された主被写体の領域内で行われる。例えば、測光では、測光回路202により、対象の領域の輝度が被写界輝度情報から判断され、焦点検出では、自動焦点検出回路203により、対象の領域に存在する被写体までの距離が判断される。 Switches SW1 and SW2 are connected to the signal input circuit 204. Switch SW1 is turned on by the first stroke (half press) of the release button 5, and is a switch for starting the exposure metering and focus detection (distance measurement) of the camera 1. Switch SW2 is turned on by the second stroke (full press) of the release button 5, and is a switch for starting the shooting operation. ON signals from switches SW1 and SW2 are input to the signal input circuit 204 and transmitted to the CPU 3. Exposure metering and focus detection are performed within a set exposure metering area or focus detection area, or within the area of a selected (determined) main subject. For example, in exposure metering, the exposure metering circuit 202 determines the brightness of the target area from the field brightness information, and in focus detection, the auto focus detection circuit 203 determines the distance to the subject present in the target area.

操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)は、ユーザーから受け付けた操作に対応する操作信号をCPU3に送る。光源駆動回路205は、光源13a,13bを駆動する。 Operation member 41 (touch panel), operation member 42 (operation lever), and operation member 43 (four-way key) send operation signals corresponding to operations received from the user to CPU 3. Light source drive circuit 205 drives light sources 13a and 13b.

画像処理部208は、撮像素子2により撮像された画像に対して各種画像処理を適用する。また、画像処理部208は、撮像された画像から、各種情報を取得したり生成したりする。画像処理部208は、例えば特定の機能を実現するように設計されたASIC(Application Specific Integrated Circuit)などの専用のハードウェア回路によって実現されてもよい。また、画像処理部208は、ソフトウェアを実行することで特定の機能を実現するDSP(Digital Signal Processor)のようなプロセッサによって実現されてもよい。 The image processing unit 208 applies various image processing to the image captured by the image sensor 2. The image processing unit 208 also acquires and generates various information from the captured image. The image processing unit 208 may be realized by a dedicated hardware circuit such as an ASIC (Application Specific Integrated Circuit) designed to realize a specific function. The image processing unit 208 may also be realized by a processor such as a DSP (Digital Signal Processor) that realizes a specific function by executing software.

画像処理部208による画像処理は、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などを含む。前処理は、信号増幅、基準レベル調整、欠陥画素補正などの処理を含む。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理は、ホワイトバランスを調整する処理、画像の輝度を補正する処理、撮影レンズユニット1Aの光学収差を補正する処理、色を補正する処理などを含む。 Image processing by the image processing unit 208 includes pre-processing, color interpolation processing, correction processing, detection processing, data processing, evaluation value calculation processing, etc. Pre-processing includes processing such as signal amplification, reference level adjustment, and defective pixel correction. Color interpolation processing is processing that interpolates values of color components not included in the image data, and is also called demosaic processing. Correction processing includes processing that adjusts white balance, processing that corrects image brightness, processing that corrects optical aberrations of the photographing lens unit 1A, and processing that corrects color.

検出処理は、特徴領域(例えば、顔、人体、動物、自動車などの領域)の検出処理、特徴領域の追尾処理、人物の認識処理などを含む。画像処理部208は、画像を表示する表示デバイス10の表示面におけるユーザーの視線位置の情報を検出し、画像内の被写体を検出することにより、ユーザーが注目している被写体を特定することができる。また、画像処理部208は、時系列に沿った画像の差分を解析することにより、画像内の被写体が画像平面においてどのように動作しているかといった被写体の動き特性情報を取得することができる。 The detection process includes detection of characteristic regions (e.g., regions of faces, human bodies, animals, automobiles, etc.), tracking of characteristic regions, person recognition, etc. The image processing unit 208 detects information on the user's gaze position on the display surface of the display device 10 that displays the image, and detects the subject within the image, thereby being able to identify the subject that the user is focusing on. In addition, the image processing unit 208 can obtain information on the movement characteristics of the subject, such as how the subject in the image is moving on the image plane, by analyzing the difference between images over time.

データ加工処理は、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などを含む。評価値算出処理は、位相差信号を用いたAF処理のための1対の信号、コント
ラストAF用の評価値、自動露出制御に用いる評価値などの算出処理を含む。なお、画像処理部208が実施する画像処理は、上記の例に限定されない。
The data processing includes scaling, encoding and decoding, header information generation, etc. The evaluation value calculation includes calculation of a pair of signals for AF processing using a phase difference signal, an evaluation value for contrast AF, an evaluation value used for automatic exposure control, etc. Note that the image processing performed by the image processing unit 208 is not limited to the above examples.

図4(a),4(b)は、ファインダー内視野の表示例を示す図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図4(a)に示すように、ファインダー内視野には、視野マスク300、焦点検出領域400、180個の測距点指標401などがある。180個の測距点指標401のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。画像処理部208は、ユーザーがファインダーを覗いたときに眼用撮像素子17により取得される眼画像から、表示デバイス10の表示面におけるユーザーの視線位置の情報を取得することができる。 Figures 4(a) and 4(b) are diagrams showing examples of the display of the field of view in the viewfinder, showing the state in which the display device 10 is operating (the state in which an image is displayed). As shown in Figure 4(a), the field of view in the viewfinder includes a field of view mask 300, a focus detection area 400, and 180 ranging point indices 401. Each of the 180 ranging point indices 401 is displayed superimposed on a through image (live view image) displayed on the display device 10 so as to be displayed at a position corresponding to the focus detection point on the imaging surface. The image processing unit 208 can obtain information on the user's gaze position on the display surface of the display device 10 from the eye image obtained by the ocular imaging element 17 when the user looks through the viewfinder.

図4(a)において、視線位置421は、ユーザーの視線が検出された位置(視線位置を含む領域)である。また、被写体422は、画像処理部208による画像の解析により検出された人物である。以下の説明では、検出対象が人物である場合、斜線部の頭部の領域が被写体として検出される。人の眼球には固視微動と呼ばれる揺らぎを伴う動作が生じるため、画像処理部208は、視線位置の近傍に存在する被写体を、ユーザーの視線が向けられた被写体として推定することが好ましい。視線位置と、被写体が存在する位置とにずれがある場合、画像処理部208は、ユーザーの視線が向けられた被写体を示すアイコン423を表示する。アイコン423が表示されることで、ユーザーは、自身が見ていると推定された被写体を確認することができる。また、画像処理部208は、ユーザーが所望の被写体の近傍に視線を向けることで、ユーザーが見ている被写体を推定することができる。 In FIG. 4(a), the gaze position 421 is the position where the user's gaze was detected (the area including the gaze position). The subject 422 is a person detected by the image analysis by the image processing unit 208. In the following description, when the detection target is a person, the hatched head area is detected as the subject. Since the human eyeball undergoes a movement accompanied by a fluctuation called fixation eye movement, it is preferable for the image processing unit 208 to estimate the subject that exists near the gaze position as the subject at which the user's gaze is directed. When there is a discrepancy between the gaze position and the position at which the subject exists, the image processing unit 208 displays an icon 423 indicating the subject at which the user's gaze is directed. By displaying the icon 423, the user can confirm the subject that is estimated to be viewed by the user. Furthermore, the image processing unit 208 can estimate the subject that the user is viewing by directing the user's gaze near the desired subject.

視線位置の近傍は、視線位置を含む所定の範囲とすることができる。所定の範囲は、例えば、画像を撮像する際の焦点距離、撮影距離、撮影モードおよび視線が向けられた(ユーザーの視線位置に基づく位置に存在する)被写体の大きさに基づいて決定される。被写体の大きさは、画像内での大きさであり、例えば被写体が占める画素数により表すことができる。また、所定の範囲は、被写体の種類、移動速度などに基づいて決定されてもよい。視線位置の近傍に複数の被写体が検出された場合、画像処理部208は、視線位置により近い被写体を、ユーザーの視線が向けられた被写体と推定することができる。 The vicinity of the gaze position can be a predetermined range including the gaze position. The predetermined range is determined, for example, based on the focal length, shooting distance, shooting mode, and the size of the subject at which the gaze is directed (present at a position based on the user's gaze position) when capturing the image. The size of the subject is the size within the image, and can be expressed, for example, by the number of pixels the subject occupies. The predetermined range may also be determined based on the type of subject, the movement speed, etc. When multiple subjects are detected near the gaze position, the image processing unit 208 can estimate that the subject closest to the gaze position is the subject at which the user's gaze is directed.

図4(b)は、画像に複数の被写体が存在する例を示す。図4(b)に示す画像では、被写体431および被写体432が検出されている。視線位置433は、ユーザーの視線が検出された位置である。アイコン434(第1アイテムに相当)は、画像処理部208によって、ユーザーの視線が向けられていると推定された被写体(以下、推定被写体とも称される)を示す。 Figure 4(b) shows an example in which multiple subjects are present in an image. In the image shown in Figure 4(b), subjects 431 and 432 are detected. Gaze position 433 is the position where the user's gaze is detected. Icon 434 (corresponding to the first item) indicates the subject (hereinafter also referred to as the estimated subject) that is estimated by image processing unit 208 to be directed at by the user's gaze.

画像処理部208は、ユーザーが被写体432の近傍に視線を移動させると、推定被写体を被写体431から被写体432に変更する。画像処理部208は、推定被写体を示すアイコン434を、視線の移動先である被写体432に対して表示する。なお、画像内で検出する被写体は、人物に限られず、動物または乗り物などであってもよい。 When the user moves the line of sight to the vicinity of subject 432, image processing unit 208 changes the estimated subject from subject 431 to subject 432. Image processing unit 208 displays icon 434 indicating the estimated subject for subject 432, the destination of the line of sight. Note that the subject detected in the image is not limited to a person, and may be an animal, a vehicle, or the like.

<視線検出処理の説明>
図5,6(a),6(b),7を用いて、視線位置を取得するための視線検出処理(視線検出方法)について説明する。右目の視線も左目の視線も、以下の視線検出方法で検出される。図5は視線検出方法の原理を説明するための図であり、視線を検出するための光学系の概略図である。図5に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光
する。図6(a)は眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼の光学像)の概略図であり、図6(b)は眼用撮像素子17の出力強度を示す図である。図7は、視線検出処理のフローチャートである。
<Description of Gaze Detection Processing>
The gaze detection process (gaze detection method) for acquiring the gaze position will be described with reference to Figs. 5, 6(a), 6(b), and 7. The gaze of the right eye and the gaze of the left eye are detected by the following gaze detection method. Fig. 5 is a diagram for explaining the principle of the gaze detection method, and is a schematic diagram of an optical system for detecting the gaze. As shown in Fig. 5, the light sources 13a and 13b are arranged approximately symmetrically with respect to the optical axis of the light receiving lens 16, and illuminate the user's eyeball 14. A part of the light emitted from the light sources 13a and 13b and reflected by the eyeball 14 is collected by the light receiving lens 16 on the eye image sensor 17. Fig. 6(a) is a schematic diagram of an eye image captured by the eye image sensor 17 (optical image of the eye projected on the eye image sensor 17), and Fig. 6(b) is a diagram showing the output intensity of the eye image sensor 17. Fig. 7 is a flowchart of the gaze detection process.

図7の視線検出処理が開始すると、ステップS1では、CPU3は、ユーザーの眼球14に向けて赤外光を発するように、光源駆動回路205を用いて光源13a,13bを駆動する。赤外光によって照明されたユーザーの眼の光学像は、受光レンズ16を通って眼用撮像素子17上に結像し、眼用撮像素子17によって光電変換される。これによって、処理可能な眼画像の電気信号が得られる。 When the gaze detection process in FIG. 7 starts, in step S1, the CPU 3 drives the light sources 13a and 13b using the light source drive circuit 205 so as to emit infrared light toward the user's eyeball 14. An optical image of the user's eye illuminated by the infrared light passes through the light receiving lens 16 and is formed on the eye image sensor 17, which then performs photoelectric conversion. This provides an electrical signal of the eye image that can be processed.

ステップS2では、CPU3は、眼用撮像素子17から視線検出回路201を介して眼画像(画像データ、画像信号)を取得する。 In step S2, the CPU 3 acquires an eye image (image data, image signal) from the eye imaging element 17 via the gaze detection circuit 201.

ステップS3では、CPU3は、S2で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peおよび瞳孔141の中心cに対応する点の座標を取得する。光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部によって形成される角膜反射像Pd,Peは、受光レンズ16によって集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。 In step S3, the CPU 3 obtains the corneal reflection images Pd, Pe of the light sources 13a, 13b and the coordinates of the point corresponding to the center c of the pupil 141 from the eye image obtained in S2. The infrared light emitted from the light sources 13a, 13b illuminates the cornea 142 of the user's eyeball 14. At this time, the corneal reflection images Pd, Pe formed by a portion of the infrared light reflected from the surface of the cornea 142 are collected by the light receiving lens 16 and imaged on the ocular imaging element 17 to become the corneal reflection images Pd', Pe' in the eye image. Similarly, the light beams from the ends a, b of the pupil 141 are also imaged on the ocular imaging element 17 to become the pupil end images a', b' in the eye image.

図6(b)は、図6(a)の眼画像における領域αの輝度情報(輝度分布)を示す。図6(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。 Figure 6(b) shows the luminance information (luminance distribution) of region α in the eye image of Figure 6(a). In Figure 6(b), the horizontal direction of the eye image is the X-axis direction, and the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. The coordinates in the X-axis direction (horizontal direction) of the corneal reflection images Pd', Pe' are Xd, Xe, and the coordinates in the X-axis direction of the pupil edge images a', b' are Xa, Xb.

図6(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。例えば、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。 As shown in FIG. 6B, the coordinates Xd and Xe of the corneal reflection images Pd' and Pe' provide an extremely high level of luminance. In the region from coordinate Xa to coordinate Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by focusing the light beam from the pupil 141 on the ocular imaging element 17), an extremely low level of luminance is provided except for coordinates Xd and Xe. In the region of the iris 143 outside the pupil 141 (the region of the iris image outside the pupil image obtained by focusing the light beam from the iris 143), an intermediate luminance between the above two types of luminance is provided. For example, an intermediate luminance between the above two types of luminance is provided in a region where the X coordinate (coordinate in the X-axis direction) is greater than coordinate Xa and a region where the X coordinate is less than coordinate Xb.

図6(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。例えば、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。 From the luminance distribution as shown in FIG. 6(b), the X coordinates Xd, Xe of the corneal reflection images Pd', Pe' and the X coordinates Xa, Xb of the pupil edge images a', b' can be obtained. For example, the coordinates of the corneal reflection images Pd', Pe' can be obtained as the coordinates of the corneal reflection images Pd', Pe', and the coordinates of the pupil edge images a', b' can be obtained as the coordinates of the pupil edge images a', b'. In addition, when the rotation angle θx of the optical axis of the eyeball 14 relative to the optical axis of the light receiving lens 16 is small, the coordinate Xc of the pupil center image c' (center of the pupil image) obtained by focusing the light beam from the pupil center c on the ocular imaging element 17 can be expressed as Xc ≒ (Xa + Xb) / 2. In other words, the coordinate Xc of the pupil center image c' can be calculated from the X coordinates Xa, Xb of the pupil edge images a', b'. In this way, the coordinates of the corneal reflection images Pd', Pe' and the coordinates of the pupil center image c' can be estimated.

ステップS4では、CPU3は、眼画像の結像倍率βを算出する。結像倍率βは受光レンズ16に対する眼球14の位置によって決まる倍率で、角膜反射像Pd‘,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。 In step S4, the CPU 3 calculates the imaging magnification β of the eye image. The imaging magnification β is determined by the position of the eyeball 14 relative to the light receiving lens 16, and can be calculated using a function of the distance (Xd-Xe) between the corneal reflection images Pd', Pe'.

ステップS5では、CPU3は、受光レンズ16の光軸に対する眼球140の光軸の回
転角を算出する。角膜反射像PdとPeとの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β*Oc*SINθ≒{(Xd+Xe)/2}-Xc・・・(式1)
In step S5, CPU 3 calculates the rotation angle of the optical axis of eyeball 140 relative to the optical axis of light receiving lens 16. The X coordinate of the midpoint between corneal reflection images Pd and Pe and the X coordinate of the center of curvature O of cornea 142 approximately coincide with each other. For this reason, if the standard distance from the center of curvature O of cornea 142 to the center of pupil c is Oc, then the rotation angle θX of eyeball 14 in the Z-X plane (plane perpendicular to the Y axis) can be calculated by the following formula 1. The rotation angle θy of eyeball 140 in the Z-Y plane (plane perpendicular to the X axis) can also be calculated by a method similar to the method for calculating the rotation angle θx.

β*Oc*SINθ X ≒ {(Xd+Xe)/2}-Xc... (Formula 1)

ステップS6では、CPU3は、ステップS5で算出した回転角θx,θyを用いて、表示デバイス10上でユーザーの視線位置(以下、視点とも称する)を推定する。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S6, the CPU 3 uses the rotation angles θx, θy calculated in step S5 to estimate the user's line of sight (hereinafter also referred to as the viewpoint) on the display device 10. If the coordinates (Hx, Hy) of the viewpoint correspond to the pupil center c, the coordinates (Hx, Hy) of the viewpoint can be calculated by the following formulas 2 and 3.

Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)

式2,3のパラメータmは、視線検出処理を行うための光学系の構成で定まる定数であり、回転角θx,θyを表示デバイス10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、あらかじめ決定され、メモリ部4に格納される。視線補正パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータである。視線補正パラメータAx,Bx,Ay,Byは、視線検出のキャリブレーションを行うことで取得され、あらかじめメモリ部4に格納される。 The parameter m in Equations 2 and 3 is a constant determined by the configuration of the optical system for performing gaze detection processing, and is a conversion coefficient that converts the rotation angles θx and θy into coordinates corresponding to the pupil center c on the display device 10. The parameter m is determined in advance and stored in the memory unit 4. The gaze correction parameters Ax, Bx, Ay, and By are gaze correction parameters that correct individual differences in the gaze. The gaze correction parameters Ax, Bx, Ay, and By are obtained by performing calibration of the gaze detection, and are stored in advance in the memory unit 4.

ステップS7では、CPU3は、視点の座標および眼画像を取得した時刻(以下、視線検出時刻)をメモリ部4に格納し、視線検出処理を終了する。 In step S7, the CPU 3 stores the coordinates of the viewpoint and the time when the eye image was acquired (hereinafter, the gaze detection time) in the memory unit 4, and ends the gaze detection process.

なお、視線検出方法は上記方法に限られず、眼画像に基づいて視線を検出する如何なる方法であってもよい。また、視線検出の結果(最終結果)として視点の座標(Hx,Hy)を得る例を説明したが、回転角θx,θyなど、視線に関する情報(視線情報)であれば、どのような情報が視線検出の結果として得られてもよい。 The gaze detection method is not limited to the above method, and any method that detects the gaze based on an eye image may be used. Also, an example has been described in which the coordinates of the viewpoint (Hx, Hy) are obtained as the result (final result) of gaze detection, but any information related to the gaze (gaze information), such as rotation angles θx, θy, may be obtained as the result of gaze detection.

<アイコン表示制御処理の説明>
図8A~8Cを用いて、ユーザーの視線が向けられた被写体を示すアイコンの表示制御について説明する。図8Aは、実施形態1のアイコン表示制御処理を例示するフローチャートである。図8Aに示す処理は、画像の取得、被写体検出、アイコン表示制御の処理を含む。CPU3は、時系列に画像を取得し、図8Aに示す処理を繰り返し実行する。
<Description of Icon Display Control Process>
8A to 8C, the display control of an icon indicating a subject at which the user's gaze is directed will be described. Fig. 8A is a flowchart illustrating an example of an icon display control process in the first embodiment. The process shown in Fig. 8A includes image acquisition, subject detection, and icon display control processes. The CPU 3 acquires images in chronological order, and repeatedly executes the process shown in Fig. 8A.

ステップS8001では、CPU3は、撮像素子2により撮像され、画像処理部208が各種画像処理を適用して生成した画像を取得する。ステップS8002では、CPU3は、ステップS8001で取得した画像に含まれる被写体を検出する。具体的には、CPU3は、画像から検出した人物の頭部の位置の情報を、被写体位置の情報として取得する。例えば、図9(a)の画像では、CPU3は、被写体901を検出し、被写体901の頭部の位置の情報を取得する。 In step S8001, the CPU 3 acquires an image captured by the image sensor 2 and generated by the image processing unit 208 through various image processing. In step S8002, the CPU 3 detects a subject included in the image acquired in step S8001. Specifically, the CPU 3 acquires information on the position of the head of a person detected from the image as subject position information. For example, in the image of FIG. 9(a), the CPU 3 detects the subject 901 and acquires information on the head position of the subject 901.

ステップS8003では、CPU3は、画像に含まれる被写体の動き情報(動き特性の情報、動作の情報)を取得する。CPU3は、ステップS8001で取得した画像を、過去に画像処理部208が生成した画像と比較することで、画像に含まれる被写体の動き情報を取得することができる。例えば、図9(a)~9(c)は、それぞれ、時刻t1、時
刻t1よりも後の時刻t2、時刻t2よりも後の時刻t3に生成された画像である。この場合、CPU3は、被写体901が略等速で移動しているという動き情報を取得することができる。また、図9(d)のように、画像内で被写体901を含む複数の被写体が検出され、いずれも同様の動き特性を示している場合、これらの複数の被写体は、被写体群902として扱われる。
In step S8003, the CPU 3 acquires motion information (motion characteristic information, action information) of the subject included in the image. The CPU 3 can acquire motion information of the subject included in the image by comparing the image acquired in step S8001 with an image previously generated by the image processing unit 208. For example, FIGS. 9(a) to 9(c) are images generated at time t1, time t2 after time t1, and time t3 after time t2, respectively. In this case, the CPU 3 can acquire motion information that the subject 901 is moving at a substantially constant speed. Also, as in FIG. 9(d), when multiple subjects including the subject 901 are detected in the image and all of them show similar motion characteristics, these multiple subjects are treated as a group of subjects 902.

ステップS8004では、CPU3は、眼用撮像素子17および視線検出回路201により、図5~7で説明した視線検出処理を行い、視線位置の情報を取得する。ステップS8005では、CPU3は、ステップS8004で視線検出(視線位置の情報の取得)に成功したか否かを判定する。視線検出に成功した場合、処理はステップS8007に進む。視線検出に失敗した場合、処理はステップS8006に進む。 In step S8004, CPU 3 performs the gaze detection process described in Figures 5 to 7 using the eye imaging element 17 and gaze detection circuit 201 to acquire gaze position information. In step S8005, CPU 3 determines whether gaze detection (acquisition of gaze position information) in step S8004 was successful. If gaze detection was successful, processing proceeds to step S8007. If gaze detection was unsuccessful, processing proceeds to step S8006.

ステップS8006では、CPU3は、前回の処理(現在の画像の前に撮像された画像に対する処理)でのアイコン(第1アイテム)の表示位置と表示するか否かの表示状態とを維持し、ステップS8001に戻る。具体的には、CPU3は、前回の処理でアイコンを表示していなかった場合は、現在の画像に対してもアイコンを表示せず、前回の処理でアイコンを表示していた場合は、現在の画像に対し、前回の画像と同じ位置にアイコンを表示するように制御する。 In step S8006, CPU 3 maintains the display position of the icon (first item) in the previous process (processing for the image captured before the current image) and the display state of whether to display it, and returns to step S8001. Specifically, if the icon was not displayed in the previous process, CPU 3 controls so that the icon is not displayed for the current image either, and if the icon was displayed in the previous process, the icon is displayed for the current image in the same position as in the previous image.

なお、CPU3は、視線検出に失敗した場合、視線検出に失敗したことをユーザーに報知するため、視線検出に成功した場合とは異なる態様でアイコンを表示してもよい。例えば、CPU3は、視線検出に失敗した場合、視線検出に成功した場合と異なる色でアイコンを表示したり、アイコンを点滅表示したりする。なお、アイコンの色が頻繁に変わることで視認性が低下しないようにするため、CPU3は、視線検出に失敗したと判定してから所定の時間が経過をしてからアイコンの表示態様を変更するようにしてもよい。 If gaze detection fails, the CPU 3 may display the icon in a different manner than when gaze detection is successful, in order to notify the user that gaze detection has failed. For example, if gaze detection fails, the CPU 3 may display the icon in a different color than when gaze detection is successful, or may blink the icon. Note that, in order to prevent visibility from decreasing due to frequent changes in the icon color, the CPU 3 may change the display manner of the icon after a predetermined time has elapsed since it was determined that gaze detection has failed.

ステップS8007では、CPU3は、ステップS8004で取得した視線位置で被写体が検出されているか否かを判定する。CPU3は、ユーザーの視線位置の近傍に、ステップS8002で検出された被写体が存在する場合に、視線位置で被写体が検出されたと判定することができる。視線位置で被写体が検出された場合、処理はステップS8009に進む。視線位置で被写体が検出されていない場合、処理は、ステップS8008に進む。 In step S8007, CPU 3 determines whether or not a subject has been detected at the gaze position acquired in step S8004. If a subject detected in step S8002 is present near the user's gaze position, CPU 3 can determine that a subject has been detected at the gaze position. If a subject has been detected at the gaze position, processing proceeds to step S8009. If a subject has not been detected at the gaze position, processing proceeds to step S8008.

ステップS8008では、CPU3は、ステップS8004で取得した視線位置にアイコンを表示する。例えば、図10では、ユーザーの視線位置が画像内に含まれる被写体1001から離れた位置に存在するため、CPU3は、検出されたユーザーの視線位置を示すアイコン1002(第2アイテム)を表示する。CPU3は、例えば、画像内に含まれる被写体1001が、ユーザーの視線位置から所定の距離以上離れている場合に、ユーザーの視線位置を示すアイコンを表示する。 In step S8008, CPU 3 displays an icon at the gaze position acquired in step S8004. For example, in FIG. 10, the user's gaze position is located away from subject 1001 included in the image, so CPU 3 displays icon 1002 (second item) indicating the detected user's gaze position. For example, when subject 1001 included in the image is away from the user's gaze position by a predetermined distance or more, CPU 3 displays an icon indicating the user's gaze position.

視線位置を示すアイコン1002を表示する場合、ユーザーの視線位置には被写体が存在しないため、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン(第1アイテム)を表示しない。これにより、CPU3は、被写体1001をユーザーの視線が向けられた被写体として捕捉していないことをユーザーに報知することができる。 When displaying icon 1002 indicating the gaze position, because there is no subject at the user's gaze position, CPU 3 does not display an icon (first item) indicating the subject at which the user's gaze is directed. This allows CPU 3 to inform the user that subject 1001 has not been captured as the subject at which the user's gaze is directed.

領域1003は、ユーザーの視線位置の近傍を示す領域である。CPU3は、被写体が視線位置の近傍に存在するか否かを判定するための領域として領域1003を設定する。領域1003は、操作部材41~43を用いてユーザーにより設定されてもよい。また、CPU3は、撮影レンズユニット1Aの焦点距離または合焦位置における撮影物体距離などレンズの光学状態に応じて自動で領域1003を設定してもよく、カメラ1に設定され
たAF機能のモード設定などに応じて自動で領域1003を設定してもよい。すなわち、視線位置の近傍は、ユーザーの視線位置を含み、ユーザーまたはCPU3によって設定可能な領域である。
Area 1003 is an area indicating the vicinity of the user's gaze position. CPU 3 sets area 1003 as an area for determining whether or not a subject is present in the vicinity of the gaze position. Area 1003 may be set by the user using operation members 41 to 43. CPU 3 may also automatically set area 1003 according to the optical state of the lens, such as the focal length of photographing lens unit 1A or the photographing object distance at the in-focus position, or may automatically set area 1003 according to the mode setting of the AF function set in camera 1. In other words, the vicinity of the gaze position is an area that includes the user's gaze position and can be set by the user or CPU 3.

ステップS8009では、CPU3は、ユーザーによるカメラ1の撮像の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。カメラ1の撮像の状況は、例えば、ユーザーが画像処理部208によって推定された被写体に注目しているか否か、画像の撮像範囲が変化したか否か、画像を撮像する撮像装置の姿勢が変化したか否かといった状況を含む。 In step S8009, CPU 3 determines whether or not to display an icon indicating the subject at which the user's gaze is directed, based on the status of the user's image capture with camera 1. The status of the image capture with camera 1 includes, for example, statuses such as whether or not the user is paying attention to the subject estimated by image processing unit 208, whether or not the image capture range of the image has changed, and whether or not the attitude of the image capture device capturing the image has changed.

図8Bを参照して、ステップS8009の処理の詳細を説明する。ステップS8201では、CPU3は、撮影者であるユーザーが撮影したい被写体(視線を向けていると推定された被写体、推定被写体)に注目しているか否かを判定する。 The process of step S8009 will be described in detail with reference to FIG. 8B. In step S8201, CPU 3 determines whether the user, who is the photographer, is paying attention to the subject that he or she wishes to photograph (the subject that is estimated to be directed at, the estimated subject).

ユーザーが推定被写体に注目しているか否かは、眼用撮像素子17で撮像された眼画像から、ユーザーの視線位置の安定度合い、ユーザーのまばたきの有無または頻度などによって判定される。例えば、CPU3は、所定の時間におけるユーザーの視線位置の移動量が第1閾値より小さい場合、または所定の時間におけるまばたきの回数が第2閾値より小さい場合に、ユーザーが推定被写体に注目していると判定することができる。視線位置の安定度合およびまばたきの頻度には個人差があるため、第1閾値および第2閾値は、ユーザーごとにあらかじめ設定できるようにしてもよい。ユーザーが推定被写体に注目している場合、処理はステップS8202に進む。ユーザーが推定被写体に注目していない場合、処理はステップS8203に進む。 Whether or not the user is looking at the estimated subject is determined from the eye image captured by the eye image sensor 17 based on the degree of stability of the user's gaze position, the presence or absence or frequency of the user's blinking, etc. For example, the CPU 3 can determine that the user is looking at the estimated subject when the amount of movement of the user's gaze position in a specified time is smaller than a first threshold value, or when the number of times the user blinks in a specified time is smaller than a second threshold value. Since the degree of stability of gaze position and blinking frequency vary from person to person, the first threshold value and the second threshold value may be set in advance for each user. If the user is looking at the estimated subject, processing proceeds to step S8202. If the user is not looking at the estimated subject, processing proceeds to step S8203.

ステップS8202では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。CPU3は、推定被写体を示すアイコンを表示することで、ユーザーが注目している被写体が撮像対象として捉えられていることをユーザーに報知することができる。例えば、イルカショーなどで撮影したい被写体が所望の位置に移動するのを身構えて待っている場合、サッカーのゴール前での撮影機会を狙っている場合など、ユーザーが注目する被写体を示すアイコンが表示されることで、ユーザーは撮影機会を逃さずにすむ。 In step S8202, CPU 3 determines that an icon indicating the estimated subject is to be displayed. By displaying an icon indicating the estimated subject, CPU 3 can notify the user that the subject the user is focusing on has been captured as an image capture target. For example, when the user is waiting for a subject that the user wishes to photograph at a dolphin show to move to a desired position, or when the user is waiting for a photo opportunity in front of a soccer goal, the user can avoid missing a photo opportunity by displaying an icon indicating the subject the user is focusing on.

ステップS8203では、CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定する。ズーム操作は、ユーザーの撮影レンズユニット1Aに対するズーム操作およびカメラ1に対するデジタルズーム操作を含む。CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定することにより、画像の撮像範囲が変化したか否かを判定する。 In step S8203, CPU 3 determines whether or not a zoom operation, pan operation, or tilt operation has occurred. Zoom operations include zoom operations performed by the user on the photographing lens unit 1A and digital zoom operations performed on camera 1. CPU 3 determines whether or not a zoom operation, pan operation, or tilt operation has occurred, thereby determining whether or not the imaging range of the image has changed.

CPU3は、例えば、ズーム操作が行われた場合、ズーム操作による焦点距離の変化量が第3閾値より大きい場合、またはズーム操作によるズーム倍率の変化量が第4閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。また、CPU3は、パン操作もしくはチルト操作が行われた場合、またはパン操作もしくはチルト操作による撮像範囲の移動量が第5閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。第3閾値~第5閾値は、例えば、撮像範囲の変化によって、ユーザーが視線を向けていた被写体を見失う可能性があるか否かに基づいて決定することができる。ズーム操作、パン操作またはチルト操作があった場合、処理はステップS8202に進む。ズーム操作、パン操作またはチルト操作がない場合、処理はステップS8204に進む。 The CPU 3 can determine that the imaging range of the image has changed, for example, when a zoom operation has been performed, when the amount of change in focal length due to the zoom operation is greater than a third threshold, or when the amount of change in zoom magnification due to the zoom operation is greater than a fourth threshold. The CPU 3 can also determine that the imaging range of the image has changed, when a panning operation or tilting operation has been performed, or when the amount of movement of the imaging range due to the panning operation or tilting operation is greater than a fifth threshold. The third to fifth thresholds can be determined, for example, based on whether or not there is a possibility that the subject on which the user is directing his or her gaze will be lost due to a change in the imaging range. If a zoom operation, panning operation, or tilt operation has been performed, the process proceeds to step S8202. If a zoom operation, panning operation, or tilt operation has not been performed, the process proceeds to step S8204.

ステップS8202では、CPU3は、推定被写体を示す「アイコンを表示」すると判定する。ズーム操作などにより構図が変化すると、ユーザーが視線を向けていた被写体の位置は変化する場合がある。もともと視線を向けていた被写体の位置に、異なる被写体が
存在するようになると、ユーザーは、撮影しようとしていた被写体を見失う可能性がある。そこで、CPU3は、ズーム操作などにより画像の撮像範囲が変化したが場合には、推定被写体を示すアイコンを表示することで、ユーザーが撮影しようとしていた被写体を見失わないようにすることができる。
In step S8202, CPU 3 determines to "display an icon" indicating the estimated subject. When the composition is changed by a zoom operation or the like, the position of the subject that the user was directing his or her gaze may change. If a different subject comes to exist in the position of the subject that the user was originally directing his or her gaze, the user may lose sight of the subject that the user was trying to photograph. Therefore, when the imaging range of the image has changed by a zoom operation or the like, CPU 3 displays an icon indicating the estimated subject, thereby preventing the user from losing sight of the subject that the user was trying to photograph.

図11(a),11(b)は、ズーム操作に基づくアイコン表示について説明する図である。図11(a)は、TELE側にズームした状態で被写体1101が、ユーザーの視線が向けられた被写体として推定されている状態を示す。視線位置1102(表示デバイス10上では視線位置1102を示すアイコンは非表示)の近傍には被写体が1つしか存在しないため、ユーザーの視線が向けられた被写体を示すアイコンは非表示となっている。 Figures 11(a) and 11(b) are diagrams explaining icon display based on a zoom operation. Figure 11(a) shows a state in which, when zoomed in to the TELE side, subject 1101 is estimated as the subject at which the user's gaze is directed. Since there is only one subject near gaze position 1102 (the icon indicating gaze position 1102 is not displayed on the display device 10), the icon indicating the subject at which the user's gaze is directed is not displayed.

図11(b)は、図11(a)の状態から、WIDE方向にズーム操作した後の状況を示す。図11(b)では、画像内に被写体1101とは異なる被写体1103が検出されている。視線位置1102がズーム操作前と同じ位置である場合、ユーザーは、被写体1103が推定被写体として捉えられていないか混乱する可能性がある。そこで、CPU3は、ユーザーが被写体1101に視線を向けている場合、被写体1101が推定被写体として捉えられていることをユーザーに報知するため、被写体1101に対してアイコンを表示すると判定する。 Figure 11 (b) shows the situation after zooming in the WIDE direction from the state of Figure 11 (a). In Figure 11 (b), a subject 1103 different from subject 1101 is detected in the image. If gaze position 1102 is the same as before the zoom operation, the user may be confused as to whether subject 1103 has been captured as an estimated subject. Therefore, when the user is directing their gaze at subject 1101, CPU 3 determines to display an icon for subject 1101 to inform the user that subject 1101 has been captured as an estimated subject.

ステップS8204では、CPU3は、カメラ1の姿勢が変化したか否かを判定する。カメラ1による撮影では、ユーザーは、画像の長辺が水平方向となるように撮影する横位置と、画像の長辺が鉛直方向となるように撮影する縦位置とを使い分ける。CPU3は、横位置から縦位置への持ち替えなどによって、カメラ1の姿勢が変化したか否かを判定する。CPU3は、姿勢検出部207により、カメラ1の姿勢の情報を取得することができる。 In step S8204, CPU 3 determines whether the attitude of camera 1 has changed. When taking pictures with camera 1, the user alternates between a horizontal position in which the image is taken with the long side oriented horizontally, and a vertical position in which the image is taken with the long side oriented vertically. CPU 3 determines whether the attitude of camera 1 has changed, for example, by changing the camera from a horizontal position to a vertical position. CPU 3 can obtain information on the attitude of camera 1 using attitude detection unit 207.

なお、CPU3は、ユーザーの視線位置の情報が取得された状態でカメラ1の姿勢が変化したか否かを判定してもよい。ファインダーを覗きながらカメラ1の姿勢を変化させている場合、推定被写体を示すアイコンが表示されることで、ユーザーは、所望の被写体を確認しやすくなる。カメラ1の姿勢が変化した場合、処理はステップS8202に進む。カメラ1の姿勢が変化していない場合、処理はステップS8205に進む。 The CPU 3 may determine whether the attitude of the camera 1 has changed after acquiring information on the user's gaze position. If the attitude of the camera 1 is changed while looking through the viewfinder, an icon indicating the estimated subject is displayed, making it easier for the user to confirm the desired subject. If the attitude of the camera 1 has changed, the process proceeds to step S8202. If the attitude of the camera 1 has not changed, the process proceeds to step S8205.

ステップS8202では、CPU3は、推定被写体を示すアイコンを表示すると判定する。カメラ1の姿勢が変化した場合、ユーザーの視線位置は不安定になりやすく、ユーザーがカメラ1の姿勢が変化する前に見ていた被写体を見失わないようにするためである。 In step S8202, CPU 3 determines to display an icon indicating the estimated subject. This is because when the attitude of camera 1 changes, the user's line of sight is likely to become unstable, and this is done to prevent the user from losing sight of the subject that was being viewed before the attitude of camera 1 changed.

図12(a),12(b)は、カメラ1の姿勢変化に基づくアイコン表示について説明する図である。図12(a)は、横位置で撮像している画像の例を示す。図12(a)では、被写体1201および被写体1202が検出されている。ユーザーの視線は、被写体1201に向けられている。図12(b)は、図12(a)の状態から、ユーザーがカメラ1を縦位置に持ち替えた後の画像の例を示す。カメラ1を横位置から縦位置に持ち替える間、構図の変更によりユーザーの視線位置は不安定になる。ユーザーが、被写体1202を、これまで見ていた被写体1201として誤認識しないようにするため、CPU3は、推定被写体を示すアイコン1203を表示すると判定する。 Figures 12(a) and 12(b) are diagrams explaining icon display based on a change in the posture of camera 1. Figure 12(a) shows an example of an image captured in a horizontal position. In Figure 12(a), subjects 1201 and 1202 are detected. The user's gaze is directed at subject 1201. Figure 12(b) shows an example of an image after the user changes the position of camera 1 from the state shown in Figure 12(a) to a vertical position. While camera 1 is changed from the horizontal position to the vertical position, the user's gaze position becomes unstable due to the change in composition. To prevent the user from mistakingly recognizing subject 1202 as subject 1201 that was previously viewed, CPU 3 determines to display icon 1203 indicating the estimated subject.

ステップS8205では、CPU3は、推定被写体を示すアイコンを表示するか否かは未確定(「アイコン表示は未確定」)と判定する。すなわち、ステップS8201、ステップS8203、ステップS8204のいずれの条件も満たさない場合、CPU3は、後述する図8AのステップS8020で、被写体の状況に基づき、推定被写体を示すアイコ
ンを表示するか否か判定する。
In step S8205, CPU 3 determines that it is undetermined whether or not to display an icon indicating the estimated subject ("icon display is undetermined"). In other words, if none of the conditions in steps S8201, S8203, and S8204 is satisfied, CPU 3 determines whether or not to display an icon indicating the estimated subject based on the state of the subject in step S8020 in Fig. 8A described later.

ステップS8206では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8207に進む。推定被写体を示すアイコンが表示状態である場合、図8Bに示す処理は終了する。 In step S8206, CPU 3 determines whether the icon indicating the estimated subject is currently in a displayed or hidden state. If the icon indicating the estimated subject is in a hidden state, processing proceeds to step S8207. If the icon indicating the estimated subject is in a displayed state, the processing shown in FIG. 8B ends.

ステップS8207では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8207は、推定被写体を示すアイコンが現時点で非表示状態であり、ステップS8202でアイコンを表示すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に遷移すると判定された際の時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。 In step S8207, CPU 3 records the current time as a reference time in memory unit 4. Step S8207 is a process performed in the case where the icon representing the estimated subject is currently in a non-display state and it is determined in step S8202 that the icon is to be displayed. By recording the time (reference time) at which it is determined that the icon will transition from a non-display state to a display state, CPU 3 can measure the time since the icon transitioned to a display state.

以上、図8Bに示す処理によって、CPU3は、撮像の状況(撮影者側の状況)に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、図8Bの処理を終了し、図8AのステップS8010に進む。 As described above, by the process shown in FIG. 8B, CPU 3 determines whether or not to display an icon of a subject at which the user's gaze is directed, based on the imaging situation (the situation of the photographer). CPU 3 ends the process in FIG. 8B and proceeds to step S8010 in FIG. 8A.

図8AのステップS8010では、CPU3は、ステップS8009による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8011に進む。判定結果が「アイコン表示は未確定」であった場合、処理はステップS8020に進む。 In step S8010 of FIG. 8A, CPU 3 determines whether the result of the display determination of the icon indicating the estimated subject in step S8009 was "display icon." If the result of the determination is "display icon," processing proceeds to step S8011. If the result of the determination is "icon display undetermined," processing proceeds to step S8020.

ステップS8011では、CPU3は、図8BのステップS8207で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8013に進む。基準時刻から所定時間が経過していない場合、処理はステップS8012に進む。 In step S8011, CPU 3 determines whether or not a predetermined time has elapsed since the reference time recorded in step S8207 of FIG. 8B. That is, CPU 3 determines whether or not a predetermined time has elapsed since the time (reference time) when the icon representing the estimated subject transitioned from a non-display state to a display state. If the predetermined time has elapsed since the reference time, processing proceeds to step S8013. If the predetermined time has not elapsed since the reference time, processing proceeds to step S8012.

ステップS8012では、CPU3は、推定被写体を示すアイコン(例えば、図4(a)のアイコン423)を表示する。ステップS8013では、CPU3は、推定被写体を示すアイコンを非表示とする。撮像状況が変化して推定被写体を示すアイコンを表示してから、所定時間が経過した後は、ユーザーは安定して所望の被写体に視線を向けられることが想定されるため、CPU3は、推定被写体を示すアイコンを非表示とする。 In step S8012, CPU 3 displays an icon indicating the estimated subject (e.g., icon 423 in FIG. 4(a)). In step S8013, CPU 3 hides the icon indicating the estimated subject. After a predetermined time has elapsed since the imaging conditions changed and the icon indicating the estimated subject was displayed, it is expected that the user will be able to stably direct their gaze toward the desired subject, so CPU 3 hides the icon indicating the estimated subject.

なお、推定被写体を示すアイコンを非表示状態から表示状態に切り替えて所定時間が経過すると、自動的に非表示とする例を示したが、CPU3は、アイコンの表示状態を維持してもよい。また、基準時刻から推定被写体を示すアイコンを非表示とするまでの所定時間は、ユーザーによって設定できるようにしてもよい。ステップS8012およびステップS8013において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。 In the above example, the icon indicating the estimated subject is automatically hidden when a predetermined time has elapsed since it was switched from a hidden state to a visible state, but the CPU 3 may maintain the icon's visible state. Also, the predetermined time from the reference time until the icon indicating the estimated subject is hidden may be set by the user. In steps S8012 and S8013, when the icon indicating the estimated subject is respectively switched to a visible state and a hidden state, the process returns to step S8001.

ステップ8020では、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。被写体の状況は、例えば、画像に含まれる被写体の数が変化したか否か、画像に含まれる被写体の数が2つ以上であるか否か、推定被写体が加速または減速する動作しているか否か、推定被写体が合焦状態であるか否かといった状況を含む。 In step 8020, CPU 3 determines whether to display an icon indicating the subject at which the user's gaze is directed, based on the subject's status. The subject's status includes, for example, whether the number of subjects included in the image has changed, whether the number of subjects included in the image is two or more, whether the estimated subject is accelerating or decelerating, and whether the estimated subject is in focus.

図8Cを参照して、ステップS8020の処理の詳細を説明する。ステップS8301では、CPU3は、前回の画像(フレーム)から、画像内の被写体の数に増減があるか否
かを判定する。なお、被写体の数は、画像内の被写体の数に限られず、視線位置の近傍で検出される被写体の数としてもよい。具体的には、被写体の数は、視線が向けられた推定被写体を含む所定の範囲で検出される被写体の数とすることができる。所定の範囲は、例えば、画像を撮像する際の焦点距離、撮影距離、撮影モードおよび推定被写体の大きさのうちの少なくともいずれかに基づいて決定することができる。検出対象の被写体は、人物、動物、自動車など画像の解析により検出可能な被写体である。
The details of the process of step S8020 will be described with reference to FIG. 8C. In step S8301, the CPU 3 determines whether or not the number of subjects in the image has increased or decreased since the previous image (frame). The number of subjects is not limited to the number of subjects in the image, and may be the number of subjects detected in the vicinity of the gaze position. Specifically, the number of subjects can be the number of subjects detected in a predetermined range including the estimated subject to which the gaze is directed. The predetermined range can be determined based on at least one of the focal length, shooting distance, shooting mode, and size of the estimated subject when capturing the image, for example. The subject to be detected is a person, an animal, a car, or the like that can be detected by analyzing the image.

なお、CPU3は、画像に含まれる被写体のうち所定の種別の被写体を検出するようにしてもよい。例えば、ユーザーが所定の種別として動物を設定した場合、CPU3は、動物を被写体として検出する。ユーザーは、所定の種別として複数の種別の被写体を設定してもよい。検出された被写体の数に増減がある場合、処理はS8302に進む。検出された被写体の数に増減がない場合、処理はS8303に進む。 The CPU 3 may detect a predetermined type of subject from among the subjects included in the image. For example, if the user sets animals as the predetermined type, the CPU 3 detects animals as the subject. The user may set multiple types of subjects as the predetermined type. If there is an increase or decrease in the number of detected subjects, the process proceeds to S8302. If there is no increase or decrease in the number of detected subjects, the process proceeds to S8303.

ステップS8302では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。推定被写体を示すアイコンを表示されることで、被写体の数に増減があった場合でも、ユーザーは、自身が見ている被写体を容易に確認することができる。 In step S8302, CPU 3 determines to display an icon indicating the estimated subject. By displaying an icon indicating the estimated subject, the user can easily confirm the subject that he or she is viewing, even if the number of subjects increases or decreases.

ステップS8303では、CPU3は、視線位置の近傍で検出される被写体の数が1つであるか否かを判定する。被写体の数が1つである場合、処理はステップS8304に進む。被写体の数が複数である場合、処理はステップS8307へ進む。 In step S8303, CPU 3 determines whether or not the number of subjects detected near the gaze position is one. If the number of subjects is one, processing proceeds to step S8304. If the number of subjects is multiple, processing proceeds to step S8307.

ステップS8304では、CPU3は、画面内の視線位置の近傍に存在する1つの被写体が合焦状態であるか否かを判定する。被写体が合焦状態である場合、処理はステップS8305に進む。被写体が合焦状態でない場合、処理はステップS8306に進む。 In step S8304, CPU 3 determines whether or not one subject existing in the vicinity of the gaze position on the screen is in focus. If the subject is in focus, processing proceeds to step S8305. If the subject is not in focus, processing proceeds to step S8306.

ステップS8305では、CPU3は、「アイコンを非表示」にすると判定する。ステップS8306では、CPU3は、「アイコンを表示」すると判定する。CPU3は、ユーザーが視線を向けている被写体が非合焦状態である場合にアイコンを表示することで、当該被写体が合焦状態でないことをユーザーに報知することができる。 In step S8305, CPU 3 determines to "hide the icon." In step S8306, CPU 3 determines to "display the icon." By displaying the icon when the subject the user is looking at is out of focus, CPU 3 can notify the user that the subject is not in focus.

図13(a),13(b)は、ステップS8301~S8306の処理で説明した被写体数の変化に基づくアイコン表示について説明する図である。図13(a)は、時刻t11に、被写体1301が視線位置1302の近傍に存在する状況を示す。ユーザーの視線が向けられる対象が被写体1301であることが明白なため、推定被写体を示すアイコンおよび視線位置1302を示すアイコンは非表示とされる。 Figures 13(a) and 13(b) are diagrams explaining icon display based on the change in the number of subjects described in the processing of steps S8301 to S8306. Figure 13(a) shows a situation where, at time t11, subject 1301 is present near gaze position 1302. Because it is clear that the subject 1301 is the object toward which the user's gaze is directed, the icon indicating the estimated subject and the icon indicating gaze position 1302 are hidden.

図13(b)は、図13(a)の状況の後、構図内に異なる被写体1303が入り込んできた状態を示す。被写体1303は視線位置1304の近傍に現れたため、CPU3は、被写体1301および被写体1303のどちらに視線が向けられていたかをユーザーに報知することが好ましい。したがって、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン1305を表示する。なお、視線位置1304を示すアイコンは非表示とされる。 Figure 13(b) shows a state in which, following the situation in Figure 13(a), a different subject 1303 has entered the composition. Because subject 1303 has appeared near gaze position 1304, it is preferable for CPU 3 to notify the user of whether the gaze was directed toward subject 1301 or subject 1303. Therefore, CPU 3 displays icon 1305 indicating the subject toward which the user's gaze was directed. Note that the icon indicating gaze position 1304 is not displayed.

ステップS8307では、CPU3は、ユーザーの視線位置の近傍に存在する被写体が静止または等速動作中であるか否かを判定する。ステップS8307は視線位置の近傍に複数の被写体が存在する場合に実行される処理である。CPU3は、視線位置の近傍の被写体の動き特性の情報(動き情報)を取得する。動き情報は、図9(a)~9(c)を用いて説明した図8AのステップS8003の方法と同様に取得することができる。被写体の動き特性(動作)によっては、ユーザーが所望の被写体を見失わないように、ユーザーの視線が向けられた被写体を示すアイコンが表示されることが好ましい。 In step S8307, CPU 3 determines whether or not a subject present near the user's gaze position is stationary or moving at a constant speed. Step S8307 is a process that is executed when multiple subjects are present near the gaze position. CPU 3 acquires information on the movement characteristics of the subjects near the gaze position (movement information). The movement information can be acquired in the same manner as in step S8003 of FIG. 8A, which was described using FIGS. 9(a) to 9(c). Depending on the movement characteristics (movement) of the subject, it is preferable to display an icon indicating the subject at which the user's gaze is directed, so that the user does not lose sight of the desired subject.

CPU3は、動き情報に基づいて、視線位置の近傍に存在する被写体が静止または等速動作中であると判定した場合、ステップS8308に進む。一方、CPU3は、視線位置の近傍に存在する被写体のいずれかが、加速または減速しながら動作していると判定した場合、ステップS8310に進む。 If CPU 3 determines based on the motion information that the subject in the vicinity of the gaze position is stationary or moving at a constant speed, CPU 3 proceeds to step S8308. On the other hand, if CPU 3 determines that any of the subjects in the vicinity of the gaze position is moving while accelerating or decelerating, CPU 3 proceeds to step S8310.

ステップS8308では、CPU3は、ユーザーが視線を向けている被写体が合焦状態であるか否かを判定する。ユーザーが視線を向けている被写体が合焦状態である場合、処理はステップS8309に進む。ユーザーが視線を向けている被写体が非合焦状態である場合、処理はステップS8310に進む。 In step S8308, CPU 3 determines whether the subject the user is looking at is in focus. If the subject the user is looking at is in focus, processing proceeds to step S8309. If the subject the user is looking at is out of focus, processing proceeds to step S8310.

ステップS8309では、CPU3は、「アイコンを非表示」にすると判定する。被写体が合焦状態である場合、ユーザーの視線は安定して所望の被写体に向けられていると想定されるため、推定被写体を示すアイコンは非表示にすると判定される。 In step S8309, CPU 3 determines to "hide the icon." If the subject is in focus, it is assumed that the user's line of sight is steadily directed toward the desired subject, and therefore it is determined that the icon indicating the estimated subject is to be hidden.

ステップS8310では、CPU3は、「アイコンを表示」すると判定する。被写体が非合焦状態である場合、ユーザーが安定していないと想定されるため、推定被写体を示すアイコンを表示すると判定される。また、視線位置の近傍に存在する被写体が、加速または減速しながら動作している場合(例えば、ダンスなどの激しい動きをしている場合)、CPU3は、ユーザーが視線を向けている被写体を示すアイコンを表示すると判定する。ユーザーが視線を向けている被写体を示すアイコンが表示されることで、ユーザーは所望の被写体を見失いにくくなる。 In step S8310, CPU 3 determines to "display an icon." If the subject is out of focus, it is assumed that the user is not stable, and so it is determined to display an icon indicating the presumed subject. Also, if a subject present in the vicinity of the gaze position is moving while accelerating or decelerating (for example, when performing vigorous movements such as dancing), CPU 3 determines to display an icon indicating the subject at which the user is directing his or her gaze. By displaying an icon indicating the subject at which the user is directing his or her gaze, the user is less likely to lose sight of the desired subject.

図14(a)~14(d)は、ステップS8307~S8310の処理で説明した被写体の動き情報に基づくアイコン表示について説明する図である。図14(a)は、いわゆるポートレート撮影の例であり、複数の被写体は静止状態である。画像から検出された被写体1401は非合焦状態とする。CPU3は、視線位置1402の近傍に存在する被写体1401にユーザーの視線が向けられていると推定し、被写体1401が推定被写体であることを示すアイコン1403を表示する。 Figures 14(a) to 14(d) are diagrams explaining icon display based on subject movement information described in the processing of steps S8307 to S8310. Figure 14(a) is an example of so-called portrait photography, in which multiple subjects are stationary. Subject 1401 detected from the image is assumed to be out of focus. CPU 3 estimates that the user's gaze is directed at subject 1401 that exists near gaze position 1402, and displays icon 1403 indicating that subject 1401 is the estimated subject.

図14(b)は、被写体1401が合焦状態となった状況を示す。CPU3は、被写体1401に対して、合焦状態であることを示すアイコン1404を表示し、推定被写体であることを示すアイコン1403を非表示とする。CPU3は、合焦状態であることを示すアイコン1404を優先して表示することで、表示する情報量を抑制し、視認性を確保することができる。また、CPU3は、被写体1401が合焦状態になったことを、ユーザーに対して適時に報知することができる。 Figure 14 (b) shows a situation where subject 1401 is in focus. CPU 3 displays icon 1404 indicating that subject 1401 is in focus, and does not display icon 1403 indicating that it is an estimated subject. By giving priority to displaying icon 1404 indicating that the subject is in focus, CPU 3 can reduce the amount of information to be displayed and ensure visibility. CPU 3 can also notify the user in a timely manner that subject 1401 is in focus.

図14(c)は、視線位置の近傍の被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が、同様の動き特性を有する状況を示す。図14(c)は、時刻t21での状況を示す。CPU3は、視線位置1412の近傍に存在する被写体1411に対して、推定被写体であることを示すアイコン1413を表示する。 Figure 14(c) shows a situation where a subject group 1414 including a subject 1411 near the gaze position and multiple surrounding subjects have similar movement characteristics. Figure 14(c) shows the situation at time t21. CPU 3 displays an icon 1413 indicating that subject 1411 near gaze position 1412 is an estimated subject.

図14(d)は、図14(c)の状況の後、被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が同じ向きに略等速で移動している状況を示す。図14(d)は、時刻t22での状況を示す。このとき視線位置1412の近傍には、被写体1411とは異なる被写体1415が存在する。したがって、ユーザーの視線が向けられた被写体は、被写体1415と推定される。 Figure 14(d) shows a situation after the situation in Figure 14(c) where a group of subjects 1414 including subject 1411 and multiple surrounding subjects are moving in the same direction at a substantially constant speed. Figure 14(d) shows the situation at time t22. At this time, a subject 1415 different from subject 1411 is present near gaze position 1412. Therefore, the subject at which the user's gaze is directed is estimated to be subject 1415.

図14(d)では、被写体1415は合焦状態であるものとする。時刻t22では、被写体群1414に含まれる被写体1411および被写体1415は、同様の動き特性によ
り移動している。CPU3は、被写体1415に対して合焦状態であることを示すアイコン1416を表示するが、推定被写体であることを示すアイコンは表示しない。CPU3は、被写体1415が推定被写体であることを示すアイコンは表示せず、アイコン1416を優先して表示することで、表示する情報量を抑制して視認性を確保することができる。また、CPU3は、被写体1415が合焦状態になったことを、ユーザーに対して適時に報知することができる。
In FIG. 14D, the subject 1415 is in focus. At time t22, the subject 1411 and the subject 1415 included in the subject group 1414 move with similar movement characteristics. The CPU 3 displays an icon 1416 indicating that the subject 1415 is in focus, but does not display an icon indicating that the subject is an estimated subject. The CPU 3 does not display an icon indicating that the subject 1415 is an estimated subject, and instead displays the icon 1416 preferentially, thereby suppressing the amount of information to be displayed and ensuring visibility. The CPU 3 can also notify the user in a timely manner that the subject 1415 has become in focus.

ステップS8312では、CPU3は、ステップS8301~S8310までの処理で「アイコンを表示」すると判定されたか、「アイコンを非表示」にすると判定されたかを判定する。「アイコンを表示」すると判定された場合、処理はステップS8313に進む。「アイコンを非表示」にすると判定された場合、図8Cに示す処理は終了する。 In step S8312, CPU 3 determines whether the process in steps S8301 to S8310 has determined that the icon should be displayed or that the icon should be hidden. If it has been determined that the icon should be displayed, the process proceeds to step S8313. If it has been determined that the icon should be hidden, the process shown in FIG. 8C ends.

ステップS8313では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8314に進む。推定被写体を示すアイコンが表示状態である場合、図8Cに示す処理は終了する。 In step S8313, CPU 3 determines whether the icon indicating the estimated subject is currently in a displayed state or a hidden state. If the icon indicating the estimated subject is in a hidden state, processing proceeds to step S8314. If the icon indicating the estimated subject is in a displayed state, the processing shown in FIG. 8C ends.

ステップS8314では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8314は、推定被写体を示すアイコンが現時点で非表示状態であり、「アイコンを表示」すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に切り替えると判定された時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。 In step S8314, CPU 3 records the current time as a reference time in memory unit 4. Step S8314 is a process performed when the icon representing the estimated subject is currently in a non-display state and it is determined that the icon should be "displayed." By recording the time (reference time) at which it is determined that the icon will be switched from a non-display state to a display state, CPU 3 can measure the time since the icon transitioned to a display state.

以上、図8Cに示す処理によって、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、図8Cの処理を終了し、図8AのステップS8021に進む。 By the process shown in FIG. 8C, CPU 3 determines whether or not to display an icon of the subject at which the user's gaze is directed, based on the state of the subject. CPU 3 ends the process in FIG. 8C and proceeds to step S8021 in FIG. 8A.

図8AのステップS8021では、CPU3は、ステップS8020による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8022に進む。判定結果が「アイコンを非表示」にするであった場合、処理はステップS8025に進む。 In step S8021 of FIG. 8A, CPU 3 determines whether the result of the display determination of the icon indicating the estimated subject in step S8020 was to "display the icon." If the determination result is to "display the icon," processing proceeds to step S8022. If the determination result is to "hide the icon," processing proceeds to step S8025.

ステップS8022では、CPU3は、図8CのステップS8314で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8024に進む。基準時刻から所定時間が経過していない場合、処理はステップS8023に進む。 In step S8022, CPU 3 determines whether or not a predetermined time has elapsed since the reference time recorded in step S8314 of FIG. 8C. That is, CPU 3 determines whether or not a predetermined time has elapsed since the time (reference time) when the icon representing the estimated subject transitioned from a non-display state to a display state. If the predetermined time has elapsed since the reference time, processing proceeds to step S8024. If the predetermined time has not elapsed since the reference time, processing proceeds to step S8023.

ステップS8023では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示する。ステップS8024では、CPU3は、推定被写体を示すアイコンを非表示にする。ステップS8023およびステップS8024において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。 In step S8023, CPU 3 displays an icon indicating the subject (estimated subject) at which the user's gaze is directed. In step S8024, CPU 3 hides the icon indicating the estimated subject. When the icon indicating the estimated subject becomes displayed and hidden in steps S8023 and S8024, respectively, processing returns to step S8001.

ステップS8025では、CPU3は、ステップS8020の判定結果に対応して、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示にする。ステップS8026では、CPU3は、ステップS8207またはステップS8314で記録した基準時刻を初期化し、ステップS8001に戻る。 In step S8025, CPU 3 hides the icon indicating the subject (estimated subject) at which the user's gaze is directed, in accordance with the determination result in step S8020. In step S8026, CPU 3 initializes the reference time recorded in step S8207 or step S8314, and returns to step S8001.

図8Dおよび図8Eを参照して、推定被写体を示すアイコン(アイテム)の表示制御に
ついて説明する。図8Dの処理では、CPU3は、推定被写体を示すアイコンをユーザーの視線位置に基づく位置に表示する。ユーザーの視線位置に基づく位置は、ユーザーの視線が検出された位置、ユーザーの視線位置の近傍で検出された被写体の位置を含む。
Display control of an icon (item) indicating an estimated subject will be described with reference to Fig. 8D and Fig. 8E. In the process of Fig. 8D, the CPU 3 displays an icon indicating an estimated subject at a position based on the user's gaze position. The position based on the user's gaze position includes the position where the user's gaze is detected and the position of the subject detected near the user's gaze position.

また、CPU3は、推定被写体を示すアイコンを、複数の遷移方式から選択した遷移方式で表示状態と非表示状態の一方から他方に遷移させる。複数の遷移方式は、例えば、アイコンのサイズを徐々に変化させる方式、アイコンの透過率を徐々に変化させる方式、アイコンを表示状態と非表示状態の一方から他方に即座に遷移させる方式を含む。 The CPU 3 also transitions the icon representing the estimated subject from one of the display state and the non-display state to the other in a transition method selected from a plurality of transition methods. The plurality of transition methods include, for example, a method of gradually changing the size of the icon, a method of gradually changing the transparency of the icon, and a method of immediately transitioning the icon from one of the display state and the non-display state to the other.

図8Dは、実施形態1に係るアイコン表示処理のフローチャートである。図8Dの処理は、図8AのステップS8012,S8023の処理の詳細である。図8Dに示す処理では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示状態に遷移させる。 Figure 8D is a flowchart of the icon display process according to the first embodiment. The process in Figure 8D is a detailed view of the process in steps S8012 and S8023 in Figure 8A. In the process shown in Figure 8D, the CPU 3 transitions the icon indicating the subject (estimated subject) at which the user's gaze is directed to a display state.

ステップS8401では、CPU3は、推定被写体を示すアイコンが現時点で非表示状態であるか否かを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8402に進む。推定被写体を示すアイコンが表示状態である場合、図8Dに示す処理は終了する。 In step S8401, CPU 3 determines whether the icon indicating the estimated subject is currently in a hidden state. If the icon indicating the estimated subject is in a hidden state, processing proceeds to step S8402. If the icon indicating the estimated subject is in a displayed state, the processing shown in FIG. 8D ends.

ステップS8402では、CPU3は、図8BのステップS8201で「被写体に注目している」と判定されたか否かを判定する。被写体に注目していると判定された場合、処理はS8403に進む。「被写体に注目している」と判定されなかった場合、処理はS8404に進む。 In step S8402, CPU 3 determines whether or not it was determined in step S8201 of FIG. 8B that "attention is being paid to the subject." If it is determined that attention is being paid to the subject, processing proceeds to S8403. If it is not determined that "attention is being paid to the subject," processing proceeds to S8404.

ステップS8403では、CPU3は、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを表示状態に遷移させる。アイコンの透過率を徐々に低下させる遷移方式では、アイコンは徐々に濃くなるように表示される。また、アイコンのサイズを徐々に大きくする遷移方式では、アイコンは徐々に大きくなるように表示される。アイコンの透過率またはサイズが徐々に変化することで、ユーザーは、推定被写体を示すアイコンの位置を認識しやすくなる。 In step S8403, CPU 3 transitions the icon to a display state by gradually changing the transparency or size of the icon indicating the estimated subject. In a transition method in which the transparency of the icon is gradually decreased, the icon is displayed to become gradually darker. In a transition method in which the size of the icon is gradually increased, the icon is displayed to become gradually larger. By gradually changing the transparency or size of the icon, it becomes easier for the user to recognize the position of the icon indicating the estimated subject.

図15(a)~15(d)は、透過率を変化させてアイコンを表示状態に遷移させる例を示す図である。図16(a)~16(d)は、サイズを変化させてアイコンを表示状態に遷移させる例を示す図である。 Figures 15(a) to 15(d) are diagrams showing an example of changing the transparency of an icon to a display state. Figures 16(a) to 16(d) are diagrams showing an example of changing the size of an icon to a display state.

図15(a)では、被写体1501に対して視線位置1502が検出されている。図15(a)では、視線位置1502を示すアイコンは非表示とする。図15(a)の状況で、ユーザーが被写体に注目していると判定すると、CPU3は、アイコン1503の表示を開始し、図15(b)、図15(c)、図15(d)に示すように、推定被写体を示すアイコン1503の透過率を徐々に下げて濃くしていく。CPU3は、ユーザーが被写体に注目し続けることにより、図15(b)、図15(c)、図15(d)の順に、アイコン1503の濃度を徐々に上げる(透過率を下げる)。 In FIG. 15(a), gaze position 1502 is detected with respect to subject 1501. In FIG. 15(a), the icon indicating gaze position 1502 is hidden. In the situation of FIG. 15(a), when it is determined that the user is looking at the subject, CPU 3 starts displaying icon 1503, and gradually decreases the transparency of icon 1503 indicating the estimated subject, making it darker, as shown in FIG. 15(b), FIG. 15(c), and FIG. 15(d). As the user continues to look at the subject, CPU 3 gradually increases the density of icon 1503 (decreases the transparency) in the order of FIG. 15(b), FIG. 15(c), and FIG. 15(d).

図16(a)では、被写体1601に対して視線位置1602が検出されている。図16(a)では、視線位置1602を示すアイコンは非表示とする。図16(a)の状況で、ユーザーが被写体に注目していると判定すると、CPU3は、アイコン1603の表示を開始し、図16(b)、図16(c)、図16(d)に示すように、推定被写体を示すアイコン1603のサイズを徐々に大きくしていく。CPU3は、ユーザーが被写体に注目し続けることにより、図16(b)、図16(c)、図16(d)の順に、アイコン1603のサイズを徐々に大きくする。 In FIG. 16(a), gaze position 1602 is detected for subject 1601. In FIG. 16(a), the icon indicating gaze position 1602 is hidden. In the situation of FIG. 16(a), when it is determined that the user is looking at the subject, CPU 3 starts displaying icon 1603, and gradually increases the size of icon 1603 indicating the estimated subject, as shown in FIG. 16(b), FIG. 16(c), and FIG. 16(d). As the user continues to look at the subject, CPU 3 gradually increases the size of icon 1603 in the order of FIG. 16(b), FIG. 16(c), and FIG. 16(d).

推定被写体を示すアイコン(アイコン1503、アイコン1603)の透過率またはサイズを徐々に変化させて、ユーザーに存在を知らせることで、ユーザーは、不用意に注意が散漫になることなく、撮影に集中することができる。また、アイコンの透過率またはサイズが徐々に変化することで、ユーザーは、推定被写体を示すアイコンの位置を認識しやすくなる。 By gradually changing the transparency or size of the icon (icon 1503, icon 1603) indicating the estimated subject to inform the user of its presence, the user can concentrate on shooting without being unintentionally distracted. In addition, by gradually changing the transparency or size of the icon, the user can easily recognize the position of the icon indicating the estimated subject.

ステップS8402で「被写体に注目している」と判定されなかった場合、ステップS8404では、CPU3は、図8CのステップS8304またはステップS8308で被写体が「合焦状態」であると判定されたか否かを判定する。「合焦状態」であると判定された場合、処理はS8406に進む。「合焦状態」であると判定されなかった場合、すなわち「非合焦状態」であると判定された場合、処理はS8405に進む。 If it is not determined in step S8402 that the subject is being watched, then in step S8404, CPU 3 determines whether the subject was determined to be in focus in step S8304 or step S8308 of FIG. 8C. If it is determined to be in focus, processing proceeds to S8406. If it is not determined to be in focus, i.e., if it is determined to be out of focus, processing proceeds to S8405.

ステップS8405では、CPU3は、ステップS8403と同様に、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを表示状態に遷移させる。なお、CPU3は、ステップS8403とステップS8405とで、異なる遷移方式により推定被写体を示すアイコンを非表示状態から表示状態に遷移させてもよい。例えば、CPU3は、ステップS8403で透過率を変化させてアイコンを表示状態に遷移させた場合、ステップS8405ではサイズを変化させてアイコンを表示状態に遷移させる。反対に、CPU3は、ステップS8403でサイズを変化させてアイコンを表示状態に遷移させた場合、ステップS8405では透過率を変化させてアイコンを表示状態に遷移させてもよい。 In step S8405, CPU 3 transitions the icon indicating the estimated subject to a display state by gradually changing the transparency or size of the icon, as in step S8403. Note that CPU 3 may transition the icon indicating the estimated subject from a non-display state to a display state using different transition methods in steps S8403 and S8405. For example, if CPU 3 transitions the icon to a display state by changing the transparency in step S8403, CPU 3 may transition the icon to a display state by changing the size in step S8405. Conversely, if CPU 3 transitions the icon to a display state by changing the size in step S8403, CPU 3 may transition the icon to a display state by changing the transparency in step S8405.

ステップS8406では、CPU3は、応答性を重視して、推定被写体を示すアイコンを即座に表示する。 In step S8406, CPU 3 prioritizes responsiveness and immediately displays an icon indicating the estimated subject.

図8Eは、実施形態1に係るアイコン非表示処理のフローチャートである。図8Eの処理は、図8AのステップS8013,S8024,S8025の処理の詳細である。図8Eに示す処理では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示状態に遷移させる処理である。 Figure 8E is a flowchart of the icon non-display process according to the first embodiment. The process in Figure 8E is a detailed view of the processes in steps S8013, S8024, and S8025 in Figure 8A. In the process shown in Figure 8E, the CPU 3 transitions the icon indicating the subject (estimated subject) at which the user's gaze is directed to a non-display state.

ステップS8501では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか否かを判定する。推定被写体を示すアイコンが表示状態である場合、処理はステップS8502に進む。推定被写体を示すアイコンが非表示状態である場合、図8Eに示す処理は終了する。 In step S8501, CPU 3 determines whether or not the icon indicating the estimated subject is currently in a displayed state. If the icon indicating the estimated subject is in a displayed state, processing proceeds to step S8502. If the icon indicating the estimated subject is in a hidden state, the processing shown in FIG. 8E ends.

ステップS8502では、CPU3は、図8BのステップS8201でユーザーのまばたきが検出されたか否かを判定する。すなわち、CPU3は、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況か否かを判定する。まばたきが検出された場合、処理はステップS8503に進む。まばたきが検出されていない場合、処理はステップS8505に進む。 In step S8502, CPU 3 determines whether or not a blink of the user was detected in step S8201 of FIG. 8B. That is, CPU 3 determines whether or not the user blinked and the icon would be switched to hidden mode. If a blink is detected, processing proceeds to step S8503. If a blink is not detected, processing proceeds to step S8505.

ステップS8503では、CPU3は、ユーザーのまばたきの特性情報、具体的には、まばたき中の目をつむっている時間の情報を取得する。CPU3は、例えば、画像処理部208により、時系列に沿った眼画像の差分を解析することにより、ユーザーのまばたき中の目をつむっている時間の情報を取得することができる。 In step S8503, CPU 3 acquires blinking characteristic information of the user, specifically, information on the time the user's eyes are closed during a blink. CPU 3 can acquire information on the time the user's eyes are closed during a blink, for example, by analyzing the difference between eye images over time using image processing unit 208.

ステップS8504では、CPU3は、ステップS8503で取得したまばたきの特性情報に基づき、推定被写体を示すアイコンを非表示状態となるまでの所定の遷移時間を決定する。所定の遷移時間は、ユーザーがまばたき中に目をつむっている時間よりも長い時
間に決定される。CPU3は、推定被写体を示すアイコンの透過率またはサイズを、所定の遷移時間で徐々に変化させることにより、アイコンを非表示状態に遷移させる。
In step S8504, CPU 3 determines a predetermined transition time until the icon representing the estimated subject becomes invisible based on the blinking characteristic information acquired in step S8503. The predetermined transition time is determined to be longer than the time during which the user closes their eyes while blinking. CPU 3 gradually changes the transparency or size of the icon representing the estimated subject over the predetermined transition time, thereby transitioning the icon to the invisible state.

まばたき中の目をつむっている時間は、眼球の疲労状況により異なる場合、またはユーザーごとに異なる場合が想定される。ユーザーのまばたき中の目をつむっている時間よりも長い時間(所定の遷移時間)をかけて、推定被写体を示すアイコンを非表示状態に遷移させることで、ユーザーは、アイコンが表示状態から非表示状態へ徐々に遷移していることを認識することができる。 It is assumed that the time for which the eyes are closed while blinking may differ depending on the degree of eye fatigue, or may differ for each user. By transitioning the icon representing the estimated subject to a hidden state over a period of time (a specified transition time) that is longer than the time for which the user's eyes are closed while blinking, the user can recognize that the icon is gradually transitioning from a visible state to a hidden state.

ステップS8505では、CPU3は、図8BのステップS8203でズーム操作、パン操作、チルト操作が行われることにより、またはステップS8204でカメラ1の姿勢が変化したことにより、構図が変更されたか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが、構図が変更されたことによって表示されたか否かを判定する。構図が変更されたと判定された場合、処理はステップS8506に進む。構図が変更されていないと判定された場合、処理はステップS8507に進む。 In step S8505, CPU 3 determines whether the composition has changed due to a zoom operation, pan operation, or tilt operation performed in step S8203 of FIG. 8B, or due to a change in the attitude of camera 1 in step S8204. That is, CPU 3 determines whether the icon indicating the estimated subject has been displayed due to a change in the composition. If it is determined that the composition has changed, processing proceeds to step S8506. If it is determined that the composition has not changed, processing proceeds to step S8507.

ステップS8506では、CPU3は、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを非表示状態に遷移させる。構図の変更直後には、ユーザーの視線位置は不安定になる可能性がある。また、ユーザーは、構図を変えた後、再度構図を変更する可能性がある。徐々にアイコンを表示状態から非表示状態に遷移させることで、ユーザーは、非表示状態になるまでの間、視線位置を確認することができる。したがって、ユーザーが構図を決定するための操作性は良くなる。 In step S8506, CPU 3 transitions the icon indicating the estimated subject to a hidden state by gradually changing the transparency or size of the icon. Immediately after changing the composition, the user's gaze position may become unstable. In addition, the user may change the composition again after changing it. By gradually transitioning the icon from a visible state to a hidden state, the user can check the gaze position until it is hidden. This improves the ease of use for the user in determining the composition.

ステップS8507では、CPU3は、図8CのステップS8303と同様に、視線位置の近傍で検出される被写体数が複数であるか否かを判定する。視線位置の近傍で検出される被写体数が複数である場合、処理はステップS8508へ進む。視線位置の近傍で検出される被写体数が1つである場合、処理はステップS8511に進む。 In step S8507, CPU 3 determines whether or not there are multiple subjects detected near the gaze position, similar to step S8303 in FIG. 8C. If there are multiple subjects detected near the gaze position, processing proceeds to step S8508. If there is only one subject detected near the gaze position, processing proceeds to step S8511.

ステップS8508では、CPU3は、現在の画像における視線位置の被写体(ユーザーの視線が向けられている被写体、推定被写体)が前回の画像における推定被写体と同じであるか否かを判定する。すなわち、CPU3は、ユーザーが現在見ている被写体とユーザーが過去に見ていた被写体とが同じであるか否かを判定する。例えば、CPU3は、ユーザーの現在の視線位置に基づく位置に存在する被写体と、現在の画像(現フレーム)よりも前に撮像された画像(前フレーム)でユーザーの視線位置に基づく位置に存在していた被写体とが、同じであるか否かを判定すればよい。推定被写体が前回と同じである場合、処理はステップS8509に進む。推定被写体が前回と同じでない場合、処理はステップS8510に進む。 In step S8508, CPU 3 determines whether the subject at the gaze position in the current image (the subject at which the user's gaze is directed, the estimated subject) is the same as the estimated subject in the previous image. That is, CPU 3 determines whether the subject the user is currently looking at is the same as the subject the user looked at in the past. For example, CPU 3 may determine whether the subject present at a position based on the user's current gaze position is the same as the subject that was present at a position based on the user's gaze position in an image (previous frame) captured before the current image (current frame). If the estimated subject is the same as the previous one, processing proceeds to step S8509. If the estimated subject is not the same as the previous one, processing proceeds to step S8510.

ステップS8509では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させることにより、アイコンを非表示状態に遷移させる。ステップS8510では、CPU3は、推定被写体を示すアイコンのサイズを徐々に小さくすることにより、アイコンを非表示状態に遷移させる。 In step S8509, CPU 3 transitions the icon representing the estimated subject to a non-display state by gradually changing the transparency of the icon. In step S8510, CPU 3 transitions the icon representing the estimated subject to a non-display state by gradually reducing the size of the icon.

推定被写体を示すアイコンを表示状態から非表示状態に遷移させる際に、ステップS8509とステップS8510とで異なる遷移方式を採用することにより、CPU3は、推定被写体が変わったことをユーザーに報知することができる。なお、ステップS8509およびステップS8510での遷移方式は、互いに異なる方式であればよい。例えば、図8Eの例とは逆に、ステップS8509での遷移方式はサイズを徐々に変化させる方式とし、ステップS8510での遷移方式は透過率を徐々に変化させる方式としてもよい。 When transitioning the icon indicating the estimated subject from a displayed state to a hidden state, different transition methods are adopted in steps S8509 and S8510, thereby enabling CPU 3 to notify the user that the estimated subject has changed. Note that the transition methods in steps S8509 and S8510 may be different from each other. For example, contrary to the example of FIG. 8E, the transition method in step S8509 may be a method of gradually changing the size, and the transition method in step S8510 may be a method of gradually changing the transparency.

ステップS8511は、1つの被写体のみが検出され、「アイコンを非表示」にすると判定されている場合であり、CPU3は、応答性を優先して、推定被写体を示すアイコンを即座に非表示状態に遷移させる。 In step S8511, when only one subject is detected and it is determined that the icon should be hidden, CPU 3 prioritizes responsiveness and immediately transitions the icon representing the estimated subject to a hidden state.

上記の実施形態1によれば、カメラ1は、画像の撮像の状況および画像に含まれる被写体の状況の少なくとも一方に基づいて、ユーザーが視線を向けていると推定された被写体(推定被写体)を示すアイコンを表示するか否かを制御する。カメラ1は、推定被写体を示すアイコンを、自動的に表示したり非表示にしたりすることで、状況に応じた視認性の確保および操作性の向上を両立させることが可能となる。 According to the above-mentioned embodiment 1, camera 1 controls whether to display an icon indicating a subject (estimated subject) that is estimated to be the user's gaze direction, based on at least one of the image capture situation and the situation of the subject included in the image. By automatically displaying or hiding the icon indicating the estimated subject, camera 1 can ensure visibility according to the situation and improve operability at the same time.

また、カメラ1は、推定被写体を示すアイコンを、複数の遷移方式から選択した遷移方式で表示状態と非表示状態の一方から他方に遷移させる。例えば、カメラ1は、アイコンの透過率またはサイズを徐々に変化させることで、アイコンを表示状態と非表示状態の一方から他方に遷移させる。アイコンの状態が徐々に変化することで、ユーザーは、不用意に注意が散漫になることなく、撮影に集中することができる。また、アイコンの状態が徐々に変化することで、ユーザーは、アイコンの位置を認識しやすくなる。 Furthermore, camera 1 transitions the icon indicating the estimated subject from one of a displayed state and a hidden state to the other in a transition method selected from a plurality of transition methods. For example, camera 1 transitions the icon from one of a displayed state and a hidden state to the other by gradually changing the transparency or size of the icon. The gradual change in the icon state allows the user to concentrate on shooting without being unintentionally distracted. Furthermore, the gradual change in the icon state makes it easier for the user to recognize the position of the icon.

なお、図8Aで説明したアイコン表示制御処理は、撮像状況に基づくアイコン表示判定(図8B)の後に、被写体状況に基づくアイコン表示判定(図8C)をする処理の例を示すが、判定の順序はこれに限られない。CPU3は、撮像状況として説明した各種条件および被写体状況として説明した各種条件のうちの少なくともいずれかの条件を、任意の順序で判定することにより、推定被写体を示すアイコンを表示するか否かを判定してもよい。 Note that the icon display control process described in FIG. 8A shows an example of a process in which an icon display determination based on the imaging situation (FIG. 8B) is made followed by an icon display determination based on the subject situation (FIG. 8C), but the order of determination is not limited to this. The CPU 3 may determine whether or not to display an icon indicating an estimated subject by determining at least any one of the various conditions described as the imaging situation and the various conditions described as the subject situation in any order.

[実施形態2]
図17A,17B、図18,図19を用いて、実施形態2について説明する。実施形態2では、ユーザーの視線が向けられた被写体(視線位置に基づく位置に存在する被写体、推定被写体)を示すアイコンの表示状態と非表示状態とを切り替える際、被写体の状況に基づいて、遷移方式が選択される。
[Embodiment 2]
A second embodiment will be described with reference to Figures 17A, 17B, 18, and 19. In the second embodiment, when switching between a display state and a non-display state of an icon indicating a subject at which a user's gaze is directed (a subject present at a position based on the gaze position, an estimated subject), a transition method is selected based on the state of the subject.

図8A~8Cまでの処理は、実施形態1と同様である。実施形態2では図8D,8Eに示す処理に代えて、図17A,17Bに示す処理が実行される。図8D,8Eと同じ処理については、同じ符号を付して詳細な説明は省略する。 The processes in Figures 8A to 8C are the same as those in the first embodiment. In the second embodiment, the processes shown in Figures 17A and 17B are executed instead of the processes shown in Figures 8D and 8E. The same processes as those in Figures 8D and 8E are denoted by the same reference numerals and detailed descriptions are omitted.

図17Aは、実施形態2に係るアイコン表示処理のフローチャートである。ステップS8402で「被写体に注目している」と判定された場合、処理はステップS9001に進む。ステップS8404で推定被写体が「合焦状態」であると判定されなかった場合、処理はステップS9004に進む。 FIG. 17A is a flowchart of the icon display process according to the second embodiment. If it is determined in step S8402 that the subject is being watched, the process proceeds to step S9001. If it is not determined in step S8404 that the estimated subject is in focus, the process proceeds to step S9004.

ステップS9001では、推定被写体を示すアイコンは非表示状態であり、ユーザーは推定被写体に注目している状況である。CPU3は、推定被写体(視線位置に基づく位置に存在する被写体)と他の被写体との距離が所定の閾値より小さいか否かを判定する。画像内に複数の被写体が存在する場合、他の被写体は、例えば、推定被写体に最も近い被写体とすることができる。推定被写体と他の被写体との距離は、例えば、画像内でのそれぞれの被写体の座標(例えば、それぞれの被写体の重心の座標)間を用いて算出することができる。推定被写体と他の被写体との距離が所定の閾値より小さく、複数の被写体が互いに近接している場合、処理はステップS9002に進む。推定被写体と他の被写体との距離が所定の閾値より大きく、複数の被写体が互いに近接していない場合、処理はステップS9003に進む。なお、推定被写体と他の被写体との距離が所定の閾値である場合、CPU3は、ステップS9002またはステップS9003のいずれに進んでもよい。 In step S9001, the icon indicating the estimated subject is not displayed, and the user is paying attention to the estimated subject. The CPU 3 determines whether the distance between the estimated subject (the subject that exists at a position based on the gaze position) and the other subject is smaller than a predetermined threshold. If multiple subjects exist in the image, the other subject can be, for example, the subject that is closest to the estimated subject. The distance between the estimated subject and the other subject can be calculated, for example, using the coordinates of each subject in the image (for example, the coordinates of the center of gravity of each subject). If the distance between the estimated subject and the other subject is smaller than the predetermined threshold and the multiple subjects are close to each other, the process proceeds to step S9002. If the distance between the estimated subject and the other subject is larger than the predetermined threshold and the multiple subjects are not close to each other, the process proceeds to step S9003. Note that if the distance between the estimated subject and the other subject is the predetermined threshold, the CPU 3 may proceed to either step S9002 or step S9003.

複数の被写体が互いに近接している状況であるステップS9002では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9003では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。 In step S9002, where multiple subjects are close to each other, the CPU 3 transitions the icon representing the estimated subject to a display state by gradually changing (increasing) the size of the icon. On the other hand, in step S9003, where multiple subjects are not close to each other, the CPU 3 transitions the icon representing the estimated subject to a display state by gradually changing (decreasing) the transparency of the icon.

図18(a)~18(d)を用いて、推定被写体と他の被写体とが近接し、被写体間の距離が所定の閾値よりも小さい場合のアイコンの表示制御を説明する。図18(a)~18(d)は、近接する複数被写体に対するアイコン表示について説明する図である。図18(a)の例では、CPU3は、被写体1801および被写体1802のうち、視線位置1803(表示デバイス10上では非表示)から、検出対象である頭部までの距離がより近い被写体1802を推定被写体として推定する。 Using Figures 18(a) to 18(d), we will explain icon display control when an estimated subject is close to another subject and the distance between the subjects is smaller than a predetermined threshold. Figures 18(a) to 18(d) are diagrams that explain icon display for multiple subjects that are close to each other. In the example of Figure 18(a), CPU 3 estimates, as the estimated subject, subject 1802, which is closer to the head, which is the detection target, from gaze position 1803 (not displayed on display device 10), out of subjects 1801 and 1802.

図18(a)の被写体1801と被写体1802とは、画像平面上で互いに近接している。図18(b)では、CPU3は、推定被写体である被写体1802に対して、推定被写体を示すアイコン1804の表示処理を開始する(ステップS9002)。図18(b)では、アイコン1804は、推定被写体1802の頭部の領域よりも小さいサイズで表示されている。CPU3は、図18(b)の状態から、図18(c)、図18(d)の順に示すように、アイコン1804のサイズを徐々に大きくすることで、ユーザーに推定被写体の位置を報知することができる。なお、図18(b)~18(d)において、視線位置1803は、表示デバイス10上では非表示とする。 In FIG. 18(a), subjects 1801 and 1802 are close to each other on the image plane. In FIG. 18(b), CPU 3 starts the display process of icon 1804 indicating the estimated subject for subject 1802, which is the estimated subject (step S9002). In FIG. 18(b), icon 1804 is displayed at a size smaller than the head area of estimated subject 1802. CPU 3 can notify the user of the position of the estimated subject by gradually increasing the size of icon 1804 from the state in FIG. 18(b), as shown in the order of FIG. 18(c) and FIG. 18(d). Note that in FIGS. 18(b) to 18(d), gaze position 1803 is not displayed on display device 10.

図19(a)~19(d)を用いて、推定被写体と他の被写体とが近接しておらず、被写体間の距離が所定の閾値以上である場合のアイコンの表示制御を説明する。図19(a)~19(d)は、近接しない複数被写体に対するアイコン表示について説明する図である。図19(a)の例では、CPU3は、被写体1901および被写体1902のうち、視線位置1903(表示デバイス10上では非表示)から、検出対象である頭部までの距離がより近い被写体1902を推定被写体として推定する。 Using Figures 19(a) to 19(d), we will explain icon display control when the estimated subject and other subjects are not close to each other and the distance between the subjects is equal to or greater than a predetermined threshold. Figures 19(a) to 19(d) are diagrams that explain icon display for multiple subjects that are not close to each other. In the example of Figure 19(a), CPU 3 estimates, as the estimated subject, subject 1902, which is closer to the head, which is the detection target, from gaze position 1903 (not displayed on display device 10), out of subjects 1901 and 1902.

図19(a)の被写体1901と被写体1902とは、画像平面上で互いに近接していない。図19(b)では、CPU3は、推定被写体である被写体1902に対して、推定被写体を示すアイコン1904の表示処理を開始する(ステップS9003)。図19(b)では、アイコン1904は、通常の表示よりも透過率を高くした濃度で表示されている。CPU3は、図19(b)の状態から、図19(c)、図19(d)の順に示すように、アイコン1904の透過率を徐々に下げることで、アイコン1904の表示濃度を上げる。これにより、CPU3は、ユーザーに推定被写体の位置を報知することができる。なお、図19(b)~19(d)において、視線位置1903は、表示デバイス10上では非表示とする。 In FIG. 19(a), subject 1901 and subject 1902 are not close to each other on the image plane. In FIG. 19(b), CPU 3 starts the display process of icon 1904 indicating the estimated subject for subject 1902, which is the estimated subject (step S9003). In FIG. 19(b), icon 1904 is displayed with a density with a higher transmittance than normal display. CPU 3 increases the display density of icon 1904 by gradually lowering the transmittance of icon 1904 from the state in FIG. 19(b) as shown in the order of FIG. 19(c) and FIG. 19(d). This enables CPU 3 to notify the user of the position of the estimated subject. Note that in FIGS. 19(b) to 19(d), gaze position 1903 is not displayed on display device 10.

図17AのステップS9004では、推定被写体を示すアイコンは非表示状態であり、推定被写体が「合焦状態」であると判定されていない状態、すなわち推定被写体が「非合焦状態」である状況である。CPU3は、ステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9005に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9006に進む。 In step S9004 of FIG. 17A, the icon indicating the estimated subject is not displayed, and the estimated subject has not been determined to be in focus, i.e., the estimated subject is out of focus. As in step S9001, CPU 3 determines whether the distance between the estimated subject and the other subject is smaller than a predetermined threshold. If the distance between the estimated subject and the other subject is smaller than the predetermined threshold, processing proceeds to step S9005. If the distance between the estimated subject and the other subject is equal to or greater than the predetermined threshold, processing proceeds to step S9006.

複数の被写体が互いに近接している状況であるステップS9005では、ステップS9002と同様に、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一方、複数の被写体が互
いに近接していない状況であるステップS9006では、ステップS9003と同様に、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。
In step S9005 where the plurality of subjects are close to each other, similar to step S9002, CPU 3 transitions the icon to a display state by gradually changing (increasing) the size of the icon representing the estimated subject. On the other hand, in step S9006 where the plurality of subjects are not close to each other, CPU 3 transitions the icon to a display state by gradually changing (decreasing) the transparency of the icon representing the estimated subject, similar to step S9003.

図17Aで説明したアイコンの表示制御によれば、ユーザーの視線が向けられている推定被写体が他の被写体と近接している場合、CPU3は、推定被写体を示すアイコンのサイズを徐々に大きくすることにより、推定被写体を認識しやすくすることができる。 According to the icon display control described in FIG. 17A, when the estimated subject at which the user's gaze is directed is close to other subjects, the CPU 3 can make the estimated subject easier to recognize by gradually increasing the size of the icon representing the estimated subject.

図17Bは、実施形態2に係るアイコン非表示処理のフローチャートである。ユーザーのまばたきが検出され、ステップS8503でまばたきの特性情報が取得されると、処理はステップS9011に進む。ステップS8505で、構図が変更されたと判定された場合、処理はステップS9014に進む。 FIG. 17B is a flowchart of icon non-display processing according to the second embodiment. When a user's blink is detected and blink characteristic information is acquired in step S8503, processing proceeds to step S9011. When it is determined in step S8505 that the composition has been changed, processing proceeds to step S9014.

ステップS9011では、推定被写体を示すアイコンは表示状態であり、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況である。CPU3は、図17AのステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9012に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9013に進む。 In step S9011, the icon indicating the estimated subject is in a displayed state, and the icon will be switched to hidden when the user blinks. Similar to step S9001 in FIG. 17A, CPU 3 determines whether the distance between the estimated subject and the other subject is smaller than a predetermined threshold. If the distance between the estimated subject and the other subject is smaller than the predetermined threshold, processing proceeds to step S9012. If the distance between the estimated subject and the other subject is equal to or greater than the predetermined threshold, processing proceeds to step S9013.

複数の被写体が互いに近接している状況であるステップS9012では、CPU3は、推定被写体を示すアイコンのサイズを、所定の遷移時間で徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9013では、CPU3は、推定被写体を示すアイコンの透過率を、所定の遷移時間で徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。所定の遷移時間は、図8EのステップS8504と同様に決定される。 In step S9012, where multiple subjects are close to each other, CPU 3 transitions the icon to a non-display state by gradually changing (reducing) the size of the icon representing the estimated subject over a predetermined transition time. On the other hand, in step S9013, where multiple subjects are not close to each other, CPU 3 transitions the icon to a non-display state by gradually changing (increasing) the transparency of the icon representing the estimated subject over a predetermined transition time. The predetermined transition time is determined in the same manner as in step S8504 of FIG. 8E.

ステップS9014では、推定被写体を示すアイコンは表示状態であり、構図が変更された後、所定時間が経過してアイコンが非表示に切り替えられる状況である。CPU3は、図17AのステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9015に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9016に進む。 In step S9014, the icon indicating the estimated subject is in a displayed state, and after the composition is changed, a predetermined time has elapsed and the icon will be switched to a hidden state. Similar to step S9001 in FIG. 17A, CPU 3 determines whether the distance between the estimated subject and the other subject is smaller than a predetermined threshold. If the distance between the estimated subject and the other subject is smaller than the predetermined threshold, processing proceeds to step S9015. If the distance between the estimated subject and the other subject is equal to or greater than the predetermined threshold, processing proceeds to step S9016.

複数の被写体が互いに近接している状況であるステップS9015では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9016では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。 In step S9015, where multiple subjects are close to each other, CPU 3 transitions the icon representing the estimated subject to a non-display state by gradually changing (reducing) the size of the icon. On the other hand, in step S9016, where multiple subjects are not close to each other, CPU 3 transitions the icon representing the estimated subject to a non-display state by gradually changing (increasing) the transparency of the icon.

上記の実施形態2によれば、カメラ1は、被写体の状況に基づいて、推定被写体を示すアイコンの表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画像の視認性を向上させることができる。ユーザーは、遷移方式が適切に選択されることで、推定被写体を示すアイコンを認識しやすくなる。 According to the above-mentioned embodiment 2, the camera 1 can improve the visibility of the icon and the image by appropriately selecting the transition method between the display state and the non-display state of the icon indicating the estimated subject based on the state of the subject. By appropriately selecting the transition method, the user can easily recognize the icon indicating the estimated subject.

なお、図17A,17Bでは、被写体の状況は、推定被写体と他の被写体との距離として説明したが、これに限られない。被写体の状況は、被写体の数、被写体の大きさ、被写体の明るさ(輝度情報)などであってもよい。カメラ1は、これらの被写体の状況に応じて、表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画
像の視認性を向上させることができる。
17A and 17B, the subject situation is described as the distance between the estimated subject and other subjects, but is not limited to this. The subject situation may be the number of subjects, the size of the subject, the brightness of the subject (luminance information), etc. The camera 1 can improve the visibility of the icon and image by appropriately selecting a transition method between the display state and the non-display state according to the subject situation.

[実施形態3]
図20A,20Bを用いて、実施形態3について説明する。実施形態2では、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンの表示状態と非表示状態とを切り替える際、被写体の状況に基づいて遷移方式が選択される。これに対し、実施形態3では、推定被写体を示すアイコンの表示状態と非表示状態とを切り替える際の遷移方式は、撮影時のズーム状態に基づいて選択される。
[Embodiment 3]
20A and 20B, the third embodiment will be described. In the second embodiment, when switching between a display state and a non-display state of an icon indicating a subject (estimated subject) at which the user's gaze is directed, a transition method is selected based on the state of the subject. In contrast, in the third embodiment, the transition method when switching between a display state and a non-display state of an icon indicating an estimated subject is selected based on the zoom state at the time of shooting.

図8A~8Cまでの処理は、実施形態1と同様である。実施形態3では図8D,8Eに示す処理に代えて、図20A,20Bに示す処理が実行される。図8D,8Eと同じ処理については、同じ符号を付して詳細な説明は省略する。 The processes in Figures 8A to 8C are the same as those in the first embodiment. In the third embodiment, the processes shown in Figures 20A and 20B are executed instead of the processes shown in Figures 8D and 8E. The same processes as those in Figures 8D and 8E are denoted by the same reference numerals and detailed descriptions are omitted.

図20Aは、実施形態3に係るアイコン表示処理のフローチャートである。ステップS8402で「被写体に注目している」と判定された場合、処理はステップS9021に進む。ステップS8404で推定被写体が「合焦状態」であると判定されなかった場合、処理はステップS9024に進む。 FIG. 20A is a flowchart of the icon display process according to the third embodiment. If it is determined in step S8402 that the subject is being watched, the process proceeds to step S9021. If it is not determined in step S8404 that the estimated subject is in focus, the process proceeds to step S9024.

ステップS9021では、推定被写体を示すアイコンは非表示状態であり、ユーザーは推定被写体に注目している状況である。CPU3は、現在のズーム状態の情報を取得し、広角側での撮影であるか否かを判定する。CPU3は、ズーム状態を制御する撮影レンズユニット1Aのズーム駆動部120から、現在のズーム状態(ズーム位置)が広角側であるか否かの情報を取得することができる。また、電子ズームにより画角が変更されている場合、CPU3は、カメラ側の電子ズームの設定状態により広角側での撮影であるか否かを判定することができる。広角側での撮影である場合、処理はステップS9022に進む。広角側での撮影でない場合、処理はステップS9023に進む。 In step S9021, the icon indicating the estimated subject is not displayed, and the user is focusing on the estimated subject. CPU 3 acquires information on the current zoom state and determines whether or not shooting is occurring on the wide-angle side. CPU 3 can acquire information on whether or not the current zoom state (zoom position) is on the wide-angle side from zoom drive section 120 of photographing lens unit 1A, which controls the zoom state. Also, if the angle of view has been changed by electronic zoom, CPU 3 can determine whether or not shooting is occurring on the wide-angle side based on the electronic zoom setting state on the camera side. If shooting is occurring on the wide-angle side, processing proceeds to step S9022. If shooting is not occurring on the wide-angle side, processing proceeds to step S9023.

広角側での撮影であるステップS9022では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。一方、広角側での撮影ではないステップS9023では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一般にズーム状態が望遠側での撮影では、圧縮効果により被写体は混みあった状態で視認される。このため、望遠側での撮影である(広角側での撮影ではない)場合、CPU3は、アイコンのサイズを徐々に大きくすることで、推定被写体を認識しやすくし、アイコンおよび画像の視認性を上げることができる。 In step S9022, where wide-angle shooting is performed, CPU 3 transitions the icon to a display state by gradually changing (lowering) the transparency of the icon indicating the estimated subject. On the other hand, in step S9023, where shooting is not performed on the wide-angle side, CPU 3 transitions the icon to a display state by gradually changing (increasing) the size of the icon indicating the estimated subject. Generally, when shooting with a telephoto zoom state, the subject is perceived as crowded due to a compression effect. For this reason, when shooting on the telephoto side (not wide-angle shooting), CPU 3 gradually increases the size of the icon, making it easier to recognize the estimated subject and improving the visibility of the icon and image.

ステップS9024では、推定被写体を示すアイコンは非表示状態であり、推定被写体が「合焦状態」であると判定されていない状態、すなわち推定被写体が「非合焦状態」である状況である。CPU3は、ステップS9021と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9025に進む。広角側での撮影でない場合、処理はステップS9026に進む。 In step S9024, the icon indicating the estimated subject is not displayed, and the estimated subject has not been determined to be in focus, i.e., the estimated subject is out of focus. As in step S9021, CPU 3 determines whether or not shooting was performed on the wide-angle side. If shooting was performed on the wide-angle side, processing proceeds to step S9025. If shooting was not performed on the wide-angle side, processing proceeds to step S9026.

広角側での撮影であるステップS9025では、ステップS9022と同様に、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。一方、望遠側での撮影であるステップS9026では、ステップS9023と同様に、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。 In step S9025, which is wide-angle shooting, similar to step S9022, CPU 3 transitions the icon to a display state by gradually changing (lowering) the transparency of the icon indicating the estimated subject. On the other hand, in step S9026, which is telephoto shooting, CPU 3 transitions the icon to a display state by gradually changing (increasing) the size of the icon indicating the estimated subject, similar to step S9023.

図20Aで説明したアイコンの表示制御によれば、望遠側での撮影で圧縮効果により被写体が混みあった状態で視認される場合、CPU3は、推定被写体を示すアイコンのサイ
ズを徐々に大きくすることにより、推定被写体を認識しやすくすることができる。
According to the icon display control described in FIG. 20A, when the subject is viewed as crowded due to the compression effect when shooting at a telephoto setting, the CPU 3 can make the estimated subject easier to recognize by gradually increasing the size of the icon representing the estimated subject.

図20Bは、実施形態3に係るアイコン非表示処理のフローチャートである。ユーザーのまばたきが検出され、ステップS8503でまばたきの特性情報が取得されると、処理はステップS9031に進む。ステップS8505で、構図が変更されたと判定された場合、処理はステップS9034に進む。 Figure 20B is a flowchart of icon non-display processing according to embodiment 3. When a user's blink is detected and blink characteristic information is acquired in step S8503, processing proceeds to step S9031. When it is determined in step S8505 that the composition has been changed, processing proceeds to step S9034.

ステップS9031では、推定被写体を示すアイコンは表示状態であり、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況である。CPU3は、図20AのステップS9021と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9032に進む。広角側での撮影でない(望遠側での撮影である)場合、処理はステップS9033に進む。 In step S9031, the icon indicating the estimated subject is displayed, and the icon will be hidden when the user blinks. CPU 3 determines whether or not the image was captured on the wide-angle side, similar to step S9021 in FIG. 20A. If the image was captured on the wide-angle side, processing proceeds to step S9032. If the image was not captured on the wide-angle side (if the image was captured on the telephoto side), processing proceeds to step S9033.

広角側での撮影である場合のステップS9032では、CPU3は、推定被写体を示すアイコンの透過率を、所定の遷移時間で徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。一方、望遠側での撮影である場合のステップS9033では、CPU3は、推定被写体を示すアイコンのサイズを、所定の遷移時間で徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。所定の遷移時間は、ステップS8504と同様に決定される。望遠側での撮影である(広角側での撮影ではない)場合、CPU3は、アイコンのサイズを徐々に小さくすることで、推定被写体を認識しやすくし、アイコンおよび画像の視認性を向上させることができる。 In step S9032 when shooting on the wide-angle side, CPU 3 gradually changes (increases) the transparency of the icon indicating the estimated subject over a predetermined transition time, thereby transitioning the icon to a non-display state. On the other hand, in step S9033 when shooting on the telephoto side, CPU 3 gradually changes (reduces) the size of the icon indicating the estimated subject over a predetermined transition time, thereby transitioning the icon to a non-display state. The predetermined transition time is determined in the same manner as in step S8504. When shooting on the telephoto side (not wide-angle side), CPU 3 gradually reduces the size of the icon, making it easier to recognize the estimated subject and improving the visibility of the icon and image.

ステップS9034では、推定被写体を示すアイコンは表示状態であり、構図が変更された後、所定時間が経過してアイコンが非表示に切り替えられる状況である。CPU3は、ステップS9031と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9035に進む。広角側での撮影でない場合、処理はステップS9036に進む。 In step S9034, the icon indicating the estimated subject is in a displayed state, and after the composition is changed, a predetermined time has passed and the icon will be switched to a hidden state. As in step S9031, CPU 3 determines whether or not shooting was performed on the wide-angle side. If shooting was performed on the wide-angle side, processing proceeds to step S9035. If shooting was not performed on the wide-angle side, processing proceeds to step S9036.

広角側での撮影である場合のステップS9035では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。一方、望遠側での撮影である場合のステップS9036では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。 In step S9035 when shooting on the wide-angle side, CPU 3 transitions the icon indicating the estimated subject to a non-display state by gradually changing (increasing) the transparency of the icon. On the other hand, in step S9036 when shooting on the telephoto side, CPU 3 transitions the icon indicating the estimated subject to a non-display state by gradually changing (reducing) the size of the icon.

上記の実施形態3によれば、カメラ1は、撮影時のズーム状態の情報に基づいて、推定被写体を示すアイコンの表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画像の視認性を向上させることができる。ユーザーは、遷移方式が適切に選択されることで、推定被写体を示すアイコンを認識しやすくなる。 According to the above-mentioned embodiment 3, the camera 1 can improve the visibility of the icon and the image by appropriately selecting a transition method between a display state and a non-display state of the icon indicating the estimated subject based on the zoom state information at the time of shooting. By appropriately selecting the transition method, the user can easily recognize the icon indicating the estimated subject.

なお、上記の各実施形態において、各種条件に基づいて、推定被写体を示すアイコンを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する例を説明したが、カメラ1は、上記以外の他の条件に基づいて遷移方式を選択してもよい。例えば、カメラ1は、ユーザーの視線位置に基づく位置に存在する被写体が静止しているか加速しながら動作しているかといった、被写体の動き(動き特性の情報)に基づいて遷移方式を選択してもよい。例えば、加速しながら動作していた被写体が停止した場合、カメラ1は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。また、カメラ1は、ユーザーの視線位置の検出に成功したか失敗したかに基づいて、遷移方式を選択してもよい。さらに、カメラ1は、これらの条件を任意に組み合わせた条件に基づいて、遷移方式を選択するようにしてもよい。各種条件に基づいて、いずれの遷移方式を選択するかは、アイコンおよび画面の視認性を考慮してあ
らかじめ設定しておくことができる。
In the above embodiments, an example of selecting a transition method for transitioning an icon indicating an estimated subject from one of a display state and a non-display state to the other based on various conditions has been described, but the camera 1 may select a transition method based on conditions other than the above. For example, the camera 1 may select a transition method based on the movement of the subject (information on the movement characteristics), such as whether the subject present at a position based on the user's gaze position is stationary or moving while accelerating. For example, when a subject moving while accelerating stops, the camera 1 gradually changes (increases) the transmittance of the icon indicating the estimated subject, thereby transitioning the icon to a non-display state. The camera 1 may also select a transition method based on whether the detection of the user's gaze position has succeeded or failed. Furthermore, the camera 1 may select a transition method based on a condition that is an arbitrary combination of these conditions. The transition method to be selected based on various conditions can be set in advance in consideration of the visibility of the icon and the screen.

上記実施形態はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 The above embodiment is merely an example, and configurations obtained by appropriately modifying or changing the configuration of the above embodiment within the scope of the gist of the present invention are also included in the present invention. Configurations obtained by appropriately combining the configurations of the above embodiments are also included in the present invention.

例えば、EVF(電子ビューファインダー)で被写体を見る場合の例を説明したが、OVF(光学ビューファインダー)で被写体を見る場合にも本発明は適用可能である。本発明は撮像装置(カメラ)以外にも適用可能であり、3次元のコンピュータグラフィックなどを見る場合にも適用可能である。本発明は、視点を検出することのできる様々な電子機器に適用可能である。 For example, although an example of viewing a subject through an EVF (electronic viewfinder) has been described, the present invention can also be applied when viewing a subject through an OVF (optical viewfinder). The present invention can be applied to devices other than imaging devices (cameras), and can also be applied when viewing three-dimensional computer graphics, etc. The present invention can be applied to various electronic devices that can detect the viewpoint.

[他の電子機器への適用例]
図21(a)は、ノート型パーソナルコンピュータ2110(ノートPC)の外観図である。図21(a)では、ノートPC2110の表示部2111を見るユーザーを撮像する撮像ユニット2115がノートPC2110に接続されており、ノートPC2110は撮像ユニット2115から撮像結果を取得する。そして、ノートPC2110は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ノートPC2110にも適用可能である。
[Examples of application to other electronic devices]
Fig. 21(a) is an external view of a notebook personal computer 2110 (notebook PC). In Fig. 21(a), an imaging unit 2115 that captures an image of a user looking at a display unit 2111 of the notebook PC 2110 is connected to the notebook PC 2110, and the notebook PC 2110 obtains the imaging results from the imaging unit 2115. The notebook PC 2110 then detects the user's viewpoint based on the imaging results. The present invention is also applicable to the notebook PC 2110.

図21(b)は、スマートフォン2120の外観図である。図21(b)では、スマートフォン2120は、インカメラ2121(フロントカメラ)の撮像結果に基づいて、スマートフォン2120の表示部2122を見るユーザーの視点を検出する。本発明は、スマートフォン2120にも適用可能である。同様に、本発明は、種々のタブレット端末にも適用可能である。 Fig. 21(b) is an external view of the smartphone 2120. In Fig. 21(b), the smartphone 2120 detects the viewpoint of a user looking at the display unit 2122 of the smartphone 2120 based on the imaging results of the in-camera 2121 (front camera). The present invention is also applicable to the smartphone 2120. Similarly, the present invention is also applicable to various tablet terminals.

図21(c)は、ゲーム機2130の外観図である。図21(c)では、ゲームのVR(Virtual Reality)画像を表示部2136に表示するヘッドマウントディスプレイ2135(HMD)が、ゲーム機2130に接続されている。HMD2135は、HMD2135を装着したユーザーの眼を撮像するカメラ2137を有しており、ゲーム機2130は、HMD2135から撮像結果を取得する。そして、ゲーム機2130は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ゲーム機2130にも適用可能である。ゲーム機2130の構成要素はHMD2135に内蔵されていてもよい。従って、本発明は、HMD2135にも適用可能である。HMDに表示したVR画像を見る場合に本発明が適用可能であるのと同様に、眼鏡型のウェアラブル端末のレンズ部分などに表示したAR(Augmented Reality)画像や、レンズ部分の先にある実物を見る場合にも本発明は適用可能である。VR技術やAR技術に本発明が適用可能であるのと同様に、MR(Mixed Reality)技術やSR(Substitutional Reality)技術などの別のxR技術にも本発明は適用可能である。 Figure 21 (c) is an external view of the game console 2130. In Figure 21 (c), a head mounted display 2135 (HMD) that displays a VR (Virtual Reality) image of the game on a display unit 2136 is connected to the game console 2130. The HMD 2135 has a camera 2137 that captures an image of the eye of a user wearing the HMD 2135, and the game console 2130 acquires the image capture result from the HMD 2135. The game console 2130 then detects the user's viewpoint based on the image capture result. The present invention is also applicable to the game console 2130. The components of the game console 2130 may be built into the HMD 2135. Therefore, the present invention is also applicable to the HMD 2135. Just as the present invention can be applied when viewing a VR image displayed on an HMD, the present invention can also be applied when viewing an AR (Augmented Reality) image displayed on the lens portion of a glasses-type wearable device, or when viewing an actual object beyond the lens portion. Just as the present invention can be applied to VR technology and AR technology, the present invention can also be applied to other xR technologies such as MR (Mixed Reality) technology and SR (Substitutional Reality) technology.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

本実施形態の開示は、以下の構成、方法、プログラムおよび媒体を含む。
(構成1)
撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段と
を有し、
前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器。
(構成2)
前記複数の遷移方式は、
前記アイテムのサイズを徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムの透過率を徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムを表示状態と非表示状態の一方から他方に即座に遷移させる遷移方式、の少なくともいずれかを含む
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記ユーザーの視線位置に基づいて、前記画像に含まれる被写体のうち前記ユーザーの視線が向けられた被写体を推定する推定手段をさらに有し、
前記制御手段は、前記推定手段によって推定された被写体の位置に前記アイテムを表示するように制御する
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記制御手段は、前記ユーザーが前記画像に注目しているか否かに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~3のいずれかに記載の電子機器。
(構成5)
前記制御手段は、前記ユーザーがまばたきを行ったか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~4のいずれかに記載の電子機器。
(構成6)
前記制御手段は、前記ユーザーがまばたきを行った場合、あらかじめ計測した前記ユーザーのまばたき中の目をつむっている時間よりも長い時間をかけて前記アイテムの状態を徐々に変化させることにより、前記アイテムを表示状態から非表示状態に遷移させる
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記制御手段は、ズーム操作、パン操作、またはチルト操作によって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~6のいずれかに記載の電子機器。
(構成8)
前記制御手段は、前記画像を撮像する撮像装置の姿勢が変化したことによって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~7のいずれかに記載の電子機器。
(構成9)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体が合焦状態であるか非合焦状態であるかに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~8のいずれかに記載の電子機器。
(構成10)
前記制御手段は、前記画像に複数の被写体が含まれるか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~9のいずれかに記載の電子機器。
(構成11)
前記制御手段は、前記画像に複数の被写体が含まれており、前記ユーザーが現在見ている被写体と前記ユーザーが過去に見ていた被写体とが同じ場合と異なる場合とで、異なる遷移方式によって前記アイテムを非表示状態に遷移させる
ことを特徴とする構成1~10のいずれかに記載の電子機器。
(構成12)
前記画像に含まれる被写体は、所定の種別の被写体である
ことを特徴とする構成10または11に記載の電子機器。
(構成13)
前記画像に含まれる被写体の数は、前記ユーザーの視線位置を含む所定の範囲に含まれる被写体の数である
ことを特徴とする構成10~12のいずれかに記載の電子機器。
(構成14)
前記所定の範囲は、前記画像を撮像する際の焦点距離、撮影距離、撮影モードおよび前記ユーザーの視線位置に基づく位置に存在する被写体の大きさのうちの少なくともいずれかに基づいて決定される
ことを特徴とする構成13に記載の電子機器。
(構成15)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~14のいずれかに記載の電子機器。
(構成16)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離が、所定の閾値より小さい場合と前記所定の閾値より大きい場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成15に記載の電子機器。
(構成17)
前記制御手段は、前記画像を撮像する際のズーム状態に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~16のいずれかに記載の電子機器。
(構成18)
前記制御手段は、前記ズーム状態が広角側である場合と望遠側である場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成17に記載の電子機器。
(構成19)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体の動きに基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~18のいずれかに記載の電子機器。
(構成20)
前記制御手段は、前記ユーザーの視線位置の検出に成功した場合と失敗した場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成1~19のいずれかに記載の電子機器。
(方法)
撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップと
を有し、
前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~20のいずれかに記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~20のいずれかに記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
The disclosure of the present embodiment includes the following configuration, method, program, and medium.
(Configuration 1)
An acquisition means for acquiring information on a gaze position of a user viewing a captured image;
a control means for controlling the display of an item at a position based on the user's line of sight;
The electronic device according to claim 1, wherein the control means transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
(Configuration 2)
The plurality of transition methods include:
a transition scheme in which the item transitions from one of a visible state and a hidden state to the other by gradually changing the size of the item;
a transition scheme in which the item is transitioned from one of a visible state and a hidden state to the other by gradually changing the transparency of the item;
2. The electronic device according to configuration 1, further comprising at least one of a display state and a non-display state for immediately transitioning the item from one of the display state and the non-display state to the other.
(Configuration 3)
The method further includes estimating an object at which the user's gaze is directed, among objects included in the image, based on the user's gaze position,
3. The electronic device according to configuration 1 or 2, wherein the control means controls so that the item is displayed at the position of the subject estimated by the estimation means.
(Configuration 4)
The electronic device according to any one of configurations 1 to 3, characterized in that the control means selects a transition method for transitioning the item to a display state based on whether the user is paying attention to the image.
(Configuration 5)
The electronic device according to any one of configurations 1 to 4, wherein the control means selects a transition method for transitioning the item to a hidden state based on whether or not the user has blinked.
(Configuration 6)
The electronic device described in configuration 5, characterized in that when the user blinks, the control means transitions the item from a displayed state to a hidden state by gradually changing the state of the item over a period of time longer than a previously measured period of time the user's eyes are closed while blinking.
(Configuration 7)
The electronic device according to any one of configurations 1 to 6, characterized in that the control means selects a transition method for transitioning the item to a hidden state based on whether the composition of the image has been changed by a zoom operation, a pan operation, or a tilt operation.
(Configuration 8)
The electronic device according to any one of configurations 1 to 7, characterized in that the control means selects a transition method for transitioning the item to a hidden state based on whether or not a composition of the image has changed due to a change in the attitude of an imaging device that captures the image.
(Configuration 9)
The electronic device according to any one of configurations 1 to 8, characterized in that the control means selects a transition method for transitioning the item to a display state based on whether a subject present at a position based on the user's gaze position is in-focus or out-of-focus.
(Configuration 10)
The electronic device according to any one of configurations 1 to 9, wherein the control means selects a transition method for transitioning the item to a hidden state based on whether or not the image includes multiple subjects.
(Configuration 11)
The electronic device of any one of configurations 1 to 10, characterized in that the control means transitions the item to a hidden state using different transition methods depending on whether the subject currently being viewed by the user is the same as or different from a subject previously viewed by the user, when the image contains a plurality of subjects.
(Configuration 12)
12. The electronic device according to configuration 10 or 11, wherein the subject included in the image is a subject of a predetermined type.
(Configuration 13)
The electronic device according to any one of configurations 10 to 12, wherein the number of subjects included in the image is the number of subjects included in a predetermined range including the user's line of sight.
(Configuration 14)
The electronic device described in configuration 13, characterized in that the specified range is determined based on at least one of the focal length, shooting distance, shooting mode, and size of a subject present at a position based on the user's line of sight when capturing the image.
(Configuration 15)
The electronic device of any one of configurations 1 to 14, characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on a distance between a subject present at a position based on the user's gaze position and another subject.
(Configuration 16)
The electronic device described in configuration 15, characterized in that the control means transitions the item from one of a displayed state and a hidden state to the other using different transition methods when the distance between a subject present at a position based on the user's gaze position and another subject is smaller than a predetermined threshold and when the distance is greater than the predetermined threshold.
(Configuration 17)
The electronic device according to any one of configurations 1 to 16, characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on a zoom state when capturing the image.
(Configuration 18)
The electronic device described in configuration 17, characterized in that the control means transitions the item from one of the displayed state and the hidden state to the other using different transition methods when the zoom state is on the wide-angle side and when it is on the telephoto side.
(Configuration 19)
The electronic device of any one of configurations 1 to 18, characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on the movement of a subject present at a position based on the user's gaze position.
(Configuration 20)
The electronic device of any one of configurations 1 to 19, characterized in that the control means transitions the item from one of a displayed state and a hidden state to the other by different transition methods depending on whether detection of the user's gaze position is successful or unsuccessful.
(method)
An acquisition step of acquiring information on a gaze position of a user viewing a captured image;
and a control step of controlling the display of the item at a position based on the user's gaze position,
The control method for an electronic device, wherein the control step transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
(program)
A program for causing a computer to function as each of the means of the electronic device according to any one of configurations 1 to 20.
(Medium)
A computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device described in any one of configurations 1 to 20.

1:カメラ(電子機器)、3:CPU、10:表示デバイス、11:表示デバイス駆動回路、17:眼用撮像素子、201:視線検出回路、208:画像処理部 1: Camera (electronic device), 3: CPU, 10: Display device, 11: Display device drive circuit, 17: Eye image sensor, 201: Line of sight detection circuit, 208: Image processing unit

Claims (23)

撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段とを有し、
前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器。
An acquisition means for acquiring information on a gaze position of a user viewing a captured image;
a control means for controlling the display of an item at a position based on the user's line of sight;
The electronic device according to claim 1, wherein the control means transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
前記複数の遷移方式は、
前記アイテムのサイズを徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムの透過率を徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムを表示状態と非表示状態の一方から他方に即座に遷移させる遷移方式、の少なくともいずれかを含む
ことを特徴とする請求項1に記載の電子機器。
The plurality of transition methods include:
a transition scheme in which the item transitions from one of a visible state and a hidden state to the other by gradually changing the size of the item;
a transition scheme in which the item is transitioned from one of a visible state and a hidden state to the other by gradually changing the transparency of the item;
2. The electronic device according to claim 1, further comprising at least one of a display state and a non-display state, and a transition method for immediately transitioning the item from one of the display state and the non-display state to the other.
前記ユーザーの視線位置に基づいて、前記画像に含まれる被写体のうち前記ユーザーの視線が向けられた被写体を推定する推定手段をさらに有し、
前記制御手段は、前記推定手段によって推定された被写体の位置に前記アイテムを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。
The method further includes estimating an object at which the user's gaze is directed, among objects included in the image, based on the user's gaze position,
The electronic device according to claim 1 , wherein the control means performs control so as to display the item at the position of the subject estimated by the estimation means.
前記制御手段は、前記ユーザーが前記画像に注目しているか否かに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a display state based on whether the user is paying attention to the image.
前記制御手段は、前記ユーザーがまばたきを行ったか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a non-display state based on whether or not the user has blinked.
前記制御手段は、前記ユーザーがまばたきを行った場合、あらかじめ計測した前記ユーザーのまばたき中の目をつむっている時間よりも長い時間をかけて、前記アイテムの状態を徐々に変化させることにより、前記アイテムを表示状態から非表示状態に遷移させる
ことを特徴とする請求項5に記載の電子機器。
The electronic device according to claim 5, characterized in that, when the user blinks, the control means transitions the item from a displayed state to a hidden state by gradually changing the state of the item over a period of time longer than a previously measured period of time that the user's eyes are closed during a blink.
前記制御手段は、ズーム操作、パン操作、またはチルト操作によって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a hidden state based on whether a composition of the image has been changed by a zoom operation, a pan operation, or a tilt operation.
前記制御手段は、前記画像を撮像する撮像装置の姿勢が変化したことによって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item to a hidden state based on whether or not a composition of the image has changed due to a change in the attitude of an imaging device that captures the image.
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体が合焦状態であるか非合焦状態であるかに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item to a display state based on whether a subject present at a position based on the user's gaze position is in-focus or out-of-focus.
前記制御手段は、前記画像に複数の被写体が含まれるか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a non-display state based on whether the image includes a plurality of subjects.
前記制御手段は、前記画像に複数の被写体が含まれており、前記ユーザーが現在見ている被写体と前記ユーザーが過去に見ていた被写体とが同じ場合と異なる場合とで、異なる遷移方式によって前記アイテムを非表示状態に遷移させる
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, characterized in that the control means transitions the item to a hidden state using different transition methods depending on whether the image contains multiple objects and the object currently being viewed by the user is the same as or different from the object previously viewed by the user.
前記画像に含まれる被写体は、所定の種別の被写体である
ことを特徴とする請求項10に記載の電子機器。
The electronic device according to claim 10 , wherein the subject included in the image is a subject of a predetermined type.
前記画像に含まれる被写体の数は、前記ユーザーの視線位置を含む所定の範囲に含まれる被写体の数である
ことを特徴とする請求項10に記載の電子機器。
The electronic device according to claim 10 , wherein the number of subjects included in the image is the number of subjects included in a predetermined range including the user's line of sight.
前記所定の範囲は、前記画像を撮像する際の焦点距離、撮影距離、撮影モードおよび前記ユーザーの視線位置に基づく位置に存在する被写体の大きさのうちの少なくともいずれかに基づいて決定される
ことを特徴とする請求項13に記載の電子機器。
14. The electronic device according to claim 13, wherein the predetermined range is determined based on at least one of a focal length, a shooting distance, a shooting mode, and a size of a subject present at a position based on a line of sight of the user when capturing the image.
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on a distance between a subject present at a position based on the user's gaze position and another subject.
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離が、所定の閾値より小さい場合と前記所定の閾値より大きいの場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする請求項15に記載の電子機器。
The electronic device described in claim 15, characterized in that the control means transitions the item from one of the displayed state and the hidden state to the other using different transition methods when the distance between the subject present at a position based on the user's gaze position and another subject is smaller than a predetermined threshold and when the distance is greater than the predetermined threshold.
前記制御手段は、前記画像を撮像する際のズーム状態に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item from one of a displayed state and a non-displayed state to the other, based on a zoom state when the image is captured.
前記制御手段は、前記ズーム状態が広角側である場合と望遠側である場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする請求項17に記載の電子機器。
18. The electronic device according to claim 17, wherein the control means transitions the item from one of the displayed state and the non-displayed state to the other by different transition methods depending on whether the zoom state is on the wide-angle side or the telephoto side.
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体の動きに基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1 , characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on the movement of a subject present at a position based on the user's gaze position.
前記制御手段は、前記ユーザーの視線位置の検出に成功した場合と失敗した場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, characterized in that the control means transitions the item from one of a displayed state and a hidden state to the other using different transition methods depending on whether detection of the user's gaze position is successful or unsuccessful.
撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップと
を有し、
前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器の制御方法。
An acquisition step of acquiring information on a gaze position of a user viewing a captured image;
and a control step of controlling the display of the item at a position based on the user's gaze position,
The control method for an electronic device, wherein the control step transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
コンピュータを、請求項1~20のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the electronic device described in any one of claims 1 to 20. コンピュータを、請求項1~20のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device according to any one of claims 1 to 20.
JP2023087166A 2023-05-26 2023-05-26 Electronic device and method for controlling electronic device Pending JP2024170159A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023087166A JP2024170159A (en) 2023-05-26 2023-05-26 Electronic device and method for controlling electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023087166A JP2024170159A (en) 2023-05-26 2023-05-26 Electronic device and method for controlling electronic device

Publications (1)

Publication Number Publication Date
JP2024170159A true JP2024170159A (en) 2024-12-06

Family

ID=93707747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023087166A Pending JP2024170159A (en) 2023-05-26 2023-05-26 Electronic device and method for controlling electronic device

Country Status (1)

Country Link
JP (1) JP2024170159A (en)

Similar Documents

Publication Publication Date Title
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
JP7604216B2 (en) Eye gaze detection device
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
JP7567012B2 (en) Electronic device, electronic device control method, program, and storage medium
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
US12047703B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP7693397B2 (en) Line-of-sight information acquisition device, imaging device, line-of-sight information acquisition method, program, and storage medium
JP2002214659A (en) Camera with shake correcting function
JP2024170159A (en) Electronic device and method for controlling electronic device
US20240397190A1 (en) Electronic device, and control method of electronic device
JP7580935B2 (en) Image processing device, control method for image processing device, and program
CN116437180A (en) Display apparatus, viewfinder apparatus, and image pickup apparatus
JP2021182736A (en) Electronic apparatus
JP7615262B1 (en) Information processing device
JP2021064928A (en) Electronic device
JP7693402B2 (en) Display device, imaging device, display device control method, program, and recording medium
JP2023063023A (en) ELECTRONIC DEVICE AND METHOD OF CONTROLLING ELECTRONIC DEVICE
JP2024003432A (en) Electronic device
JP7358130B2 (en) Electronic equipment and its control method
JP2023083695A (en) Electronics
JP2023087377A (en) Visual line detection device
JP2023069526A (en) Electronic device and its control method and program
JP2023040771A (en) Visual line detection device