JP2024170159A - Electronic device and method for controlling electronic device - Google Patents
Electronic device and method for controlling electronic device Download PDFInfo
- Publication number
- JP2024170159A JP2024170159A JP2023087166A JP2023087166A JP2024170159A JP 2024170159 A JP2024170159 A JP 2024170159A JP 2023087166 A JP2023087166 A JP 2023087166A JP 2023087166 A JP2023087166 A JP 2023087166A JP 2024170159 A JP2024170159 A JP 2024170159A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- user
- state
- image
- icon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 153
- 230000007704 transition Effects 0.000 claims abstract description 130
- 238000001514 detection method Methods 0.000 claims description 63
- 210000001508 eye Anatomy 0.000 claims description 42
- 238000003384 imaging method Methods 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 19
- 239000000203 mixture Substances 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 abstract 5
- 238000012545 processing Methods 0.000 description 111
- 230000008569 process Effects 0.000 description 73
- 238000010586 diagram Methods 0.000 description 29
- 210000005252 bulbus oculi Anatomy 0.000 description 19
- 210000001747 pupil Anatomy 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 8
- 230000004397 blinking Effects 0.000 description 8
- 238000004091 panning Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000005375 photometry Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 241001481833 Coryphaena hippurus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、電子機器および電子機器の制御方法に関する。 The present invention relates to an electronic device and a method for controlling an electronic device.
従来、ファインダー視野内を覗くユーザーの視線位置を検出する機能を搭載した撮像装置が提供されている。また近年では、撮影光学系を通過した光束を受光する撮像素子で取得された画像を表示することが可能な電子ビューファインダを有する撮像装置が提供されている。電子ビューファインダを有する撮像装置は、さまざまな種類の被写体を認識し検出することが可能である。このような撮像装置は、検出した視線位置の情報、および取得した画像での被写体の認識結果に基づいて、ユーザーの意思を反映した被写体位置で、焦点検出制御を行うことが可能である。 Conventionally, imaging devices have been provided that are equipped with a function for detecting the gaze position of a user looking into the viewfinder field of view. In recent years, imaging devices have been provided that have electronic viewfinders that can display images captured by an image sensor that receives a light beam that has passed through a shooting optical system. Imaging devices with electronic viewfinders are capable of recognizing and detecting various types of subjects. Such imaging devices can perform focus detection control at a subject position that reflects the user's intentions, based on information about the detected gaze position and the results of subject recognition in the captured image.
特許文献1は、視線位置の表示状態を好適に制御する技術を開示している。特許文献2は、焦点検出および測光処理での注視位置と撮影直前での注視位置とを、それぞれ異なる表示形態で表示する技術を開示している。
しかしながら、撮像状況および撮像された被写体の状況を考慮せずに、ユーザーの視線位置の表示状態および表示形態を変更した場合、視線位置および撮像した画像の視認性は低下するおそれがある。 However, if the display state and display format of the user's gaze position are changed without taking into account the imaging conditions and the conditions of the captured subject, the gaze position and visibility of the captured image may be reduced.
そこで、本発明は、視線位置の表示状態と非表示状態とを適切に遷移させることにより視線位置および撮像した画像の視認性を向上させる電子機器を提供することを目的とする。 The present invention aims to provide an electronic device that improves the visibility of the gaze position and captured images by appropriately transitioning between a display state and a non-display state of the gaze position.
本発明の第1の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段とを有し、前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させることを特徴とする電子機器である。 A first aspect of the present invention is an electronic device having an acquisition means for acquiring information on the gaze position of a user viewing a captured image, and a control means for controlling to display an item at a position based on the gaze position of the user, the control means transitioning the item from one of a display state and a non-display state to the other in a transition method selected from a plurality of transition methods.
本発明の第2の態様は、撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップとを有し、前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させることを特徴とする電子機器の制御方法である。 A second aspect of the present invention is a method for controlling an electronic device, comprising an acquisition step for acquiring information on the gaze position of a user viewing a captured image, and a control step for controlling to display an item at a position based on the gaze position of the user, the control step being characterized in that the item is transitioned from one of a display state and a non-display state to the other in a transition method selected from a plurality of transition methods.
本発明の第3の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶
媒体である。
A third aspect of the present invention is a program for causing a computer to function as each of the means of the electronic device described above.A fourth aspect of the present invention is a computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device described above.
本発明によれば、視線位置の表示状態と非表示状態とを適切に遷移させることにより視線位置および撮像した画像の視認性を向上させる電子機器を提供することができる。 The present invention provides an electronic device that improves the visibility of the gaze position and captured images by appropriately transitioning between a display state and a non-display state of the gaze position.
[実施形態1]
以下、添付の図面を参照して本発明の実施形態について説明する。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<構成の説明>
図1(a),1(b)~図3を参照してカメラの構成の例を説明する。図1(a),1(b)は、実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観の一例を示す。図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1Aおよびカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付け可能な操作部材であるレリーズボタン5が配置されている。
<Description of configuration>
An example of the camera configuration will be described with reference to Figs. 1(a), 1(b) to 3. Figs. 1(a) and 1(b) show an example of the appearance of a camera 1 (digital still camera; interchangeable lens camera) according to an embodiment. Fig. 1(a) is a front perspective view, and Fig. 1(b) is a rear perspective view. As shown in Fig. 1(a), the
図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている表示デバイス10(表示パネル)を見るためにユーザーが覗き込む接眼レンズ12(接眼光学系)が配置されている。なお、接眼光学系には複数枚のレンズが含まれていてもよ
い。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付け可能な操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付け可能なタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
As shown in FIG. 1B, an eyepiece lens 12 (eyepiece optical system) into which a user looks to view a display device 10 (display panel) included in the
図2は、図1(a)に示したY軸とZ軸とが成すYZ平面でカメラ1を切断した断面図であり、カメラ1の内部構成の一例を示す。図2において、図1(a),1(b)と同じ構成に対しては同じ符号が付される。
Figure 2 is a cross-sectional view of
撮影レンズユニット1Aは、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、焦点調節回路118を含む。また、撮影レンズユニット1Aは、加速度センサ119、ズーム駆動部120、レンズCPU121を含む。なお、簡単のために2枚のレンズ101,102を示したが、撮影レンズユニット1Aは、実際は2枚より多くのレンズを含む。撮影レンズユニット1Aに含まれる各構成は、レンズCPU121により制御される。
The photographing
撮影レンズユニット1A内に設けられた絞り111は、絞り駆動部112によって駆動される。レンズ駆動部材114は駆動ギヤなどを含む。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラ115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェースである。
Aperture 111 provided in photographing
加速度センサ119は、撮影レンズユニット1Aに内蔵され、レンズ101,102のパンニングを検出する。また、加速度センサ6はカメラ筐体1Bに内蔵され、カメラ筐体1Bのパンニングを検出する。カメラ1のパンニングは、撮影レンズユニット1Aに内蔵される加速度センサ119、およびカメラ筐体1Bに内蔵される加速度センサ6の少なくともいずれかを用いて判定される。
The
ズーム駆動部120は、不図示のレンズ鏡筒に備えられた操作部材に対するユーザーの手動操作に基づいてズーム駆動を行うか、マウント接点117を介して通知されるカメラ筐体1Bからの指示によりズーム駆動を行う。レンズCPU121は、ズーム駆動の情報を、撮影レンズユニット1Aからマウント接点117を介してカメラ筐体1Bに通知する。カメラ1は、ズーム駆動の情報に基づいて、ズーム操作による画角変更を検出することができる。
The
カメラ筐体1Bは、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などを含む。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された画像(被写体像)などを表示デバイス10の表示面に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。
The
カメラ筐体1Bは、接眼レンズ12、光源13a,13b、光分割器15、受光レンズ
16、眼用撮像素子17なども含む。光源13a,13bは、ユーザーの眼球14を照明するための光源である。光源13a,13bは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔との関係から視線方向(視線の方向;ユーザーが見ている方向)を検出するために一眼レフカメラなどで用いられている。具体的には、光源13aおよび光源13bのそれぞれは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。
The
照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDまたはCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17とを共役な結像関係に位置付けている。眼球14の視線方向は、眼用撮像素子17上に結像された眼球像における瞳孔と角膜反射像との位置関係から、所定のアルゴリズムにより検出される。
The optical image of the illuminated eyeball 14 (eyeball image; an image formed by light emitted from
図3は、カメラ1内の電気的構成の一例を示すブロック図である。図3において、図1(a),1(b)および図2と同じ構成に対しては同じ符号が付され、これらの構成についての詳細な説明は省略される。CPU3は、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205、加速度センサ6、メモリ部4、画像処理部208および姿勢検出部207に接続されている。
Figure 3 is a block diagram showing an example of the electrical configuration within the
また、CPU3は、マウント接点117を介して、レンズCPU121に信号を伝達する。レンズCPU121は、CPU3からの信号に基づいて、撮影レンズユニット1A内に配置された焦点調節回路118、絞り駆動部112に含まれる絞り制御回路206、加速度センサ119およびズーム駆動部120を制御する。
The
CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能を有している。CPU3は、メモリ部4へ記憶した撮像素子2の撮像信号を撮影画像へ変換し、変換した撮影画像をメモリ部4に接続される記録媒体7へ転送する。
The
姿勢検出部207は、カメラ1を構えるユーザーの姿勢情報を検出する。姿勢検出部207は、例えば、加速度センサ6を用いてユーザーの姿勢情報を検出することができる。カメラ1は、被写体に対して撮像素子2が水平となる正位置(横位置)での撮影、および被写体に対して撮像素子2が垂直となる縦位置での撮影が可能である。姿勢検出部207は、ユーザーがファインダーを覗きながらカメラ1の姿勢を変えた場合にも、カメラ1の姿勢変化を検出することができる。
The
視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、所定のアルゴリズムに従って、眼画像から視線検出に用いられる特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。
The gaze detection circuit 201 A/D converts the output of the eye imaging element 17 (eye image captured of the eye) when an eyeball image is formed on the
測光回路202は、測光センサの役割を兼ねる撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果である被写界輝度情報をCPU3に送る。被写界輝度情報は、撮像された画像の各画素の輝度を示す情報である。また、測光回路202は、撮像素子2により撮像された画像から特定の被写体(特定の物体)を検出し、その結果である被写体情報と被写体領域情報をCPU3に送る。被写体情報(物体情報)は、検出された被写体に関連した情報であり、
被写体領域情報(物体領域情報)は、検出された被写体の領域を示す情報である。被写体情報および被写体領域情報は、被写界輝度情報を解析して得ることもできる。
The
The subject area information (object area information) is information that indicates the area of the detected subject. The subject information and the subject area information can also be obtained by analyzing the field luminance information.
自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図4(a)に示すようなファインダー内視野(ファインダーを覗いたときの視野)、具体的には表示デバイス10の表示面に示した180か所に対応する、撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
The auto focus detection circuit 203 A/D converts the signal voltage from multiple detection elements (multiple pixels) used for phase difference detection, which are included in the
信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストローク(半押し)でONし、カメラ1の測光や焦点検出(測距)などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストローク(全押し)でONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。測光や焦点検出は、設定された測光領域や焦点検出領域内、または選択(決定)された主被写体の領域内で行われる。例えば、測光では、測光回路202により、対象の領域の輝度が被写界輝度情報から判断され、焦点検出では、自動焦点検出回路203により、対象の領域に存在する被写体までの距離が判断される。
Switches SW1 and SW2 are connected to the
操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)は、ユーザーから受け付けた操作に対応する操作信号をCPU3に送る。光源駆動回路205は、光源13a,13bを駆動する。
Operation member 41 (touch panel), operation member 42 (operation lever), and operation member 43 (four-way key) send operation signals corresponding to operations received from the user to
画像処理部208は、撮像素子2により撮像された画像に対して各種画像処理を適用する。また、画像処理部208は、撮像された画像から、各種情報を取得したり生成したりする。画像処理部208は、例えば特定の機能を実現するように設計されたASIC(Application Specific Integrated Circuit)などの専用のハードウェア回路によって実現されてもよい。また、画像処理部208は、ソフトウェアを実行することで特定の機能を実現するDSP(Digital Signal Processor)のようなプロセッサによって実現されてもよい。
The
画像処理部208による画像処理は、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などを含む。前処理は、信号増幅、基準レベル調整、欠陥画素補正などの処理を含む。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理は、ホワイトバランスを調整する処理、画像の輝度を補正する処理、撮影レンズユニット1Aの光学収差を補正する処理、色を補正する処理などを含む。
Image processing by the
検出処理は、特徴領域(例えば、顔、人体、動物、自動車などの領域)の検出処理、特徴領域の追尾処理、人物の認識処理などを含む。画像処理部208は、画像を表示する表示デバイス10の表示面におけるユーザーの視線位置の情報を検出し、画像内の被写体を検出することにより、ユーザーが注目している被写体を特定することができる。また、画像処理部208は、時系列に沿った画像の差分を解析することにより、画像内の被写体が画像平面においてどのように動作しているかといった被写体の動き特性情報を取得することができる。
The detection process includes detection of characteristic regions (e.g., regions of faces, human bodies, animals, automobiles, etc.), tracking of characteristic regions, person recognition, etc. The
データ加工処理は、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などを含む。評価値算出処理は、位相差信号を用いたAF処理のための1対の信号、コント
ラストAF用の評価値、自動露出制御に用いる評価値などの算出処理を含む。なお、画像処理部208が実施する画像処理は、上記の例に限定されない。
The data processing includes scaling, encoding and decoding, header information generation, etc. The evaluation value calculation includes calculation of a pair of signals for AF processing using a phase difference signal, an evaluation value for contrast AF, an evaluation value used for automatic exposure control, etc. Note that the image processing performed by the
図4(a),4(b)は、ファインダー内視野の表示例を示す図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図4(a)に示すように、ファインダー内視野には、視野マスク300、焦点検出領域400、180個の測距点指標401などがある。180個の測距点指標401のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。画像処理部208は、ユーザーがファインダーを覗いたときに眼用撮像素子17により取得される眼画像から、表示デバイス10の表示面におけるユーザーの視線位置の情報を取得することができる。
Figures 4(a) and 4(b) are diagrams showing examples of the display of the field of view in the viewfinder, showing the state in which the
図4(a)において、視線位置421は、ユーザーの視線が検出された位置(視線位置を含む領域)である。また、被写体422は、画像処理部208による画像の解析により検出された人物である。以下の説明では、検出対象が人物である場合、斜線部の頭部の領域が被写体として検出される。人の眼球には固視微動と呼ばれる揺らぎを伴う動作が生じるため、画像処理部208は、視線位置の近傍に存在する被写体を、ユーザーの視線が向けられた被写体として推定することが好ましい。視線位置と、被写体が存在する位置とにずれがある場合、画像処理部208は、ユーザーの視線が向けられた被写体を示すアイコン423を表示する。アイコン423が表示されることで、ユーザーは、自身が見ていると推定された被写体を確認することができる。また、画像処理部208は、ユーザーが所望の被写体の近傍に視線を向けることで、ユーザーが見ている被写体を推定することができる。
In FIG. 4(a), the gaze position 421 is the position where the user's gaze was detected (the area including the gaze position). The subject 422 is a person detected by the image analysis by the
視線位置の近傍は、視線位置を含む所定の範囲とすることができる。所定の範囲は、例えば、画像を撮像する際の焦点距離、撮影距離、撮影モードおよび視線が向けられた(ユーザーの視線位置に基づく位置に存在する)被写体の大きさに基づいて決定される。被写体の大きさは、画像内での大きさであり、例えば被写体が占める画素数により表すことができる。また、所定の範囲は、被写体の種類、移動速度などに基づいて決定されてもよい。視線位置の近傍に複数の被写体が検出された場合、画像処理部208は、視線位置により近い被写体を、ユーザーの視線が向けられた被写体と推定することができる。
The vicinity of the gaze position can be a predetermined range including the gaze position. The predetermined range is determined, for example, based on the focal length, shooting distance, shooting mode, and the size of the subject at which the gaze is directed (present at a position based on the user's gaze position) when capturing the image. The size of the subject is the size within the image, and can be expressed, for example, by the number of pixels the subject occupies. The predetermined range may also be determined based on the type of subject, the movement speed, etc. When multiple subjects are detected near the gaze position, the
図4(b)は、画像に複数の被写体が存在する例を示す。図4(b)に示す画像では、被写体431および被写体432が検出されている。視線位置433は、ユーザーの視線が検出された位置である。アイコン434(第1アイテムに相当)は、画像処理部208によって、ユーザーの視線が向けられていると推定された被写体(以下、推定被写体とも称される)を示す。
Figure 4(b) shows an example in which multiple subjects are present in an image. In the image shown in Figure 4(b), subjects 431 and 432 are detected. Gaze position 433 is the position where the user's gaze is detected. Icon 434 (corresponding to the first item) indicates the subject (hereinafter also referred to as the estimated subject) that is estimated by
画像処理部208は、ユーザーが被写体432の近傍に視線を移動させると、推定被写体を被写体431から被写体432に変更する。画像処理部208は、推定被写体を示すアイコン434を、視線の移動先である被写体432に対して表示する。なお、画像内で検出する被写体は、人物に限られず、動物または乗り物などであってもよい。
When the user moves the line of sight to the vicinity of subject 432,
<視線検出処理の説明>
図5,6(a),6(b),7を用いて、視線位置を取得するための視線検出処理(視線検出方法)について説明する。右目の視線も左目の視線も、以下の視線検出方法で検出される。図5は視線検出方法の原理を説明するための図であり、視線を検出するための光学系の概略図である。図5に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光
する。図6(a)は眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼の光学像)の概略図であり、図6(b)は眼用撮像素子17の出力強度を示す図である。図7は、視線検出処理のフローチャートである。
<Description of Gaze Detection Processing>
The gaze detection process (gaze detection method) for acquiring the gaze position will be described with reference to Figs. 5, 6(a), 6(b), and 7. The gaze of the right eye and the gaze of the left eye are detected by the following gaze detection method. Fig. 5 is a diagram for explaining the principle of the gaze detection method, and is a schematic diagram of an optical system for detecting the gaze. As shown in Fig. 5, the
図7の視線検出処理が開始すると、ステップS1では、CPU3は、ユーザーの眼球14に向けて赤外光を発するように、光源駆動回路205を用いて光源13a,13bを駆動する。赤外光によって照明されたユーザーの眼の光学像は、受光レンズ16を通って眼用撮像素子17上に結像し、眼用撮像素子17によって光電変換される。これによって、処理可能な眼画像の電気信号が得られる。
When the gaze detection process in FIG. 7 starts, in step S1, the
ステップS2では、CPU3は、眼用撮像素子17から視線検出回路201を介して眼画像(画像データ、画像信号)を取得する。
In step S2, the
ステップS3では、CPU3は、S2で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peおよび瞳孔141の中心cに対応する点の座標を取得する。光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部によって形成される角膜反射像Pd,Peは、受光レンズ16によって集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
In step S3, the
図6(b)は、図6(a)の眼画像における領域αの輝度情報(輝度分布)を示す。図6(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。 Figure 6(b) shows the luminance information (luminance distribution) of region α in the eye image of Figure 6(a). In Figure 6(b), the horizontal direction of the eye image is the X-axis direction, and the vertical direction is the Y-axis direction, and the luminance distribution in the X-axis direction is shown. The coordinates in the X-axis direction (horizontal direction) of the corneal reflection images Pd', Pe' are Xd, Xe, and the coordinates in the X-axis direction of the pupil edge images a', b' are Xa, Xb.
図6(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。例えば、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種の輝度の中間の輝度が得られる。
As shown in FIG. 6B, the coordinates Xd and Xe of the corneal reflection images Pd' and Pe' provide an extremely high level of luminance. In the region from coordinate Xa to coordinate Xb, which corresponds to the region of the pupil 141 (the region of the pupil image obtained by focusing the light beam from the
図6(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。例えば、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
From the luminance distribution as shown in FIG. 6(b), the X coordinates Xd, Xe of the corneal reflection images Pd', Pe' and the X coordinates Xa, Xb of the pupil edge images a', b' can be obtained. For example, the coordinates of the corneal reflection images Pd', Pe' can be obtained as the coordinates of the corneal reflection images Pd', Pe', and the coordinates of the pupil edge images a', b' can be obtained as the coordinates of the pupil edge images a', b'. In addition, when the rotation angle θx of the optical axis of the
ステップS4では、CPU3は、眼画像の結像倍率βを算出する。結像倍率βは受光レンズ16に対する眼球14の位置によって決まる倍率で、角膜反射像Pd‘,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。
In step S4, the
ステップS5では、CPU3は、受光レンズ16の光軸に対する眼球140の光軸の回
転角を算出する。角膜反射像PdとPeとの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θXは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β*Oc*SINθX≒{(Xd+Xe)/2}-Xc・・・(式1)
In step S5,
β*Oc*SINθ X ≒ {(Xd+Xe)/2}-Xc... (Formula 1)
ステップS6では、CPU3は、ステップS5で算出した回転角θx,θyを用いて、表示デバイス10上でユーザーの視線位置(以下、視点とも称する)を推定する。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
In step S6, the
Hx=m×(Ax×θx+Bx) (Formula 2)
Hy=m×(Ay×θy+By) (Formula 3)
式2,3のパラメータmは、視線検出処理を行うための光学系の構成で定まる定数であり、回転角θx,θyを表示デバイス10上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、あらかじめ決定され、メモリ部4に格納される。視線補正パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータである。視線補正パラメータAx,Bx,Ay,Byは、視線検出のキャリブレーションを行うことで取得され、あらかじめメモリ部4に格納される。
The parameter m in
ステップS7では、CPU3は、視点の座標および眼画像を取得した時刻(以下、視線検出時刻)をメモリ部4に格納し、視線検出処理を終了する。
In step S7, the
なお、視線検出方法は上記方法に限られず、眼画像に基づいて視線を検出する如何なる方法であってもよい。また、視線検出の結果(最終結果)として視点の座標(Hx,Hy)を得る例を説明したが、回転角θx,θyなど、視線に関する情報(視線情報)であれば、どのような情報が視線検出の結果として得られてもよい。 The gaze detection method is not limited to the above method, and any method that detects the gaze based on an eye image may be used. Also, an example has been described in which the coordinates of the viewpoint (Hx, Hy) are obtained as the result (final result) of gaze detection, but any information related to the gaze (gaze information), such as rotation angles θx, θy, may be obtained as the result of gaze detection.
<アイコン表示制御処理の説明>
図8A~8Cを用いて、ユーザーの視線が向けられた被写体を示すアイコンの表示制御について説明する。図8Aは、実施形態1のアイコン表示制御処理を例示するフローチャートである。図8Aに示す処理は、画像の取得、被写体検出、アイコン表示制御の処理を含む。CPU3は、時系列に画像を取得し、図8Aに示す処理を繰り返し実行する。
<Description of Icon Display Control Process>
8A to 8C, the display control of an icon indicating a subject at which the user's gaze is directed will be described. Fig. 8A is a flowchart illustrating an example of an icon display control process in the first embodiment. The process shown in Fig. 8A includes image acquisition, subject detection, and icon display control processes. The
ステップS8001では、CPU3は、撮像素子2により撮像され、画像処理部208が各種画像処理を適用して生成した画像を取得する。ステップS8002では、CPU3は、ステップS8001で取得した画像に含まれる被写体を検出する。具体的には、CPU3は、画像から検出した人物の頭部の位置の情報を、被写体位置の情報として取得する。例えば、図9(a)の画像では、CPU3は、被写体901を検出し、被写体901の頭部の位置の情報を取得する。
In step S8001, the
ステップS8003では、CPU3は、画像に含まれる被写体の動き情報(動き特性の情報、動作の情報)を取得する。CPU3は、ステップS8001で取得した画像を、過去に画像処理部208が生成した画像と比較することで、画像に含まれる被写体の動き情報を取得することができる。例えば、図9(a)~9(c)は、それぞれ、時刻t1、時
刻t1よりも後の時刻t2、時刻t2よりも後の時刻t3に生成された画像である。この場合、CPU3は、被写体901が略等速で移動しているという動き情報を取得することができる。また、図9(d)のように、画像内で被写体901を含む複数の被写体が検出され、いずれも同様の動き特性を示している場合、これらの複数の被写体は、被写体群902として扱われる。
In step S8003, the
ステップS8004では、CPU3は、眼用撮像素子17および視線検出回路201により、図5~7で説明した視線検出処理を行い、視線位置の情報を取得する。ステップS8005では、CPU3は、ステップS8004で視線検出(視線位置の情報の取得)に成功したか否かを判定する。視線検出に成功した場合、処理はステップS8007に進む。視線検出に失敗した場合、処理はステップS8006に進む。
In step S8004,
ステップS8006では、CPU3は、前回の処理(現在の画像の前に撮像された画像に対する処理)でのアイコン(第1アイテム)の表示位置と表示するか否かの表示状態とを維持し、ステップS8001に戻る。具体的には、CPU3は、前回の処理でアイコンを表示していなかった場合は、現在の画像に対してもアイコンを表示せず、前回の処理でアイコンを表示していた場合は、現在の画像に対し、前回の画像と同じ位置にアイコンを表示するように制御する。
In step S8006,
なお、CPU3は、視線検出に失敗した場合、視線検出に失敗したことをユーザーに報知するため、視線検出に成功した場合とは異なる態様でアイコンを表示してもよい。例えば、CPU3は、視線検出に失敗した場合、視線検出に成功した場合と異なる色でアイコンを表示したり、アイコンを点滅表示したりする。なお、アイコンの色が頻繁に変わることで視認性が低下しないようにするため、CPU3は、視線検出に失敗したと判定してから所定の時間が経過をしてからアイコンの表示態様を変更するようにしてもよい。
If gaze detection fails, the
ステップS8007では、CPU3は、ステップS8004で取得した視線位置で被写体が検出されているか否かを判定する。CPU3は、ユーザーの視線位置の近傍に、ステップS8002で検出された被写体が存在する場合に、視線位置で被写体が検出されたと判定することができる。視線位置で被写体が検出された場合、処理はステップS8009に進む。視線位置で被写体が検出されていない場合、処理は、ステップS8008に進む。
In step S8007,
ステップS8008では、CPU3は、ステップS8004で取得した視線位置にアイコンを表示する。例えば、図10では、ユーザーの視線位置が画像内に含まれる被写体1001から離れた位置に存在するため、CPU3は、検出されたユーザーの視線位置を示すアイコン1002(第2アイテム)を表示する。CPU3は、例えば、画像内に含まれる被写体1001が、ユーザーの視線位置から所定の距離以上離れている場合に、ユーザーの視線位置を示すアイコンを表示する。
In step S8008,
視線位置を示すアイコン1002を表示する場合、ユーザーの視線位置には被写体が存在しないため、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン(第1アイテム)を表示しない。これにより、CPU3は、被写体1001をユーザーの視線が向けられた被写体として捕捉していないことをユーザーに報知することができる。
When displaying
領域1003は、ユーザーの視線位置の近傍を示す領域である。CPU3は、被写体が視線位置の近傍に存在するか否かを判定するための領域として領域1003を設定する。領域1003は、操作部材41~43を用いてユーザーにより設定されてもよい。また、CPU3は、撮影レンズユニット1Aの焦点距離または合焦位置における撮影物体距離などレンズの光学状態に応じて自動で領域1003を設定してもよく、カメラ1に設定され
たAF機能のモード設定などに応じて自動で領域1003を設定してもよい。すなわち、視線位置の近傍は、ユーザーの視線位置を含み、ユーザーまたはCPU3によって設定可能な領域である。
ステップS8009では、CPU3は、ユーザーによるカメラ1の撮像の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。カメラ1の撮像の状況は、例えば、ユーザーが画像処理部208によって推定された被写体に注目しているか否か、画像の撮像範囲が変化したか否か、画像を撮像する撮像装置の姿勢が変化したか否かといった状況を含む。
In step S8009,
図8Bを参照して、ステップS8009の処理の詳細を説明する。ステップS8201では、CPU3は、撮影者であるユーザーが撮影したい被写体(視線を向けていると推定された被写体、推定被写体)に注目しているか否かを判定する。
The process of step S8009 will be described in detail with reference to FIG. 8B. In step S8201,
ユーザーが推定被写体に注目しているか否かは、眼用撮像素子17で撮像された眼画像から、ユーザーの視線位置の安定度合い、ユーザーのまばたきの有無または頻度などによって判定される。例えば、CPU3は、所定の時間におけるユーザーの視線位置の移動量が第1閾値より小さい場合、または所定の時間におけるまばたきの回数が第2閾値より小さい場合に、ユーザーが推定被写体に注目していると判定することができる。視線位置の安定度合およびまばたきの頻度には個人差があるため、第1閾値および第2閾値は、ユーザーごとにあらかじめ設定できるようにしてもよい。ユーザーが推定被写体に注目している場合、処理はステップS8202に進む。ユーザーが推定被写体に注目していない場合、処理はステップS8203に進む。
Whether or not the user is looking at the estimated subject is determined from the eye image captured by the
ステップS8202では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。CPU3は、推定被写体を示すアイコンを表示することで、ユーザーが注目している被写体が撮像対象として捉えられていることをユーザーに報知することができる。例えば、イルカショーなどで撮影したい被写体が所望の位置に移動するのを身構えて待っている場合、サッカーのゴール前での撮影機会を狙っている場合など、ユーザーが注目する被写体を示すアイコンが表示されることで、ユーザーは撮影機会を逃さずにすむ。
In step S8202,
ステップS8203では、CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定する。ズーム操作は、ユーザーの撮影レンズユニット1Aに対するズーム操作およびカメラ1に対するデジタルズーム操作を含む。CPU3は、ズーム操作、パン操作またはチルト操作があったか否かを判定することにより、画像の撮像範囲が変化したか否かを判定する。
In step S8203,
CPU3は、例えば、ズーム操作が行われた場合、ズーム操作による焦点距離の変化量が第3閾値より大きい場合、またはズーム操作によるズーム倍率の変化量が第4閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。また、CPU3は、パン操作もしくはチルト操作が行われた場合、またはパン操作もしくはチルト操作による撮像範囲の移動量が第5閾値より大きい場合に、画像の撮像範囲が変化したと判定することができる。第3閾値~第5閾値は、例えば、撮像範囲の変化によって、ユーザーが視線を向けていた被写体を見失う可能性があるか否かに基づいて決定することができる。ズーム操作、パン操作またはチルト操作があった場合、処理はステップS8202に進む。ズーム操作、パン操作またはチルト操作がない場合、処理はステップS8204に進む。
The
ステップS8202では、CPU3は、推定被写体を示す「アイコンを表示」すると判定する。ズーム操作などにより構図が変化すると、ユーザーが視線を向けていた被写体の位置は変化する場合がある。もともと視線を向けていた被写体の位置に、異なる被写体が
存在するようになると、ユーザーは、撮影しようとしていた被写体を見失う可能性がある。そこで、CPU3は、ズーム操作などにより画像の撮像範囲が変化したが場合には、推定被写体を示すアイコンを表示することで、ユーザーが撮影しようとしていた被写体を見失わないようにすることができる。
In step S8202,
図11(a),11(b)は、ズーム操作に基づくアイコン表示について説明する図である。図11(a)は、TELE側にズームした状態で被写体1101が、ユーザーの視線が向けられた被写体として推定されている状態を示す。視線位置1102(表示デバイス10上では視線位置1102を示すアイコンは非表示)の近傍には被写体が1つしか存在しないため、ユーザーの視線が向けられた被写体を示すアイコンは非表示となっている。
Figures 11(a) and 11(b) are diagrams explaining icon display based on a zoom operation. Figure 11(a) shows a state in which, when zoomed in to the TELE side, subject 1101 is estimated as the subject at which the user's gaze is directed. Since there is only one subject near gaze position 1102 (the icon indicating
図11(b)は、図11(a)の状態から、WIDE方向にズーム操作した後の状況を示す。図11(b)では、画像内に被写体1101とは異なる被写体1103が検出されている。視線位置1102がズーム操作前と同じ位置である場合、ユーザーは、被写体1103が推定被写体として捉えられていないか混乱する可能性がある。そこで、CPU3は、ユーザーが被写体1101に視線を向けている場合、被写体1101が推定被写体として捉えられていることをユーザーに報知するため、被写体1101に対してアイコンを表示すると判定する。
Figure 11 (b) shows the situation after zooming in the WIDE direction from the state of Figure 11 (a). In Figure 11 (b), a subject 1103 different from subject 1101 is detected in the image. If
ステップS8204では、CPU3は、カメラ1の姿勢が変化したか否かを判定する。カメラ1による撮影では、ユーザーは、画像の長辺が水平方向となるように撮影する横位置と、画像の長辺が鉛直方向となるように撮影する縦位置とを使い分ける。CPU3は、横位置から縦位置への持ち替えなどによって、カメラ1の姿勢が変化したか否かを判定する。CPU3は、姿勢検出部207により、カメラ1の姿勢の情報を取得することができる。
In step S8204,
なお、CPU3は、ユーザーの視線位置の情報が取得された状態でカメラ1の姿勢が変化したか否かを判定してもよい。ファインダーを覗きながらカメラ1の姿勢を変化させている場合、推定被写体を示すアイコンが表示されることで、ユーザーは、所望の被写体を確認しやすくなる。カメラ1の姿勢が変化した場合、処理はステップS8202に進む。カメラ1の姿勢が変化していない場合、処理はステップS8205に進む。
The
ステップS8202では、CPU3は、推定被写体を示すアイコンを表示すると判定する。カメラ1の姿勢が変化した場合、ユーザーの視線位置は不安定になりやすく、ユーザーがカメラ1の姿勢が変化する前に見ていた被写体を見失わないようにするためである。
In step S8202,
図12(a),12(b)は、カメラ1の姿勢変化に基づくアイコン表示について説明する図である。図12(a)は、横位置で撮像している画像の例を示す。図12(a)では、被写体1201および被写体1202が検出されている。ユーザーの視線は、被写体1201に向けられている。図12(b)は、図12(a)の状態から、ユーザーがカメラ1を縦位置に持ち替えた後の画像の例を示す。カメラ1を横位置から縦位置に持ち替える間、構図の変更によりユーザーの視線位置は不安定になる。ユーザーが、被写体1202を、これまで見ていた被写体1201として誤認識しないようにするため、CPU3は、推定被写体を示すアイコン1203を表示すると判定する。
Figures 12(a) and 12(b) are diagrams explaining icon display based on a change in the posture of
ステップS8205では、CPU3は、推定被写体を示すアイコンを表示するか否かは未確定(「アイコン表示は未確定」)と判定する。すなわち、ステップS8201、ステップS8203、ステップS8204のいずれの条件も満たさない場合、CPU3は、後述する図8AのステップS8020で、被写体の状況に基づき、推定被写体を示すアイコ
ンを表示するか否か判定する。
In step S8205,
ステップS8206では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8207に進む。推定被写体を示すアイコンが表示状態である場合、図8Bに示す処理は終了する。
In step S8206,
ステップS8207では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8207は、推定被写体を示すアイコンが現時点で非表示状態であり、ステップS8202でアイコンを表示すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に遷移すると判定された際の時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。
In step S8207,
以上、図8Bに示す処理によって、CPU3は、撮像の状況(撮影者側の状況)に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、図8Bの処理を終了し、図8AのステップS8010に進む。
As described above, by the process shown in FIG. 8B,
図8AのステップS8010では、CPU3は、ステップS8009による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8011に進む。判定結果が「アイコン表示は未確定」であった場合、処理はステップS8020に進む。
In step S8010 of FIG. 8A,
ステップS8011では、CPU3は、図8BのステップS8207で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8013に進む。基準時刻から所定時間が経過していない場合、処理はステップS8012に進む。
In step S8011,
ステップS8012では、CPU3は、推定被写体を示すアイコン(例えば、図4(a)のアイコン423)を表示する。ステップS8013では、CPU3は、推定被写体を示すアイコンを非表示とする。撮像状況が変化して推定被写体を示すアイコンを表示してから、所定時間が経過した後は、ユーザーは安定して所望の被写体に視線を向けられることが想定されるため、CPU3は、推定被写体を示すアイコンを非表示とする。
In step S8012,
なお、推定被写体を示すアイコンを非表示状態から表示状態に切り替えて所定時間が経過すると、自動的に非表示とする例を示したが、CPU3は、アイコンの表示状態を維持してもよい。また、基準時刻から推定被写体を示すアイコンを非表示とするまでの所定時間は、ユーザーによって設定できるようにしてもよい。ステップS8012およびステップS8013において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。
In the above example, the icon indicating the estimated subject is automatically hidden when a predetermined time has elapsed since it was switched from a hidden state to a visible state, but the
ステップ8020では、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体を示すアイコンを表示するか否かを判定する。被写体の状況は、例えば、画像に含まれる被写体の数が変化したか否か、画像に含まれる被写体の数が2つ以上であるか否か、推定被写体が加速または減速する動作しているか否か、推定被写体が合焦状態であるか否かといった状況を含む。
In step 8020,
図8Cを参照して、ステップS8020の処理の詳細を説明する。ステップS8301では、CPU3は、前回の画像(フレーム)から、画像内の被写体の数に増減があるか否
かを判定する。なお、被写体の数は、画像内の被写体の数に限られず、視線位置の近傍で検出される被写体の数としてもよい。具体的には、被写体の数は、視線が向けられた推定被写体を含む所定の範囲で検出される被写体の数とすることができる。所定の範囲は、例えば、画像を撮像する際の焦点距離、撮影距離、撮影モードおよび推定被写体の大きさのうちの少なくともいずれかに基づいて決定することができる。検出対象の被写体は、人物、動物、自動車など画像の解析により検出可能な被写体である。
The details of the process of step S8020 will be described with reference to FIG. 8C. In step S8301, the
なお、CPU3は、画像に含まれる被写体のうち所定の種別の被写体を検出するようにしてもよい。例えば、ユーザーが所定の種別として動物を設定した場合、CPU3は、動物を被写体として検出する。ユーザーは、所定の種別として複数の種別の被写体を設定してもよい。検出された被写体の数に増減がある場合、処理はS8302に進む。検出された被写体の数に増減がない場合、処理はS8303に進む。
The
ステップS8302では、CPU3は、推定被写体を示すアイコンを表示する、と判定する。推定被写体を示すアイコンを表示されることで、被写体の数に増減があった場合でも、ユーザーは、自身が見ている被写体を容易に確認することができる。
In step S8302,
ステップS8303では、CPU3は、視線位置の近傍で検出される被写体の数が1つであるか否かを判定する。被写体の数が1つである場合、処理はステップS8304に進む。被写体の数が複数である場合、処理はステップS8307へ進む。
In step S8303,
ステップS8304では、CPU3は、画面内の視線位置の近傍に存在する1つの被写体が合焦状態であるか否かを判定する。被写体が合焦状態である場合、処理はステップS8305に進む。被写体が合焦状態でない場合、処理はステップS8306に進む。
In step S8304,
ステップS8305では、CPU3は、「アイコンを非表示」にすると判定する。ステップS8306では、CPU3は、「アイコンを表示」すると判定する。CPU3は、ユーザーが視線を向けている被写体が非合焦状態である場合にアイコンを表示することで、当該被写体が合焦状態でないことをユーザーに報知することができる。
In step S8305,
図13(a),13(b)は、ステップS8301~S8306の処理で説明した被写体数の変化に基づくアイコン表示について説明する図である。図13(a)は、時刻t11に、被写体1301が視線位置1302の近傍に存在する状況を示す。ユーザーの視線が向けられる対象が被写体1301であることが明白なため、推定被写体を示すアイコンおよび視線位置1302を示すアイコンは非表示とされる。
Figures 13(a) and 13(b) are diagrams explaining icon display based on the change in the number of subjects described in the processing of steps S8301 to S8306. Figure 13(a) shows a situation where, at time t11, subject 1301 is present
図13(b)は、図13(a)の状況の後、構図内に異なる被写体1303が入り込んできた状態を示す。被写体1303は視線位置1304の近傍に現れたため、CPU3は、被写体1301および被写体1303のどちらに視線が向けられていたかをユーザーに報知することが好ましい。したがって、CPU3は、ユーザーの視線が向けられた被写体を示すアイコン1305を表示する。なお、視線位置1304を示すアイコンは非表示とされる。
Figure 13(b) shows a state in which, following the situation in Figure 13(a), a different subject 1303 has entered the composition. Because subject 1303 has appeared near
ステップS8307では、CPU3は、ユーザーの視線位置の近傍に存在する被写体が静止または等速動作中であるか否かを判定する。ステップS8307は視線位置の近傍に複数の被写体が存在する場合に実行される処理である。CPU3は、視線位置の近傍の被写体の動き特性の情報(動き情報)を取得する。動き情報は、図9(a)~9(c)を用いて説明した図8AのステップS8003の方法と同様に取得することができる。被写体の動き特性(動作)によっては、ユーザーが所望の被写体を見失わないように、ユーザーの視線が向けられた被写体を示すアイコンが表示されることが好ましい。
In step S8307,
CPU3は、動き情報に基づいて、視線位置の近傍に存在する被写体が静止または等速動作中であると判定した場合、ステップS8308に進む。一方、CPU3は、視線位置の近傍に存在する被写体のいずれかが、加速または減速しながら動作していると判定した場合、ステップS8310に進む。
If
ステップS8308では、CPU3は、ユーザーが視線を向けている被写体が合焦状態であるか否かを判定する。ユーザーが視線を向けている被写体が合焦状態である場合、処理はステップS8309に進む。ユーザーが視線を向けている被写体が非合焦状態である場合、処理はステップS8310に進む。
In step S8308,
ステップS8309では、CPU3は、「アイコンを非表示」にすると判定する。被写体が合焦状態である場合、ユーザーの視線は安定して所望の被写体に向けられていると想定されるため、推定被写体を示すアイコンは非表示にすると判定される。
In step S8309,
ステップS8310では、CPU3は、「アイコンを表示」すると判定する。被写体が非合焦状態である場合、ユーザーが安定していないと想定されるため、推定被写体を示すアイコンを表示すると判定される。また、視線位置の近傍に存在する被写体が、加速または減速しながら動作している場合(例えば、ダンスなどの激しい動きをしている場合)、CPU3は、ユーザーが視線を向けている被写体を示すアイコンを表示すると判定する。ユーザーが視線を向けている被写体を示すアイコンが表示されることで、ユーザーは所望の被写体を見失いにくくなる。
In step S8310,
図14(a)~14(d)は、ステップS8307~S8310の処理で説明した被写体の動き情報に基づくアイコン表示について説明する図である。図14(a)は、いわゆるポートレート撮影の例であり、複数の被写体は静止状態である。画像から検出された被写体1401は非合焦状態とする。CPU3は、視線位置1402の近傍に存在する被写体1401にユーザーの視線が向けられていると推定し、被写体1401が推定被写体であることを示すアイコン1403を表示する。
Figures 14(a) to 14(d) are diagrams explaining icon display based on subject movement information described in the processing of steps S8307 to S8310. Figure 14(a) is an example of so-called portrait photography, in which multiple subjects are stationary.
図14(b)は、被写体1401が合焦状態となった状況を示す。CPU3は、被写体1401に対して、合焦状態であることを示すアイコン1404を表示し、推定被写体であることを示すアイコン1403を非表示とする。CPU3は、合焦状態であることを示すアイコン1404を優先して表示することで、表示する情報量を抑制し、視認性を確保することができる。また、CPU3は、被写体1401が合焦状態になったことを、ユーザーに対して適時に報知することができる。
Figure 14 (b) shows a situation where subject 1401 is in focus.
図14(c)は、視線位置の近傍の被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が、同様の動き特性を有する状況を示す。図14(c)は、時刻t21での状況を示す。CPU3は、視線位置1412の近傍に存在する被写体1411に対して、推定被写体であることを示すアイコン1413を表示する。
Figure 14(c) shows a situation where a
図14(d)は、図14(c)の状況の後、被写体1411と周辺に存在する複数の被写体とを含む被写体群1414が同じ向きに略等速で移動している状況を示す。図14(d)は、時刻t22での状況を示す。このとき視線位置1412の近傍には、被写体1411とは異なる被写体1415が存在する。したがって、ユーザーの視線が向けられた被写体は、被写体1415と推定される。
Figure 14(d) shows a situation after the situation in Figure 14(c) where a group of
図14(d)では、被写体1415は合焦状態であるものとする。時刻t22では、被写体群1414に含まれる被写体1411および被写体1415は、同様の動き特性によ
り移動している。CPU3は、被写体1415に対して合焦状態であることを示すアイコン1416を表示するが、推定被写体であることを示すアイコンは表示しない。CPU3は、被写体1415が推定被写体であることを示すアイコンは表示せず、アイコン1416を優先して表示することで、表示する情報量を抑制して視認性を確保することができる。また、CPU3は、被写体1415が合焦状態になったことを、ユーザーに対して適時に報知することができる。
In FIG. 14D, the subject 1415 is in focus. At time t22, the subject 1411 and the subject 1415 included in the
ステップS8312では、CPU3は、ステップS8301~S8310までの処理で「アイコンを表示」すると判定されたか、「アイコンを非表示」にすると判定されたかを判定する。「アイコンを表示」すると判定された場合、処理はステップS8313に進む。「アイコンを非表示」にすると判定された場合、図8Cに示す処理は終了する。
In step S8312,
ステップS8313では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか非表示状態であるかを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8314に進む。推定被写体を示すアイコンが表示状態である場合、図8Cに示す処理は終了する。
In step S8313,
ステップS8314では、CPU3は、現在時刻を基準時刻として、メモリ部4に記録する。ステップS8314は、推定被写体を示すアイコンが現時点で非表示状態であり、「アイコンを表示」すると判定された場合の処理である。CPU3は、アイコンが非表示状態から表示状態に切り替えると判定された時刻(基準時刻)を記録しておくことで、CPU3は、アイコンが表示状態に遷移してからの時間を計測することができる。
In step S8314,
以上、図8Cに示す処理によって、CPU3は、被写体の状況に基づいて、ユーザーの視線が向けられた被写体のアイコンを表示するか否かを判定する。CPU3は、図8Cの処理を終了し、図8AのステップS8021に進む。
By the process shown in FIG. 8C,
図8AのステップS8021では、CPU3は、ステップS8020による推定被写体を示すアイコンの表示判定の結果が「アイコンを表示」するであったか否かを判定する。判定結果が「アイコンを表示」するであった場合、処理はステップS8022に進む。判定結果が「アイコンを非表示」にするであった場合、処理はステップS8025に進む。
In step S8021 of FIG. 8A,
ステップS8022では、CPU3は、図8CのステップS8314で記録した基準時刻から所定時間が経過したか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが非表示状態から表示状態に遷移した時刻(基準時刻)から所定時間が経過したか否かを判定する。基準時刻から所定時間が経過した場合、処理はステップS8024に進む。基準時刻から所定時間が経過していない場合、処理はステップS8023に進む。
In step S8022,
ステップS8023では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示する。ステップS8024では、CPU3は、推定被写体を示すアイコンを非表示にする。ステップS8023およびステップS8024において、推定被写体を示すアイコンがそれぞれ表示状態および非表示状態になると、処理はステップS8001に戻る。
In step S8023,
ステップS8025では、CPU3は、ステップS8020の判定結果に対応して、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示にする。ステップS8026では、CPU3は、ステップS8207またはステップS8314で記録した基準時刻を初期化し、ステップS8001に戻る。
In step S8025,
図8Dおよび図8Eを参照して、推定被写体を示すアイコン(アイテム)の表示制御に
ついて説明する。図8Dの処理では、CPU3は、推定被写体を示すアイコンをユーザーの視線位置に基づく位置に表示する。ユーザーの視線位置に基づく位置は、ユーザーの視線が検出された位置、ユーザーの視線位置の近傍で検出された被写体の位置を含む。
Display control of an icon (item) indicating an estimated subject will be described with reference to Fig. 8D and Fig. 8E. In the process of Fig. 8D, the
また、CPU3は、推定被写体を示すアイコンを、複数の遷移方式から選択した遷移方式で表示状態と非表示状態の一方から他方に遷移させる。複数の遷移方式は、例えば、アイコンのサイズを徐々に変化させる方式、アイコンの透過率を徐々に変化させる方式、アイコンを表示状態と非表示状態の一方から他方に即座に遷移させる方式を含む。
The
図8Dは、実施形態1に係るアイコン表示処理のフローチャートである。図8Dの処理は、図8AのステップS8012,S8023の処理の詳細である。図8Dに示す処理では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを表示状態に遷移させる。
Figure 8D is a flowchart of the icon display process according to the first embodiment. The process in Figure 8D is a detailed view of the process in steps S8012 and S8023 in Figure 8A. In the process shown in Figure 8D, the
ステップS8401では、CPU3は、推定被写体を示すアイコンが現時点で非表示状態であるか否かを判定する。推定被写体を示すアイコンが非表示状態である場合、処理はステップS8402に進む。推定被写体を示すアイコンが表示状態である場合、図8Dに示す処理は終了する。
In step S8401,
ステップS8402では、CPU3は、図8BのステップS8201で「被写体に注目している」と判定されたか否かを判定する。被写体に注目していると判定された場合、処理はS8403に進む。「被写体に注目している」と判定されなかった場合、処理はS8404に進む。
In step S8402,
ステップS8403では、CPU3は、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを表示状態に遷移させる。アイコンの透過率を徐々に低下させる遷移方式では、アイコンは徐々に濃くなるように表示される。また、アイコンのサイズを徐々に大きくする遷移方式では、アイコンは徐々に大きくなるように表示される。アイコンの透過率またはサイズが徐々に変化することで、ユーザーは、推定被写体を示すアイコンの位置を認識しやすくなる。
In step S8403,
図15(a)~15(d)は、透過率を変化させてアイコンを表示状態に遷移させる例を示す図である。図16(a)~16(d)は、サイズを変化させてアイコンを表示状態に遷移させる例を示す図である。 Figures 15(a) to 15(d) are diagrams showing an example of changing the transparency of an icon to a display state. Figures 16(a) to 16(d) are diagrams showing an example of changing the size of an icon to a display state.
図15(a)では、被写体1501に対して視線位置1502が検出されている。図15(a)では、視線位置1502を示すアイコンは非表示とする。図15(a)の状況で、ユーザーが被写体に注目していると判定すると、CPU3は、アイコン1503の表示を開始し、図15(b)、図15(c)、図15(d)に示すように、推定被写体を示すアイコン1503の透過率を徐々に下げて濃くしていく。CPU3は、ユーザーが被写体に注目し続けることにより、図15(b)、図15(c)、図15(d)の順に、アイコン1503の濃度を徐々に上げる(透過率を下げる)。
In FIG. 15(a),
図16(a)では、被写体1601に対して視線位置1602が検出されている。図16(a)では、視線位置1602を示すアイコンは非表示とする。図16(a)の状況で、ユーザーが被写体に注目していると判定すると、CPU3は、アイコン1603の表示を開始し、図16(b)、図16(c)、図16(d)に示すように、推定被写体を示すアイコン1603のサイズを徐々に大きくしていく。CPU3は、ユーザーが被写体に注目し続けることにより、図16(b)、図16(c)、図16(d)の順に、アイコン1603のサイズを徐々に大きくする。
In FIG. 16(a),
推定被写体を示すアイコン(アイコン1503、アイコン1603)の透過率またはサイズを徐々に変化させて、ユーザーに存在を知らせることで、ユーザーは、不用意に注意が散漫になることなく、撮影に集中することができる。また、アイコンの透過率またはサイズが徐々に変化することで、ユーザーは、推定被写体を示すアイコンの位置を認識しやすくなる。
By gradually changing the transparency or size of the icon (
ステップS8402で「被写体に注目している」と判定されなかった場合、ステップS8404では、CPU3は、図8CのステップS8304またはステップS8308で被写体が「合焦状態」であると判定されたか否かを判定する。「合焦状態」であると判定された場合、処理はS8406に進む。「合焦状態」であると判定されなかった場合、すなわち「非合焦状態」であると判定された場合、処理はS8405に進む。
If it is not determined in step S8402 that the subject is being watched, then in step S8404,
ステップS8405では、CPU3は、ステップS8403と同様に、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを表示状態に遷移させる。なお、CPU3は、ステップS8403とステップS8405とで、異なる遷移方式により推定被写体を示すアイコンを非表示状態から表示状態に遷移させてもよい。例えば、CPU3は、ステップS8403で透過率を変化させてアイコンを表示状態に遷移させた場合、ステップS8405ではサイズを変化させてアイコンを表示状態に遷移させる。反対に、CPU3は、ステップS8403でサイズを変化させてアイコンを表示状態に遷移させた場合、ステップS8405では透過率を変化させてアイコンを表示状態に遷移させてもよい。
In step S8405,
ステップS8406では、CPU3は、応答性を重視して、推定被写体を示すアイコンを即座に表示する。
In step S8406,
図8Eは、実施形態1に係るアイコン非表示処理のフローチャートである。図8Eの処理は、図8AのステップS8013,S8024,S8025の処理の詳細である。図8Eに示す処理では、CPU3は、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンを非表示状態に遷移させる処理である。
Figure 8E is a flowchart of the icon non-display process according to the first embodiment. The process in Figure 8E is a detailed view of the processes in steps S8013, S8024, and S8025 in Figure 8A. In the process shown in Figure 8E, the
ステップS8501では、CPU3は、推定被写体を示すアイコンが現時点で表示状態であるか否かを判定する。推定被写体を示すアイコンが表示状態である場合、処理はステップS8502に進む。推定被写体を示すアイコンが非表示状態である場合、図8Eに示す処理は終了する。
In step S8501,
ステップS8502では、CPU3は、図8BのステップS8201でユーザーのまばたきが検出されたか否かを判定する。すなわち、CPU3は、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況か否かを判定する。まばたきが検出された場合、処理はステップS8503に進む。まばたきが検出されていない場合、処理はステップS8505に進む。
In step S8502,
ステップS8503では、CPU3は、ユーザーのまばたきの特性情報、具体的には、まばたき中の目をつむっている時間の情報を取得する。CPU3は、例えば、画像処理部208により、時系列に沿った眼画像の差分を解析することにより、ユーザーのまばたき中の目をつむっている時間の情報を取得することができる。
In step S8503,
ステップS8504では、CPU3は、ステップS8503で取得したまばたきの特性情報に基づき、推定被写体を示すアイコンを非表示状態となるまでの所定の遷移時間を決定する。所定の遷移時間は、ユーザーがまばたき中に目をつむっている時間よりも長い時
間に決定される。CPU3は、推定被写体を示すアイコンの透過率またはサイズを、所定の遷移時間で徐々に変化させることにより、アイコンを非表示状態に遷移させる。
In step S8504,
まばたき中の目をつむっている時間は、眼球の疲労状況により異なる場合、またはユーザーごとに異なる場合が想定される。ユーザーのまばたき中の目をつむっている時間よりも長い時間(所定の遷移時間)をかけて、推定被写体を示すアイコンを非表示状態に遷移させることで、ユーザーは、アイコンが表示状態から非表示状態へ徐々に遷移していることを認識することができる。 It is assumed that the time for which the eyes are closed while blinking may differ depending on the degree of eye fatigue, or may differ for each user. By transitioning the icon representing the estimated subject to a hidden state over a period of time (a specified transition time) that is longer than the time for which the user's eyes are closed while blinking, the user can recognize that the icon is gradually transitioning from a visible state to a hidden state.
ステップS8505では、CPU3は、図8BのステップS8203でズーム操作、パン操作、チルト操作が行われることにより、またはステップS8204でカメラ1の姿勢が変化したことにより、構図が変更されたか否かを判定する。すなわち、CPU3は、推定被写体を示すアイコンが、構図が変更されたことによって表示されたか否かを判定する。構図が変更されたと判定された場合、処理はステップS8506に進む。構図が変更されていないと判定された場合、処理はステップS8507に進む。
In step S8505,
ステップS8506では、CPU3は、推定被写体を示すアイコンの透過率またはサイズを徐々に変化させることにより、アイコンを非表示状態に遷移させる。構図の変更直後には、ユーザーの視線位置は不安定になる可能性がある。また、ユーザーは、構図を変えた後、再度構図を変更する可能性がある。徐々にアイコンを表示状態から非表示状態に遷移させることで、ユーザーは、非表示状態になるまでの間、視線位置を確認することができる。したがって、ユーザーが構図を決定するための操作性は良くなる。
In step S8506,
ステップS8507では、CPU3は、図8CのステップS8303と同様に、視線位置の近傍で検出される被写体数が複数であるか否かを判定する。視線位置の近傍で検出される被写体数が複数である場合、処理はステップS8508へ進む。視線位置の近傍で検出される被写体数が1つである場合、処理はステップS8511に進む。
In step S8507,
ステップS8508では、CPU3は、現在の画像における視線位置の被写体(ユーザーの視線が向けられている被写体、推定被写体)が前回の画像における推定被写体と同じであるか否かを判定する。すなわち、CPU3は、ユーザーが現在見ている被写体とユーザーが過去に見ていた被写体とが同じであるか否かを判定する。例えば、CPU3は、ユーザーの現在の視線位置に基づく位置に存在する被写体と、現在の画像(現フレーム)よりも前に撮像された画像(前フレーム)でユーザーの視線位置に基づく位置に存在していた被写体とが、同じであるか否かを判定すればよい。推定被写体が前回と同じである場合、処理はステップS8509に進む。推定被写体が前回と同じでない場合、処理はステップS8510に進む。
In step S8508,
ステップS8509では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させることにより、アイコンを非表示状態に遷移させる。ステップS8510では、CPU3は、推定被写体を示すアイコンのサイズを徐々に小さくすることにより、アイコンを非表示状態に遷移させる。
In step S8509,
推定被写体を示すアイコンを表示状態から非表示状態に遷移させる際に、ステップS8509とステップS8510とで異なる遷移方式を採用することにより、CPU3は、推定被写体が変わったことをユーザーに報知することができる。なお、ステップS8509およびステップS8510での遷移方式は、互いに異なる方式であればよい。例えば、図8Eの例とは逆に、ステップS8509での遷移方式はサイズを徐々に変化させる方式とし、ステップS8510での遷移方式は透過率を徐々に変化させる方式としてもよい。
When transitioning the icon indicating the estimated subject from a displayed state to a hidden state, different transition methods are adopted in steps S8509 and S8510, thereby enabling
ステップS8511は、1つの被写体のみが検出され、「アイコンを非表示」にすると判定されている場合であり、CPU3は、応答性を優先して、推定被写体を示すアイコンを即座に非表示状態に遷移させる。
In step S8511, when only one subject is detected and it is determined that the icon should be hidden,
上記の実施形態1によれば、カメラ1は、画像の撮像の状況および画像に含まれる被写体の状況の少なくとも一方に基づいて、ユーザーが視線を向けていると推定された被写体(推定被写体)を示すアイコンを表示するか否かを制御する。カメラ1は、推定被写体を示すアイコンを、自動的に表示したり非表示にしたりすることで、状況に応じた視認性の確保および操作性の向上を両立させることが可能となる。
According to the above-mentioned
また、カメラ1は、推定被写体を示すアイコンを、複数の遷移方式から選択した遷移方式で表示状態と非表示状態の一方から他方に遷移させる。例えば、カメラ1は、アイコンの透過率またはサイズを徐々に変化させることで、アイコンを表示状態と非表示状態の一方から他方に遷移させる。アイコンの状態が徐々に変化することで、ユーザーは、不用意に注意が散漫になることなく、撮影に集中することができる。また、アイコンの状態が徐々に変化することで、ユーザーは、アイコンの位置を認識しやすくなる。
Furthermore,
なお、図8Aで説明したアイコン表示制御処理は、撮像状況に基づくアイコン表示判定(図8B)の後に、被写体状況に基づくアイコン表示判定(図8C)をする処理の例を示すが、判定の順序はこれに限られない。CPU3は、撮像状況として説明した各種条件および被写体状況として説明した各種条件のうちの少なくともいずれかの条件を、任意の順序で判定することにより、推定被写体を示すアイコンを表示するか否かを判定してもよい。
Note that the icon display control process described in FIG. 8A shows an example of a process in which an icon display determination based on the imaging situation (FIG. 8B) is made followed by an icon display determination based on the subject situation (FIG. 8C), but the order of determination is not limited to this. The
[実施形態2]
図17A,17B、図18,図19を用いて、実施形態2について説明する。実施形態2では、ユーザーの視線が向けられた被写体(視線位置に基づく位置に存在する被写体、推定被写体)を示すアイコンの表示状態と非表示状態とを切り替える際、被写体の状況に基づいて、遷移方式が選択される。
[Embodiment 2]
A second embodiment will be described with reference to Figures 17A, 17B, 18, and 19. In the second embodiment, when switching between a display state and a non-display state of an icon indicating a subject at which a user's gaze is directed (a subject present at a position based on the gaze position, an estimated subject), a transition method is selected based on the state of the subject.
図8A~8Cまでの処理は、実施形態1と同様である。実施形態2では図8D,8Eに示す処理に代えて、図17A,17Bに示す処理が実行される。図8D,8Eと同じ処理については、同じ符号を付して詳細な説明は省略する。 The processes in Figures 8A to 8C are the same as those in the first embodiment. In the second embodiment, the processes shown in Figures 17A and 17B are executed instead of the processes shown in Figures 8D and 8E. The same processes as those in Figures 8D and 8E are denoted by the same reference numerals and detailed descriptions are omitted.
図17Aは、実施形態2に係るアイコン表示処理のフローチャートである。ステップS8402で「被写体に注目している」と判定された場合、処理はステップS9001に進む。ステップS8404で推定被写体が「合焦状態」であると判定されなかった場合、処理はステップS9004に進む。 FIG. 17A is a flowchart of the icon display process according to the second embodiment. If it is determined in step S8402 that the subject is being watched, the process proceeds to step S9001. If it is not determined in step S8404 that the estimated subject is in focus, the process proceeds to step S9004.
ステップS9001では、推定被写体を示すアイコンは非表示状態であり、ユーザーは推定被写体に注目している状況である。CPU3は、推定被写体(視線位置に基づく位置に存在する被写体)と他の被写体との距離が所定の閾値より小さいか否かを判定する。画像内に複数の被写体が存在する場合、他の被写体は、例えば、推定被写体に最も近い被写体とすることができる。推定被写体と他の被写体との距離は、例えば、画像内でのそれぞれの被写体の座標(例えば、それぞれの被写体の重心の座標)間を用いて算出することができる。推定被写体と他の被写体との距離が所定の閾値より小さく、複数の被写体が互いに近接している場合、処理はステップS9002に進む。推定被写体と他の被写体との距離が所定の閾値より大きく、複数の被写体が互いに近接していない場合、処理はステップS9003に進む。なお、推定被写体と他の被写体との距離が所定の閾値である場合、CPU3は、ステップS9002またはステップS9003のいずれに進んでもよい。
In step S9001, the icon indicating the estimated subject is not displayed, and the user is paying attention to the estimated subject. The
複数の被写体が互いに近接している状況であるステップS9002では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9003では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。
In step S9002, where multiple subjects are close to each other, the
図18(a)~18(d)を用いて、推定被写体と他の被写体とが近接し、被写体間の距離が所定の閾値よりも小さい場合のアイコンの表示制御を説明する。図18(a)~18(d)は、近接する複数被写体に対するアイコン表示について説明する図である。図18(a)の例では、CPU3は、被写体1801および被写体1802のうち、視線位置1803(表示デバイス10上では非表示)から、検出対象である頭部までの距離がより近い被写体1802を推定被写体として推定する。
Using Figures 18(a) to 18(d), we will explain icon display control when an estimated subject is close to another subject and the distance between the subjects is smaller than a predetermined threshold. Figures 18(a) to 18(d) are diagrams that explain icon display for multiple subjects that are close to each other. In the example of Figure 18(a),
図18(a)の被写体1801と被写体1802とは、画像平面上で互いに近接している。図18(b)では、CPU3は、推定被写体である被写体1802に対して、推定被写体を示すアイコン1804の表示処理を開始する(ステップS9002)。図18(b)では、アイコン1804は、推定被写体1802の頭部の領域よりも小さいサイズで表示されている。CPU3は、図18(b)の状態から、図18(c)、図18(d)の順に示すように、アイコン1804のサイズを徐々に大きくすることで、ユーザーに推定被写体の位置を報知することができる。なお、図18(b)~18(d)において、視線位置1803は、表示デバイス10上では非表示とする。
In FIG. 18(a),
図19(a)~19(d)を用いて、推定被写体と他の被写体とが近接しておらず、被写体間の距離が所定の閾値以上である場合のアイコンの表示制御を説明する。図19(a)~19(d)は、近接しない複数被写体に対するアイコン表示について説明する図である。図19(a)の例では、CPU3は、被写体1901および被写体1902のうち、視線位置1903(表示デバイス10上では非表示)から、検出対象である頭部までの距離がより近い被写体1902を推定被写体として推定する。
Using Figures 19(a) to 19(d), we will explain icon display control when the estimated subject and other subjects are not close to each other and the distance between the subjects is equal to or greater than a predetermined threshold. Figures 19(a) to 19(d) are diagrams that explain icon display for multiple subjects that are not close to each other. In the example of Figure 19(a),
図19(a)の被写体1901と被写体1902とは、画像平面上で互いに近接していない。図19(b)では、CPU3は、推定被写体である被写体1902に対して、推定被写体を示すアイコン1904の表示処理を開始する(ステップS9003)。図19(b)では、アイコン1904は、通常の表示よりも透過率を高くした濃度で表示されている。CPU3は、図19(b)の状態から、図19(c)、図19(d)の順に示すように、アイコン1904の透過率を徐々に下げることで、アイコン1904の表示濃度を上げる。これにより、CPU3は、ユーザーに推定被写体の位置を報知することができる。なお、図19(b)~19(d)において、視線位置1903は、表示デバイス10上では非表示とする。
In FIG. 19(a), subject 1901 and subject 1902 are not close to each other on the image plane. In FIG. 19(b),
図17AのステップS9004では、推定被写体を示すアイコンは非表示状態であり、推定被写体が「合焦状態」であると判定されていない状態、すなわち推定被写体が「非合焦状態」である状況である。CPU3は、ステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9005に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9006に進む。
In step S9004 of FIG. 17A, the icon indicating the estimated subject is not displayed, and the estimated subject has not been determined to be in focus, i.e., the estimated subject is out of focus. As in step S9001,
複数の被写体が互いに近接している状況であるステップS9005では、ステップS9002と同様に、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一方、複数の被写体が互
いに近接していない状況であるステップS9006では、ステップS9003と同様に、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。
In step S9005 where the plurality of subjects are close to each other, similar to step S9002,
図17Aで説明したアイコンの表示制御によれば、ユーザーの視線が向けられている推定被写体が他の被写体と近接している場合、CPU3は、推定被写体を示すアイコンのサイズを徐々に大きくすることにより、推定被写体を認識しやすくすることができる。
According to the icon display control described in FIG. 17A, when the estimated subject at which the user's gaze is directed is close to other subjects, the
図17Bは、実施形態2に係るアイコン非表示処理のフローチャートである。ユーザーのまばたきが検出され、ステップS8503でまばたきの特性情報が取得されると、処理はステップS9011に進む。ステップS8505で、構図が変更されたと判定された場合、処理はステップS9014に進む。 FIG. 17B is a flowchart of icon non-display processing according to the second embodiment. When a user's blink is detected and blink characteristic information is acquired in step S8503, processing proceeds to step S9011. When it is determined in step S8505 that the composition has been changed, processing proceeds to step S9014.
ステップS9011では、推定被写体を示すアイコンは表示状態であり、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況である。CPU3は、図17AのステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9012に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9013に進む。
In step S9011, the icon indicating the estimated subject is in a displayed state, and the icon will be switched to hidden when the user blinks. Similar to step S9001 in FIG. 17A,
複数の被写体が互いに近接している状況であるステップS9012では、CPU3は、推定被写体を示すアイコンのサイズを、所定の遷移時間で徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9013では、CPU3は、推定被写体を示すアイコンの透過率を、所定の遷移時間で徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。所定の遷移時間は、図8EのステップS8504と同様に決定される。
In step S9012, where multiple subjects are close to each other,
ステップS9014では、推定被写体を示すアイコンは表示状態であり、構図が変更された後、所定時間が経過してアイコンが非表示に切り替えられる状況である。CPU3は、図17AのステップS9001と同様に、推定被写体と他の被写体との距離が所定の閾値より小さいか否かを判定する。推定被写体と他の被写体との距離が所定の閾値より小さい場合、処理はステップS9015に進む。推定被写体と他の被写体との距離が所定の閾値以上の場合、処理はステップS9016に進む。
In step S9014, the icon indicating the estimated subject is in a displayed state, and after the composition is changed, a predetermined time has elapsed and the icon will be switched to a hidden state. Similar to step S9001 in FIG. 17A,
複数の被写体が互いに近接している状況であるステップS9015では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。一方、複数の被写体が互いに近接していない状況であるステップS9016では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。
In step S9015, where multiple subjects are close to each other,
上記の実施形態2によれば、カメラ1は、被写体の状況に基づいて、推定被写体を示すアイコンの表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画像の視認性を向上させることができる。ユーザーは、遷移方式が適切に選択されることで、推定被写体を示すアイコンを認識しやすくなる。
According to the above-mentioned
なお、図17A,17Bでは、被写体の状況は、推定被写体と他の被写体との距離として説明したが、これに限られない。被写体の状況は、被写体の数、被写体の大きさ、被写体の明るさ(輝度情報)などであってもよい。カメラ1は、これらの被写体の状況に応じて、表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画
像の視認性を向上させることができる。
17A and 17B, the subject situation is described as the distance between the estimated subject and other subjects, but is not limited to this. The subject situation may be the number of subjects, the size of the subject, the brightness of the subject (luminance information), etc. The
[実施形態3]
図20A,20Bを用いて、実施形態3について説明する。実施形態2では、ユーザーの視線が向けられた被写体(推定被写体)を示すアイコンの表示状態と非表示状態とを切り替える際、被写体の状況に基づいて遷移方式が選択される。これに対し、実施形態3では、推定被写体を示すアイコンの表示状態と非表示状態とを切り替える際の遷移方式は、撮影時のズーム状態に基づいて選択される。
[Embodiment 3]
20A and 20B, the third embodiment will be described. In the second embodiment, when switching between a display state and a non-display state of an icon indicating a subject (estimated subject) at which the user's gaze is directed, a transition method is selected based on the state of the subject. In contrast, in the third embodiment, the transition method when switching between a display state and a non-display state of an icon indicating an estimated subject is selected based on the zoom state at the time of shooting.
図8A~8Cまでの処理は、実施形態1と同様である。実施形態3では図8D,8Eに示す処理に代えて、図20A,20Bに示す処理が実行される。図8D,8Eと同じ処理については、同じ符号を付して詳細な説明は省略する。 The processes in Figures 8A to 8C are the same as those in the first embodiment. In the third embodiment, the processes shown in Figures 20A and 20B are executed instead of the processes shown in Figures 8D and 8E. The same processes as those in Figures 8D and 8E are denoted by the same reference numerals and detailed descriptions are omitted.
図20Aは、実施形態3に係るアイコン表示処理のフローチャートである。ステップS8402で「被写体に注目している」と判定された場合、処理はステップS9021に進む。ステップS8404で推定被写体が「合焦状態」であると判定されなかった場合、処理はステップS9024に進む。 FIG. 20A is a flowchart of the icon display process according to the third embodiment. If it is determined in step S8402 that the subject is being watched, the process proceeds to step S9021. If it is not determined in step S8404 that the estimated subject is in focus, the process proceeds to step S9024.
ステップS9021では、推定被写体を示すアイコンは非表示状態であり、ユーザーは推定被写体に注目している状況である。CPU3は、現在のズーム状態の情報を取得し、広角側での撮影であるか否かを判定する。CPU3は、ズーム状態を制御する撮影レンズユニット1Aのズーム駆動部120から、現在のズーム状態(ズーム位置)が広角側であるか否かの情報を取得することができる。また、電子ズームにより画角が変更されている場合、CPU3は、カメラ側の電子ズームの設定状態により広角側での撮影であるか否かを判定することができる。広角側での撮影である場合、処理はステップS9022に進む。広角側での撮影でない場合、処理はステップS9023に進む。
In step S9021, the icon indicating the estimated subject is not displayed, and the user is focusing on the estimated subject.
広角側での撮影であるステップS9022では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。一方、広角側での撮影ではないステップS9023では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。一般にズーム状態が望遠側での撮影では、圧縮効果により被写体は混みあった状態で視認される。このため、望遠側での撮影である(広角側での撮影ではない)場合、CPU3は、アイコンのサイズを徐々に大きくすることで、推定被写体を認識しやすくし、アイコンおよび画像の視認性を上げることができる。
In step S9022, where wide-angle shooting is performed,
ステップS9024では、推定被写体を示すアイコンは非表示状態であり、推定被写体が「合焦状態」であると判定されていない状態、すなわち推定被写体が「非合焦状態」である状況である。CPU3は、ステップS9021と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9025に進む。広角側での撮影でない場合、処理はステップS9026に進む。
In step S9024, the icon indicating the estimated subject is not displayed, and the estimated subject has not been determined to be in focus, i.e., the estimated subject is out of focus. As in step S9021,
広角側での撮影であるステップS9025では、ステップS9022と同様に、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(下げる)ことによって、アイコンを表示状態に遷移させる。一方、望遠側での撮影であるステップS9026では、ステップS9023と同様に、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(大きくする)ことによって、アイコンを表示状態に遷移させる。
In step S9025, which is wide-angle shooting, similar to step S9022,
図20Aで説明したアイコンの表示制御によれば、望遠側での撮影で圧縮効果により被写体が混みあった状態で視認される場合、CPU3は、推定被写体を示すアイコンのサイ
ズを徐々に大きくすることにより、推定被写体を認識しやすくすることができる。
According to the icon display control described in FIG. 20A, when the subject is viewed as crowded due to the compression effect when shooting at a telephoto setting, the
図20Bは、実施形態3に係るアイコン非表示処理のフローチャートである。ユーザーのまばたきが検出され、ステップS8503でまばたきの特性情報が取得されると、処理はステップS9031に進む。ステップS8505で、構図が変更されたと判定された場合、処理はステップS9034に進む。
Figure 20B is a flowchart of icon non-display processing according to
ステップS9031では、推定被写体を示すアイコンは表示状態であり、ユーザーがまばたきを行ったことによってアイコンが非表示に切り替えられる状況である。CPU3は、図20AのステップS9021と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9032に進む。広角側での撮影でない(望遠側での撮影である)場合、処理はステップS9033に進む。
In step S9031, the icon indicating the estimated subject is displayed, and the icon will be hidden when the user blinks.
広角側での撮影である場合のステップS9032では、CPU3は、推定被写体を示すアイコンの透過率を、所定の遷移時間で徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。一方、望遠側での撮影である場合のステップS9033では、CPU3は、推定被写体を示すアイコンのサイズを、所定の遷移時間で徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。所定の遷移時間は、ステップS8504と同様に決定される。望遠側での撮影である(広角側での撮影ではない)場合、CPU3は、アイコンのサイズを徐々に小さくすることで、推定被写体を認識しやすくし、アイコンおよび画像の視認性を向上させることができる。
In step S9032 when shooting on the wide-angle side,
ステップS9034では、推定被写体を示すアイコンは表示状態であり、構図が変更された後、所定時間が経過してアイコンが非表示に切り替えられる状況である。CPU3は、ステップS9031と同様に、広角側での撮影であるか否かを判定する。広角側での撮影である場合、処理はステップS9035に進む。広角側での撮影でない場合、処理はステップS9036に進む。
In step S9034, the icon indicating the estimated subject is in a displayed state, and after the composition is changed, a predetermined time has passed and the icon will be switched to a hidden state. As in step S9031,
広角側での撮影である場合のステップS9035では、CPU3は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。一方、望遠側での撮影である場合のステップS9036では、CPU3は、推定被写体を示すアイコンのサイズを徐々に変化させる(小さくする)ことによって、アイコンを非表示状態に遷移させる。
In step S9035 when shooting on the wide-angle side,
上記の実施形態3によれば、カメラ1は、撮影時のズーム状態の情報に基づいて、推定被写体を示すアイコンの表示状態と非表示状態との間の遷移方式を適切に選択することで、アイコンおよび画像の視認性を向上させることができる。ユーザーは、遷移方式が適切に選択されることで、推定被写体を示すアイコンを認識しやすくなる。
According to the above-mentioned
なお、上記の各実施形態において、各種条件に基づいて、推定被写体を示すアイコンを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する例を説明したが、カメラ1は、上記以外の他の条件に基づいて遷移方式を選択してもよい。例えば、カメラ1は、ユーザーの視線位置に基づく位置に存在する被写体が静止しているか加速しながら動作しているかといった、被写体の動き(動き特性の情報)に基づいて遷移方式を選択してもよい。例えば、加速しながら動作していた被写体が停止した場合、カメラ1は、推定被写体を示すアイコンの透過率を徐々に変化させる(上げる)ことによって、アイコンを非表示状態に遷移させる。また、カメラ1は、ユーザーの視線位置の検出に成功したか失敗したかに基づいて、遷移方式を選択してもよい。さらに、カメラ1は、これらの条件を任意に組み合わせた条件に基づいて、遷移方式を選択するようにしてもよい。各種条件に基づいて、いずれの遷移方式を選択するかは、アイコンおよび画面の視認性を考慮してあ
らかじめ設定しておくことができる。
In the above embodiments, an example of selecting a transition method for transitioning an icon indicating an estimated subject from one of a display state and a non-display state to the other based on various conditions has been described, but the
上記実施形態はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 The above embodiment is merely an example, and configurations obtained by appropriately modifying or changing the configuration of the above embodiment within the scope of the gist of the present invention are also included in the present invention. Configurations obtained by appropriately combining the configurations of the above embodiments are also included in the present invention.
例えば、EVF(電子ビューファインダー)で被写体を見る場合の例を説明したが、OVF(光学ビューファインダー)で被写体を見る場合にも本発明は適用可能である。本発明は撮像装置(カメラ)以外にも適用可能であり、3次元のコンピュータグラフィックなどを見る場合にも適用可能である。本発明は、視点を検出することのできる様々な電子機器に適用可能である。 For example, although an example of viewing a subject through an EVF (electronic viewfinder) has been described, the present invention can also be applied when viewing a subject through an OVF (optical viewfinder). The present invention can be applied to devices other than imaging devices (cameras), and can also be applied when viewing three-dimensional computer graphics, etc. The present invention can be applied to various electronic devices that can detect the viewpoint.
[他の電子機器への適用例]
図21(a)は、ノート型パーソナルコンピュータ2110(ノートPC)の外観図である。図21(a)では、ノートPC2110の表示部2111を見るユーザーを撮像する撮像ユニット2115がノートPC2110に接続されており、ノートPC2110は撮像ユニット2115から撮像結果を取得する。そして、ノートPC2110は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ノートPC2110にも適用可能である。
[Examples of application to other electronic devices]
Fig. 21(a) is an external view of a notebook personal computer 2110 (notebook PC). In Fig. 21(a), an
図21(b)は、スマートフォン2120の外観図である。図21(b)では、スマートフォン2120は、インカメラ2121(フロントカメラ)の撮像結果に基づいて、スマートフォン2120の表示部2122を見るユーザーの視点を検出する。本発明は、スマートフォン2120にも適用可能である。同様に、本発明は、種々のタブレット端末にも適用可能である。
Fig. 21(b) is an external view of the
図21(c)は、ゲーム機2130の外観図である。図21(c)では、ゲームのVR(Virtual Reality)画像を表示部2136に表示するヘッドマウントディスプレイ2135(HMD)が、ゲーム機2130に接続されている。HMD2135は、HMD2135を装着したユーザーの眼を撮像するカメラ2137を有しており、ゲーム機2130は、HMD2135から撮像結果を取得する。そして、ゲーム機2130は、撮像結果に基づいてユーザーの視点を検出する。本発明は、ゲーム機2130にも適用可能である。ゲーム機2130の構成要素はHMD2135に内蔵されていてもよい。従って、本発明は、HMD2135にも適用可能である。HMDに表示したVR画像を見る場合に本発明が適用可能であるのと同様に、眼鏡型のウェアラブル端末のレンズ部分などに表示したAR(Augmented Reality)画像や、レンズ部分の先にある実物を見る場合にも本発明は適用可能である。VR技術やAR技術に本発明が適用可能であるのと同様に、MR(Mixed Reality)技術やSR(Substitutional Reality)技術などの別のxR技術にも本発明は適用可能である。
Figure 21 (c) is an external view of the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.
本実施形態の開示は、以下の構成、方法、プログラムおよび媒体を含む。
(構成1)
撮像された画像を見るユーザーの視線位置の情報を取得する取得手段と、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段と
を有し、
前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器。
(構成2)
前記複数の遷移方式は、
前記アイテムのサイズを徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムの透過率を徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムを表示状態と非表示状態の一方から他方に即座に遷移させる遷移方式、の少なくともいずれかを含む
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記ユーザーの視線位置に基づいて、前記画像に含まれる被写体のうち前記ユーザーの視線が向けられた被写体を推定する推定手段をさらに有し、
前記制御手段は、前記推定手段によって推定された被写体の位置に前記アイテムを表示するように制御する
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記制御手段は、前記ユーザーが前記画像に注目しているか否かに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~3のいずれかに記載の電子機器。
(構成5)
前記制御手段は、前記ユーザーがまばたきを行ったか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~4のいずれかに記載の電子機器。
(構成6)
前記制御手段は、前記ユーザーがまばたきを行った場合、あらかじめ計測した前記ユーザーのまばたき中の目をつむっている時間よりも長い時間をかけて前記アイテムの状態を徐々に変化させることにより、前記アイテムを表示状態から非表示状態に遷移させる
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記制御手段は、ズーム操作、パン操作、またはチルト操作によって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~6のいずれかに記載の電子機器。
(構成8)
前記制御手段は、前記画像を撮像する撮像装置の姿勢が変化したことによって前記画像の構図が変更されたか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~7のいずれかに記載の電子機器。
(構成9)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体が合焦状態であるか非合焦状態であるかに基づいて、前記アイテムを表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~8のいずれかに記載の電子機器。
(構成10)
前記制御手段は、前記画像に複数の被写体が含まれるか否かに基づいて、前記アイテムを非表示状態に遷移させる遷移方式を選択する
ことを特徴とする構成1~9のいずれかに記載の電子機器。
(構成11)
前記制御手段は、前記画像に複数の被写体が含まれており、前記ユーザーが現在見ている被写体と前記ユーザーが過去に見ていた被写体とが同じ場合と異なる場合とで、異なる遷移方式によって前記アイテムを非表示状態に遷移させる
ことを特徴とする構成1~10のいずれかに記載の電子機器。
(構成12)
前記画像に含まれる被写体は、所定の種別の被写体である
ことを特徴とする構成10または11に記載の電子機器。
(構成13)
前記画像に含まれる被写体の数は、前記ユーザーの視線位置を含む所定の範囲に含まれる被写体の数である
ことを特徴とする構成10~12のいずれかに記載の電子機器。
(構成14)
前記所定の範囲は、前記画像を撮像する際の焦点距離、撮影距離、撮影モードおよび前記ユーザーの視線位置に基づく位置に存在する被写体の大きさのうちの少なくともいずれかに基づいて決定される
ことを特徴とする構成13に記載の電子機器。
(構成15)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~14のいずれかに記載の電子機器。
(構成16)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体と他の被写体との距離が、所定の閾値より小さい場合と前記所定の閾値より大きい場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成15に記載の電子機器。
(構成17)
前記制御手段は、前記画像を撮像する際のズーム状態に基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~16のいずれかに記載の電子機器。
(構成18)
前記制御手段は、前記ズーム状態が広角側である場合と望遠側である場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成17に記載の電子機器。
(構成19)
前記制御手段は、前記ユーザーの視線位置に基づく位置に存在する被写体の動きに基づいて、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式を選択する
ことを特徴とする構成1~18のいずれかに記載の電子機器。
(構成20)
前記制御手段は、前記ユーザーの視線位置の検出に成功した場合と失敗した場合とで、異なる遷移方式によって、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする構成1~19のいずれかに記載の電子機器。
(方法)
撮像された画像を見るユーザーの視線位置の情報を取得する取得ステップと、
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップと
を有し、
前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~20のいずれかに記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~20のいずれかに記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
The disclosure of the present embodiment includes the following configuration, method, program, and medium.
(Configuration 1)
An acquisition means for acquiring information on a gaze position of a user viewing a captured image;
a control means for controlling the display of an item at a position based on the user's line of sight;
The electronic device according to
(Configuration 2)
The plurality of transition methods include:
a transition scheme in which the item transitions from one of a visible state and a hidden state to the other by gradually changing the size of the item;
a transition scheme in which the item is transitioned from one of a visible state and a hidden state to the other by gradually changing the transparency of the item;
2. The electronic device according to
(Configuration 3)
The method further includes estimating an object at which the user's gaze is directed, among objects included in the image, based on the user's gaze position,
3. The electronic device according to
(Configuration 4)
The electronic device according to any one of
(Configuration 5)
The electronic device according to any one of
(Configuration 6)
The electronic device described in
(Configuration 7)
The electronic device according to any one of
(Configuration 8)
The electronic device according to any one of
(Configuration 9)
The electronic device according to any one of
(Configuration 10)
The electronic device according to any one of
(Configuration 11)
The electronic device of any one of
(Configuration 12)
12. The electronic device according to
(Configuration 13)
The electronic device according to any one of
(Configuration 14)
The electronic device described in configuration 13, characterized in that the specified range is determined based on at least one of the focal length, shooting distance, shooting mode, and size of a subject present at a position based on the user's line of sight when capturing the image.
(Configuration 15)
The electronic device of any one of
(Configuration 16)
The electronic device described in
(Configuration 17)
The electronic device according to any one of
(Configuration 18)
The electronic device described in
(Configuration 19)
The electronic device of any one of
(Configuration 20)
The electronic device of any one of
(method)
An acquisition step of acquiring information on a gaze position of a user viewing a captured image;
and a control step of controlling the display of the item at a position based on the user's gaze position,
The control method for an electronic device, wherein the control step transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
(program)
A program for causing a computer to function as each of the means of the electronic device according to any one of
(Medium)
A computer-readable storage medium storing a program for causing a computer to function as each of the means of the electronic device described in any one of
1:カメラ(電子機器)、3:CPU、10:表示デバイス、11:表示デバイス駆動回路、17:眼用撮像素子、201:視線検出回路、208:画像処理部 1: Camera (electronic device), 3: CPU, 10: Display device, 11: Display device drive circuit, 17: Eye image sensor, 201: Line of sight detection circuit, 208: Image processing unit
Claims (23)
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御手段とを有し、
前記制御手段は、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器。 An acquisition means for acquiring information on a gaze position of a user viewing a captured image;
a control means for controlling the display of an item at a position based on the user's line of sight;
The electronic device according to claim 1, wherein the control means transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
前記アイテムのサイズを徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムの透過率を徐々に変化させることにより、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる遷移方式、
前記アイテムを表示状態と非表示状態の一方から他方に即座に遷移させる遷移方式、の少なくともいずれかを含む
ことを特徴とする請求項1に記載の電子機器。 The plurality of transition methods include:
a transition scheme in which the item transitions from one of a visible state and a hidden state to the other by gradually changing the size of the item;
a transition scheme in which the item is transitioned from one of a visible state and a hidden state to the other by gradually changing the transparency of the item;
2. The electronic device according to claim 1, further comprising at least one of a display state and a non-display state, and a transition method for immediately transitioning the item from one of the display state and the non-display state to the other.
前記制御手段は、前記推定手段によって推定された被写体の位置に前記アイテムを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 The method further includes estimating an object at which the user's gaze is directed, among objects included in the image, based on the user's gaze position,
The electronic device according to claim 1 , wherein the control means performs control so as to display the item at the position of the subject estimated by the estimation means.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a display state based on whether the user is paying attention to the image.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a non-display state based on whether or not the user has blinked.
ことを特徴とする請求項5に記載の電子機器。 The electronic device according to claim 5, characterized in that, when the user blinks, the control means transitions the item from a displayed state to a hidden state by gradually changing the state of the item over a period of time longer than a previously measured period of time that the user's eyes are closed during a blink.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a hidden state based on whether a composition of the image has been changed by a zoom operation, a pan operation, or a tilt operation.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item to a hidden state based on whether or not a composition of the image has changed due to a change in the attitude of an imaging device that captures the image.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item to a display state based on whether a subject present at a position based on the user's gaze position is in-focus or out-of-focus.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item to a non-display state based on whether the image includes a plurality of subjects.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, characterized in that the control means transitions the item to a hidden state using different transition methods depending on whether the image contains multiple objects and the object currently being viewed by the user is the same as or different from the object previously viewed by the user.
ことを特徴とする請求項10に記載の電子機器。 The electronic device according to claim 10 , wherein the subject included in the image is a subject of a predetermined type.
ことを特徴とする請求項10に記載の電子機器。 The electronic device according to claim 10 , wherein the number of subjects included in the image is the number of subjects included in a predetermined range including the user's line of sight.
ことを特徴とする請求項13に記載の電子機器。 14. The electronic device according to claim 13, wherein the predetermined range is determined based on at least one of a focal length, a shooting distance, a shooting mode, and a size of a subject present at a position based on a line of sight of the user when capturing the image.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on a distance between a subject present at a position based on the user's gaze position and another subject.
ことを特徴とする請求項15に記載の電子機器。 The electronic device described in claim 15, characterized in that the control means transitions the item from one of the displayed state and the hidden state to the other using different transition methods when the distance between the subject present at a position based on the user's gaze position and another subject is smaller than a predetermined threshold and when the distance is greater than the predetermined threshold.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , wherein the control means selects a transition method for transitioning the item from one of a displayed state and a non-displayed state to the other, based on a zoom state when the image is captured.
ことを特徴とする請求項17に記載の電子機器。 18. The electronic device according to claim 17, wherein the control means transitions the item from one of the displayed state and the non-displayed state to the other by different transition methods depending on whether the zoom state is on the wide-angle side or the telephoto side.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1 , characterized in that the control means selects a transition method for transitioning the item from one of a displayed state and a hidden state to the other based on the movement of a subject present at a position based on the user's gaze position.
ことを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, characterized in that the control means transitions the item from one of a displayed state and a hidden state to the other using different transition methods depending on whether detection of the user's gaze position is successful or unsuccessful.
前記ユーザーの視線位置に基づく位置にアイテムを表示するように制御する制御ステップと
を有し、
前記制御ステップでは、複数の遷移方式から選択した遷移方式で、前記アイテムを表示状態と非表示状態の一方から他方に遷移させる
ことを特徴とする電子機器の制御方法。 An acquisition step of acquiring information on a gaze position of a user viewing a captured image;
and a control step of controlling the display of the item at a position based on the user's gaze position,
The control method for an electronic device, wherein the control step transitions the item from one of a displayed state and a non-displayed state to the other in a transition manner selected from a plurality of transition manners.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023087166A JP2024170159A (en) | 2023-05-26 | 2023-05-26 | Electronic device and method for controlling electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023087166A JP2024170159A (en) | 2023-05-26 | 2023-05-26 | Electronic device and method for controlling electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024170159A true JP2024170159A (en) | 2024-12-06 |
Family
ID=93707747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023087166A Pending JP2024170159A (en) | 2023-05-26 | 2023-05-26 | Electronic device and method for controlling electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024170159A (en) |
-
2023
- 2023-05-26 JP JP2023087166A patent/JP2024170159A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11509816B2 (en) | Image processing apparatus, image pickup apparatus, and control method of image processing apparatus | |
US11822714B2 (en) | Electronic device and control method for capturing an image of an eye | |
US11650660B2 (en) | Electronic device, control method, and non-transitory computer readable medium | |
JP7604216B2 (en) | Eye gaze detection device | |
US11662809B2 (en) | Image pickup apparatus configured to use line of sight for imaging control and control method thereof | |
JP7567012B2 (en) | Electronic device, electronic device control method, program, and storage medium | |
US20240114228A1 (en) | Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium | |
US12047703B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
JP7693397B2 (en) | Line-of-sight information acquisition device, imaging device, line-of-sight information acquisition method, program, and storage medium | |
JP2002214659A (en) | Camera with shake correcting function | |
JP2024170159A (en) | Electronic device and method for controlling electronic device | |
US20240397190A1 (en) | Electronic device, and control method of electronic device | |
JP7580935B2 (en) | Image processing device, control method for image processing device, and program | |
CN116437180A (en) | Display apparatus, viewfinder apparatus, and image pickup apparatus | |
JP2021182736A (en) | Electronic apparatus | |
JP7615262B1 (en) | Information processing device | |
JP2021064928A (en) | Electronic device | |
JP7693402B2 (en) | Display device, imaging device, display device control method, program, and recording medium | |
JP2023063023A (en) | ELECTRONIC DEVICE AND METHOD OF CONTROLLING ELECTRONIC DEVICE | |
JP2024003432A (en) | Electronic device | |
JP7358130B2 (en) | Electronic equipment and its control method | |
JP2023083695A (en) | Electronics | |
JP2023087377A (en) | Visual line detection device | |
JP2023069526A (en) | Electronic device and its control method and program | |
JP2023040771A (en) | Visual line detection device |