JP2021140590A - 電子機器、電子機器の制御方法、プログラム、記憶媒体 - Google Patents
電子機器、電子機器の制御方法、プログラム、記憶媒体 Download PDFInfo
- Publication number
- JP2021140590A JP2021140590A JP2020039169A JP2020039169A JP2021140590A JP 2021140590 A JP2021140590 A JP 2021140590A JP 2020039169 A JP2020039169 A JP 2020039169A JP 2020039169 A JP2020039169 A JP 2020039169A JP 2021140590 A JP2021140590 A JP 2021140590A
- Authority
- JP
- Japan
- Prior art keywords
- display
- time
- electronic device
- function
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 81
- 238000003860 storage Methods 0.000 title claims description 6
- 230000008569 process Effects 0.000 claims description 61
- 238000001514 detection method Methods 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 45
- 230000008859 change Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract 3
- 238000012545 processing Methods 0.000 description 31
- 210000003811 finger Anatomy 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 11
- 210000001508 eye Anatomy 0.000 description 8
- 238000003825 pressing Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 4
- 230000004397 blinking Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007562 laser obscuration time method Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2213/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B2213/02—Viewfinders
- G03B2213/025—Sightline detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】選択可能な対象が重畳表示されている場合でも、ユーザーの視線によってユーザーが所望する機能を実行させることが可能な電子機器を提供する。【解決手段】電子機器は、表示対象に重畳して表示アイテムが表示された第1の領域に対する視線入力による注視状態の継続時間が第1の時間に達する前に所定のトリガーがあっても、第1の機能と第2の機能のいずれも実行することなく、前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合に前記所定のトリガーがあったことに応じて、前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御し、当該継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて、前記表示アイテムを選択して前記第2の機能を実行するように制御する。【選択図】図4
Description
本発明は、電子機器、電子機器の制御方法、プログラム、記憶媒体に関する。
従来、視線入力を用いて領域を選択する電子機器が知られている。特許文献1では、視線入力を用いてAF(オートフォーカス)対象となる追尾対象を選択する方法が提案されている。より詳しくは、ユーザーが被写体を凝視した際の視線の微小移動(固視微動)に起因してAF・AEエリアが変化することがないように、視線位置の変化量が眼球の固視微動現象の基準値を超えるか否かによって視線位置を決定する光学機器が提案されている。
一方、特許文献2では、2つの機能を示す表示が重畳されている領域をタッチしている時間が所定時間未満であれば上層の機能が実行され、当該時間が所定時間以上であれば下層の機能を実行するタッチスクリーンディスプレイ装置が提案されている。
しかしながら、特許文献1に開示された技術では、選択可能な対象が被写体に重畳表示されている場合に、重畳表示された位置における追尾対象の被写体の選択と、当該選択可能な対象に応じた機能とのいずれかしか実行できない。特許文献2に開示された技術では、ユーザーがタッチ操作をした場合には、上層の表示物の選択と下層の表示物の選択とのうちいずれかが行われる。しかし、視線による操作の場合では、操作する意図がなくてもユーザーはいずれかの位置を自然と見てしまうので、見ている位置に関する指示をする意図がユーザーに無くても視線入力位置に関する機能が実行されてしまう。
従って、本発明は、選択可能な対象が重畳表示されている場合でも、ユーザーの視線によってユーザーが所望する機能を実行させることが可能な電子機器を提供することを目的とする。
本発明の1つの態様は、
表示手段を見るユーザーの視線による視線入力を受け付ける受付手段と、
前記表示手段に、表示対象を表示するとともに、前記表示対象に重畳して表示アイテムを表示するように制御する表示制御手段と、
前記表示アイテムが表示された第1の領域に対する前記視線入力による注視状態の継続時間が第1の時間に達する前に所定のトリガーがあっても、第1の機能と第2の機能のいずれも実行することなく、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合に前記所定のトリガーがあったことに応じて、前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御し、
前記第1の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて、前記表示アイテムを選択して前記第2の機能を
実行するように制御する制御手段と
を有することを特徴とする電子機器である。
表示手段を見るユーザーの視線による視線入力を受け付ける受付手段と、
前記表示手段に、表示対象を表示するとともに、前記表示対象に重畳して表示アイテムを表示するように制御する表示制御手段と、
前記表示アイテムが表示された第1の領域に対する前記視線入力による注視状態の継続時間が第1の時間に達する前に所定のトリガーがあっても、第1の機能と第2の機能のいずれも実行することなく、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合に前記所定のトリガーがあったことに応じて、前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御し、
前記第1の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて、前記表示アイテムを選択して前記第2の機能を
実行するように制御する制御手段と
を有することを特徴とする電子機器である。
選択可能な対象が重畳表示されている場合でも、ユーザーの視線によってユーザーが所望する機能を実行させることができる。
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の好適な実施形態を説明する。図1(A),1(B)に、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1(A)はデジタルカメラ100の前面斜視図であり、図1(B)はデジタルカメラ100の背面斜視図である。
以下、図面を参照して本発明の好適な実施形態を説明する。図1(A),1(B)に、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1(A)はデジタルカメラ100の前面斜視図であり、図1(B)はデジタルカメラ100の背面斜視図である。
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。
動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させるたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部
28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75とを用いて直感的に各種設定を行うことができる。
28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75とを用いて直感的に各種設定を行うことができる。
通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF29(後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザー(撮影者)が接眼しているか否かを検知する接眼検知センサである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。サムレスト部91(親指待機位置)は、デジタルカメラ100の背面側の、どの操作部材も操作しない状態でグリップ部90を握った右手の親指を置きやすい箇所に設けられたグリップ部材である。サムレスト部91は、保持力(グリップ感)を高めるためのラバー部材などで構成される。
<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより,TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる
。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
視線検出部160は、接眼部16におけるユーザーの視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサ164、視線検出回路165、赤外発光ダイオード166により構成される。なお、視線の検出に応じて、システム制御部50が所定の処理を実行することも可能であるため、視線検出部160は、操作部70の一部であるともいえる。
赤外発光ダイオード166は、ファインダー画面内におけるユーザーの視線位置を検出するための発光素子であり、ユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサ164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサ164は、CCD型イメージセンサ等の撮像デバイスから構成される。
視線検知センサ164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は、視線検知センサ164の出力信号に基づき、ユーザーの眼球(目)161の動きからユーザーの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。
視線入力設定部167は、視線検出回路165(視線検出部160)による視線検出の有効または無効を設定する。または、視線入力設定部167は、システム制御部50の視線入力による処理の有効または無効を設定する。例えば、このような有効/無効の設定は、メニュー設定にて、操作部70に対する操作によってユーザーが任意に設定できる。
注視判定部170は、視線検出回路165から受け取った検出情報に基づいて、ユーザーの視線がある領域に固定されている期間が所定の閾値を越えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域)であるといえる。なお、「視線がある領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。なお、所定の閾値は、システム制御部50により任意に変更可能である。また、注視判定部170を独立したブロックとして設けず、システム制御部50が視線検出回路165から受け取った検出情報に基づいて注視判定部170と同じ機能を実行するようにしてもよい。
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash−ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部57は、接眼ファインダー17(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を
切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサを用いることができ、EVF29を内蔵するファインダー17の接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。
切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサを用いることができ、EVF29を内蔵するファインダー17の接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。
システム制御部50は、注視判定部170または接眼検知部57を制御することによって、接眼部16への以下の操作、あるいは状態を検出できる。
・接眼部16へ向けられていなかった視線が新たに接眼部16へ向けられたこと。すなわち、視線入力の開始。
・接眼部16へ視線入力している状態であること。
・接眼部16へ注視している状態であること。
・接眼部16へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・接眼部16へ何も視線入力していない状態。
・接眼部16へ向けられていなかった視線が新たに接眼部16へ向けられたこと。すなわち、視線入力の開始。
・接眼部16へ視線入力している状態であること。
・接眼部16へ注視している状態であること。
・接眼部16へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・接眼部16へ何も視線入力していない状態。
これらの操作・状態や、接眼部16に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいて接眼部16上にどのような操作(視線操作)が行なわれたかを判定する。
操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、等を含む。
モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch−On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch−On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタ
ッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
ッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
[表示の制御方法について]
図3(A)〜図3(E)を参照して、EVF29の表示の制御方法について説明する。図3(A)〜図3(E)は、EVF29にライブビュー画像300(表示対象)が表示された状態例を示した図である。図3(A)〜図3(E)では、EVF29に、ライブビュー画像300として人物が集合した画像が表示されている。
図3(A)〜図3(E)を参照して、EVF29の表示の制御方法について説明する。図3(A)〜図3(E)は、EVF29にライブビュー画像300(表示対象)が表示された状態例を示した図である。図3(A)〜図3(E)では、EVF29に、ライブビュー画像300として人物が集合した画像が表示されている。
ここで、ユーザーがEVF29を覗いたままデジタルカメラ100の設定や撮影操作が行えるように、複数の種類の表示アイテム301(現在の撮影設定内容を示すアイコンなど)がEVF29に表示されている。本実施形態では、図3(A)に示すように、表示アイテム301の一例として、ホワイトバランスを示す太陽マーク301a、記録媒体200に記録する画像サイズ301b、オートフォーカス(AF)動作マーク301c、ISO感度値301dが表示される。
表示アイテム301は、ライブビュー画像300の外縁部や外部(下部)に表示される。本実施形態において、太陽マーク301aや画像サイズ301b、動作マーク301cが、ライブビュー画像300の外縁部に表示されている。一方、ISO感度値301dが、EVF29のライブビュー画像300の下部(外部)に表示されている。
ライブビュー画像300には、大きく分類して3つの領域が存在しており、図3(D)に示す例では、破線の四角枠によって3つの領域が例示されている。ここで、ライブビュー画像300に対して表示アイテム301が重畳表示された(前面に表示された)領域を領域320とし、ライブビュー画像300のみ表示された領域を領域321とし、表示アイテム301のみが表示された領域を領域322とする。
デジタルカメラ100では、ユーザーがEVF29を覗いた状態でユーザーの視線の位置が検出されることによって、視線の位置に応じた処理が実行される。例えば、図3(D)に示すように、ライブビュー画像300の一部である領域321に該当する被写体にユーザーが視線を向けると、被写体にピントを合わせる処理(合焦処理)を実行するための、図3(E)に示すような測距点302(AF枠)が表示される。そして、その後に、SETボタン75が押下されると、デジタルカメラ100は、測距点302を選択する。具体的には、デジタルカメラ100は、表示されている測距点の位置を選択して、AFの対象位置として設定する。
また、図3(D)に示すように、ライブビュー画像300の下部に表示された領域322に該当するISO感度値301dに、ユーザーが視線を向けたと想定する。この場合には、図3(E)に示すようにISO感度値301dが点滅表示される。そして、その後に、SETボタン75が押下されると、ISO感度値301dを変更できる状態するために、デジタルカメラ100がISO感度設定モードに遷移する。
なお、図3(E)に示す点滅表示は、中心の表示アイコン等を点滅表示させていることを図式的に示す強調表示の一例である。このように、ユーザーが表示アイテム301に視線を向けると、表示アイテム301が点滅表示することによって、表示アイテム301が
選択可能な状態であることを、ユーザーに対して容易に知らせることができる。
選択可能な状態であることを、ユーザーに対して容易に知らせることができる。
また、領域320にユーザーが視線を向けた場合には、ライブビュー画像300の人物と表示アイテム301との両方が表示されているため、デジタルカメラ100は、ユーザーがどちらを選択しているのかを判定する必要がある。そこで、本実施形態では、デジタルカメラ100は、ユーザーの視線が留まる時間(注視時間;注視状態の継続時間)を計測し、計測した時間と二段階の閾値(第1の注視時間、第2の注視時間)とを比較する。このことによって、デジタルカメラ100は、人物と表示アイテム301のどちらの対象物をユーザーが選択しているのかを判定する。
(ユーザーの選択の判定方法について)
以下では、図3(A)〜図3(C)を用いて、図3(A)に示すような、ライブビュー画像300に対して太陽マーク301aが重畳している領域320をユーザーが注視する場合を例にとって、ユーザーの選択を判定する方法について具体的に説明する。
以下では、図3(A)〜図3(C)を用いて、図3(A)に示すような、ライブビュー画像300に対して太陽マーク301aが重畳している領域320をユーザーが注視する場合を例にとって、ユーザーの選択を判定する方法について具体的に説明する。
まず、図3(A)に示すように、ユーザーが領域320に注視した場合であって、第1の注視時間を経過するまでにSETボタン75が押下された(選択操作がされた)場合には、デジタルカメラ100は押下の操作を無視する。つまり、デジタルカメラ100は、いかなる機能をも実行しない。
次に、ユーザーが領域320に注視した場合であって、第1の注視時間が経過すると、図3(B)に示すように、デジタルカメラ100は、領域320に測距点311を表示する。そして、第1の注視時間を経過し、かつ、第2の注視時間を経過するまでにSETボタン75が押下された場合には、デジタルカメラ100は、表示されている測距点をユーザーが選択したと判定し、当該選択に応じた処理を実行する。
この場合には、太陽マーク301aは、図3(B)に示すように、第1の注視時間を経過した時点で非表示にされる。つまり、太陽マーク301aの非表示および測距点311の表示によって、「第1の注視時間を経過した後で、かつ、第2の注視時間を経過するまでにSETボタン75が押下されると、測距点の選択を実行すること」をユーザーに伝えている。なお、測距点を選択することをユーザーに伝えられればよいため、太陽マーク301aの非表示には限られない。例えば、太陽マーク301a(アイコン)における文字を細字にすることや、縮小、グレーアウトすることなどの控え目な表示にすることが行われてもよい。
一方、ユーザーが領域320に注視した場合であって、第2の注視時間を経過した場合に、デジタルカメラ100は、図3(C)に示すように太陽マーク301aを点滅表示させる。なお、ユーザーに対して太陽マーク301aが選択可能な状態であることを知らせることができれば、特に点滅表示に限らず、例えば、文字を太字若しくはマーク自体の拡大、或いは色付けする等の強調表示が行われてもよい。この場合には、測距点は非表示にされる。その後、SETボタン75をユーザーが押下すると、デジタルカメラ100は、ホワイトバランスの設定変更を可能にする。
以上のように、ユーザーの注視時間に応じて、視線入力によってもユーザーが所望する処理が実行可能になる。
[ユーザーの視線による処理]
図4に示すフローチャートを用いて、表示アイテム301およびライブビュー画像300に対する、視線検出部160(視線受付部)が受け付けたユーザーの視線による処理を説明する。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ5
6に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。このフローチャートは、デジタルカメラ100の電源スイッチ72がオンに操作されると開始する。なお、以下では、EVF29におけるユーザーが継続して注視している位置を「注視位置」と呼び、EVF29における瞬間的な視点の位置を「視点位置」と呼ぶ。
図4に示すフローチャートを用いて、表示アイテム301およびライブビュー画像300に対する、視線検出部160(視線受付部)が受け付けたユーザーの視線による処理を説明する。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ5
6に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。このフローチャートは、デジタルカメラ100の電源スイッチ72がオンに操作されると開始する。なお、以下では、EVF29におけるユーザーが継続して注視している位置を「注視位置」と呼び、EVF29における瞬間的な視点の位置を「視点位置」と呼ぶ。
S401では、システム制御部50は、デジタルカメラ100を撮影待機状態に遷移させる。
S402では、システム制御部50は、接眼検知部57を制御して、ユーザーが接眼している状態か否かを判定する。接眼している状態であると判定された場合にはS403に進み、そうでない場合にはS401に戻る。なお、システム制御部50は、例えば、視線検知センサ164が視線を検知している(受け付けている)場合にも、接眼している状態であると判定してもよい。
S403では、システム制御部50は、視線検出回路165を制御して、EVF29における視線位置を検知(検出)する。なお、S403に遷移した時点では、図3(A)に示すような表示アイテム301が重畳表示された(上層に表示された)ライブビュー画像300がEVF29に表示されている。
S404では、システム制御部50は、システムタイマー53を制御して、EVF29の一部の領域(位置)をユーザーが注視している時間(注視時間)の計測を開始する。ここで、注視とは、上述のように、ユーザーがものを見る位置である視点位置(視線の入力位置)が領域に固定されている状態をいう。なお、視点位置が当該領域から離れた時間があったとしても、当該時間が所定の時間以内であれば、当該領域に対する注視の状態(注視状態)は継続状態であるものとみなされる。
S405では、システム制御部50は、ライブビュー画像300と表示アイテム301とが重畳表示された領域(重畳領域)を、ユーザーが注視しているか否かを判定する。重畳領域が注視されていると判定された場合にはS406に進み、そうでない場合にはS421に進む。
S406では、システム制御部50は、直前のS404において注視時間を計測し始めてから、ユーザーの注視位置(注視している領域)が変化しているか否かを判定する。注視位置が変化していると判定された場合にはS404に戻り、そうでない場合にはS407に進む。なお、S406における注視位置が変化したか否かの判定は、例えば、後述するS413およびS419と同様の処理であり得る。
S407では、システム制御部50は、第1の設定時間TH1を注視時間が経過しているか(注視時間が第1の設定時間TH1以上であるか)否かを判定する。注視時間が第1の設定時間TH1を経過している場合にはS412に進み、そうでない場合(注視時間が第1の設定時間TH1未満である場合)にはS408に進む。
S408では、システム制御部50は、注視位置に応じた処理を選択するための操作(選択操作)であるSETボタン75の押下が行われたか否かを判定する。SETボタン75の押下が行われたと判定された場合にはS409に進み、そうでない場合にはS407に戻る。なお、選択操作は、SETボタン75の押下に限らず、操作部70に含まれるいずれかの操作部材に対する操作であってもよい。例えば、デジタルカメラ100は音声を取得する音声入力部を操作部70の一部として有していてもよく、音声入力部に対する選択を指示するような所定の音声を選択操作としてもよい。また、ユーザーの目つむりに対
応する状態を選択操作としてもよい。なお、目つむりに対応する状態は、ライブビュー画像300の内部から視線位置が消えた場合などに、視線検知センサ164によって検出される。ここで、システム制御部50が選択操作を検出することが、ユーザーの視線に応じた選択(機能)を実行するためのトリガーとなる。
応する状態を選択操作としてもよい。なお、目つむりに対応する状態は、ライブビュー画像300の内部から視線位置が消えた場合などに、視線検知センサ164によって検出される。ここで、システム制御部50が選択操作を検出することが、ユーザーの視線に応じた選択(機能)を実行するためのトリガーとなる。
S409では、システム制御部50は、システムタイマー53による注視時間の計測を終了する。つまり、システム制御部50は、注視時間を0に設定(リセット)するとともに、再び注視時間の計測開始があるまでは注視時間が0である状態を保つ。
S410では、システム制御部50は、何も実行しない。つまり、注視時間が第1の設定時間TH1よりも短い状態、言い換えると、視線が定まっていない状態で、SETボタン75が押下されても、その押下の操作は無効にされる。なお、システム制御部50は、何も実行しないことに限らず、ライブビュー画像300における注視位置(視点位置)に対応する部分と表示アイテム301とのいずれにも関わらない任意の機能を実行してもよい。例えば、S410において、システム制御部50は、複数の設定項目の設定状態を確認することが可能な設定画面の表示をしてもよい。または、システム制御部50は、被写体の撮像を実行してもよい。
S411では、システム制御部50は、注視判定部170を制御して、直前のS404における注視時間の計測開始時点の視線位置から、視線が移動したか否かを判定する。視線が移動していないと判定された場合はS401に進み、そうでない場合にはS402に進む。
S412では、システム制御部50は、ライブビュー画像300において注視位置に測距点(AF対象位置)の表示を行う。このとき、システム制御部50は、注視位置に存在していた表示アイテム301を控え目な表示に変更する。ここで、控え目な表示に変更するとは、例えば、表示アイテム301の文字の色を薄くする、表示アイテム301を半透明な状態にするなどの、表示アイテムが選択対象でないことを示すようにすることをいう。これらによれば、ユーザーは、SETボタン75を押下する(選択操作を行う)ことによって測距点を選択できることを把握できる。
S413では、システム制御部50は、直前のS404における注視時間の計測開始時点から、視点位置が変化したか否かを判定する。視点位置が変化したと判定された場合はS419に進み、そうでない場合にはS414に進む。
S414では、システム制御部50は、注視時間が第2の設定時間TH2を経過しているか(注視時間が第2の設定時間TH2以上であるか)否かを判定する。第2の設定時間TH2は、第1の設定時間TH1よりも長い時間である。注視時間が第2の設定時間TH2を経過したと判定された場合にはS418に進み、そうでない場合(注視時間が、第1の設定時間TH1以上、かつ、第2の設定時間TH2未満である場合)にはS415に進む。
S415では、システム制御部50は、S408と同様に、SETボタン75が押下されたか(選択操作がされたか)否かを判定する。SETボタン75が押下されたと判定された場合にはS416に進み、そうでない場合にはS414に進む。
S416では、システム制御部50は、システムタイマー53による注視時間の計測を終了する。
S417では、システム制御部50は、表示された測距点を選択する。つまり、ライブ
ビュー画像300における一部の領域をユーザーが所定の時間注視してSETボタン75を押下することによって、システム制御部50は、当該領域を選択してAFの対象位置として設定している。ここで、測距点を選択した後には、続いて撮影動作が実行される必要があるため、本実施形態では、短い注視時間(第1の設定時間TH1)で測距点が選択できるように設定されている(優先度を高く設定されている)。なお、S417では、測距点が選択されるだけでなく、当該測距点についてのAFが実行されてもよいし、撮影動作が実行されてもよい。
ビュー画像300における一部の領域をユーザーが所定の時間注視してSETボタン75を押下することによって、システム制御部50は、当該領域を選択してAFの対象位置として設定している。ここで、測距点を選択した後には、続いて撮影動作が実行される必要があるため、本実施形態では、短い注視時間(第1の設定時間TH1)で測距点が選択できるように設定されている(優先度を高く設定されている)。なお、S417では、測距点が選択されるだけでなく、当該測距点についてのAFが実行されてもよいし、撮影動作が実行されてもよい。
S418では、システム制御部50は、アイテム処理を行う。なお、アイテム処理の詳細は、図5のフローチャートを用いて後述する。
S419では、システム制御部50は、S413にて視点位置の変化を検出してから、S404の注視時間の計測開始時点での注視位置に視点位置が戻るまでの時間が、所定の閾値以下(所定の閾値以内)であるか否かを判定する。視点位置が戻るまでの時間が所定の閾値以下であればS414に進み、そうでなければS420に進む。なお、S413にて視点位置の変化が検出されてから所定の閾値が示す時間が経過しても、S404の注視時間の計測開始時点での注視位置に視点位置が戻らない場合にS420に進んでもよく、そうでない場合にS414に進んでもよい。
S419における判定は、ユーザーが所定の位置を凝視した際には視線の微小移動(いわゆる固視微動)がユーザーの意識に関係なく生じるため、固視微動によって注視位置が変わったと判定されてしまうことを防止するために行われている。つまり、システム制御部50は、視点位置が所定の閾値以下の時間で元の注視位置に戻れば、固視微動による視点位置の変化であると判定して、注視時間の測定を継続する。一方、システム制御部50は、視点位置が所定の閾値以下の時間で元の注視位置に戻らなければ、ユーザーが意図して視線位置を変化させた(注視を中断した)と判定する。
S420では、システム制御部50は、S412にて表示した測距点を非表示にする。このとき、システム制御部50は、控えめな表示にしていた表示アイテム301を通常の表示(S412に遷移する前の表示)に戻す。
S421では、システム制御部50は、ライブビュー画像300(背景)が注視されているか否かを判定する。ライブビュー画像300が注視されていると判定された場合はS422へ進み、そうでない場合にはS424に進む。
S422では、システム制御部50は、注視位置に測距点を表示する。
S423では、システム制御部50は、SETボタン75が押下されたか(選択操作がされたか)否かを判定する。SETボタン75が押下されたと判定された場合にはS416に進み、そうでない場合にはS409に進む。
S424では、システム制御部50は、ライブビュー画像300と重畳していない領域(非重畳領域)における表示アイテム301が注視されているか否かを判定する。非重畳領域の表示アイテム301が注視されていると判定された場合にはS425に進み、そうでない場合にはS402に戻る。なお、S424で表示アイテム301が注視されていないと判定された場合、ユーザーは何も注視していない状態、つまり視線を動かし続けている状態であると想定できる。
S425では、システム制御部50は、図3(E)に示すように、注視された表示アイテム301を強調表示する。
S426では、システム制御部50は、SETボタン75が押下されたか(選択操作が行われたか)否かを判定する。SETボタン75が押下されたと判定された場合には後述のS507に進み、そうでない場合にはS409に進む。
(アイテム処理;S418の処理)
図5のフローチャートを用いて、S418において行われるアイテム処理の詳細について説明する。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。
図5のフローチャートを用いて、S418において行われるアイテム処理の詳細について説明する。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。
S501では、システム制御部50は、S412にて表示された測距点を非表示にする。
S502では、システム制御部50は、図3(C)に示すように、注視位置における表示アイテム301を強調表示する。表示アイテム301が強調表示されることによって、ユーザーは、SETボタン75を押下することによって、表示アイテム301を選択することができると認識することができる。
S503では、システム制御部50は、S413と同様に、直前のS404における注視時間の計測開始時点から、視点位置が変化していないか否かを判定する。視点位置が変化した判定された場合はS504に進み、そうでない場合にはS506に進む。
S504では、システム制御部50は、S419と同様に、S503にて視点位置の変化を検出してから、S404にて注視時間の計測を開始した時点での注視位置に視点位置が戻るまでの時間が、所定の閾値以下であるか否かを判定する。視点位置が戻るまでの時間が所定の閾値以下であればS506に進み、そうでなければS505に進む。
S505では、システム制御部50は、S420と同様に、測距点を非表示にする。このとき、システム制御部50は、控えめな表示にしていた表示アイテム301を通常の表示に戻す。なお、S505の処理が終了すると、S402に進む。
S506では、システム制御部50は、SETボタン75が押下されたか(選択操作が行われたか)否かを判定する。SETボタン75が押下されたと判定された場合にはS507に進み、そうでない場合にはS402に進む。
S507では、システム制御部50は、システムタイマー53による注視時間の計測を終了する。
S508では、システム制御部50は、注視位置における表示アイテム301を選択する。
S509では、システム制御部50は、S508にて選択された表示アイテム301のパラメータを変更する。例えば、表示アイテム301が太陽マーク301aであれば、システム制御部50は、ホワイトバランスの設定値を変更する。なお、パラメータを変更する処理は、撮影前の段階で事前に行われることが多く、即時性が求められないため、測距点を選択する動作よりも選択するために必要な注視時間を長くしている(優先度を低く設定している)。なお、S509では、システム制御部50は、パラメータ自体を設定変更するのではなく、表示アイテム301のパラメータを変更するための設定変更画面をEVF29に表示する(パラメータの設定状態に遷移する)ようにしてもよい。
なお、注視時間を計測している間には、注視位置(視点位置)が変化しているか否かが常に判定されていることがより望ましいため、S408NoであればS406に戻ってもよい。また、同様に、S415NoであればS413に戻ってもよい。また、S506にてSETボタン75の押下がなかった場合(S506NOの場合)には、S503に戻ってもよい。つまり、SETボタン75が押下されるか、または注視が中断されるまでS503,S504,S506の処理が繰り返し実行されてもよい。
以上によれば、表示対象に対して表示アイテムが重畳表示されている場合でも、ユーザーの視線入力に応じて、ユーザーが所望する操作を実行することが可能になる。
なお、本実施形態では、システム制御部50は、注視時間が第1の設定時間以上になると、表示アイテムを控えめな表示にし、注視時間が第2の設定時間以上になると、表示アイテムを強調表示するように制御した。しかし、これに限らず、注視時間が第1の設定時間以上かつ第2の設定時間未満である場合と、注視時間が第2の設定時間以上である場合とで、表示アイテムが互いに異なる表示形態にされればよい。
また、ライブビュー画像に表示アイテムが重畳して表示される例を説明したが、エクセルなどの表に対して表示アイテムが重畳される例でも本実施形態は適用可能である。この場合には、システム制御部50は、S412やS422において、測距点を表示する代わりに、注視位置にあるセルを強調表示してもよい。また、システム制御部50は、S417において測距点を選択する代わりに、注視位置のセルの選択をしてもよい(注視位置のセルを、情報を入力する先として決定してもよい)。
また、表示アイテムは、テキストボックスであってもよい。この場合には、システム制御部50は、S509において、パラメータを変更する代わりに、テキストボックスへのテキスト入力(文字入力)が可能な状態に遷移させる機能を実行してもよい。
なお、例えば、ライブビュー画像に重畳された表示アイテムが時計やページ番号を示すようなものであれば、当該表示アイテムの重畳領域に第2の設定時間以上の注視がされても、S508およびS509においてシステム制御部50は何も実行しなくてよい。これは、時計やページ番号は、ユーザーに対して情報を提示することを役割としているため、選択して何かを実行することの必要性が高くないからである。
また、例えば、表示アイテムが撮影の実行を示すようなものであれば、当該表示アイテムの重畳領域に第1の設定時間以上の注視がされると、システム制御部50は、選択操作に応じて、当該表示アイテムに対応する機能を実行してもよい。この場合には、当該重畳領域に対して第2の設定時間以上の注視がされないと、システム制御部50は、選択操作に応じて、測距点の選択を行わない。これは、撮影の実行などは即時性が求められるため、測距点の選択よりも素早く実行されることが求められるからである。
また、本実施形態では、ライブビュー画像と表示アイテムの選択を例にして説明した。しかし、例えば、2以上の表示アイテムが重なって表示されている場合にも本実施形態は適用可能である。例えば、2つの表示アイテムの重畳領域に対して第1の設定時間以上の注視が行われた後に選択操作が行われれば一方の表示アイテムが選択されて、第2の設定時間以上の注視が行われた後に選択操作が行われれば他方の表示アイテムが選択されてもよい。
また、本実施形態では、ユーザーの使用状況を想定して、測距点の選択の方が表示アイテムの選択よりも選択に必要な注視時間が短く設定されているが、選択に必要な注視時間
の長さは、表示アイテムの選択の方が長くてもよい。
の長さは、表示アイテムの選択の方が長くてもよい。
さらに、S412では、測距点の表示の処理を行っているが、注視個所の画像を拡大表示してもよいし、注視個所を強調させる処理を行ってもよい。また、S417では、測距点の選択ではなく、追尾対象の被写体の設定(選択)が行われてもよい。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明したが、これはこの例に限定されず、視線入力の位置に応じた処理を実行するである電子機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
なお、上記の各実施形態の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ、50:システム制御部、160:視線検出部、29:EVF
Claims (20)
- 表示手段を見るユーザーの視線による視線入力を受け付ける受付手段と、
前記表示手段に、表示対象を表示するとともに、前記表示対象に重畳して表示アイテムを表示するように制御する表示制御手段と、
前記表示アイテムが表示された第1の領域に対する前記視線入力による注視状態の継続時間が第1の時間に達する前に所定のトリガーがあっても、第1の機能と第2の機能のいずれも実行することなく、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合に前記所定のトリガーがあったことに応じて、前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御し、
前記第1の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて、前記表示アイテムを選択して前記第2の機能を実行するように制御する制御手段と
を有することを特徴とする電子機器。 - 前記表示対象は、ライブビュー画像であり、
前記第1の機能は、AF(オートフォーカス)と、AF対象位置の設定と、追尾対象の設定とのうち少なくともいずれかの機能である
ことを特徴とする請求項1に記載の電子機器。 - 前記第2の機能は、前記第1の領域に表示された表示アイテムに対応する撮影設定の設定変更または設定変更画面の表示である
ことを特徴とする請求項2に記載の電子機器。 - 前記表示対象は、表であり、
前記第1の機能は、前記表のうちのセルの選択である
ことを特徴とする請求項1に記載の電子機器。 - 前記表示アイテムは、テキストボックスであり、
前記第2の機能は、前記第1の領域に表示された前記テキストボックスへのテキスト入力が可能な状態への遷移である
ことを特徴とする請求項4に記載の電子機器。 - 領域に対する前記注視状態とは、ユーザーの前記視線入力による入力位置が当該領域に固定されている状態であり、
前記ユーザーの前記視線入力による入力位置が当該領域から離れている時間があっても、当該時間が所定の閾値以内であれば、前記注視状態が継続しているとみなされる
ことを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第1の領域に対する前記注視状態の継続時間が前記第1の時間に達する前に前記所定のトリガーがあった場合であっても、当該所定のトリガーに対応する処理を実行しない
ことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第1の領域に対する前記注視状態の継続時間が前記第1の時間に達する前に前記所定のトリガーがあった場合には、第3の機能を実行する
ことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。 - 前記第3の機能は、前記表示対象のうち前記視線入力による入力位置に対応する部分と
、前記表示アイテムとの、いずれにもかかわらない機能である
ことを特徴とする請求項8に記載の電子機器。 - 前記第3の機能は、複数の設定項目の設定状態を確認することが可能な設定画面の表示である
ことを特徴とする請求項8または9に記載の電子機器。 - 前記所定のトリガーは、ユーザーが実行する所定の操作の検出である
ことを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。 - 前記所定のトリガーは、所定の音声の検出、目つむりに対応する状態の検出のいずれかである
ことを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。 - 前記表示制御手段は、前記表示対象に対して前記表示アイテムが前面に配置されるように前記表示手段を制御する
ことを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。 - 前記表示制御手段は、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間に達する前には、前記表示アイテムを第1の表示形態で表示し、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ前記第2の時間未満である場合には、前記表示アイテムを第2の表示形態で表示するように前記表示手段を制御する
ことを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。 - 前記表示制御手段は、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間に達する前には、前記表示アイテムを第1の表示形態で表示し、
前記第1の領域に対する前記注視状態の継続時間が前記第2の時間以上となった場合には、前記表示アイテムを第3の表示形態で表示するように前記表示手段を制御する
ことを特徴とする請求項1乃至14のいずれか1項に記載の電子機器。 - 前記制御手段は、前記表示対象に重畳された第2の表示アイテムが表示された第2の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合には、前記所定のトリガーがあっても前記第2の表示アイテムを選択する機能を実行しない
ことを特徴とする請求項1乃至15のいずれか1項に記載の電子機器。 - 前記制御手段は、
前記表示対象に重畳された第3の表示アイテムが表示された第3の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合には、前記所定のトリガーがあると、前記第3の表示アイテムを選択する機能を実行し、
前記第3の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御する
ことを特徴とする請求項1乃至16のいずれか1項に記載の電子機器。 - 表示手段を見るユーザーの視線による視線入力を受け付ける受付工程と、
前記表示手段に、表示対象を表示するとともに、前記表示対象に重畳して表示アイテムを表示するように制御する表示制御工程と、
前記表示アイテムが表示された第1の領域に対する前記視線入力による注視状態の継続時間が第1の時間に達する前に所定のトリガーがあっても、第1の機能と第2の機能のいずれも実行することなく、
前記第1の領域に対する前記注視状態の継続時間が前記第1の時間以上かつ第2の時間未満である場合に前記所定のトリガーがあったことに応じて、前記視線入力による入力位置に基づく前記表示対象の一部を選択して前記第1の機能を実行するように制御し、
前記第1の領域に対する前記注視状態の継続時間が前記第2の時間以上である場合に前記所定のトリガーがあったことに応じて、前記表示アイテムを選択して前記第2の機能を実行するように制御する制御工程と
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1乃至17のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1乃至17のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039169A JP2021140590A (ja) | 2020-03-06 | 2020-03-06 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
US17/191,245 US11526208B2 (en) | 2020-03-06 | 2021-03-03 | Electronic device and method for controlling electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039169A JP2021140590A (ja) | 2020-03-06 | 2020-03-06 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021140590A true JP2021140590A (ja) | 2021-09-16 |
Family
ID=77556708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020039169A Pending JP2021140590A (ja) | 2020-03-06 | 2020-03-06 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11526208B2 (ja) |
JP (1) | JP2021140590A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7353811B2 (ja) * | 2019-06-17 | 2023-10-02 | キヤノン株式会社 | 電子機器およびその制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2952072B2 (ja) | 1991-05-13 | 1999-09-20 | キヤノン株式会社 | 視線検出装置および視線検出手段を備えた光学機器 |
KR100593982B1 (ko) | 2003-11-06 | 2006-06-30 | 삼성전자주식회사 | 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체 |
CN105719439A (zh) * | 2014-12-05 | 2016-06-29 | 富泰华工业(深圳)有限公司 | 护眼系统及方法 |
US10001837B2 (en) * | 2014-12-23 | 2018-06-19 | Intel Corporation | Technologies for interacting with computing devices using haptic manipulation |
US10699116B2 (en) * | 2015-02-20 | 2020-06-30 | Hewlett-Packard Development Company, L.P. | Eye gaze authentication |
CN104834446B (zh) * | 2015-05-04 | 2018-10-26 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪技术的显示屏多屏控制方法及系统 |
KR20180027917A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US10928898B2 (en) * | 2019-01-03 | 2021-02-23 | International Business Machines Corporation | Augmented reality safety |
-
2020
- 2020-03-06 JP JP2020039169A patent/JP2021140590A/ja active Pending
-
2021
- 2021-03-03 US US17/191,245 patent/US11526208B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11526208B2 (en) | 2022-12-13 |
US20210278749A1 (en) | 2021-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467071B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP7346135B2 (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
GB2547975A (en) | Electronic apparatus and method for controlling the same | |
JP7346375B2 (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
CN112104809B (zh) | 电子装置、电子装置的控制方法及存储介质 | |
JP2018013745A (ja) | 電子機器およびその制御方法 | |
JP7672822B2 (ja) | 電子機器 | |
US11240419B2 (en) | Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium | |
JP7446913B2 (ja) | 電子機器、電子機器の制御方法、プログラム | |
JP2021114731A (ja) | 撮像制御装置及びその制御方法 | |
JP7277306B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021152597A (ja) | 撮像装置およびその制御方法、プログラム並びに記憶媒体 | |
JP2021018634A (ja) | 電子機器およびその制御方法 | |
JP2020197976A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021140590A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP7387493B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021097356A (ja) | 撮像制御装置 | |
JP2021156919A (ja) | 撮像装置 | |
JP2021071847A (ja) | 電子機器およびその制御方法 | |
JP7570825B2 (ja) | 撮像装置 | |
JP7451255B2 (ja) | 電子機器及びその制御方法 | |
US11418715B2 (en) | Display control apparatus and control method therefor | |
US20240397191A1 (en) | Image capture apparatus, control method for the same, and non-transitory computer-readable storage medium | |
JP6855317B2 (ja) | 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体 | |
JP2018023068A (ja) | 電子装置、その制御方法およびプログラム |