JP2011081480A - 画像入力システム - Google Patents
画像入力システム Download PDFInfo
- Publication number
- JP2011081480A JP2011081480A JP2009231224A JP2009231224A JP2011081480A JP 2011081480 A JP2011081480 A JP 2011081480A JP 2009231224 A JP2009231224 A JP 2009231224A JP 2009231224 A JP2009231224 A JP 2009231224A JP 2011081480 A JP2011081480 A JP 2011081480A
- Authority
- JP
- Japan
- Prior art keywords
- icon
- image
- input system
- icons
- depth direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】3D画像を活用した画像入力システムを提供すること。
【解決手段】立体画像中に表示される複数のアイコンiには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、当該アイコンiは、奥行き方向の位置情報を含む3次元位置情報によって、識別可能となっている。つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、この画像入力システムでは、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別(選択)を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システムを提供することができる。
【選択図】図2
【解決手段】立体画像中に表示される複数のアイコンiには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、当該アイコンiは、奥行き方向の位置情報を含む3次元位置情報によって、識別可能となっている。つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、この画像入力システムでは、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別(選択)を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システムを提供することができる。
【選択図】図2
Description
本発明は、立体画像を用いた画像入力システムに関する。
昨今、携帯電話や、携帯型音楽プレーヤーなどでは、表示画面上にタッチパネルを備えた機種が流行している。これは、表示画面に表示されるアイコン(操作メニュー)に直接触れることにより、当該アイコンに割り付けられた機能が実行されるため、操作性に優れているからである。
このようなタッチパネルは、使用者が直接触れて操作する必要があるため、主に、携帯電話のように携帯可能な電子機器や、カーナビゲーション・システムなどの手の届く範囲で用いられる電子機器に採用されていた。
他方、数十インチの大画面を有する大型テレビや、家庭用のプロジェクターなどの一般家庭への普及が広がりつつあり、このような大画面の表示装置においても、タッチパネルのようなユーザーインターフェイスに優れた入力手段が求められていた。
他方、数十インチの大画面を有する大型テレビや、家庭用のプロジェクターなどの一般家庭への普及が広がりつつあり、このような大画面の表示装置においても、タッチパネルのようなユーザーインターフェイスに優れた入力手段が求められていた。
このような要望に対して、例えば、特許文献1には、使用者が指を指した延長方向の投写画像上にカーソル状の画像を表示させる技術が提案されている。詳しくは、視角の異なる2台の撮像カメラを用いて、使用者の体の位置や手の位置を画像認識により検出し、体の略中心点と手の先端とを結ぶ線分の延長線が、スクリーンと交わる部分にカーソル状の画像を表示させていた。
また、特許文献2には、同様に2台の撮像カメラを用いて、使用者の体全体を撮像および画像認識することにより、片手を上げているなどの使用者の動作態様を検出して、検出した動作態様を離間して配置された表示装置に表示したり、当該動作態様の内容に応じて、ゲームのキャラクターを動かす画像認識システムが開示されている。
また、これらの技術で用いられる投写画像や、表示装置に表示される画像は、いずれも平面(2D)画像であるが、近年、立体(3D)画像を表示する表示装置や、表示システムも種々提案され始めている。
また、特許文献2には、同様に2台の撮像カメラを用いて、使用者の体全体を撮像および画像認識することにより、片手を上げているなどの使用者の動作態様を検出して、検出した動作態様を離間して配置された表示装置に表示したり、当該動作態様の内容に応じて、ゲームのキャラクターを動かす画像認識システムが開示されている。
また、これらの技術で用いられる投写画像や、表示装置に表示される画像は、いずれも平面(2D)画像であるが、近年、立体(3D)画像を表示する表示装置や、表示システムも種々提案され始めている。
しかしながら、上述した従来の技術では、3D画像を入力手段に適用することについてなんら考慮されていないという問題があった。例えば、特許文献1では、使用者の指差す方向を立体的に検知したとしても、2次元の投写画像における検出位置にカーソルを表示させるだけであり、結局、2次元平面における2軸の2次元位置情報を特定しているに過ぎなかった。また、特許文献2では、使用者の動作態様を立体的に検知して、検知した動作態様自体を操作指示とみなすというものであるため、入力手段に3D画像を用いるものではなかった。
特に、3D画像では、XY軸で表される平面座標軸に加えて、Z軸で表される奥行き方向の座標軸が存在するが、上記両文献では、このZ軸方向の座標軸の活用方法について全く考慮されていない。つまり、3D画像を活用した入力システムについては、なんら開示されていないという課題があった。
また、従来の技術では、使用者の動作態様を検出して、その動作態様に応じてなんらかの機能を行うことが可能であるが、表示画面に表示される操作メニュー(アイコン)に関する記載が見当たらないため、使い勝手の良し悪しについては不明であった。
つまり、入力システムの操作性(使い勝手)については、なんら考慮されていないという課題があった。
特に、3D画像では、XY軸で表される平面座標軸に加えて、Z軸で表される奥行き方向の座標軸が存在するが、上記両文献では、このZ軸方向の座標軸の活用方法について全く考慮されていない。つまり、3D画像を活用した入力システムについては、なんら開示されていないという課題があった。
また、従来の技術では、使用者の動作態様を検出して、その動作態様に応じてなんらかの機能を行うことが可能であるが、表示画面に表示される操作メニュー(アイコン)に関する記載が見当たらないため、使い勝手の良し悪しについては不明であった。
つまり、入力システムの操作性(使い勝手)については、なんら考慮されていないという課題があった。
本発明は、上記課題の少なくとも一部を解決するためになされたものであり、以下の適用例又は形態として実現することが可能である。
(適用例)
立体画像を表示する表示装置と、立体画像と向い合う方向に位置する使用者を異なる視角から撮像する複数台のカメラと、表示装置、および複数台のカメラを制御する制御部と、を少なくとも備えた画像入力システムであって、制御部は、表示装置によって、操作用の複数のアイコンを含む立体画像を表示させるとともに、複数台のカメラが撮像した複数の画像を解析して、使用者における立体画像側に最も突出した部位の3次元位置情報を含む解析情報を導出し、複数のアイコンには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、奥行き方向の位置が異なるアイコンは、奥行き方向の位置情報を含む3次元位置情報によって、識別または選択されることを特徴とする画像入力システム。
立体画像を表示する表示装置と、立体画像と向い合う方向に位置する使用者を異なる視角から撮像する複数台のカメラと、表示装置、および複数台のカメラを制御する制御部と、を少なくとも備えた画像入力システムであって、制御部は、表示装置によって、操作用の複数のアイコンを含む立体画像を表示させるとともに、複数台のカメラが撮像した複数の画像を解析して、使用者における立体画像側に最も突出した部位の3次元位置情報を含む解析情報を導出し、複数のアイコンには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、奥行き方向の位置が異なるアイコンは、奥行き方向の位置情報を含む3次元位置情報によって、識別または選択されることを特徴とする画像入力システム。
この画像入力システムによれば、立体画像中に表示される複数のアイコンには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、当該アイコンは、奥行き方向の位置情報を含む3次元位置情報によって、識別(選択)可能となっている。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、適用例における画像入力システムでは、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンの識別を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システムを実現することができる。
また、立体表示されたアイコンを操作する場合には、視覚的に操作したいアイコンが表示されている空間に手を伸ばすことにより、その奥行き方向の位置に表示されているアイコンを識別(選択)することができる。詳しくは、この場合、手の位置が立体画像側に最も突出した部位となるため、手の奥行き方向の位置情報を、複数台のカメラが撮像した複数の画像を解析した解析情報における3次元位置情報として検出して、当該3次元位置情報と一致する位置に表示されているアイコンを識別することができる。
従って、3D画像を活用した画像入力システムを提供することができる。
また、本適用例に係る画像入力システムによれば、使用者は、立体表示されたアイコンに手を伸ばして触れる動作をすることによって、所望のアイコンを識別できるため、ユーザーインターフェイスに優れている。
従って、使い勝手の良い画像入力システムを提供することができる。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、適用例における画像入力システムでは、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンの識別を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システムを実現することができる。
また、立体表示されたアイコンを操作する場合には、視覚的に操作したいアイコンが表示されている空間に手を伸ばすことにより、その奥行き方向の位置に表示されているアイコンを識別(選択)することができる。詳しくは、この場合、手の位置が立体画像側に最も突出した部位となるため、手の奥行き方向の位置情報を、複数台のカメラが撮像した複数の画像を解析した解析情報における3次元位置情報として検出して、当該3次元位置情報と一致する位置に表示されているアイコンを識別することができる。
従って、3D画像を活用した画像入力システムを提供することができる。
また、本適用例に係る画像入力システムによれば、使用者は、立体表示されたアイコンに手を伸ばして触れる動作をすることによって、所望のアイコンを識別できるため、ユーザーインターフェイスに優れている。
従って、使い勝手の良い画像入力システムを提供することができる。
また、複数のアイコンは、表示装置の画面に沿った平面方向において互いに重ならないように配置されていることが好ましい。
また、複数のアイコンのうち、相対的に奥行き方向の高さが高く、使用者に近い位置に表示されるアイコンには、第1の機能が割り付けられ、奥行き方向の高さが高いアイコンよりも、奥行き方向の高さが低いアイコンには、第1の機能よりも使用頻度の低い第2の機能が割り付けられることが好ましい。
また、複数のアイコンは、表示装置の画面に沿った平面方向においてその一部が重なるとともに、奥行き方向において、層状に重ねられていることが好ましい。
また、制御部は、使用者における立体画像側に最も突出した部位の態様が、第1の態様から、第1の態様とは異なる第2の態様に変化したことを検出した場合、選択されたアイコンに割り付けられた機能を実行することが好ましい。
また、複数のアイコンのうち、相対的に奥行き方向の高さが高く、使用者に近い位置に表示されるアイコンには、第1の機能が割り付けられ、奥行き方向の高さが高いアイコンよりも、奥行き方向の高さが低いアイコンには、第1の機能よりも使用頻度の低い第2の機能が割り付けられることが好ましい。
また、複数のアイコンは、表示装置の画面に沿った平面方向においてその一部が重なるとともに、奥行き方向において、層状に重ねられていることが好ましい。
また、制御部は、使用者における立体画像側に最も突出した部位の態様が、第1の態様から、第1の態様とは異なる第2の態様に変化したことを検出した場合、選択されたアイコンに割り付けられた機能を実行することが好ましい。
また、制御部は、立体画像において3次元位置情報に基づく位置に、カーソルを表示させることが好ましい。
また、カーソルは、奥行き方向の位置によって、その色調、または形状が変化することが好ましい。
また、カーソルは、立体画像中に複数存在することが好ましい。
また、選択されたアイコンは、他のアイコンよりも強調された表示となることが好ましい。
また、使用者における立体画像側に最も突出した部位は、手であり、第1の態様、および第2の態様を含む手の態様には、手の平を開く、握る、指を指す態様が含まれていることが好ましい。
また、カーソルは、奥行き方向の位置によって、その色調、または形状が変化することが好ましい。
また、カーソルは、立体画像中に複数存在することが好ましい。
また、選択されたアイコンは、他のアイコンよりも強調された表示となることが好ましい。
また、使用者における立体画像側に最も突出した部位は、手であり、第1の態様、および第2の態様を含む手の態様には、手の平を開く、握る、指を指す態様が含まれていることが好ましい。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の各図においては、各層や各部材を図面上で認識可能な程度の大きさとするため、各層や各部材毎に縮尺を異ならしめてある。
(実施形態1)
「画像入力システムの概要」
図1は、実施形態1に係る画像入力システムの概要を示す斜視図である。図2(a)は、当該画像入力システムの表示装置によって表示された立体画像の一態様を示す斜視図である。まず、本実施形態に係る画像入力システム100の概略構成について説明する。
「画像入力システムの概要」
図1は、実施形態1に係る画像入力システムの概要を示す斜視図である。図2(a)は、当該画像入力システムの表示装置によって表示された立体画像の一態様を示す斜視図である。まず、本実施形態に係る画像入力システム100の概略構成について説明する。
画像入力システム100は、表示装置50、カメラ55,56などから構成されている。表示装置50は、大型のプラズマテレビであり、付属するシャッターメガネ40を用いて立体画像(3D画像)を表示可能な構成を備えている。詳しくは、表示装置50は、右画像と、左画像とを交互に表示するとともに、当該交互の切り換えタイミングに同期してシャッターメガネ40の左目側と、右目側とのレンズが交互に閉じる(遮光される)ことにより、使用者の右目には右画像が、左目には左画像が、それぞれ選択的に視認されて、脳内で合成されることにより立体画像として認識される。なお、このように立体画像は脳内で合成されて認識されるものであるが、説明を容易にするために、以降の説明においては、立体画像が形成(認識)されることを立体画像が表示されるともいう。
カメラ55,56は、表示装置50の上部における両隅に取り付けられており、当該表示装置の画面Vと向い合う位置で、ソファーに座っている使用者を異なる視角から撮像する。換言すれば、カメラ55,56は、表示装置50が表示する立体画像と向い合う方向に位置する使用者を異なる視角から撮像可能な位置に取り付けられている。
また、図1を含む各図においては、表示装置50の横長の長方形をなした画面Vにおける当該横方向をX軸方向とし、横方向よりも短い縦方向をY軸方向と定義している。また、画面Vと略平行な面のことを平面ともいう。また、画面Vから引いた垂線の延在方向をZ軸方向としている。なお、Z軸方向は、立体画像における奥行き方向に相当する。また、Y軸(+)、(−)方向を上下方向とし、X軸(−)、(+)方向を左右方向としている。
また、図1を含む各図においては、表示装置50の横長の長方形をなした画面Vにおける当該横方向をX軸方向とし、横方向よりも短い縦方向をY軸方向と定義している。また、画面Vと略平行な面のことを平面ともいう。また、画面Vから引いた垂線の延在方向をZ軸方向としている。なお、Z軸方向は、立体画像における奥行き方向に相当する。また、Y軸(+)、(−)方向を上下方向とし、X軸(−)、(+)方向を左右方向としている。
ここで、図2(a)に示すように、表示装置50によって表示された立体画像には、操作用の複数のアイコンiが含まれている。そして、複数のアイコンiには、立体画像における奥行き方向の位置が異なるアイコンiが含まれている。
詳しくは、立体画像における林檎の右側に表示された複数のアイコンiには、3行に渡ってアイコンiが表示されており、最上段にはアイコンi11〜i13の3つのアイコンが表示され、その下にはアイコンi21〜i22の2つのアイコンが表示され、最下段にはアイコンi31が表示されている。また、奥行き方向(Z軸(+)方向)の高さは、最上段のアイコンi11〜i13が最も高く、次いで中段のアイコンi21〜i22、最下段のアイコンi31の順に低くなっている。また、各アイコンは、略立方体状をなしており、平面サイズが略等しく、その厚さ(高さ)が行ごとに異なっている。
詳しくは、立体画像における林檎の右側に表示された複数のアイコンiには、3行に渡ってアイコンiが表示されており、最上段にはアイコンi11〜i13の3つのアイコンが表示され、その下にはアイコンi21〜i22の2つのアイコンが表示され、最下段にはアイコンi31が表示されている。また、奥行き方向(Z軸(+)方向)の高さは、最上段のアイコンi11〜i13が最も高く、次いで中段のアイコンi21〜i22、最下段のアイコンi31の順に低くなっている。また、各アイコンは、略立方体状をなしており、平面サイズが略等しく、その厚さ(高さ)が行ごとに異なっている。
そして、使用者の手60は、人差し指でアイコンi13を指差した状態となっている。これは、使用者が視覚的にアイコンi13を直に触れている状態を模式的に示したものであり、使用者がタッチパネルと同じ感覚で、アイコンi13の操作を行なっている状態を示している。
画像入力システム100では、この人差し指の位置をカメラ55,56が撮像した視角の異なる撮像データを画像認識、および解析して、奥行き方向の位置情報を含む3次元位置情報として検出し、使用者が操作しているアイコンi13を識別することができる。換言すれば、撮像データから人差し指の位置を3次元位置情報として検出し、立体表示されている複数のアイコンiのうち、当該3次元位置情報と一致する位置に表示されているアイコンi13が選択されていることを識別することができる。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンiの識別を行っていた従来の入力システムと異なり、本実施形態の画像入力システム100では、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別を行うことができる。換言すれば、画像入力システム100は、3D画像固有の奥行き方向の座標軸(Z軸)を活用した画像入力システムである。
画像入力システム100では、この人差し指の位置をカメラ55,56が撮像した視角の異なる撮像データを画像認識、および解析して、奥行き方向の位置情報を含む3次元位置情報として検出し、使用者が操作しているアイコンi13を識別することができる。換言すれば、撮像データから人差し指の位置を3次元位置情報として検出し、立体表示されている複数のアイコンiのうち、当該3次元位置情報と一致する位置に表示されているアイコンi13が選択されていることを識別することができる。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンiの識別を行っていた従来の入力システムと異なり、本実施形態の画像入力システム100では、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別を行うことができる。換言すれば、画像入力システム100は、3D画像固有の奥行き方向の座標軸(Z軸)を活用した画像入力システムである。
また、図2(a)では、奥行き方向の高さが最も高いアイコンi13を選択している状態を示しているが、奥行き方向の高さが異なる他のアイコンiを選択する場合も、視覚的に操作したいアイコンが表示されている位置(空間)に手を伸ばせば良い。この場合も同様に、手を伸ばした状態における人差し指の位置が3次元位置情報として検出されて、所望のアイコンを選択(識別)することができる。なお、手を伸ばすことに限定するものではなく、使用者における立体画像側(Z軸(−)側)に最も突出した部分が検出できれば良い。例えば、太目の指し棒や、マジックハンドなどの突出物を用いても良い。
また、図2(a)に示すように、選択されたアイコンi13は、他のアイコンiよりも表示が強調されて、選択状態にあることが視覚的に識別できるようになっている。強調の方法としては、他のアイコンiよりも表示コントラストを高くする方法や、輪郭線を太くする方法、色調を強くする方法などがある。また、選択されたアイコンiを点滅表示させても良い。
また、図2(a)に示すように、選択されたアイコンi13は、他のアイコンiよりも表示が強調されて、選択状態にあることが視覚的に識別できるようになっている。強調の方法としては、他のアイコンiよりも表示コントラストを高くする方法や、輪郭線を太くする方法、色調を強くする方法などがある。また、選択されたアイコンiを点滅表示させても良い。
また、本実施形態では、好適例として、プラズマテレビに、シャッターメガネ40を組み合わせた、いわゆるアクティブ型の表示装置50を立体画像表示装置として採用しているが、使用者の前面に3D画像を表示可能な表示装置であれば良い。例えば、画面における走査線の奇数ライン(左画像)と偶数ライン(右画像)とに、それぞれ偏光軸の異なる偏光板を貼り付けた液晶テレビからなるディスプレイと、左目レンズには奇数ラインの偏光板と偏光軸を揃えた偏光板を有し、右目レンズには偶数ラインの偏光板と偏光軸を揃えた偏光板を備えた偏光メガネとから構成された、いわゆるパッシブ型の3D画像表示装置であっても良い。
または、専用のメガネを用いずに、ディスプレイの前面に左右の画像を振り分けるためのパララックスバリアや、レンティキュラーレンズを設けて、適視位置においては、裸眼で3D画像を鑑賞可能とした表示装置であっても良い。
または、専用のメガネを用いずに、ディスプレイの前面に左右の画像を振り分けるためのパララックスバリアや、レンティキュラーレンズを設けて、適視位置においては、裸眼で3D画像を鑑賞可能とした表示装置であっても良い。
「画像入力システムの回路ブロック構成」
図3は、画像入力システムの回路ブロック構成図である。
続いて、前述したような入力インターフェイスを実現するための画像入力システム100の構成について、表示装置50の構成を中心に説明する。
表示装置50は、プラズマパネル1、駆動回路2、画像信号処理部3、制御部5、メガネ制御部8、カメラ駆動部9などから構成されている。
プラズマパネル1は、プラズマディスプレイパネルであり、好適例として対角50インチ以上で、ハイビジョン画質(1280×720)に対応した解像度を有している。
駆動回路2は、プラズマパネル1を走査駆動するための駆動回路であり、走査線(行電極)駆動回路、およびデータ線(列電極)駆動回路などを含んで構成されている。
図3は、画像入力システムの回路ブロック構成図である。
続いて、前述したような入力インターフェイスを実現するための画像入力システム100の構成について、表示装置50の構成を中心に説明する。
表示装置50は、プラズマパネル1、駆動回路2、画像信号処理部3、制御部5、メガネ制御部8、カメラ駆動部9などから構成されている。
プラズマパネル1は、プラズマディスプレイパネルであり、好適例として対角50インチ以上で、ハイビジョン画質(1280×720)に対応した解像度を有している。
駆動回路2は、プラズマパネル1を走査駆動するための駆動回路であり、走査線(行電極)駆動回路、およびデータ線(列電極)駆動回路などを含んで構成されている。
画像信号処理部3は、画像プロセッサーであり、外部の画像信号供給装置300から入力された画像データをプラズマパネル1にて表示するのに適切な画像信号に変換する。また、画像信号処理部3には、フレームメモリー4が附属している。フレームメモリー4は、左画像データ、および右画像データを複数フレーム分、格納可能なデータ容量を備えている。
インターネットを経由した動画配信サイトや、ブルーレイディスクプレーヤー(登録商標)、またはパーソナルコンピューターなどの画像信号供給装置300からは、左画像と右画像とが左右に並んだ状態で伝送されるサイドバイサイドなどの3D映像フォーマットに対応した3D画像信号が入力される。
画像信号処理部3は、制御部5からの制御信号に従い、フレームメモリー4を活用して、入力された3D画像信号に対して、データの補完、または間引き、切り出しなどを含むスケーリング処理を行い、プラズマパネル1の解像度に合わせた画像データを出力する。また、合せて、生成された画像データにアイコンiを表示させるためのOSD(On-Screen Display)処理を施す。詳しくは、記憶部7に記憶されているアイコンiを表す画像データを生成された画像データに重畳させる画像処理を行う。
インターネットを経由した動画配信サイトや、ブルーレイディスクプレーヤー(登録商標)、またはパーソナルコンピューターなどの画像信号供給装置300からは、左画像と右画像とが左右に並んだ状態で伝送されるサイドバイサイドなどの3D映像フォーマットに対応した3D画像信号が入力される。
画像信号処理部3は、制御部5からの制御信号に従い、フレームメモリー4を活用して、入力された3D画像信号に対して、データの補完、または間引き、切り出しなどを含むスケーリング処理を行い、プラズマパネル1の解像度に合わせた画像データを出力する。また、合せて、生成された画像データにアイコンiを表示させるためのOSD(On-Screen Display)処理を施す。詳しくは、記憶部7に記憶されているアイコンiを表す画像データを生成された画像データに重畳させる画像処理を行う。
制御部5は、CPU(Central Processing Unit)であり、各部の動作を制御する。また、制御部5には、操作部6、記憶部7、および計時部(図示せず)が附属している。また、制御部5は、記憶部7、およびフレームメモリー4を含む画像信号処理部3を活用して、カメラ55,56が撮像した撮像データを画像認識、および解析して、3次元位置情報を含む解析情報を導出する解析部としても機能する。なお、解析情報には、例えば、リアルタイムクロックなどからなる計時部による時間情報が含まれている。これは、時間経過に沿って使用者(手)の態様は変化するため、3次元位置情報を解析するためには、同じ撮像時間における2つの撮像データを解析する必要があるからである。
操作部6は、表示装置50の画面Vの下などの額縁部に形成されており、複数の操作ボタン(図示せず)を含んで構成されている。複数の操作ボタンには、電源ボタンなどの専用ボタンと、2D画像と3D画像との切り換え選択や、表示されるアイコン種類の切り換え選択などを行うための、選択および決定を行う複数の汎用ボタンなどが含まれている。なお、同様な複数の操作ボタンを備えたリモコン(図示せず)も付属している。
操作部6は、表示装置50の画面Vの下などの額縁部に形成されており、複数の操作ボタン(図示せず)を含んで構成されている。複数の操作ボタンには、電源ボタンなどの専用ボタンと、2D画像と3D画像との切り換え選択や、表示されるアイコン種類の切り換え選択などを行うための、選択および決定を行う複数の汎用ボタンなどが含まれている。なお、同様な複数の操作ボタンを備えたリモコン(図示せず)も付属している。
記憶部7は、例えば、フラッシュメモリーなどの不揮発性のメモリーにより構成されている。記憶部7には、カメラ55,56に撮像させた後、当該撮像データから人差し指の位置を3次元位置情報として検出し、立体表示されている複数のアイコンiのうち、当該3次元位置情報と一致する位置に表示されているアイコンiを識別するための順序と内容を規定した入力操作検出プログラムを含み、表示装置50の動作を制御するための様々なプログラムおよび付随するデータが記憶されている。当該プログラムには、制御部5などを解析部として機能させるための画像解析プログラムや、シャッターメガネ40の制御プログラムも含まれている。なお、記憶部7に加えて、大容量のハードディスクドライブをさらに備えていても良い。
メガネ制御部8は、無線通信部(図示せず)を備えており、上述のシャッターメガネ40の制御プログラムに従って制御信号をシャッターメガネ40に無線送信する。
シャッターメガネ40は、左目、および右目のレンズ部分にそれぞれ液晶シャッターを備えており、メガネ制御部8からの制御信号に従って、両者を排他的に透過状態と遮光状態とに切り換える。換言すれば、左画像と右画像とが交互に表示されるタイミングに同期して、左目、および右目のレンズ部分を交互に透過状態と遮光状態とに切り換える。好適例では、例えば、画面Vに左画像と右画像とを120フレーム/秒で映し出して、シャッターメガネ40で右目と左目へ交互に60フレーム/秒ずつ伝達する。換言すれば、左右の画像がそれぞれ1秒間に60フレームずつ、左目、および右目に選択的に視認されることにより、3D画像が認識される。
なお、図示は省略しているが、シャッターメガネ40には、リチウムイオン電池などからなる電源部や、制御信号を受信するための無線通信部、左目、および右目の液晶シャッターを駆動するための駆動回路などが内蔵されている。
シャッターメガネ40は、左目、および右目のレンズ部分にそれぞれ液晶シャッターを備えており、メガネ制御部8からの制御信号に従って、両者を排他的に透過状態と遮光状態とに切り換える。換言すれば、左画像と右画像とが交互に表示されるタイミングに同期して、左目、および右目のレンズ部分を交互に透過状態と遮光状態とに切り換える。好適例では、例えば、画面Vに左画像と右画像とを120フレーム/秒で映し出して、シャッターメガネ40で右目と左目へ交互に60フレーム/秒ずつ伝達する。換言すれば、左右の画像がそれぞれ1秒間に60フレームずつ、左目、および右目に選択的に視認されることにより、3D画像が認識される。
なお、図示は省略しているが、シャッターメガネ40には、リチウムイオン電池などからなる電源部や、制御信号を受信するための無線通信部、左目、および右目の液晶シャッターを駆動するための駆動回路などが内蔵されている。
カメラ駆動部9は、制御部5からの制御信号に従い、カメラ55,56の駆動を制御する。なお、当該駆動には、撮像や、望遠、広角の切り換え、焦点合わせなどのカメラ55,56の調整機能も含まれている。
カメラ55,56は、好適例として撮像素子にCCD(Charge Coupled Device)を用いたカメラを採用している。また、望遠、および広角の切り換えが可能なレンズを備えていることが好ましい。なお、撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーや、MOSイメージセンサーを搭載したカメラを用いても良い。また、撮像のサンプリングレートは、使用者の動作変化を検出可能なレートであれば良く、例えば、静止画を撮像する場合には、2〜4回/秒に設定する。または、入力操作検出プログラムの実行中は、常時動画を撮像させて、当該動画から静止画像を抽出して画像解析する方法であっても良い。
カメラ55,56は、好適例として撮像素子にCCD(Charge Coupled Device)を用いたカメラを採用している。また、望遠、および広角の切り換えが可能なレンズを備えていることが好ましい。なお、撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーや、MOSイメージセンサーを搭載したカメラを用いても良い。また、撮像のサンプリングレートは、使用者の動作変化を検出可能なレートであれば良く、例えば、静止画を撮像する場合には、2〜4回/秒に設定する。または、入力操作検出プログラムの実行中は、常時動画を撮像させて、当該動画から静止画像を抽出して画像解析する方法であっても良い。
「初期設定、およびアイコンの詳細な説明」
図2(a)に戻る。
図2(a)は、画像信号供給装置300としてパーソナルコンピューターが接続されており、当該コンピューターに記憶されている静止画像(立体写真)を画像再生ソフトで表示している状態を示している。
また、操作部での設定により、当該画像再生ソフトに、前述の入力操作検出プログラムが常駐している状態となっているため、操作用の複数のアイコンiが表示されている。また、実際の入力操作に先立って、使用者の手の位置が立体画像のアイコンiの位置と略一致するように、使用者の座る位置や、立体画像のサイズなどの調整があらかじめ行われている。換言すれば、使用者が手を伸ばした位置に複数のアイコンiが表示されるように、使用者の座る位置や、立体画像のサイズなどのキャリブレーションが初期設定として行われる。
また、複数のアイコンiは、画面Vに沿った平面方向において互いに重ならないように配置されている。
図2(a)に戻る。
図2(a)は、画像信号供給装置300としてパーソナルコンピューターが接続されており、当該コンピューターに記憶されている静止画像(立体写真)を画像再生ソフトで表示している状態を示している。
また、操作部での設定により、当該画像再生ソフトに、前述の入力操作検出プログラムが常駐している状態となっているため、操作用の複数のアイコンiが表示されている。また、実際の入力操作に先立って、使用者の手の位置が立体画像のアイコンiの位置と略一致するように、使用者の座る位置や、立体画像のサイズなどの調整があらかじめ行われている。換言すれば、使用者が手を伸ばした位置に複数のアイコンiが表示されるように、使用者の座る位置や、立体画像のサイズなどのキャリブレーションが初期設定として行われる。
また、複数のアイコンiは、画面Vに沿った平面方向において互いに重ならないように配置されている。
図2(b)は、立体画像に含まれるアイコンの平面図である。
図2(b)に示すように、奥行き方向の高さが異なる各アイコンには、それぞれ操作機能が割り付けられている。
まず、奥行き方向の高さが最も高いアイコンi11行において、アイコンi11には1つ前の画像を表示させる「戻る」の機能が割り付けられ、アイコンi12には静止画像が格納されているフォルダー内の全画像を順番に表示する「スライドショー」の機能が割り付けられている。そして、アイコンi13には次の画像を表示させる「進む」の機能が割り付けられている。
また、中段のアイコンi21行では、アイコンi21には1つ上(層)のフォルダーに異動する「フォルダー選択」の機能が割り付けられ、アイコンi22には3D画像の色調や、サイズ、アスペクト比などの変更が行える「設定変更」の機能が割り付けられている。
そして、奥行き方向の高さが最も低いアイコンi31には、表示している画像(林檎)データを消去するための「消去」機能が割り付けられている。
図2(b)に示すように、奥行き方向の高さが異なる各アイコンには、それぞれ操作機能が割り付けられている。
まず、奥行き方向の高さが最も高いアイコンi11行において、アイコンi11には1つ前の画像を表示させる「戻る」の機能が割り付けられ、アイコンi12には静止画像が格納されているフォルダー内の全画像を順番に表示する「スライドショー」の機能が割り付けられている。そして、アイコンi13には次の画像を表示させる「進む」の機能が割り付けられている。
また、中段のアイコンi21行では、アイコンi21には1つ上(層)のフォルダーに異動する「フォルダー選択」の機能が割り付けられ、アイコンi22には3D画像の色調や、サイズ、アスペクト比などの変更が行える「設定変更」の機能が割り付けられている。
そして、奥行き方向の高さが最も低いアイコンi31には、表示している画像(林檎)データを消去するための「消去」機能が割り付けられている。
ここで、操作性という観点から考えると、最も高いアイコンi11行は、使用者から最も近くに位置しているため手を伸ばす距離が短くて操作し易いが、最も低い位置にあるアイコンi31を操作するためには、その分、手を伸ばす距離が長くなるため操作し難くなる。つまり、使用頻度や、機能の内容に応じて、複数のアイコンiの配置を行うことにより、操作性に変化を付けることができる。
例えば、図2の場合、画像再生ソフトにおいて最も使用頻度の高い「戻る」「スライドショー」「進む」の機能を最上段のアイコンi11行に割り付けている。そして、これらの機能よりも使用頻度が低い「フォルダー選択」「設定変更」の機能を中段のアイコンi21行に割り付けている。
また、「消去」機能については、誤操作を抑制する意味合いで、最も操作し難いアイコンi31に割り付けている。
なお、アイコンi11行およびアイコンi21行においては、「戻る」「スライドショー」「進む」が第1の機能に該当し、「フォルダー選択」「設定変更」が第2の機能に該当する。また、アイコンi21行およびアイコンi31行においては、「フォルダー選択」「設定変更」が第1の機能に該当し、「消去」が第2の機能に該当することになる。
例えば、図2の場合、画像再生ソフトにおいて最も使用頻度の高い「戻る」「スライドショー」「進む」の機能を最上段のアイコンi11行に割り付けている。そして、これらの機能よりも使用頻度が低い「フォルダー選択」「設定変更」の機能を中段のアイコンi21行に割り付けている。
また、「消去」機能については、誤操作を抑制する意味合いで、最も操作し難いアイコンi31に割り付けている。
なお、アイコンi11行およびアイコンi21行においては、「戻る」「スライドショー」「進む」が第1の機能に該当し、「フォルダー選択」「設定変更」が第2の機能に該当する。また、アイコンi21行およびアイコンi31行においては、「フォルダー選択」「設定変更」が第1の機能に該当し、「消去」が第2の機能に該当することになる。
図4(a)、(b)は、図2(a)におけるアイコンの側面図である。
前述した通り、複数のアイコンiの奥行き方向の高さは、アイコン行ごとに異なっており、中段のアイコンi21行は最上段のアイコンi11行よりも、寸法d1分、低くなっている。また、最下段のアイコンi31は最上段のアイコンi11行よりも、寸法d2分、低くなっている。なお、寸法d2は、寸法d1よりも長い。また、これら高さは、立体画像のサイズや、使用者までの距離などの表示環境に応じて、奥行き方向の識別が可能な範囲で、適宜設定すれば良い。
ここで、図2(a)、図4(a)では、複数のアイコンの中からアイコンi13が識別されて、選択された状態を示しているが、これだけでは、アイコンi13に割り付けられている「進む」の機能は実行されない。当該機能を実行するためには、さらに決定(実行)動作を検出する必要がある。
前述した通り、複数のアイコンiの奥行き方向の高さは、アイコン行ごとに異なっており、中段のアイコンi21行は最上段のアイコンi11行よりも、寸法d1分、低くなっている。また、最下段のアイコンi31は最上段のアイコンi11行よりも、寸法d2分、低くなっている。なお、寸法d2は、寸法d1よりも長い。また、これら高さは、立体画像のサイズや、使用者までの距離などの表示環境に応じて、奥行き方向の識別が可能な範囲で、適宜設定すれば良い。
ここで、図2(a)、図4(a)では、複数のアイコンの中からアイコンi13が識別されて、選択された状態を示しているが、これだけでは、アイコンi13に割り付けられている「進む」の機能は実行されない。当該機能を実行するためには、さらに決定(実行)動作を検出する必要がある。
図4(b)には、この決定動作の一例が示されている。この場合、アイコンi13を選択した場所で、手のひらが広げられて、手60がじゃんけんのパー状態となったことを検出して、アイコンi13に割り付けられている「進む」の機能が実行されて、例えば、次のみかんの立体画像(図示せず)が表示される。この場合、図4(a)の指差し態様が第1の態様に相当し、図4(b)の手のひらを広げた状態が第2の態様に相当する。
つまり、使用者における立体画像側に最も突出した部分の態様(形態)変化を操作指示と認識して、決定動作を行う。換言すれば、あらかじめ定められている手60の形態(パターン)変化を操作指示とみなして、その形態に割り付けられた機能を実行する。
なお、形態(態様)の変化は、手のひらを広げることに限定するものではなく、画像解析において、図4(a)の初期態様からの変化が検出可能な態様であれば良い。例えば、指差し態様のままで、ゆっくりと指を左右に振る態様であっても良いし、手を握る態様であっても良い。
つまり、使用者における立体画像側に最も突出した部分の態様(形態)変化を操作指示と認識して、決定動作を行う。換言すれば、あらかじめ定められている手60の形態(パターン)変化を操作指示とみなして、その形態に割り付けられた機能を実行する。
なお、形態(態様)の変化は、手のひらを広げることに限定するものではなく、画像解析において、図4(a)の初期態様からの変化が検出可能な態様であれば良い。例えば、指差し態様のままで、ゆっくりと指を左右に振る態様であっても良いし、手を握る態様であっても良い。
「カーソル表示」
図5(a)、(b)は、立体表示されたアイコンの異なる表示態様を示す図であり、図2(a)に対応している。
図2(a)で説明したように、選択されたアイコンiは強調表示されるため、他のアイコンiよりも、視覚的に際立つことになるが、さらにカーソルを表示させても良い。
詳しくは、図5(a)において、選択されたアイコンi13上には、片矢印で示されたカーソルc1が表示されている。カーソルc1は、画像認識によって検出された手60(人指し指の略先端)の位置の3次元位置情報に基づく(一致する)場所に表示される。また、当該図は、この点以外は図2(a)での説明と同様である。
また、好適例においては、図5(b)に示すように、中段のアイコンi22が選択された場合には、カーソルの形状をカーソルc1から、両矢印のカーソルc2に変化させる。さらに、最下段のアイコンi31が選択された場合には、カーソルc2から点線で示すように、三又状の矢印のカーソルc3に変化させる。
つまり、奥行き方向の位置に応じて、カーソルの形状を変化させている。なお、カーソルの形状は矢印に限定するものではなく、選択されたアイコンiが識別しやすくなる形状であれば良い。例えば、円形、三角、四角や、これらを組み合わせた形状であっても良い。
図5(a)、(b)は、立体表示されたアイコンの異なる表示態様を示す図であり、図2(a)に対応している。
図2(a)で説明したように、選択されたアイコンiは強調表示されるため、他のアイコンiよりも、視覚的に際立つことになるが、さらにカーソルを表示させても良い。
詳しくは、図5(a)において、選択されたアイコンi13上には、片矢印で示されたカーソルc1が表示されている。カーソルc1は、画像認識によって検出された手60(人指し指の略先端)の位置の3次元位置情報に基づく(一致する)場所に表示される。また、当該図は、この点以外は図2(a)での説明と同様である。
また、好適例においては、図5(b)に示すように、中段のアイコンi22が選択された場合には、カーソルの形状をカーソルc1から、両矢印のカーソルc2に変化させる。さらに、最下段のアイコンi31が選択された場合には、カーソルc2から点線で示すように、三又状の矢印のカーソルc3に変化させる。
つまり、奥行き方向の位置に応じて、カーソルの形状を変化させている。なお、カーソルの形状は矢印に限定するものではなく、選択されたアイコンiが識別しやすくなる形状であれば良い。例えば、円形、三角、四角や、これらを組み合わせた形状であっても良い。
また、カーソルの形状を変化させることに限定するものではなく、選択されたアイコンiが識別しやすくなる変化であれば良い。例えば、アイコンの色調を変化させることであっても良いし、輪郭線の強調具合を変化させたり、最上段以外では点滅表示をさせて、奥に行くほど点滅速度を速めるなど、表示態様を変化させることであっても良い。または、これらを組み合わせることであっても良い。
なお、上記実施形態では、アイコンの数を6個とし、奥行き方向を3段階の階層とした場合について説明したが、これに限定するものではなく、立体画像のサイズや、表示コンテンツなどの表示環境設定(仕様)に応じて、アイコンの数や、奥行き方向の階層数を適宜設定すれば良い。
なお、上記実施形態では、アイコンの数を6個とし、奥行き方向を3段階の階層とした場合について説明したが、これに限定するものではなく、立体画像のサイズや、表示コンテンツなどの表示環境設定(仕様)に応じて、アイコンの数や、奥行き方向の階層数を適宜設定すれば良い。
上述した通り、本実施形態に係る画像入力システムによれば、以下の効果を得ることができる。
画像入力システム100によれば、立体画像中に表示される複数のアイコンiには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、当該アイコンiは、奥行き方向の位置情報を含む3次元位置情報によって、識別可能となっている。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、画像入力システム100では、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別(選択)を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システム100を実現することができる。
画像入力システム100によれば、立体画像中に表示される複数のアイコンiには、立体画像における奥行き方向の位置が異なるアイコンが含まれており、当該アイコンiは、奥行き方向の位置情報を含む3次元位置情報によって、識別可能となっている。
つまり、2次元平面における2軸の2次元位置情報のみからアイコンの識別を行っていた従来の入力システムと異なり、画像入力システム100では、奥行き方向の位置情報を加えた3軸の3次元位置情報から、アイコンiの識別(選択)を行うため、より高度で、ダイナミックな識別を実現することができる。換言すれば、3D画像固有の奥行き方向の座標軸を活かした画像入力システム100を実現することができる。
また、立体表示されたアイコンiを操作する場合には、視覚的に操作したいアイコンが表示されている空間に手60を伸ばすことにより、その奥行き方向の位置に表示されているアイコンを識別(選択)することができる。この場合、手60の位置が立体画像側に最も突出した部位となるため、手の奥行き方向の位置情報を、複数台のカメラが撮像した複数の画像を解析した解析情報における3次元位置情報として検出して、当該3次元位置情報と一致する位置に表示されているアイコンiを識別することができる。
従って、3D画像を活用した画像入力システム100を提供することができる。
また、画像入力システム100によれば、使用者は、立体表示されたアイコンiに手を伸ばして触れる動作をすることによって、所望のアイコンiを選択(識別)できるため、ユーザーインターフェイスに優れている。
従って、使い勝手の良い画像入力システム100を提供することができる。
従って、3D画像を活用した画像入力システム100を提供することができる。
また、画像入力システム100によれば、使用者は、立体表示されたアイコンiに手を伸ばして触れる動作をすることによって、所望のアイコンiを選択(識別)できるため、ユーザーインターフェイスに優れている。
従って、使い勝手の良い画像入力システム100を提供することができる。
さらに、アイコンi13を選択した場所で、手60が広げられたことを検出すると、アイコンi13に割り付けられている「進む」の機能が実行される。つまり、使用者における立体画像側に最も突出した部分の態様(形態)変化を操作指示と認識して、決定機能が実行される。換言すれば、あらかじめ定められている手60の形態(パターン)変化を操作指示とみなして、その形態に割り付けられた機能を実行する。
よって、画像入力システム100によれば、入力操作を簡便に行うことができる。
また、選択(識別)されたアイコンiは強調表示されるため、他のアイコンiよりも、視覚的に際立つことになり、選択(識別)状態を容易に視認させることができる。
また、画像認識によって検出された手60(人指し指の指先)の位置には、カーソルc1が表示されるため、選択(識別)状態をより確実に認識させることができる。
さらに、奥行き方向の位置に応じて、カーソルの形状や、色調などが変化するため、奥行き方向における選択位置を容易に視認させることができる。
従って、画像入力システム100によれば、入力操作状態を視覚的に認識させることができる。換言すれば、入力操作状態を感覚的(直感的)に把握することができる。
よって、画像入力システム100によれば、入力操作を簡便に行うことができる。
また、選択(識別)されたアイコンiは強調表示されるため、他のアイコンiよりも、視覚的に際立つことになり、選択(識別)状態を容易に視認させることができる。
また、画像認識によって検出された手60(人指し指の指先)の位置には、カーソルc1が表示されるため、選択(識別)状態をより確実に認識させることができる。
さらに、奥行き方向の位置に応じて、カーソルの形状や、色調などが変化するため、奥行き方向における選択位置を容易に視認させることができる。
従って、画像入力システム100によれば、入力操作状態を視覚的に認識させることができる。換言すれば、入力操作状態を感覚的(直感的)に把握することができる。
また、複数のアイコンに対する機能の割り付けについて、最も使用頻度の高い「戻る」「スライドショー」「進む」の機能を最上段のアイコンi11行に割り付けて、これらの機能よりも使用頻度が低い「フォルダー選択」「設定変更」の機能を中段のアイコンi21行に割り付けている。そして、最下段のアイコンi31には、「消去」機能を割り付けている。
つまり、使用者に近いアイコンに使用頻度の高い機能を割り付けて、使用者から遠い位置のアイコンに使用頻度の低い機能を割り付けることにより、使い勝手を向上させることができる。
さらに、「消去」機能などの実行後の復旧が困難な機能や、誤操作を防止したい機能は、最も使用者から遠い位置の(奥行き方向の高さが低い)アイコンに割り付けることにより、誤操作を抑制することができる。
従って、機能性に優れた画像入力システム100を提供することができる。
つまり、使用者に近いアイコンに使用頻度の高い機能を割り付けて、使用者から遠い位置のアイコンに使用頻度の低い機能を割り付けることにより、使い勝手を向上させることができる。
さらに、「消去」機能などの実行後の復旧が困難な機能や、誤操作を防止したい機能は、最も使用者から遠い位置の(奥行き方向の高さが低い)アイコンに割り付けることにより、誤操作を抑制することができる。
従って、機能性に優れた画像入力システム100を提供することができる。
(実施形態2)
図6は、実施形態2に係る画像入力システムによって表示された立体画像の一態様を示す斜視図であり、図2(a)に対応している。
以下、本発明の実施形態2に係る画像入力システムについて説明する。なお、実施形態1と同一の構成部位については、同一の番号を附し、重複する説明は省略する。
まず、本実施形態に係る画像入力システムの構成は、実施形態1の画像入力システム100の構成と同一である。本実施形態では、立体表示される複数のアイコンの態様が実施形態1とは異なっている。それ以外は、実施形態1での説明と同様である。
図6は、実施形態2に係る画像入力システムによって表示された立体画像の一態様を示す斜視図であり、図2(a)に対応している。
以下、本発明の実施形態2に係る画像入力システムについて説明する。なお、実施形態1と同一の構成部位については、同一の番号を附し、重複する説明は省略する。
まず、本実施形態に係る画像入力システムの構成は、実施形態1の画像入力システム100の構成と同一である。本実施形態では、立体表示される複数のアイコンの態様が実施形態1とは異なっている。それ以外は、実施形態1での説明と同様である。
図6に示すように、表示装置50によって表示された立体画像には、奥行き方向において、層状に重ねられた複数のアイコンi52〜i55が3D表示されている。
詳しくは、立体画像における最前面(Z軸(+)側)にはアイコンi52が表示されている。アイコンi52は、ファイルフォルダーとしての機能と、当該ファイルフォルダーに格納されているファイルを実行するアプリケーションソフトとしての機能を兼ね備えた複合アイコンである。その外形は、厚さ(高さ)が殆ど無い平板状をなしており、平面的には、縦長の長方形状の外形を有している。このアイコンi52内には、格納されている動画ファイルの開始点における山並みの静止画像がサムネイル表示されている。また、サムネイル表示の下には、当該動画ファイルを再生、停止、巻き戻しするための操作アイコンb11〜b13が表示されている。なお、アプリケーションソフトは、動画ファイル再生ソフトに限定するものではなく、格納されているファイルを実行可能なソフトであれば良い。
詳しくは、立体画像における最前面(Z軸(+)側)にはアイコンi52が表示されている。アイコンi52は、ファイルフォルダーとしての機能と、当該ファイルフォルダーに格納されているファイルを実行するアプリケーションソフトとしての機能を兼ね備えた複合アイコンである。その外形は、厚さ(高さ)が殆ど無い平板状をなしており、平面的には、縦長の長方形状の外形を有している。このアイコンi52内には、格納されている動画ファイルの開始点における山並みの静止画像がサムネイル表示されている。また、サムネイル表示の下には、当該動画ファイルを再生、停止、巻き戻しするための操作アイコンb11〜b13が表示されている。なお、アプリケーションソフトは、動画ファイル再生ソフトに限定するものではなく、格納されているファイルを実行可能なソフトであれば良い。
そして、アイコンi52の背面側(Z軸(−)側)には、同様な構成のアイコンi53〜i55が、この順番で略等間隔に重ねられている。
つまり、立体画像の奥行き方向において、最も浅い(低い)アイコンi55から、アイコンi54、アイコンi53、アイコンi52の順に深く(高く)なるように積層されている。換言すれば、使用者側から最も近い位置に表示されるアイコンi52から、アイコンi53、アイコンi54、アイコンi55の順に遠くなるように表示(配置)されている。
つまり、立体画像の奥行き方向において、最も浅い(低い)アイコンi55から、アイコンi54、アイコンi53、アイコンi52の順に深く(高く)なるように積層されている。換言すれば、使用者側から最も近い位置に表示されるアイコンi52から、アイコンi53、アイコンi54、アイコンi55の順に遠くなるように表示(配置)されている。
また、複数のアイコンiの中から、所定のアイコンを選択するためには、実施形態1での説明と同様に、選択したいアイコンまで手60を伸ばせば良い。
図6の場合、手60の指先の位置がアイコンi52の位置と略一致しているため、アイコンi52が強調表示されて選択(識別)された状態となっている。また、本実施形態の場合、各アイコンの平面サイズが略同じで、その大半の部分が重なっているため、一点鎖線の矢印で示すように、手60の奥行き方向における位置だけで、実質的にアイコンiが選択されることになる。換言すれば、手60の位置が平面的にアイコンと重なっている場合、解析した3次元位置情報における手60の奥行き方向の位置情報のみで、アイコンiを識別(選択)することができる。
図6の場合、手60の指先の位置がアイコンi52の位置と略一致しているため、アイコンi52が強調表示されて選択(識別)された状態となっている。また、本実施形態の場合、各アイコンの平面サイズが略同じで、その大半の部分が重なっているため、一点鎖線の矢印で示すように、手60の奥行き方向における位置だけで、実質的にアイコンiが選択されることになる。換言すれば、手60の位置が平面的にアイコンと重なっている場合、解析した3次元位置情報における手60の奥行き方向の位置情報のみで、アイコンiを識別(選択)することができる。
また、図6は、アイコンi52を選択した状態を示しているため、最前面にアイコンi52が表示されているが、選択前の初期状態においては、最前面にはアイコンi51が表示されていた。このアイコンi51は、手60の位置がアイコンi52に達した時点で、実線の矢印で示すように、アイコンi52の右側に反転した状態で縮小表示される。
また、奥行き方向における手60の位置をアイコンi51があった高さまで戻すと、縮小表示されていたアイコンi51が選択されて、初期状態と同様に最前面に表示されることになる。なお、他のアイコンを選択した場合も、同様である。
つまり、初期状態を除いて、選択されたアイコンが常に最前面に表示されるとともに、当該選択の前に最前面にあったアイコンは、隣に縮小表示されることになる。
また、奥行き方向における手60の位置をアイコンi51があった高さまで戻すと、縮小表示されていたアイコンi51が選択されて、初期状態と同様に最前面に表示されることになる。なお、他のアイコンを選択した場合も、同様である。
つまり、初期状態を除いて、選択されたアイコンが常に最前面に表示されるとともに、当該選択の前に最前面にあったアイコンは、隣に縮小表示されることになる。
また、各アイコンiの上部には、それぞれタグt51〜t55が形成されている。タグt51〜t55は、平面的にその全てが重ならないように形成されており、各アイコンの平面サイズが同じであっても、視覚的に下層のアイコンの存在を認識させることができる。また、タグを設ける方法に限定するものではなく、重なっている複数のアイコンを視認可能な方法であれば良い。例えば、平面位置を少しずつズラしながら複数のアイコンを重ねる方法であっても良い。
つまり、複数のアイコンiは、平面方向においてその一部が重なるとともに、奥行き方向において、層状に重ねられた構成となっていれば良い。
また、実施形態1と同様に、画像認識によって検出された手60(人指し指の指先)の位置にカーソルを表示しても良い。
つまり、複数のアイコンiは、平面方向においてその一部が重なるとともに、奥行き方向において、層状に重ねられた構成となっていれば良い。
また、実施形態1と同様に、画像認識によって検出された手60(人指し指の指先)の位置にカーソルを表示しても良い。
また、本実施形態では、選択したアイコンに割り付けられた機能を実行(決定)する方法が2つある。1つは、実施形態1と同様に、選択した位置で手60の態様を変化させる方法である。この場合、実行される機能は、操作アイコンb11と同じ「再生」となる。
もう1つの方法は、選択したアイコンに表示されている操作アイコンb11〜b13の位置に手を移動させる方法である。アイコンが選択状態になると、当該アイコン内の操作アイコンb11〜b13の機能が有効となるため、所望の操作アイコンの位置に手を移動させるだけで、その機能を実行することができる。また、操作アイコンの位置に手を移動させるとともに、その位置が、例えば、2秒以上固定されていた場合に、その機能を実行することがであっても良い。
図6において、上記方法によって、操作アイコンb11の「再生」機能が実行された場合には、アイコンi52に格納されている山並みの動画ファイルが画面V一杯に3D画像で表示される。
もう1つの方法は、選択したアイコンに表示されている操作アイコンb11〜b13の位置に手を移動させる方法である。アイコンが選択状態になると、当該アイコン内の操作アイコンb11〜b13の機能が有効となるため、所望の操作アイコンの位置に手を移動させるだけで、その機能を実行することができる。また、操作アイコンの位置に手を移動させるとともに、その位置が、例えば、2秒以上固定されていた場合に、その機能を実行することがであっても良い。
図6において、上記方法によって、操作アイコンb11の「再生」機能が実行された場合には、アイコンi52に格納されている山並みの動画ファイルが画面V一杯に3D画像で表示される。
上述した通り、本実施形態に係る画像入力システムによれば、実施形態1における効果に加えて、以下の効果を得ることができる。
奥行き方向において、複数のアイコンiが層状に重ねられたアイコン態様であっても、奥行き方向の位置情報を含む3次元位置情報によって、所望のアイコンを識別(選択)することができる。
特に、手60の位置を奥行き方向に移動させるだけで、選択されているアイコンが最前面に表示されるため、所望のアイコン(ファイル)を素早く見つけ出すことができる。
従って、ユーザーインターフェイスに優れ、使い勝手の良い画像入力システムを提供することができる。
奥行き方向において、複数のアイコンiが層状に重ねられたアイコン態様であっても、奥行き方向の位置情報を含む3次元位置情報によって、所望のアイコンを識別(選択)することができる。
特に、手60の位置を奥行き方向に移動させるだけで、選択されているアイコンが最前面に表示されるため、所望のアイコン(ファイル)を素早く見つけ出すことができる。
従って、ユーザーインターフェイスに優れ、使い勝手の良い画像入力システムを提供することができる。
また、各アイコンiの上部には、それぞれタグが形成されているか、または平面位置を少しずつズラしながら複数のアイコンを重ねる構成となっている。つまり、複数のアイコンiは、平面方向においてその一部が重なるとともに、奥行き方向において、層状に重ねられた構成となっている。
よって、複数のアイコンが層状に重ねられたアイコン態様であっても、視覚的に下層のアイコンの存在を認識させることができる。
従って、使い勝手の良い画像入力システムを提供することができる。
よって、複数のアイコンが層状に重ねられたアイコン態様であっても、視覚的に下層のアイコンの存在を認識させることができる。
従って、使い勝手の良い画像入力システムを提供することができる。
なお、本発明は上述した実施形態に限定されず、上述した実施形態に種々の変更や改良などを加えることが可能である。変形例を以下に述べる。
(変形例1)
図7は、変形例1に係る画像入力システムの概要を示す斜視図であり、図1に対応している。
上記実施形態では、立体表示されたアイコンに直に触る感覚で手を伸ばして操作を行うものとして説明したが、画面と使用者との距離が大きく離間している場合には、遠方からアイコンを指差すことになるため、使用者が選択したいアイコンを適切に識別する方法を補う必要がある。本変形例は、この識別方法の一つである。
変形例1の画像入力システム110は、対角100インチ以上の大型の画面Vを有する表示装置52を備えている。このため、画面Vと使用者との距離が図1の事例に比べて長くなっている。これ以外の構成は、実施形態1での説明と同一である。
図7は、変形例1に係る画像入力システムの概要を示す斜視図であり、図1に対応している。
上記実施形態では、立体表示されたアイコンに直に触る感覚で手を伸ばして操作を行うものとして説明したが、画面と使用者との距離が大きく離間している場合には、遠方からアイコンを指差すことになるため、使用者が選択したいアイコンを適切に識別する方法を補う必要がある。本変形例は、この識別方法の一つである。
変形例1の画像入力システム110は、対角100インチ以上の大型の画面Vを有する表示装置52を備えている。このため、画面Vと使用者との距離が図1の事例に比べて長くなっている。これ以外の構成は、実施形態1での説明と同一である。
画像入力システム110においては、使用者は遠方に表示されたアイコンを指差すことになるため、使用者が選択したいアイコンを、使用者の頭の略真ん中と、手60とを結ぶ線分Laの延長線上にあるものとして識別(選択)している。なお、使用者の頭の位置は、手と同様にカメラ55,56による撮像データを画像解析することによって導出することができる。
なお、画面Vのサイズがさらに大きく、使用者がより遠方に位置する場合には、線分の基準点を使用者の体の略真ん中とするなど、より効率的に選択したいアイコンを識別可能な位置に変更しても良い。
この方法によれば、画面と使用者との距離が大きく離間している場合であっても、選択したいアイコンを適切に識別することができる。
なお、画面Vのサイズがさらに大きく、使用者がより遠方に位置する場合には、線分の基準点を使用者の体の略真ん中とするなど、より効率的に選択したいアイコンを識別可能な位置に変更しても良い。
この方法によれば、画面と使用者との距離が大きく離間している場合であっても、選択したいアイコンを適切に識別することができる。
(変形例2)
図8は、変形例2に係る操作態様における一態様を示す斜視図であり、図2(a)に対応している。
上記実施形態では、操作は1つの手(カーソル)によって行われるものとして説明したが、この方法に限定するものではなく、複数の手(カーソル)によって同時に操作することであっても良い。
図8は、変形例2に係る立体表示された複数のアイコンを示す斜視図である。
詳しくは、3行に渡ってアイコンiが表示されており、最上段にはアイコンi71行の5つのアイコンが表示され、その下の中段にはアイコンi81行の5つのアイコンが表示され、最下段にはアイコンi91行の5つのアイコンが表示されている。また、奥行き方向(Z軸(+)方向)の高さは、最も高い最上段のアイコンi71行から、中段のアイコンi81行、最下段のアイコンi91行の順に低くなっている。
図8は、変形例2に係る操作態様における一態様を示す斜視図であり、図2(a)に対応している。
上記実施形態では、操作は1つの手(カーソル)によって行われるものとして説明したが、この方法に限定するものではなく、複数の手(カーソル)によって同時に操作することであっても良い。
図8は、変形例2に係る立体表示された複数のアイコンを示す斜視図である。
詳しくは、3行に渡ってアイコンiが表示されており、最上段にはアイコンi71行の5つのアイコンが表示され、その下の中段にはアイコンi81行の5つのアイコンが表示され、最下段にはアイコンi91行の5つのアイコンが表示されている。また、奥行き方向(Z軸(+)方向)の高さは、最も高い最上段のアイコンi71行から、中段のアイコンi81行、最下段のアイコンi91行の順に低くなっている。
ここで、図8の事例では、使用者が2人おり、1人が手60でアイコンi71を選択し、もう1人が手61でアイコンi75を選択しようとしている。このため、双方の手60,61の位置にカーソルが表示されている。
この場合、例えば、ゲームのように2つの同時入力を受け付け可能なアプリケーションの場合であれば、2つのアイコンi71,i75を同時に選択することが可能である。または、時系列に処理する必要があるアプリケーションの場合であれば、例えば、解析情報における計時データの時間に従って、先に選択されたアイコンを選択する。
なお、手の位置が2つであっても、2台のカメラによる撮像データを画像認識、および解析によって、双方の手60,61の位置をそれぞれ検出することができる。
また、例えば、同時にアイコンi75、およびアイコンi81の選択位置に手60,61が検出された場合には、奥行き方向の高さが高いアイコンi75を先に選択するなど、アイコンの奥行き方向の位置に応じて、処理の優先順位を付けても良い。
この方法によれば、両手による操作や、複数人による操作が可能となるため、多様な用途にこの画像入力システムを適用することができる。
この場合、例えば、ゲームのように2つの同時入力を受け付け可能なアプリケーションの場合であれば、2つのアイコンi71,i75を同時に選択することが可能である。または、時系列に処理する必要があるアプリケーションの場合であれば、例えば、解析情報における計時データの時間に従って、先に選択されたアイコンを選択する。
なお、手の位置が2つであっても、2台のカメラによる撮像データを画像認識、および解析によって、双方の手60,61の位置をそれぞれ検出することができる。
また、例えば、同時にアイコンi75、およびアイコンi81の選択位置に手60,61が検出された場合には、奥行き方向の高さが高いアイコンi75を先に選択するなど、アイコンの奥行き方向の位置に応じて、処理の優先順位を付けても良い。
この方法によれば、両手による操作や、複数人による操作が可能となるため、多様な用途にこの画像入力システムを適用することができる。
(変形例3)
図9は、変形例3に係る画像入力システムの概要示す斜視図であり、図1に対応している。
上記実施形態では、画像入力システムの表示装置としてプラズマテレビや、液晶テレビのような一体型のディスプレイを用いることとして説明したが、この構成に限定するものではなく、投写型のディスプレイを用いた表示装置であっても良い。
変形例3に係る画像入力システム200は、ホストプロジェクター150、スレーブプロジェクター151、カメラ55,56、偏光メガネ140などから構成されている。
ホストプロジェクター150は、スレーブプロジェクター151、およびカメラ55,56を制御する制御装置を兼ねており、画像を投写する投写部に加えて、図3の制御部や、画像信号処理部、カメラ駆動部などと同様な機能を備えた回路部を搭載している。
図9は、変形例3に係る画像入力システムの概要示す斜視図であり、図1に対応している。
上記実施形態では、画像入力システムの表示装置としてプラズマテレビや、液晶テレビのような一体型のディスプレイを用いることとして説明したが、この構成に限定するものではなく、投写型のディスプレイを用いた表示装置であっても良い。
変形例3に係る画像入力システム200は、ホストプロジェクター150、スレーブプロジェクター151、カメラ55,56、偏光メガネ140などから構成されている。
ホストプロジェクター150は、スレーブプロジェクター151、およびカメラ55,56を制御する制御装置を兼ねており、画像を投写する投写部に加えて、図3の制御部や、画像信号処理部、カメラ駆動部などと同様な機能を備えた回路部を搭載している。
ホストプロジェクター150は、投写部に第1の偏光板を備えており、当該第1の偏光板を透過した左画像をスクリーンSc(画面V)に投写する。スレーブプロジェクター151は、投写部に第1の偏光板の偏光軸と略直交する偏光軸を有する第2の偏光板を備えており、当該第2の偏光板を透過した右画像をスクリーンSc(画面V)に投写する。
そして、使用者が掛けている偏光メガネ140の左側のレンズには第1の偏光板がセットされており、また、右側のレンズには第2の偏光板がセットされている。
この構成であっても、使用者には、スクリーンScに形成された画面Vから前面に浮き出すように表示される立体画像が視認されることになり、上記各実施形態と同様に、3D表示されたアイコンを操作(入力)することができる。
従って、上記各実施形態、および変形例と同様な作用効果を得ることができる。
そして、使用者が掛けている偏光メガネ140の左側のレンズには第1の偏光板がセットされており、また、右側のレンズには第2の偏光板がセットされている。
この構成であっても、使用者には、スクリーンScに形成された画面Vから前面に浮き出すように表示される立体画像が視認されることになり、上記各実施形態と同様に、3D表示されたアイコンを操作(入力)することができる。
従って、上記各実施形態、および変形例と同様な作用効果を得ることができる。
(変形例4)
図1を用いて説明する。
上記各実施形態、および変形例では、撮像カメラを2台用いることとして説明したが、この構成に限定するものではなく、視角の異なるカメラを2台以上用いることであれば良い。台数が多い方が、情報量が増えるため、3次元位置情報の精度をより高めることができる。
また、手による操作が主体であれば、赤外線カメラを用いても良い。これによれば、常時発熱している人体の一部である手の位置を効率的に感知することができる。
図1を用いて説明する。
上記各実施形態、および変形例では、撮像カメラを2台用いることとして説明したが、この構成に限定するものではなく、視角の異なるカメラを2台以上用いることであれば良い。台数が多い方が、情報量が増えるため、3次元位置情報の精度をより高めることができる。
また、手による操作が主体であれば、赤外線カメラを用いても良い。これによれば、常時発熱している人体の一部である手の位置を効率的に感知することができる。
(変形例5)
図1を用いて説明する。
上記各実施形態、および変形例では、シャッターメガネや、偏光メガネを用いることとして説明したが、例えば、パララックスバリアや、レンティキュラーレンズを用いて、メガネなしで3D表示を行う場合には、画像解析によって使用者の眼の開閉を検出して、これを入力操作に用いても良い。
詳しくは、選択した位置で手60の態様を変化させることにより、機能を実行(決定)する方法に変えて、左眼を所定時間閉じることによって、機能を実行(決定)することであっても良い。さらに、右眼を所定時間閉じる態様にキャンセル機能を割り付けるなど、両目の開閉の組み合わせで、各種機能を割り付けることであっても良い。
この方法によれば、より画像入力システムの使い勝手を向上させることができる。
図1を用いて説明する。
上記各実施形態、および変形例では、シャッターメガネや、偏光メガネを用いることとして説明したが、例えば、パララックスバリアや、レンティキュラーレンズを用いて、メガネなしで3D表示を行う場合には、画像解析によって使用者の眼の開閉を検出して、これを入力操作に用いても良い。
詳しくは、選択した位置で手60の態様を変化させることにより、機能を実行(決定)する方法に変えて、左眼を所定時間閉じることによって、機能を実行(決定)することであっても良い。さらに、右眼を所定時間閉じる態様にキャンセル機能を割り付けるなど、両目の開閉の組み合わせで、各種機能を割り付けることであっても良い。
この方法によれば、より画像入力システムの使い勝手を向上させることができる。
(変形例6)
図6を用いて説明する。
上記実施形態2で説明した、立体画像の奥行き方向において複数層に重ねられたアイコンを当該方向における手60の位置によって選択する方法は、ファイル(フォルダー)の検索方法にも適用することができる。
詳しくは、表示装置50がハードディスクを内蔵している場合や、画像信号供給装置300がパーソナルコンピューターである場合などは、写真や動画などの数多くのファイルを保存していることが多い。一般的に、これらのファイル名は、撮影日などの数字や記号であるため、ファイル名から所望のファイルを探し出すことは煩わしい作業である。
ここで、図6のアイコンiをこれらのファイル(フォルダー)と置き換えた場合、複数層に重ねられたファイルに手を伸ばすだけで、所望のファイルを検索することができる。特に、最も前面に表示されている、つまり、選択しているファイルの画像のみが大きく表示されるため、例えば、小さなサムネイル表示が複数並んで表示される場合よりも、効率良く直感的に所望のファイルを探し出すことができる。
従って、使い勝手の良いファイル検索システムを提供することができる。
図6を用いて説明する。
上記実施形態2で説明した、立体画像の奥行き方向において複数層に重ねられたアイコンを当該方向における手60の位置によって選択する方法は、ファイル(フォルダー)の検索方法にも適用することができる。
詳しくは、表示装置50がハードディスクを内蔵している場合や、画像信号供給装置300がパーソナルコンピューターである場合などは、写真や動画などの数多くのファイルを保存していることが多い。一般的に、これらのファイル名は、撮影日などの数字や記号であるため、ファイル名から所望のファイルを探し出すことは煩わしい作業である。
ここで、図6のアイコンiをこれらのファイル(フォルダー)と置き換えた場合、複数層に重ねられたファイルに手を伸ばすだけで、所望のファイルを検索することができる。特に、最も前面に表示されている、つまり、選択しているファイルの画像のみが大きく表示されるため、例えば、小さなサムネイル表示が複数並んで表示される場合よりも、効率良く直感的に所望のファイルを探し出すことができる。
従って、使い勝手の良いファイル検索システムを提供することができる。
3…画像信号処理部、5…制御部、8…メガネ制御部、9…カメラ駆動部、50…表示装置、55,56…カメラ、60…突出した部位としての手、100,110,200…画像入力システム、i11〜i31,i51〜i55,i71〜i95…アイコン、c1〜c3…カーソル、V…画面。
Claims (10)
- 立体画像を表示する表示装置と、
前記立体画像と向い合う方向に位置する使用者を異なる視角から撮像する複数台のカメラと、前記表示装置、および前記複数台のカメラを制御する制御部と、を少なくとも備えた画像入力システムであって、
前記制御部は、前記表示装置によって、操作用の複数のアイコンを含む前記立体画像を表示させるとともに、前記複数台のカメラが撮像した複数の画像を解析して、前記使用者における前記立体画像側に最も突出した部位の3次元位置情報を含む解析情報を導出し、
前記複数のアイコンには、前記立体画像における奥行き方向の位置が異なる前記アイコンが含まれており、
前記奥行き方向の位置が異なる前記アイコンは、前記奥行き方向の位置情報を含む前記3次元位置情報によって、識別または選択されることを特徴とする画像入力システム。 - 前記複数のアイコンは、前記表示装置の画面に沿った平面方向において互いに重ならないように配置されていることを特徴とする請求項1に記載の画像入力システム。
- 前記複数のアイコンのうち、相対的に前記奥行き方向の高さが高く、前記使用者に近い位置に表示される前記アイコンには、第1の機能が割り付けられ、
前記奥行き方向の高さが高い前記アイコンよりも、前記奥行き方向の高さが低い前記アイコンには、前記第1の機能よりも使用頻度の低い第2の機能が割り付けられることを特徴とする請求項2に記載の画像入力システム。 - 前記複数のアイコンは、前記表示装置の画面に沿った平面方向においてその一部が重なるとともに、前記奥行き方向において、層状に重ねられていることを特徴とする請求項1に記載の画像入力システム。
- 前記制御部は、前記使用者における前記立体画像側に最も突出した部位の態様が、第1の態様から、前記第1の態様とは異なる第2の態様に変化したことを検出した場合、前記選択された前記アイコンに割り付けられた機能を実行することを特徴とする請求項1〜4のいずれか一項に記載の画像入力システム。
- 前記制御部は、前記立体画像において前記3次元位置情報に基づく位置に、カーソルを表示させることを特徴とする請求項1〜5のいずれか一項に記載の画像入力システム。
- 前記カーソルは、前記奥行き方向の位置によって、その色調、または形状が変化することを特徴とする請求項6に記載の画像入力システム。
- 前記カーソルは、前記立体画像中に複数存在することを特徴とする請求項6または7に記載の画像入力システム。
- 前記選択された前記アイコンは、他の前記アイコンよりも強調された表示となることを特徴とする請求項1〜8のいずれか一項に記載の画像入力システム。
- 前記使用者における前記立体画像側に最も突出した部位は、手であり、
前記第1の態様、および第2の態様を含む前記手の態様には、前記手の平を開く、握る、指を指す態様が含まれていることを特徴とする請求項1〜8のいずれか一項に記載の画像入力システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009231224A JP2011081480A (ja) | 2009-10-05 | 2009-10-05 | 画像入力システム |
US12/897,497 US20110083106A1 (en) | 2009-10-05 | 2010-10-04 | Image input system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009231224A JP2011081480A (ja) | 2009-10-05 | 2009-10-05 | 画像入力システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011081480A true JP2011081480A (ja) | 2011-04-21 |
Family
ID=43824128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009231224A Withdrawn JP2011081480A (ja) | 2009-10-05 | 2009-10-05 | 画像入力システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20110083106A1 (ja) |
JP (1) | JP2011081480A (ja) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012160653A1 (ja) * | 2011-05-24 | 2012-11-29 | 三菱電機株式会社 | 設備制御装置、操作受付方法及びプログラム |
JP2012256104A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
KR20130001176A (ko) * | 2011-06-23 | 2013-01-03 | 오메크 인터렉티브, 리미티드 | 근접 범위 움직임 추적 시스템 및 방법 |
JP2013066028A (ja) * | 2011-09-16 | 2013-04-11 | Nikon Corp | 表示装置、表示制御プログラム |
WO2014128747A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2014128750A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2014128748A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
WO2014128787A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
JP2015114818A (ja) * | 2013-12-11 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2015198729A1 (ja) * | 2014-06-25 | 2015-12-30 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2016034133A (ja) * | 2015-10-08 | 2016-03-10 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US9330470B2 (en) | 2010-06-16 | 2016-05-03 | Intel Corporation | Method and system for modeling subjects from a depth map |
JP2016129341A (ja) * | 2016-01-26 | 2016-07-14 | 株式会社ニコン | 制御装置、およびプログラム |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
JP2017182500A (ja) * | 2016-03-30 | 2017-10-05 | 富士通株式会社 | 入力装置、入力プログラム、及び入力方法 |
CN107368186A (zh) * | 2017-07-11 | 2017-11-21 | 青岛海信移动通信技术股份有限公司 | Ar或vr系统及计算其中从机馈感增益变化量的方法 |
JP2018098800A (ja) * | 2017-12-27 | 2018-06-21 | 株式会社ニコン | 表示装置、およびプログラム |
JP2019109897A (ja) * | 2019-01-08 | 2019-07-04 | 株式会社ニコン | 電子機器 |
JP2019128726A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019527435A (ja) * | 2016-10-24 | 2019-09-26 | 中国移動通信有限公司研究院China Mobile Communication Co., Ltd Research Institute | 空間システムに適用できる操作方法及び装置、記憶媒体 |
WO2021101039A1 (ko) * | 2019-11-22 | 2021-05-27 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어방법 |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9104275B2 (en) * | 2009-10-20 | 2015-08-11 | Lg Electronics Inc. | Mobile terminal to display an object on a perceived 3D space |
US10357714B2 (en) * | 2009-10-27 | 2019-07-23 | Harmonix Music Systems, Inc. | Gesture-based user interface for navigating a menu |
US8702485B2 (en) | 2010-06-11 | 2014-04-22 | Harmonix Music Systems, Inc. | Dance game and tutorial |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
US20130038525A1 (en) * | 2010-02-12 | 2013-02-14 | Jan Håkegård | Vehicular display system and a method for controlling the display system |
US9358456B1 (en) | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
TWI408948B (zh) * | 2010-08-16 | 2013-09-11 | Wistron Corp | 根據不同視角播放相對應之立體影像之方法及其相關影像處理系統 |
KR20120037858A (ko) * | 2010-10-12 | 2012-04-20 | 삼성전자주식회사 | 입체영상표시장치 및 그 ui 제공 방법 |
US20130093860A1 (en) * | 2010-10-20 | 2013-04-18 | Mitsubishi Electric Corporation | 3dimension stereoscopic display device |
KR101788049B1 (ko) * | 2010-12-15 | 2017-10-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR101852811B1 (ko) * | 2011-01-05 | 2018-04-27 | 엘지전자 주식회사 | 영상표시 장치 및 그 제어방법 |
US20120206419A1 (en) * | 2011-02-11 | 2012-08-16 | Massachusetts Institute Of Technology | Collapsible input device |
JP2012190183A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US20120306849A1 (en) * | 2011-05-31 | 2012-12-06 | General Electric Company | Method and system for indicating the depth of a 3d cursor in a volume-rendered image |
US9591296B2 (en) | 2011-07-04 | 2017-03-07 | Nec Corporation | Image processing device, image processing method, and image processing program that links three-dimensional protrusion intensity setting value and user interface spatial recognition sensitivity setting value |
JP5800616B2 (ja) * | 2011-07-15 | 2015-10-28 | オリンパス株式会社 | マニピュレータシステム |
JP5649535B2 (ja) * | 2011-08-05 | 2015-01-07 | 株式会社東芝 | コマンド発行装置、コマンド発行方法およびプログラム |
WO2013095678A1 (en) * | 2011-12-23 | 2013-06-27 | Intel Corporation | Mechanism to provide feedback regarding computing system command gestures |
JP5901376B2 (ja) * | 2012-03-23 | 2016-04-06 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 |
CN102662577B (zh) * | 2012-03-29 | 2016-08-10 | 华为终端有限公司 | 一种基于三维显示的光标操作方法及移动终端 |
JP6065908B2 (ja) * | 2012-05-09 | 2017-01-25 | 日本電気株式会社 | 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム |
US8732620B2 (en) * | 2012-05-23 | 2014-05-20 | Cyberlink Corp. | Method and system for a more realistic interaction experience using a stereoscopic cursor |
EP2866204B1 (en) * | 2012-06-21 | 2018-09-19 | LG Electronics Inc. | Apparatus and method for digital image processing |
CN103823584B (zh) * | 2012-11-19 | 2017-06-27 | 宏达国际电子股份有限公司 | 触控感测方法及可携式电子装置 |
US9201529B2 (en) * | 2012-11-19 | 2015-12-01 | Htc Corporation | Touch sensing method and portable electronic apparatus |
TWI516093B (zh) * | 2012-12-22 | 2016-01-01 | 財團法人工業技術研究院 | 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法 |
US8933882B2 (en) * | 2012-12-31 | 2015-01-13 | Intentive Inc. | User centric interface for interaction with visual display that recognizes user intentions |
US9734582B2 (en) * | 2013-02-21 | 2017-08-15 | Lg Electronics Inc. | Remote pointing method |
US9519351B2 (en) * | 2013-03-08 | 2016-12-13 | Google Inc. | Providing a gesture-based interface |
US10220303B1 (en) | 2013-03-15 | 2019-03-05 | Harmonix Music Systems, Inc. | Gesture-based music game |
JP6207240B2 (ja) * | 2013-06-05 | 2017-10-04 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
CN103488292B (zh) * | 2013-09-10 | 2016-10-26 | 青岛海信电器股份有限公司 | 一种立体应用图标的控制方法及装置 |
US9781190B2 (en) * | 2014-01-22 | 2017-10-03 | Panasonic Intellectual Property Corporation Of America | Apparatus and method for supporting selection of an image to be posted on a website |
WO2016051431A1 (ja) * | 2014-09-30 | 2016-04-07 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
US20160109952A1 (en) * | 2014-10-17 | 2016-04-21 | Top Victory Investments Ltd. | Method of Controlling Operating Interface of Display Device by User's Motion |
KR20160084146A (ko) * | 2015-01-05 | 2016-07-13 | 삼성전자주식회사 | 사용자 입력의 제어 방법 및 상기 방법이 적용되는 전자장치 |
CN106502376A (zh) * | 2015-09-08 | 2017-03-15 | 天津三星电子有限公司 | 一种3d触控操作方法、电子设备及3d眼镜 |
JP6569496B2 (ja) * | 2015-11-26 | 2019-09-04 | 富士通株式会社 | 入力装置、入力方法、及びプログラム |
JP6706323B2 (ja) * | 2016-07-12 | 2020-06-03 | 富士フイルム株式会社 | 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム |
JP2019008351A (ja) * | 2017-06-20 | 2019-01-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP7275124B2 (ja) * | 2018-06-05 | 2023-05-17 | ソニーセミコンダクタソリューションズ株式会社 | 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法 |
US11714543B2 (en) * | 2018-10-01 | 2023-08-01 | T1V, Inc. | Simultaneous gesture and touch control on a display |
CN112925430A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
CN112363629B (zh) * | 2020-12-03 | 2021-05-28 | 深圳技术大学 | 一种新的非接触式人机交互方法及系统 |
US11490496B1 (en) * | 2021-09-09 | 2022-11-01 | Power Mos Electronic Limited | Interactive display system |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863326A (ja) * | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
DE69634913T2 (de) * | 1995-04-28 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd., Kadoma | Schnittstellenvorrichtung |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
US7102615B2 (en) * | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US20080040692A1 (en) * | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
US8564544B2 (en) * | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US9032336B2 (en) * | 2006-09-07 | 2015-05-12 | Osaka Electro-Communication University | Gesture input system, method and program |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
GB0703974D0 (en) * | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
AU2008290211A1 (en) * | 2007-08-19 | 2009-02-26 | Ringbow Ltd. | Finger-worn devices and related methods of use |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
US9652030B2 (en) * | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
US9207806B2 (en) * | 2009-05-28 | 2015-12-08 | Microsoft Technology Licensing, Llc | Creating a virtual mouse input device |
US20100306716A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Extending standard gestures |
-
2009
- 2009-10-05 JP JP2009231224A patent/JP2011081480A/ja not_active Withdrawn
-
2010
- 2010-10-04 US US12/897,497 patent/US20110083106A1/en not_active Abandoned
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9330470B2 (en) | 2010-06-16 | 2016-05-03 | Intel Corporation | Method and system for modeling subjects from a depth map |
WO2012160653A1 (ja) * | 2011-05-24 | 2012-11-29 | 三菱電機株式会社 | 設備制御装置、操作受付方法及びプログラム |
CN103547985B (zh) * | 2011-05-24 | 2016-08-24 | 三菱电机株式会社 | 设备控制装置以及操作受理方法 |
JP5734422B2 (ja) * | 2011-05-24 | 2015-06-17 | 三菱電機株式会社 | 設備制御装置、操作受付方法及びプログラム |
CN103547985A (zh) * | 2011-05-24 | 2014-01-29 | 三菱电机株式会社 | 设备控制装置、操作受理方法以及程序 |
JPWO2012160653A1 (ja) * | 2011-05-24 | 2014-07-31 | 三菱電機株式会社 | 設備制御装置、操作受付方法及びプログラム |
JP2012256104A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2013037675A (ja) * | 2011-06-23 | 2013-02-21 | Omek Interactive Ltd | 近距離動作のトラッキングのシステムおよび方法 |
KR101979317B1 (ko) * | 2011-06-23 | 2019-05-16 | 인텔 코포레이션 | 근접 범위 움직임 추적 시스템 및 방법 |
US9910498B2 (en) | 2011-06-23 | 2018-03-06 | Intel Corporation | System and method for close-range movement tracking |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
KR20130001176A (ko) * | 2011-06-23 | 2013-01-03 | 오메크 인터렉티브, 리미티드 | 근접 범위 움직임 추적 시스템 및 방법 |
JP2013066028A (ja) * | 2011-09-16 | 2013-04-11 | Nikon Corp | 表示装置、表示制御プログラム |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
JPWO2014128748A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
US9906778B2 (en) | 2013-02-19 | 2018-02-27 | Mirama Service Inc. | Calibration device, calibration program, and calibration method |
WO2014128747A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2014128750A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
US10171800B2 (en) | 2013-02-19 | 2019-01-01 | Mirama Service Inc. | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance |
JPWO2014128787A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
JPWO2014128747A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
JPWO2014128750A1 (ja) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | 入出力装置、入出力プログラム、および入出力方法 |
WO2014128787A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
US9979946B2 (en) | 2013-02-19 | 2018-05-22 | Mirama Service Inc | I/O device, I/O program, and I/O method |
WO2014128748A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 |
US9651782B2 (en) | 2013-02-19 | 2017-05-16 | Mirama Service Inc. | Wearable tracking device |
JP2017199379A (ja) * | 2013-02-19 | 2017-11-02 | ミラマ サービス インク | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
JP2015114818A (ja) * | 2013-12-11 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JPWO2015198729A1 (ja) * | 2014-06-25 | 2017-04-20 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
CN106462251A (zh) * | 2014-06-25 | 2017-02-22 | 索尼公司 | 显示控制设备、显示控制方法以及程序 |
CN106462251B (zh) * | 2014-06-25 | 2020-09-08 | 索尼公司 | 显示控制设备、显示控制方法以及程序 |
WO2015198729A1 (ja) * | 2014-06-25 | 2015-12-30 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
US10684707B2 (en) | 2014-06-25 | 2020-06-16 | Sony Corporation | Display control device, display control method, and program |
JP2016034133A (ja) * | 2015-10-08 | 2016-03-10 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
JP2016129341A (ja) * | 2016-01-26 | 2016-07-14 | 株式会社ニコン | 制御装置、およびプログラム |
JP2017182500A (ja) * | 2016-03-30 | 2017-10-05 | 富士通株式会社 | 入力装置、入力プログラム、及び入力方法 |
JP2019527435A (ja) * | 2016-10-24 | 2019-09-26 | 中国移動通信有限公司研究院China Mobile Communication Co., Ltd Research Institute | 空間システムに適用できる操作方法及び装置、記憶媒体 |
CN107368186B (zh) * | 2017-07-11 | 2020-07-07 | 青岛海信移动通信技术股份有限公司 | Ar或vr系统及计算其中从机馈感增益变化量的方法 |
CN107368186A (zh) * | 2017-07-11 | 2017-11-21 | 青岛海信移动通信技术股份有限公司 | Ar或vr系统及计算其中从机馈感增益变化量的方法 |
JP2018098800A (ja) * | 2017-12-27 | 2018-06-21 | 株式会社ニコン | 表示装置、およびプログラム |
JP2019128726A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7040041B2 (ja) | 2018-01-23 | 2022-03-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019109897A (ja) * | 2019-01-08 | 2019-07-04 | 株式会社ニコン | 電子機器 |
WO2021101039A1 (ko) * | 2019-11-22 | 2021-05-27 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어방법 |
KR20210063118A (ko) * | 2019-11-22 | 2021-06-01 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어방법 |
KR102756956B1 (ko) | 2019-11-22 | 2025-01-21 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
US20110083106A1 (en) | 2011-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011081480A (ja) | 画像入力システム | |
US10708506B2 (en) | Image processing device, image processing method and program | |
US9454230B2 (en) | Imaging apparatus for taking image in response to screen pressing operation, imaging method, and program | |
JP5282617B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
US9360962B2 (en) | Electronic apparatus and a method for controlling the same | |
US8947352B2 (en) | Image processing apparatus capable of displaying operation item, method of controlling the same, image pickup apparatus, and storage medium | |
CN103731602A (zh) | 多显示设备及其拍摄方法 | |
JPWO2011114567A1 (ja) | 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 | |
JP2012068730A (ja) | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 | |
JPWO2018003862A1 (ja) | 制御装置、表示装置、プログラムおよび検出方法 | |
JP6701033B2 (ja) | 電子機器およびその制御方法 | |
US20120075267A1 (en) | Information processing apparatus capable of associating data with each other, information processing system, and storage medium storing information processing program | |
JP6740613B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2012256104A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2012015619A (ja) | 立体表示装置及び立体撮影装置 | |
JP5864043B2 (ja) | 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 | |
JP2024025272A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2018206088A (ja) | 電子機器およびその制御方法 | |
JP6855317B2 (ja) | 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体 | |
CN112286425A (zh) | 电子装置、电子装置的控制方法和计算机可读介质 | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム | |
JP2015118652A (ja) | 画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130108 |