JP5765133B2 - 入力装置、入力制御方法及び入力制御プログラム - Google Patents
入力装置、入力制御方法及び入力制御プログラム Download PDFInfo
- Publication number
- JP5765133B2 JP5765133B2 JP2011178093A JP2011178093A JP5765133B2 JP 5765133 B2 JP5765133 B2 JP 5765133B2 JP 2011178093 A JP2011178093 A JP 2011178093A JP 2011178093 A JP2011178093 A JP 2011178093A JP 5765133 B2 JP5765133 B2 JP 5765133B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- input
- key
- virtual object
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Input From Keyboards Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、仮想テンキーを真上方向から入力する場合を示す図である。図1に示す例では、「5」のテンキー11を、マーカ12を付した指で押下する場合を示す。
図3は、仮想テンキーを斜め方向から入力する場合を示す図である。図3に示す例では、「6」のテンキー13を、マーカ12を付した指で押下する場合を示す。
真上からの視点での入力に対する実験結果は次の通りである。
入力正解率:90.6% 誤入力率:9.4%
斜めからの視点での入力に対する実験結果は次の通りである。
入力正解率:63.5% 誤入力率:36.5%
以上の実験結果から、真上からの視点では、キーを平面的に見ることができるため、指先位置と、描画されたキーとの位置関係を適切に把握できていることが分かる。
<システム>
図9は、実施例1におけるシステムの一例を示す図である。図9に示す例では、ユーザはカメラ付きのHMD(Head Mounted Display)を装着し、HMDに重畳表示された仮想キーボードを用いて文字入力を行う。ユーザは、仮想キーを押下すると、その仮想キーに対する文字が入力され、HMDはコンピュータと無線通信することで、コンピュータのアプリケーションに文字を送信する。
図10は、実施例1におけるシステムの構成の一例を示すブロック図である。図10に示す例では、システムは、入力装置101、画像入力装置110、視点・視線検出装置111、表示装置112、アプリケーション113を有する。各装置は、複数の装置が組み合わされて1つの装置を構成してもよい。
図11は、入力装置101の機能の一例を示すブロック図である。図11に示す例では、入力装置101は、実物体検出部201、仮想物体位置決定部202、視点検出部203、重畳処理部204、押下判定部205、入力コマンド生成部206を有する。なお、入力装置101の各部は、例えば制御部102及びワークメモリとして主記憶部103により実現されうる。また、入力コマンド生成部206は、入力コマンドを送信するときは、例えば通信部105により実現されうる。
R:回転要素
T:平行移動要素
実物体検出部201は、Cを既知とすると、n個の特徴点を用いることでTcmを求めることができる。実物体検出部201は、カメラ座標系の原点は視点位置であるため、マーカと視点の位置関係を把握することができる。
次に、実施例1における入力装置101の動作について説明する。図14は、実施例1における入力制御処理の一例を示すフローチャートである。
次に、実施例2における入力装置について説明する。実施例2では、入力装置は、ユーザが仮想キーを押し間違えた場合の正しいキーと誤ったキーとのデータを示す誤り傾向データを参照し、誤り傾向データに保持される誤ったキーが押下されようとする場合に押下判定に用いる位置を変更する。以下に示す実施例では、仮想物体に対して仮想キーボートを例にし、実物体に対して指を例にして説明する。
実施例2におけるシステム及び入力装置の構成については、実施例1と同様であるため、その説明を省略する。
図15は、実施例2における入力装置500の機能の一例を示すブロック図である。図15に示す構成で、図11に示す構成と同様のものは同じ符号を付し、その説明を省略する。
(1)正しい入力(押下)時の
キーコード、視点位置、キーの座標、指の座標
(2)正しい入力キーに対応する、誤った入力(押下)時の
キーコード、視点位置、キーの座標、指の座標
押下判定部502は、指と、押下判定位置との距離に対し、3つの閾値を設ける。閾値1は、指が仮想キーに近づいたと判断するための閾値である。閾値2は、仮想キーが押下されたと判断するための閾値である。閾値3は、仮想キーが押下された後に指が離れたと判断するための閾値である。
次に、実施例2における位置変更例について説明する。図16は、仮想キーの表示位置及び押下判定領域を変更する例(その1)を示す図である。図16に示す例では、ユーザが表示装置111越しに斜め方向から仮想キーボードを見て、仮想キー31を押下しようとする例である。実際は、仮想キーの視線方向手前を押すことが多い。また、この仮想キー31は、誤入力キーとして誤り傾向データに記憶されているとする。
次に、実施例2における入力装置500の動作について説明する。図20は、実施例2における入力制御処理の一例を示すフローチャートである。図20に示すステップS201で、仮想物体位置決定部202は、立体形状データを読み込み、押下判定部502は、誤り傾向データを読み込む。
ステップS212で、重畳処理部503は、画像入力装置110から取得した画像を表示する。
次に、実施例3における入力装置について説明する。実施例3では、入力装置は、実施例2で用いた、ユーザが仮想キーを押し間違えた場合の正しいキーと誤ったキーとのデータを示す誤り傾向データを更新する。以下に示す実施例では、仮想物体に対して仮想キーボートを例にし、実物体に対して指を例にして説明する。
実施例3におけるシステム及び入力装置の構成については、実施例1と同様であるため、その説明を省略する。
図23は、実施例3における入力装置600の機能の一例を示すブロック図である。図23に示す構成で、図11、15に示す構成と同様のものは同じ符号を付し、その説明を省略する。入力コマンド生成部601は、生成したキーコードを学習部602に出力する。
次に、実施例3における入力装置600の動作について説明する。まず、図24、25を用いて実施例3における入力制御方法を説明する。図24は、実施例3における入力制御処理(その1)の一例を示すフローチャートである。
図26の処理に基づく具体例について説明する。図27は、誤入力及び正しい入力を検出する具体例を説明するための図である。図27に示す例では、a、b、dの順に文字が入力され、次に、削除が入力されたとする。
次に、各実施例の変形例について説明する。上記実施例では、仮想物体として仮想キーボードを例にして説明したが、仮想物体は、選択オブジェクトであればよい。例えば、選択ボタンや、吹き出しなどでもよい。この吹き出しは、例えばテキストの単語や物などの実物体から出される吹き出しである。
(付記1)
画像を取得する実物体検出部と、
前記画像に重畳する仮想物体の表示位置を決定する位置決定部と、
ユーザの視点位置を検出する視点検出部と、
決定された表示位置で前記仮想物体を前記画像に重畳表示する重畳処理部と、
検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する押下判定部と、
を備える入力装置。
(付記2)
前記実物体検出部は、
前記画像に含まれる実物体を検出し、
前記押下判定部は、
前記実物体と重畳表示された前記仮想物体との距離を算出し、前記距離が所定値以下である場合に、前記押下判定に用いる位置の変更処理を行う付記1記載の入力装置。
(付記3)
前記押下判定部は、
前記仮想物体の押下判定に用いる領域を示す前記仮想物体の押下判定領域の位置を、前記仮想物体から前記視点位置方向に所定量変更する付記1又は2記載の入力装置。
(付記4)
前記押下判定部は、
前記仮想物体に対して押下の判定をする際に前記実物体の座標の位置を、前記仮想物体から前記視点位置とは逆方向に所定量変更する付記1又は2記載の入力装置。
(付記5)
前記所定量は、前記視点位置と前記仮想物体との距離に基づいて決定される付記3又は4記載の入力装置。
(付記6)
前記重畳処理部は、
前記押下判定領域の位置が変更された場合、前記押下判定領域に対応する仮想物体の表示位置を前記押下判定領域の位置に合わせて変更する付記3記載の入力装置。
(付記7)
前記仮想物体は仮想キーボードであり、
正しい入力である場合の仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標を含む第1データと、誤った入力である場合の仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標とを含む第2データとを関連付けた第3データを記憶する記憶部をさらに備え、
前記押下判定部は、
前記実物体との距離が前記所定値以内にある仮想キーが、前記記憶部に記憶されている仮想キーである場合に、前記押下判定に用いる位置の変更処理を行う付記2乃至6いずれか一項に記載の入力装置。
(付記8)
前記仮想キーボードの仮想キーに対する誤入力を検出し、誤入力されたときの仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標と、入力され直したときの仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標とを用いて前記第3データを更新する学習部をさらに備える付記7記載の入力装置。
(付記9)
画像を取得し、
前記画像に重畳する仮想物体の表示位置を決定し、
ユーザの視点位置を検出し、
決定された表示位置で前記仮想物体を前記画像に重畳表示し、
検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する処理をコンピュータが実行する入力制御方法。
(付記10)
画像を取得し、
前記画像に重畳する仮想物体の表示位置を決定し、
ユーザの視点位置を検出し、
決定された表示位置で前記仮想物体を前記画像に重畳表示し、
検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する処理をコンピュータに実行させる入力制御プログラム。
102 制御部
103 主記憶部
104 補助記憶部
105 通信部
110 画像入力装置
111 視点・視線検出装置
112 表示装置
112 アプリケーション
201 実物体検出部
202 仮想物体位置決定部
203 視点検出部
204、503 重畳処理部
205、502 押下判定部
206、601 入力コマンド生成部
301 形状決定部
302 位置、姿勢決定部
501、603 記憶部
602 学習部
Claims (8)
- 画像を取得する実物体検出部と、
前記画像に重畳する仮想物体の表示位置を決定する位置決定部と、
ユーザの視点位置を検出する視点検出部と、
決定された表示位置で前記仮想物体を前記画像に重畳表示する重畳処理部と、
検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する押下判定部と、
を備え、
前記実物体検出部は、
取得した画像に含まれる実物体を検出し、
前記押下判定部は、
前記実物体と重畳表示された前記仮想物体との距離を算出し、前記距離が所定値以下である場合に、前記押下判定に用いる位置の変更処理を行う入力装置。 - 前記押下判定部は、
前記仮想物体の押下判定に用いる領域を示す前記仮想物体の押下判定領域の位置を、前記仮想物体から前記視点位置方向に所定量変更する請求項1記載の入力装置。 - 前記押下判定部は、
前記仮想物体に対して押下の判定をする際に前記実物体の座標の位置を、前記仮想物体から前記視点位置とは逆方向に所定量変更する請求項1記載の入力装置。 - 前記重畳処理部は、
前記押下判定領域の位置が変更された場合、前記押下判定領域に対応する仮想物体の表示位置を前記押下判定領域の位置に合わせて変更する請求項2記載の入力装置。 - 前記仮想物体は仮想キーボードであり、
正しい入力である場合の仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標を含む第1データと、誤った入力である場合の仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標とを含む第2データとを関連付けた第3データを記憶する記憶部をさらに備え、
前記押下判定部は、
前記実物体との距離が前記所定値以内にある仮想キーが、前記記憶部に記憶されている仮想キーである場合に、前記押下判定に用いる位置の変更処理を行う請求項1乃至4いずれか一項に記載の入力装置。 - 前記仮想キーボードの仮想キーに対する誤入力を検出し、誤入力されたときの仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標と、入力され直したときの仮想キーの座標、及び該仮想キーの押下時における前記実物体の座標とを用いて前記第3データを更新する学習部をさらに備える請求項5記載の入力装置。
- 画像を取得し、
取得した画像に含まれる実物体を検出し、
前記画像に重畳する仮想物体の表示位置を決定し、
ユーザの視点位置を検出し、
決定された表示位置で前記仮想物体を前記画像に重畳表示し、
前記実物体と重畳表示された前記仮想物体との距離を算出し、前記距離が所定値以下である場合に、検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する処理をコンピュータが実行する入力制御方法。 - 画像を取得し、
取得した画像に含まれる実物体を検出し、
前記画像に重畳する仮想物体の表示位置を決定し、
ユーザの視点位置を検出し、
決定された表示位置で前記仮想物体を前記画像に重畳表示し、
前記実物体と重畳表示された前記仮想物体との距離を算出し、前記距離が所定値以下である場合に、検出された前記視点位置と重畳表示された前記仮想物体の位置とに基づき、前記仮想物体の押下判定に用いる位置を変更する処理をコンピュータに実行させる入力制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178093A JP5765133B2 (ja) | 2011-08-16 | 2011-08-16 | 入力装置、入力制御方法及び入力制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011178093A JP5765133B2 (ja) | 2011-08-16 | 2011-08-16 | 入力装置、入力制御方法及び入力制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013041431A JP2013041431A (ja) | 2013-02-28 |
JP5765133B2 true JP5765133B2 (ja) | 2015-08-19 |
Family
ID=47889765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011178093A Active JP5765133B2 (ja) | 2011-08-16 | 2011-08-16 | 入力装置、入力制御方法及び入力制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5765133B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6165485B2 (ja) * | 2013-03-28 | 2017-07-19 | 国立大学法人埼玉大学 | 携帯端末向けarジェスチャユーザインタフェースシステム |
JP2015119373A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
KR101550805B1 (ko) | 2014-04-23 | 2015-09-07 | 상명대학교서울산학협력단 | 마우스 대체 인터페이싱 방법 |
WO2016135908A1 (ja) * | 2015-02-26 | 2016-09-01 | 日立マクセル株式会社 | 感覚提示装置および操作処理装置および画像表示装置ならびに感覚提示方法 |
CN110275619B (zh) * | 2015-08-31 | 2024-08-23 | 北京三星通信技术研究有限公司 | 在头戴式显示器中显示真实物体的方法及其头戴式显示器 |
US10168769B2 (en) | 2015-09-28 | 2019-01-01 | Nec Corporation | Input apparatus, input method, and program |
US10372229B2 (en) | 2016-02-25 | 2019-08-06 | Nec Corporation | Information processing system, information processing apparatus, control method, and program |
US10665019B2 (en) * | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
CA3045664A1 (en) | 2016-12-05 | 2018-06-14 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
IL293424A (en) | 2017-07-26 | 2022-07-01 | Magic Leap Inc | Training a neural network with representations of user interface devices |
JP2022115022A (ja) * | 2021-01-27 | 2022-08-08 | 藤沼 伊代子 | エア入力システム |
US12158982B2 (en) | 2022-09-07 | 2024-12-03 | Snap Inc. | Selecting AR buttons on a hand |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
JP2005267424A (ja) * | 2004-03-19 | 2005-09-29 | Fujitsu Ltd | データ入力装置、情報処理装置、データ入力方法、データ入力プログラム |
JP2006127488A (ja) * | 2004-09-29 | 2006-05-18 | Toshiba Corp | 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム |
JP4649933B2 (ja) * | 2004-09-30 | 2011-03-16 | マツダ株式会社 | 車両用情報表示装置 |
JP2006195665A (ja) * | 2005-01-12 | 2006-07-27 | Sharp Corp | 情報処理装置 |
-
2011
- 2011-08-16 JP JP2011178093A patent/JP5765133B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013041431A (ja) | 2013-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5765133B2 (ja) | 入力装置、入力制御方法及び入力制御プログラム | |
TWI486629B (zh) | 穿透型頭部穿戴式顯示系統與互動操作方法 | |
US10712901B2 (en) | Gesture-based content sharing in artificial reality environments | |
JP6597235B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP5205187B2 (ja) | 入力システム及び入力方法 | |
KR102517425B1 (ko) | 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법 | |
WO2019142560A1 (ja) | 視線を誘導する情報処理装置 | |
TWI525477B (zh) | 接收用戶輸入的系統與方法,及其程式儲存媒體 | |
US20150145762A1 (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
CN104508600A (zh) | 三维用户界面装置及三维操作方法 | |
JP6524589B2 (ja) | クリック動作検出装置,方法およびプログラム | |
JP5766957B2 (ja) | ジェスチャ入力装置 | |
JP6739847B2 (ja) | 画像表示制御装置および画像表示制御用プログラム | |
US20240118751A1 (en) | Information processing device and information processing method | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
JP2017102598A (ja) | 認識装置、認識方法および認識プログラム | |
KR100692526B1 (ko) | 시스템 자동제어용 제스처 인식 장치 및 그 방법 | |
JP7392512B2 (ja) | 情報処理装置、情報処理方法、プログラム、および情報処理システム | |
CN117784926A (zh) | 控制装置、控制方法和计算机可读存储介质 | |
JP7616216B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Ki et al. | 3D gaze estimation and interaction | |
JP5068711B2 (ja) | 物体形状認識システム及び物体形状認識方法 | |
KR102740099B1 (ko) | 손 관절 추적을 이용한 확장현실 기반 포인팅 제공 시스템 | |
CN104679270B (zh) | 接收用户输入的系统与方法及其程序存储介质与程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5765133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |