JP2015122124A - Information apparatus with data input function by virtual mouse - Google Patents
Information apparatus with data input function by virtual mouse Download PDFInfo
- Publication number
- JP2015122124A JP2015122124A JP2015072494A JP2015072494A JP2015122124A JP 2015122124 A JP2015122124 A JP 2015122124A JP 2015072494 A JP2015072494 A JP 2015072494A JP 2015072494 A JP2015072494 A JP 2015072494A JP 2015122124 A JP2015122124 A JP 2015122124A
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- movement
- mouse
- hand
- fingertips
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012905 input function Methods 0.000 title claims 2
- 238000000034 method Methods 0.000 claims abstract description 23
- 230000010365 information processing Effects 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims description 29
- 210000003811 finger Anatomy 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000696 magnetic material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、物理的には実在しない仮想マウスを操作する、操作者の手の動きおよび指先の動きを検出して、表示されているポインタの移動操作やクリック操作等の画面操作を実行して、通常のマウスによる入力と同等のデータ入力を実現する情報装置に関する。 The present invention operates a virtual mouse that does not exist physically, detects the movement of the hand of the operator and the movement of the fingertip, and executes screen operations such as a movement operation and a click operation of the displayed pointer. The present invention also relates to an information device that realizes data input equivalent to normal mouse input.
近年、半導体技術の進歩に伴い、小型軽量で高性能なモバイル用携帯型パーソナルコンピュータ(以下、モバイルパソコンと略す)等の普及が進展している。また、モバイルパソコンにインストールされるアプリケーションソフトウェアにおける画面操作やデータ入力手段は、キーボード以外にマウスによる、クリックやドラッグ等のグラフィカルユーザインタフェース(GUI)に基づく操作が一般的である。 2. Description of the Related Art In recent years, with the advancement of semiconductor technology, a portable personal computer for mobile use (hereinafter abbreviated as a mobile personal computer) having a small size, light weight and high performance has been spread. Further, screen operations and data input means in application software installed in a mobile personal computer are generally operations based on a graphical user interface (GUI) such as click and drag, etc., using a mouse in addition to a keyboard.
そのため、例えば、モバイルパソコンを使用する場合、自席や自宅では通常のマウスを有線または無線で接続してGUI操作し、出先ではジョイスティック,タッチパッド,トラックボール等のモバイルパソコン本体に付属しているポインティングデバイスを利用してGUI操作することが通例である。この理由は、出先へモバイルパソコン本体以外に別ユニットである通常のマウスを携帯することを忌避しているためであり、本来は通常のマウスにより操作する方が快適であると思われる。 For this reason, for example, when using a mobile PC, a normal mouse is wired or wirelessly connected at home or at home, and a GUI is operated. It is customary to operate the GUI using a device. This is because it avoids carrying a normal mouse as a separate unit in addition to the mobile personal computer to the destination, and it seems that it is originally more comfortable to operate with a normal mouse.
これを改善する方法として、カメラによる撮影画像から例えば手の動き方向などを解析して、その解析情報に基づいてコマンド入力処理を実行する技術がある(例えば、特許文献1)。この技術は、例えば、認識対象オブジェクトとしての手や指が認識領域(Hotspot)を横切る方向として、下から上、左から右、上から下、右から左の4種類を識別可能とし、該認識領域として3つの領域を設定した場合、64(=4×4×4)通りの識別が可能となるので、これらの動作を64個のGUI操作コマンドに対応付けるものである。これにより、ユーザはカメラに対して予め定められたジェスチャ動作することで、物理的なマウス等を用いることなく、画面を操作する所定のコマンド入力が可能となる。 As a method for improving this, there is a technique in which, for example, a hand movement direction is analyzed from an image captured by a camera, and command input processing is executed based on the analysis information (for example, Patent Document 1). This technology makes it possible to identify four types, for example, from bottom to top, from left to right, from top to bottom, and from right to left as directions in which a hand or finger as a recognition target object crosses the recognition area (hotspot). When three regions are set as regions, 64 (= 4 × 4 × 4) ways of identification are possible, and these operations are associated with 64 GUI operation commands. Thus, the user can perform a predetermined command to operate the screen without using a physical mouse or the like by performing a predetermined gesture operation on the camera.
しかしながら、特許文献1に記載されている技術は、例えば、視聴しているテレビの音量やチャンネルの操作を、リモコン機器無しにリモート操作するには適していると思われるが、手や指が認識領域を横切る方向を識別する程度の大きな動きが必要なジェスチャ入力なので、一般的なマウスを操作する感覚とは大きく異なっている。また、操作者は多くの予め定められたジェスチャ動作を覚える必要があり、物理的なマウスを代替する技術としては不充分である。 However, although the technique described in Patent Document 1 seems to be suitable for remote control of the volume and channel of a TV being viewed without a remote control device, for example, the hand or finger is recognized. This is a gesture input that requires a large amount of movement to identify the direction across the area, which is very different from the general sense of operating a mouse. Further, the operator needs to learn many predetermined gesture operations, which is insufficient as a technique for replacing a physical mouse.
そこで、本発明の課題は、通常のマウスを操作する感覚で、物理的には実在しない仮想マウスを操作し、その手および指先の動きを検出して、表示されているポインタの移動操作やクリック操作等の画面操作を実行して、通常のマウスによる入力と同等のデータ入力を実現するモバイルパソコン等の情報装置を提供することにある。 Therefore, an object of the present invention is to operate a virtual mouse that does not physically exist as if it were a normal mouse operation, detect the movement of its hand and fingertip, and move or click the displayed pointer. An object of the present invention is to provide an information device such as a mobile personal computer that executes a screen operation such as an operation and realizes a data input equivalent to a normal mouse input.
上記課題を解決するために、本発明は、操作者の手および指先を撮影する自装置が備える映像カメラからの映像データを解析し、実体の無い仮想マウスに対する操作内容を判定して表示中のポインタの移動およびクリック操作に係るデータを入力する情報装置であって、前記映像データを解析して前記仮想マウスを操作する操作者の手の移動を検出する移動検出手段と、前記映像データを解析して前記仮想マウスを操作する1以上の指先の位置および動作を検出する指先検出手段と、を有し、前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記移動検出手段が手の移動を検出した場合に、前記手の移動に応じて表示中のポインタを移動させ、前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記1以上の指先のいずれかの往復移動を検出している場合に、表示中の画面をスクロールさせ、前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記1以上の指先のいずれかによる押下動作を検出した場合に、クリック操作が為されたと判定し、前記クリック操作に対応する所定の処理を実行することを特徴とする。 In order to solve the above-mentioned problem, the present invention analyzes video data from a video camera included in its own device that captures an operator's hand and fingertips, determines operation contents for an invisible virtual mouse, and displays it. An information device for inputting data relating to a pointer movement and a click operation, wherein the video data is analyzed to detect movement of an operator's hand operating the virtual mouse, and the video data is analyzed And fingertip detection means for detecting the position and movement of one or more fingertips that operate the virtual mouse, and the fingertip detection means detects a predetermined specific shape by the one or more fingertips. When the movement detecting means detects the movement of the hand in a state, the pointer being displayed is moved according to the movement of the hand, and the fingertip detecting means is predetermined by the one or more fingertips. When the reciprocating movement of one or more fingertips is detected in a state where the specific shape is detected, the screen being displayed is scrolled, and the fingertip detecting means is predetermined by the one or more fingertips. When a pressing operation by one of the one or more fingertips is detected in a state where the specified shape is detected, it is determined that a click operation has been performed, and a predetermined process corresponding to the click operation is executed It is characterized by.
本発明によれば、通常のマウスを操作する感覚で、物理的には実在しない仮想マウスを操作するので、特殊なジェスチャコマンドを覚える必要がない。従って、出先で通常のマウスを携帯していない状況であっても、通常のマウスと同等の快適な操作性を備えるモバイルパソコン等の情報装置を提供できる効果がある。 According to the present invention, since a virtual mouse that does not physically exist is operated as if a normal mouse was operated, it is not necessary to memorize a special gesture command. Therefore, there is an effect that it is possible to provide an information device such as a mobile personal computer having a comfortable operability equivalent to that of a normal mouse even in a situation where a normal mouse is not carried at the destination.
以下、本発明の実施形態として、情報装置や通信装置のマウス入力部に適用した場合を例に、図面を用いて説明する。 Hereinafter, as an embodiment of the present invention, a case where the present invention is applied to a mouse input unit of an information device or a communication device will be described as an example with reference to the drawings.
図1は、本発明の全体説明図であって、1は本発明を適用した情報装置(以下、本装置と略す)、2は本装置1に組み込まれている映像カメラ、30は本装置1に組み込まれている表示部、31は表示部30に表示されているポインタ、32および33は表示部30に表示されているクリック領域、40は仮想マウスを操作する操作者の手、41は手40の人差指の指先、42は手40の中指の指先、50は仮想マウス、51は仮想マウスの左クリックスイッチ、52は仮想マウスの右クリックスイッチである。なお、図示しないが、通常のマウスと同様に、仮想マウス50の左クリックスイッチ51と右クリックスイッチ52の間にスクロールキーがある。
FIG. 1 is an overall explanatory view of the present invention, wherein 1 is an information device to which the present invention is applied (hereinafter abbreviated as this device), 2 is a video camera incorporated in the
破線で示した50〜52は物理的には実在していない。操作者は、表示部30に表示されたポインタ31を見ながら、物理的には実在しない仮想マウス50を手40で握っているとイメージして、仮想マウス50を手40により机上で動かし、指先41,42によりクリック操作や画面のスクロール操作をする。このマウス操作している操作者の手40,指先41,42は、映像カメラ2により撮影されており、映像カメラ2からの映像データを画像処理して解析することにより、手40の移動および指先41,42による左クリックまたは右クリック操作を検出する。そして、それらの検出結果に応じて、ポインタ31は移動する。
50 to 52 indicated by broken lines are not physically present. While looking at the
なお、図1では、表示部30に表示されたポインタ31をYESのクリック領域32に移動してクリック操作した場合の例である。なお、ポインタ31が最初に表示される位置は、表示部30のセンタ,上下左右の端,所定のクリック領域のセンタ等、アプリケーションソフトの処理により適宜設定される。
FIG. 1 shows an example in which the
図2は、本装置1のブロック構成図であって、11は指先検出部、12は特定形状検出部、13は移動検出部、14はマウス設定部、15はクリック判定部、16はマウスインタフェース、17は情報処理部である。 FIG. 2 is a block diagram of the apparatus 1, wherein 11 is a fingertip detection unit, 12 is a specific shape detection unit, 13 is a movement detection unit, 14 is a mouse setting unit, 15 is a click determination unit, and 16 is a mouse interface. , 17 are information processing units.
指先検出部11は、映像カメラ2が撮影した仮想マウス50を操作する各指先の映像データを解析して、手や各指先が位置している座標を検出し、特定形状検出部12,移動検出部13,クリック判定部15へ検出したデータを通知する。
The
特定形状検出部12は、指先検出部11からのデータを解析して、各指による形状を判定し、予め登録されている特定形状(例えば、じゃんけんのチョキ)を検出した場合に、その旨をマウスインタフェース16へ通知する。
The specific
移動検出部13は、指先検出部11からのデータを解析して、仮想マウス50を操作する手40の移動を検出し、その移動方向と移動量をマウスインタフェース16へ通知する。
The
マウス設定部14は、仮想マウス50の左クリックスイッチ51および右クリックスイッチ52の機能や手40の移動量(即ち仮想マウス50の移動量)に対するポインタ31の移動比率等、仮想マウス50の動作に係るデータを設定する手段である。なお、マウス設定部14へ設定するデータは、キーボード等(図示せず)の仮想マウス50以外の入力機器で入力してもよいし、特定形状検出部12を介して、各指先による所定の形状に対応して予め定められたデータを入力するようにしてもよい。
The
クリック判定部15は、指先検出部11からのデータを解析して、指先41または指先42の押下動作を監視し、押下動作を検出した場合、仮想マウス50の左クリックスイッチ51または右クリックスイッチ52のいずれがクリックされたかを判定し、その判定結果をマウスインタフェース16へ通知する。例えば、指先41による押下動作を検出した場合は左クリックスイッチ51がクリックされたと判定し、指先42による押下動作を検出した場合は右クリックスイッチ52がクリックされたと判定する。
The
マウスインタフェース16は、特定形状検出部12,移動検出部13,クリック判定部15から入力したデータにより、ポインタ31の移動データ,クリックコマンド,スクロールコマンドを情報処理部17へ出力する。
The
例えば、じゃんけんのチョキの形は、仮想マウス50を手40でグリップすると共に、右手人差指の指先41および右手薬指の指先42が仮想マウス50の左クリックスイッチ51および右クリックスイッチ52の位置にセットされた状態を模しているので、この形での移動はポインタ31を移動させるべき仮想マウス50の移動もしくはドラッグと定義する。この場合、チョキ以外の形(例えば、パーまたはグー)での移動は、ポインタ31を移動させない仮想マウス50の空間移動(通常のマウス操作において、マウスを浮かせて元の位置に戻す操作に相当)となる。これにより、操作者は通常のマウスを操作する感覚で各指先を動かせばよいので、違和感が小さい。
For example, in the shape of Janken, the
情報処理部17は、マウスによる移動データ,クリックコマンド,スクロールコマンドの入力を伴うアプリケーションソフトウェア一般による情報処理手段である。
The
なお、情報処理部17に入力する移動データ,クリックコマンド,スクロールコマンドは、通常の物理的なマウスからのデータと同一であり、情報処理部17のマウス対応部(図示せず)は、マウスインタフェース16から入力した移動データ,クリックコマンドに応じて、表示中のポインタ31を移動処理すると共に、表示中のポインタ31の形状をクリック操作やドラッグ操作に対応した形状に変形させる。また,マウスインタフェース16から入力したスクロールコマンドに応じて表示中の画像をスクロールする。
The movement data, click command, and scroll command input to the
図3は、本装置1の動作フローチャートである。以下、図1および図2を併用して、本装置1の動作フローを説明する。なお、本フローは本装置1の電源が投入され、情報処理部17がマウスからのデータ入力待ちの状態でスタートする(S300)。この状態において、ポインタ31は、情報処理部17が起動しているアプリケーションソフトウェアが指定するホームポジションまたは特定のポジションに表示されている。
FIG. 3 is an operation flowchart of the apparatus 1. Hereinafter, the operation flow of the present apparatus 1 will be described with reference to FIGS. This flow starts when the power of the apparatus 1 is turned on and the
本装置1を操作している操作者の手40およびその指先の映像データ(映像カメラ2が撮影)が指先検出部11へ入力すると(S310)、指先検出部11は、その映像データを解析して手40および各指先の位置を検出する(S311)。
When the
特定形状検出部12は、指先検出部11が検出した各指先が位置する座標データから、予め定められた特定形状(例えば、チョキ)か否かを監視し、特定形状を検出すると(S320,YES)、操作者が仮想マウス50を掴んでいると判断してS330へ進む。特定形状を検出しなければ(S320,NO)、S310へ戻る。
The specific
S330において、移動検出部13は、指先検出部11から通知される手40が位置する座標データの履歴から手40の移動を監視し、手40の移動を検出した場合(S330,YES)、手40の移動方向と移動量を含む移動データを、マウスインタフェース16を介して、情報処理部17に出力し(S331)、S340へ進む。なお、この移動データに含まれる移動量の値は手40の移動量にマウス設定部14に設定されている移動に係るパラメータを乗じた値である。情報処理部17は入力した移動データに応じて、表示中のポインタ31を相対的に移動処理する。S330でNOであれば、S331をスキップしてS340へ進む。
In S330, the
S340において、クリック判定部15は、指先検出部11から通知される人差指41と中指42の指先が位置する座標データの履歴から各指先の押下動作を監視し、押下動作を検出すると(S340,YES)、マウスインタフェース16を介して、右クリックまたは左クリックに対応するクリックコマンドを情報処理部17へ出力し(S341)、S350へ進む。
In S340, the
なお、操作者が行うクリック操作には、シングルクリック操作,ダブルクリック操作やクリックスイッチを押したままのドラッグ操作があるが、これらの識別は情報処理部17が行う(図示せず)。また、右クリックと左クリックの識別は押下動作をした指先が指先41または指先42のいずれであるかにより識別すればよい。S340でNOであれば、S341をスキップしてS350へ進む。
Note that the click operation performed by the operator includes a single click operation, a double click operation, and a drag operation with the click switch held down, but these are identified by the information processing unit 17 (not shown). Further, the right click and the left click may be identified based on whether the fingertip that has been pressed is the
S350において、マウスインタフェース16が指先41または指先42により、仮想マウス50のスクロールキー(図示せず)の操作に対応する上下または前後方向の往復動作を検出すると(S350,YES)、マウスインタフェース16は、マウス設定部14を参照して、画面スクロールに係るコマンドを情報処理部17へ出力し(S351)、S310へ戻る。
In S350, when the
ここで、画面のスクロール方向は、例えば、指先41の往復動作を検出した場合は画面の上方スクロール、指先42の往復動作を検出した場合は画面の下方スクロールと定義すればよい。S350でNOであれば、S351をスキップしてS310へ戻り、S310以降を繰り返す。
Here, the scroll direction of the screen may be defined as, for example, upward scrolling of the screen when the reciprocating motion of the
以上、実在しない仮想マウスを操作する、操作者の手,指先を撮影した映像カメラからの映像データを画像処理技術により解析して、通常のマウスを操作したのと同様の移動データ,クリックコマンド,スクロールコマンドを情報処理部17へ出力する方法について説明した。
As described above, the video data from the video camera that shot the hand and fingertip of the operator who operates the virtual mouse that does not exist is analyzed by image processing technology, and the same movement data, click command, The method for outputting the scroll command to the
本方法において、操作者の各指先の位置を検出する具体的な方法は、例えば、画像認識処理技術を駆使して、爪の部位を抽出してそのセンタ位置を指先の位置と判定すればよい。また、手の位置は、例えば、前記検出した各指先の中心や重心の位置とすればよい。 In this method, as a specific method for detecting the position of each fingertip of the operator, for example, by using image recognition processing technology, a nail part may be extracted and the center position determined as the fingertip position. . Moreover, what is necessary is just to let the position of a hand be the position of the center of each detected said fingertip, or a gravity center, for example.
さらに、指先の位置を簡易な処理で判定する方法として、各指先の爪にネールアートのように特徴点を有する物を付着し、または特徴点を有する絵やマークを描き、または特徴点のある手袋や指サックを装着し、画像処理技術によりそれらの特徴点を検出するようにしてもよい。 Furthermore, as a method for determining the position of the fingertip by a simple process, an object having a feature point such as nail art is attached to each nail of each fingertip, a picture or mark having a feature point is drawn, or there is a feature point A glove or finger sack may be worn, and the feature points may be detected by image processing technology.
ところで、本発明の実施の形態において、各指先の位置および動作を検出する方法として、映像カメラ2からの映像データを分析(画像処理)して検出する方法を例に説明したが、本発明はこれに限定されない。詳細な説明は省略するが、例えば、映像カメラ2の代わりに、各指先の位置を直接的に検出するセンサからのデータによって、仮想マウス50への操作内容を検出する方法も適用可能である。例えば、各指先の爪または手袋に磁性体や無線タグを装着して、それらの位置や動作を所定のセンサ(例えばホール素子や無線タグリーダ)で検出するようにしてもよい。
By the way, in the embodiment of the present invention, as a method for detecting the position and movement of each fingertip, a method for analyzing and detecting video data from the
また、特定形状検出部12が識別する特定形状を自由に定義することも可能である(図示せず)。例えば、手40の各指先によるグー,チョキ,パー以外にも、親指と人差指によるOKサイン,グーの形から所定本数の指を伸ばした形状等、種々の形状もしくは動作により、ポインタ31のホームポジションへの移動,ポインタ31の表示/停止,表示部30に表示している画像の拡大/縮小等、各種の画面操作コマンドを定義できる。
It is also possible to freely define a specific shape identified by the specific shape detector 12 (not shown). For example, in addition to goo, choki, and par with each fingertip of the
1・・・本発明を適用した装置
2・・・映像カメラ
11・・・指先検出部
12・・・特定形状検出部
13・・・移動検出部
14・・・マウス設定部
15・・・クリック判定部
16・・・マウスインタフェース
17・・・情報処理部
30・・・表示部
31・・・ポインタ
32・・・クリック領域(YES)
33・・・クリック領域(NO)
40・・・仮想マウスを操作する手
41・・・仮想マウスを操作する人差指の指先
42・・・仮想マウスを操作する中指の指先
50・・・仮想マウス
51・・・仮想マウスの左クリックスイッチ
52・・・仮想マウスの右クリックスイッチ
DESCRIPTION OF SYMBOLS 1 ... Apparatus which applied this
33 ... Click area (NO)
40 ... Hand for operating
Claims (1)
前記映像データを解析して前記仮想マウスを操作する操作者の手の移動を検出する移動検出手段と、前記映像データを解析して前記仮想マウスを操作する1以上の指先の位置および動作を検出する指先検出手段と、を有し、
前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記移動検出手段が手の移動を検出した場合に、前記手の移動に応じて表示中のポインタを移動させ、前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記1以上の指先のいずれかの往復移動を検出している場合に、表示中の画面をスクロールさせ、前記指先検出手段が前記1以上の指先による予め定められた特定形状を検出している状態で前記1以上の指先のいずれかによる押下動作を検出した場合に、クリック操作が為されたと判定し、前記クリック操作に対応する所定の処理を実行することを特徴とする仮想マウスによるデータ入力機能を有する情報装置。 Analyzes the video data from the video camera provided in the own device that captures the operator's hand and fingertips, determines the operation contents for the virtual mouse that does not exist, and inputs data related to the movement of the pointer and the click operation An information device,
Movement detection means for detecting movement of an operator's hand operating the virtual mouse by analyzing the video data, and detecting positions and movements of one or more fingertips operating the virtual mouse by analyzing the video data Fingertip detecting means for performing,
When the movement detection unit detects the movement of the hand in a state where the fingertip detection unit detects a predetermined specific shape by the one or more fingertips, a pointer being displayed is displayed according to the movement of the hand. A screen that is being displayed when the fingertip detecting unit detects any reciprocating movement of the one or more fingertips while the fingertip detecting unit is detecting a predetermined specific shape by the one or more fingertips. When a pressing operation by any one of the one or more fingertips is detected in a state where the fingertip detecting means detects a predetermined specific shape by the one or more fingertips, a click operation is performed. An information device having a data input function using a virtual mouse, wherein the information processing unit determines that the click operation is performed, and executes a predetermined process corresponding to the click operation.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015072494A JP2015122124A (en) | 2015-03-31 | 2015-03-31 | Information apparatus with data input function by virtual mouse |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015072494A JP2015122124A (en) | 2015-03-31 | 2015-03-31 | Information apparatus with data input function by virtual mouse |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011146109A Division JP5733056B2 (en) | 2011-06-30 | 2011-06-30 | Data input method with virtual mouse |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015122124A true JP2015122124A (en) | 2015-07-02 |
Family
ID=53533609
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015072494A Pending JP2015122124A (en) | 2015-03-31 | 2015-03-31 | Information apparatus with data input function by virtual mouse |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015122124A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019028510A (en) * | 2017-07-25 | 2019-02-21 | 株式会社ネットアプリ | Input-output system |
| US11586347B2 (en) | 2019-04-22 | 2023-02-21 | Hewlett-Packard Development Company, L.P. | Palm-based graphics change |
| JP2023527906A (en) * | 2020-06-05 | 2023-06-30 | 北京字節跳動網絡技術有限公司 | Control method, device, terminal and storage medium |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0757103A (en) * | 1993-08-23 | 1995-03-03 | Toshiba Corp | Information processing equipment |
| JPH09185456A (en) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Interface device |
| JP2006127488A (en) * | 2004-09-29 | 2006-05-18 | Toshiba Corp | INPUT DEVICE, COMPUTER DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
| JP2009037620A (en) * | 2007-08-01 | 2009-02-19 | Unique Instruments Co Ltd | Three-dimensional virtual input and simulation device |
| JP2010113481A (en) * | 2008-11-05 | 2010-05-20 | Sharp Corp | Input device |
-
2015
- 2015-03-31 JP JP2015072494A patent/JP2015122124A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0757103A (en) * | 1993-08-23 | 1995-03-03 | Toshiba Corp | Information processing equipment |
| JPH09185456A (en) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | Interface device |
| JP2006127488A (en) * | 2004-09-29 | 2006-05-18 | Toshiba Corp | INPUT DEVICE, COMPUTER DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
| JP2009037620A (en) * | 2007-08-01 | 2009-02-19 | Unique Instruments Co Ltd | Three-dimensional virtual input and simulation device |
| JP2010113481A (en) * | 2008-11-05 | 2010-05-20 | Sharp Corp | Input device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019028510A (en) * | 2017-07-25 | 2019-02-21 | 株式会社ネットアプリ | Input-output system |
| US11586347B2 (en) | 2019-04-22 | 2023-02-21 | Hewlett-Packard Development Company, L.P. | Palm-based graphics change |
| JP2023527906A (en) * | 2020-06-05 | 2023-06-30 | 北京字節跳動網絡技術有限公司 | Control method, device, terminal and storage medium |
| JP7514331B2 (en) | 2020-06-05 | 2024-07-10 | 北京字節跳動網絡技術有限公司 | Control method, device, terminal and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11048333B2 (en) | System and method for close-range movement tracking | |
| KR101292467B1 (en) | Virtual controller for visual displays | |
| CN101634933B (en) | Information processing apparatus and information processing method | |
| US8432301B2 (en) | Gesture-enabled keyboard and associated apparatus and computer-readable storage medium | |
| Matlani et al. | Virtual mouse using hand gestures | |
| US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
| CN103797513A (en) | Computer vision based two hand control of content | |
| US20120133587A1 (en) | Sensor-augmented, gesture-enabled keyboard and associted apparatus and computer-readable storage medium | |
| CN104335145A (en) | User interface method and apparatus based on spatial location recognition | |
| JP2009140390A (en) | Instruction device and fingerprint authentication semiconductor circuit | |
| KR20160097410A (en) | Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto | |
| US10656746B2 (en) | Information processing device, information processing method, and program | |
| CN116075801A (en) | Electronic equipment and programs | |
| CN104508599A (en) | Element selection device, element selection method, and program | |
| JP2013114647A (en) | Gesture input system | |
| JP2012252584A (en) | Virtual keyboard input method | |
| CN110007748B (en) | Terminal control method, processing device, storage medium and terminal | |
| JP2015135572A (en) | Information processing apparatus and control method thereof | |
| JP2015122124A (en) | Information apparatus with data input function by virtual mouse | |
| JP5928628B2 (en) | Virtual keyboard input method | |
| JP5733056B2 (en) | Data input method with virtual mouse | |
| US12437506B2 (en) | Image annotation system and method | |
| KR20110033318A (en) | Virtual Mouse System Using Image Recognition | |
| JP6289655B2 (en) | Screen operation apparatus and screen operation method | |
| CN108958590A (en) | Menu operation method applied to head-mounted display device and head-mounted display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150331 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160223 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160407 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160614 |