JP2010086367A - Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment - Google Patents
Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment Download PDFInfo
- Publication number
- JP2010086367A JP2010086367A JP2008255985A JP2008255985A JP2010086367A JP 2010086367 A JP2010086367 A JP 2010086367A JP 2008255985 A JP2008255985 A JP 2008255985A JP 2008255985 A JP2008255985 A JP 2008255985A JP 2010086367 A JP2010086367 A JP 2010086367A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- operator
- little finger
- captured image
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims description 28
- 210000004932 little finger Anatomy 0.000 claims abstract description 103
- 238000003384 imaging method Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims description 47
- 230000001133 acceleration Effects 0.000 claims description 29
- 230000005484 gravity Effects 0.000 claims description 8
- 239000003550 marker Substances 0.000 claims description 8
- 210000003811 finger Anatomy 0.000 description 42
- 230000033001 locomotion Effects 0.000 description 42
- 230000005540 biological transmission Effects 0.000 description 19
- 210000003813 thumb Anatomy 0.000 description 14
- 230000008569 process Effects 0.000 description 10
- 210000000707 wrist Anatomy 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置に関し、特に、操作者のジェスチャに応じて操作入力を行う位置情報入力装置等の操作性を向上させるようにした位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置に関する。 The present invention relates to a position information input device, a position information input method, a program, an information processing system, and an electronic device, and in particular, improves the operability of a position information input device that performs operation input according to an operator's gesture. The present invention relates to a position information input device, a position information input method, a program, an information processing system, and an electronic device.
従来、操作者の片手が撮像された撮像画像から、操作者の片手が表示された領域(片手領域)を検出し、検出した片手領域に基づいて、表示画面上のポインタを移動させるジェスチャ認識技術が存在する(例えば、非特許文献1を参照)。 2. Description of the Related Art Conventionally, a gesture recognition technology that detects an area (one-handed area) where an operator's one hand is displayed from a captured image obtained by imaging one hand of the operator and moves a pointer on a display screen based on the detected one-handed area. (For example, refer nonpatent literature 1).
ここで、従来のジェスチャ認識技術を説明する。図1は、操作者の片手の形状1を示している。
Here, a conventional gesture recognition technique will be described. FIG. 1 shows the
従来のジェスチャ認識技術では、撮像画像から図1に示すような片手の形状1を検出した場合、人差し指の指先2をトレースポイント(TracePoint)として、そのトレースポイントの動きを追尾するように、表示画面上のポインタを移動させる。
In the conventional gesture recognition technology, when the
そして、操作者は、表示画面上のポインタを任意の位置に移動させ、移動後のポインタの位置でクリックを行う場合には、トレースポイントとされていない方の手を用いて、クリックを行うためのボタン等を押下する。 Then, when the operator moves the pointer on the display screen to an arbitrary position and clicks at the position of the pointer after the movement, the operator uses the hand that is not set as the trace point to perform the click. Press the button.
また、片手のみで、表示画面上のポインタを移動させる他、クリックを行うことが可能なエアタップ操作技術が存在する(例えば、非特許文献2を参照)。このエアタップ操作技術では、図2に示すように、図2A、図2B、図2Cの順序で、人指し指を空中で上下させるエアタップを行った場合に、表示画面上でクリックが行われる。
In addition, there is an air tap operation technique that can be clicked in addition to moving the pointer on the display screen with only one hand (see Non-Patent
ところで、従来のジェスチャ認識技術では、1つのポインタの位置を入力することは可能だが、2つ以上のポインタの位置を入力する、いわゆるマルチタッチインタフェースに対応することができない。 By the way, in the conventional gesture recognition technology, it is possible to input the position of one pointer, but it is not possible to cope with a so-called multi-touch interface that inputs the positions of two or more pointers.
また、従来のエアタップ操作技術では、エアタップを行うときに、エアタップの動作に影響されて、トレースポイントである人差し指の指先が移動してしまうため、操作者が所望する、表示画面上のポインタの位置で、クリックを行うことができない。 In addition, in the conventional air tap operation technology, when the air tap is performed, the fingertip of the index finger, which is a trace point, is moved by the operation of the air tap, so the position of the pointer on the display screen desired by the operator is desired. I can't click.
なお、人差し指に代えて、親指、中指等の指を用いて、エアタップを行うことも提案されているが、その場合にも、エアタップの動作に影響されて、やはり、人差し指の指先が移動してしまい、ポインタの位置がずれてしまう。 In addition, it has been proposed to perform air tapping using fingers such as the thumb and middle finger instead of the index finger, but in that case as well, the fingertip of the forefinger moves due to the influence of the operation of the air tap. As a result, the position of the pointer is shifted.
そこで、現在時刻から所定の時間だけ過去のポインタの位置を記憶しておいて、エアタップが行われた場合には、その直前のポインタの位置でクリックが行われるように構成することも提案されている。 Therefore, it has also been proposed to store the past pointer positions for a predetermined time from the current time, and to perform a click at the position of the pointer immediately before the air tap is performed. Yes.
しかしながら、そのような構成を実現させる場合、ソフトウェアを実装する負担が増加してしまうため、実装されるソフトウェアにバグが生じ易く、ジェスチャを用いた操作入力において不安定な動作を招きかねない。 However, when realizing such a configuration, the burden of installing software increases, so that the software to be installed is likely to be bugged, and unstable operation may be caused in operation input using gestures.
本発明は、このような状況に鑑みてなされたものであり、操作者の手を用いたジェスチャによる操作入力の操作性を向上させるようにするものである。 The present invention has been made in view of such a situation, and is intended to improve the operability of an operation input by a gesture using an operator's hand.
本発明の第1の側面の第1の位置情報入力装置は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置であり、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を入力する入力手段とを含む位置情報入力装置である。 A first position information input device according to a first aspect of the present invention is a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing apparatus, and images a predetermined imaging range. Imaging means for generating a captured image, detection means for detecting the operator's little finger from the generated captured image, and calculation means for calculating the position information of the detected little finger in the captured image; And a position information input device including an input means for inputting the calculated position information.
予め用意した3次元モデルと前記撮像画像とを比較する比較手段をさらに設けるようにすることができ、前記検出手段には、前記比較手段による比較結果に基づいて、前記操作者の小指を検出させるようにすることができる。 Comparing means for comparing a three-dimensional model prepared in advance with the captured image may be further provided, and the detecting means is configured to detect the operator's little finger based on a comparison result by the comparing means. Can be.
前記操作者の小指には、マーカが付加されており、前記検出手段には、前記撮像画像から、前記マーカを前記操作者の小指として検出させるようにすることができ、前記算出手段には、前記マーカの位置を示す前記位置情報を算出させるようにすることができる。 A marker is added to the operator's little finger, and the detection means can be made to detect the marker as the operator's little finger from the captured image. The position information indicating the position of the marker can be calculated.
前記算出手段には、前記撮像画像内の、前記操作者の小指を示す領域の重心を、前記位置情報として算出させるようにすることができる。 The calculation means may be configured to calculate a center of gravity of an area indicating the little finger of the operator in the captured image as the position information.
本発明の第1の側面の第1の位置情報入力方法は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法であり、前記位置情報入力装置は、撮像手段と、検出手段と、算出手段と、入力手段とを含み、前記撮像手段が、所定の撮像範囲を撮像して撮像画像を生成し、前記検出手段が、生成された前記撮像画像から、前記操作者の小指を検出し、前記算出手段が、検出された前記小指の、前記撮像画像における前記位置情報を算出し、前記入力手段が、算出された前記位置情報を入力するステップを含む位置情報入力方法である。 A first position information input method according to a first aspect of the present invention is a position information input method for a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device. The information input device includes an imaging unit, a detection unit, a calculation unit, and an input unit. The imaging unit generates a captured image by imaging a predetermined imaging range, and the detection unit is generated. The operator's little finger is detected from the captured image, the calculation means calculates the position information of the detected little finger in the captured image, and the input means inputs the calculated position information. This is a position information input method including the step of:
本発明の第1の側面の第1のプログラムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を入力する入力手段として機能させるためのプログラムである。 According to a first program of the first aspect of the present invention, a computer of a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device is captured by imaging a predetermined imaging range. Imaging means for generating an image; detection means for detecting the operator's little finger from the generated captured image; calculation means for calculating the position information of the detected little finger in the captured image; It is a program for functioning as an input means for inputting the position information.
本発明の第1の側面によれば、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、前記操作者の小指が検出され、検出された前記小指の、前記撮像画像における前記位置情報が算出され、算出された前記位置情報が入力される。 According to the first aspect of the present invention, a predetermined imaging range is imaged to generate a captured image, the operator's little finger is detected from the generated captured image, and the detected little finger of the detected little finger is The position information in the captured image is calculated, and the calculated position information is input.
本発明の第2の側面の情報処理システムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置と、入力された前記位置情報に応じた処理を実行する前記情報処理装置とにより構成される情報処理システムであり、前記位置情報入力装置が、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を、前記情報処理装置に入力する入力手段とを含み、前記情報処理装置が、入力された前記位置情報に応じた処理を実行する処理手段を含む情報処理システムである。 An information processing system according to a second aspect of the present invention executes a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device, and processing according to the input position information. An information processing system configured by the information processing apparatus, wherein the position information input device captures an image of a predetermined imaging range and generates a captured image, and the operation from the generated captured image. Detection means for detecting a person's little finger, calculation means for calculating the position information of the detected little finger in the captured image, and input means for inputting the calculated position information to the information processing apparatus. And an information processing system in which the information processing apparatus includes processing means for executing processing according to the input position information.
本発明の第2の側面によれば、位置情報入力装置において、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、前記操作者の小指が検出され、検出された前記小指の、前記撮像画像における前記位置情報が算出され、算出された前記位置情報が、情報処理装置に入力される。そして、前記情報処理装置において、入力された前記位置情報に応じた処理が実行される。 According to the second aspect of the present invention, in the position information input device, a predetermined imaging range is imaged to generate a captured image, and the operator's little finger is detected and detected from the generated captured image. The position information of the little finger in the captured image is calculated, and the calculated position information is input to the information processing apparatus. Then, in the information processing apparatus, processing according to the input position information is executed.
本発明の第3の側面の第2の位置情報入力装置は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置であり、前記操作者の小指に生じた加速度を検出する加速度検出手段と、検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、更新された前記位置情報を入力する入力手段とを含む位置情報入力装置である。 A second position information input device according to a third aspect of the present invention is a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing apparatus, and is generated on the little finger of the operator. The position information input device includes: acceleration detection means for detecting the acceleration; update means for updating the position information based on the detected acceleration; and input means for inputting the updated position information.
本発明の第3の側面の第2の位置情報入力方法は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法であり、前記位置情報入力装置は、加速度検出手段と、更新手段と、入力手段とを含み、前記加速度検出手段が、前記操作者の小指に生じた加速度を検出し、前記更新手段が、検出された前記加速度に基づいて、前記位置情報を更新し、前記入力手段が、更新された前記位置情報を入力するステップを含む位置情報入力方法である。 A second position information input method according to a third aspect of the present invention is a position information input method for a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device. The information input device includes an acceleration detection means, an update means, and an input means, wherein the acceleration detection means detects an acceleration generated in the operator's little finger, and the update means detects the detected acceleration. The position information input method includes updating the position information based on the input means, and the input unit inputting the updated position information.
本発明の第3の側面の第2のプログラムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、前記操作者の小指に生じた加速度を検出する加速度検出手段と、検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、更新された前記位置情報を入力する入力手段として機能させるためのプログラムである。 According to a second program of the third aspect of the present invention, a computer of a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device is transmitted to an acceleration generated on the operator's little finger. Is a program for functioning as an acceleration detecting means for detecting the position, an updating means for updating the position information based on the detected acceleration, and an input means for inputting the updated position information.
本発明の第3の側面によれば、前記操作者の小指に生じた加速度が検出され、検出された前記加速度に基づいて、位置情報が更新され、更新された前記位置情報が入力される。 According to the third aspect of the present invention, acceleration generated in the operator's little finger is detected, position information is updated based on the detected acceleration, and the updated position information is input.
本発明の第4の側面の電子装置は、操作者が指示する位置を示す位置情報に応じた処理を実行する電子装置であり、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報に応じた処理を実行する処理手段とを含む電子装置である。 An electronic apparatus according to a fourth aspect of the present invention is an electronic apparatus that executes processing according to position information indicating a position designated by an operator, and an imaging unit that captures a predetermined imaging range and generates a captured image. A detection unit that detects the operator's little finger from the generated captured image; a calculation unit that calculates the position information of the detected little finger in the captured image; and And an electronic device including processing means for executing the processing.
本発明の第4の側面によれば、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、操作者の小指が検出され、検出された前記小指の、前記撮像画像における位置情報が算出され、算出された前記位置情報に応じた処理が実行される。 According to the fourth aspect of the present invention, a predetermined imaging range is imaged to generate a captured image, an operator's little finger is detected from the generated captured image, and the imaging of the detected little finger is detected. Position information in the image is calculated, and processing according to the calculated position information is executed.
本発明によれば、操作者の手を用いたジェスチャによる操作入力の操作性を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the operativity of the operation input by the gesture using an operator's hand can be improved.
以下、発明を実施するための最良の形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.第1の実施の形態(情報処理システム:画像処理を使用する例)
2.第2の実施の形態(情報処理システム:モーションセンサを使用する例)
3.第1の実施の形態の変形例
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described. The description will be given in the following order.
1. First Embodiment (Information Processing System: Example Using Image Processing)
2. Second Embodiment (Information Processing System: Example Using Motion Sensor)
3. Modified example of the first embodiment
<1.第1の実施の形態>
[情報処理システムの外観例]
図3は、本発明の第1の実施の形態である情報処理システム21の外観の一例を示している。
<1. First Embodiment>
[External appearance of information processing system]
FIG. 3 shows an example of the appearance of the
この情報処理システム21では、片手を用いた操作者のジェスチャとして、例えば、操作者が片手を移動させると、その動きを追尾するように、例えば、表示画面上のポインタが移動するようになされている。
In this
この情報処理システム21は、操作入力装置41、受信装置42(位置情報入力装置)、及びパーソナルコンピュータ43(以下、PC43という)により構成される。
The
操作入力装置41は、操作者の片手に装着されるものであり、クリック検出部41a、LED(light emitting diode)41b、及び制御部41cにより構成される。
The
クリック検出部41aは、操作者の人差し指に装着されており、人指し指を親指に押し付けることにより、親指により押下されたことを検出し、その検出結果を、制御部41cに供給する。
The
LED41bは、操作者の小指(小指の指先から付け根までのいずれかの部分)に装着され、受信装置42に、操作者の小指の位置を検出させるために発光する。本発明では、LED41bを操作者の小指に装着することがポイントである(詳細は後述する)。
The
制御部41cは、操作者の手首に装着されており、クリック検出部41aから検出結果が供給されたことに対応して、クリックが行われたことを示すクリック信号を、赤外線等の無線により、受信装置42に送信する。
The
受信装置42は、例えば、PC43の表示画面43aの下側に固定され、且つ、USB(universal serial bus)等の有線によりPC43と接続されており、制御部41cからのクリック信号を受信し、USB等を介してPC43に供給する。
For example, the receiving
また、受信装置42は、予め決められた撮像範囲を撮像するカメラを内蔵しており、内蔵するカメラにより、LED41b(が発光する光)を撮像する。そして、その撮像により得られた撮像画像に基づいて、撮像画像内のLED41bの位置を示す座標(位置情報)を算出し、USB等を介してPC43に供給する。
The receiving
PC43は、USB等の有線により受信装置42と接続されており、受信装置42からの座標に対応して、表示画面43a上のポインタを移動させる。
The
また、PC43は、受信装置42からのクリック信号に対応して、現在のポインタの位置でクリックが行われたことに応じた処理を実行する。
In response to the click signal from the receiving
[受信装置及びPCの構成例]
次に、図4は、受信装置42及びPC43の詳細な構成例を示している。
[Configuration example of receiver and PC]
Next, FIG. 4 shows a detailed configuration example of the receiving
受信装置42は、カメラ61、DSP(digital signal processor)62、及び送信部63により構成される。
The
カメラ61は、予め決められた撮像範囲内で撮像し、その撮像により得られた撮像画像をDSP62に供給する。なお、操作者は、表示画面43a上のポインタを移動させる操作等を行う場合には、カメラ61の撮像範囲内で、操作入力装置41が装着された片手を移動させる必要がある。この場合、カメラ61は、撮像により、操作者の片手が表示された撮像画像を得てDSP62に供給する。
The
DSP62は、カメラ61からの撮像画像に対して画像処理を行い、撮像画像内の、操作者の小指(小指に装着されたLED41bが発光する光)の位置を示す座標を算出し、送信部63に供給する。
The
送信部63は、DSP62からの座標を、PC43に送信する。なお、送信部63には、受信装置42から、クリック信号が供給される。送信部63は、受信装置42からのクリック信号を、PC43に送信する。
The
PC43は、受信部81及びアプリケーション部82により構成される。
The
受信部81は、送信部63からの座標及びクリック信号を受信し、アプリケーション部82に供給する。
The receiving
アプリケーション部82は、受信部81からの座標に対応して、PC43の表示画面43a上のポインタを移動させる。すなわち、例えば、アプリケーション部82は、受信部81からの座標に基づいて、LED41bが移動した移動方向、移動量、移動速度等を検出し、検出した移動方向に、検出した移動量や移動速度に対応する距離だけ、表示画面43a上のポインタを移動させる。
The
また、アプリケーション部82は、受信部81からのクリック信号に対応して、現在のポインタの位置でクリックが行われたことに応じた処理を実行する。
In response to the click signal from the receiving
[DSPが行う画像処理の説明]
次に、図5乃至図7を参照して、DSP62が行う画像処理について説明する。
[Description of image processing performed by DSP]
Next, image processing performed by the
図5は、DSP62が所定のプログラムを実行することにより実現される機能ブロックとしての、位置検出部101及び座標算出部102により構成される。
FIG. 5 includes a
位置検出部101には、カメラ61から撮像画像が供給される。位置検出部101は、カメラ61からの撮像画像に基づいて、操作者の小指の位置を検出し、座標算出部102に供給する。
A captured image is supplied from the
次に、図6を参照して、位置検出部101が行う詳細な処理の一例を説明する。
Next, an example of detailed processing performed by the
図6は、カメラ61により撮像された撮像画像の一例を示している。図6に示す撮像画像121には、操作者の小指に装着されたLED41bが撮像されている。
FIG. 6 shows an example of a captured image captured by the
位置検出部101は、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素を検出する。そして、検出した4画素それぞれの位置を、LED41bの位置(操作者の小指の位置)として、座標算出部102に供給する。
The
なお、図6に示された例のように、親指と人指し指の指先どうしを接触させた姿勢をとる場合、操作者は、直感的(感覚的)に、親指と人指し指の指先どうしが接触する接触点をトレースポイントとして認識し、片手を動かす傾向にある。したがって、トレースポイントを検出するために装着されるLED41bは、接触点の軌跡と同様の軌跡を描く位置に装着されることが望ましい。
In the case of taking the posture in which the thumb and the fingertip of the index finger are in contact with each other as in the example shown in FIG. 6, the operator touches the thumb and the fingertip of the index finger in an intuitive (sensory) manner. The point is recognized as a trace point and tends to move one hand. Therefore, it is desirable that the
また、LED41bは、人指し指を親指に押し付けることにより、クリック検出部41aを押下するクリック動作が行われた場合に、ポインタの位置ずれを防止するため、クリック動作に影響されない位置に装着されることが望ましい。
Further, the
そこで、本発明者は、トレースポイントとして採用される最適な位置として、小指の位置に着目した。 Therefore, the present inventor paid attention to the position of the little finger as the optimum position adopted as the trace point.
すなわち、例えば、直感的(感覚的)なトレースポイントとして、接触点を移動させる場合、手首を回転軸として、片手を動かすことになる。この場合、回転軸である手首から、トレースポイントとされる小指の位置までの距離を、手首から接触点までの距離としたとき、トレースポイントとされる小指の位置が移動する移動方向や移動量は、接触点の移動方向や移動量と同一となる。 That is, for example, when the contact point is moved as an intuitive (sensory) trace point, one hand is moved with the wrist as the rotation axis. In this case, when the distance from the wrist that is the rotation axis to the position of the little finger that is the trace point is the distance from the wrist to the contact point, the movement direction and amount of movement of the position of the little finger that is the trace point Is the same as the moving direction and moving amount of the contact point.
なお、親指、人指し指、中指、及び薬指についても同様のことがいえるが、クリック動作が行われた場合、親指、人指し指、中指、及び薬指はユーザの意図に反して動いてしまうため、クリック動作によるポインタの位置ずれを防止することはできない。 The same can be said for the thumb, index finger, middle finger, and ring finger, but when the click operation is performed, the thumb, index finger, middle finger, and ring finger move against the user's intention. It is impossible to prevent the pointer from being displaced.
具体的には、例えば、親指又は人差し指のいずれか一方をトレースポイントとした場合、親指と人指し指を用いてクリック動作が行われるため、クリック動作に応じて、親指及び人指し指が動いてしまう。 Specifically, for example, when either one of the thumb or the index finger is used as a trace point, the click operation is performed using the thumb and the index finger, so that the thumb and the index finger move according to the click operation.
また、例えば、中指又は薬指のいずれか一方をトレースポイントとした場合に、クリック動作が行われたとき、中指及び薬指は、人間の手の構造上、親指と人指し指を用いたクリック動作に影響され易いため、クリック動作に伴って、中指及び薬指も動いてしまう。 Also, for example, when the click operation is performed when either the middle finger or the ring finger is used as a trace point, the middle finger and the ring finger are affected by the click operation using the thumb and the index finger due to the structure of the human hand. Since it is easy, the middle finger and the ring finger also move with the click operation.
これに対して、小指は、人間の手の構造上、クリック動作に(殆ど)影響されない。 On the other hand, the little finger is not (almost) affected by the click operation due to the structure of the human hand.
なお、クリック動作に影響されない手の部分としては、小指の他、手の甲や手の平が存在するが、手の甲や手の平と手首との距離は、接触点と手首との距離と比較して短くなる。したがって、手の甲や手の平のいずれかの位置をトレースポイントとした場合、トレースポイントとされる手の甲や手の平のいずれかの位置が移動する移動量は、接触点の移動量と比較して小さくなり、接触点の移動量と同一にはならない。 In addition to the little finger, the back of the hand and the palm of the hand are not affected by the click action, but the distance between the back of the hand or the palm and the wrist is shorter than the distance between the contact point and the wrist. Therefore, when the position of either the back of the hand or the palm is used as the trace point, the amount of movement of either the back of the hand or the palm that is the trace point is smaller than the amount of movement of the contact point. It is not the same as the amount of point movement.
このため、上述したように、本発明者は、トレースポイントとして採用される最適な位置として、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に影響されない小指の位置を採用することとした。 For this reason, as described above, the present inventor employs the position of the little finger that is moved by the same movement direction and movement amount as the contact point and is not affected by the click operation as the optimum position to be adopted as the trace point. It was decided.
以下の説明においては、LED41bは、接触点の軌跡と同一の軌跡を描く最適な位置として、上述した小指の位置に装着されているものとする。
In the following description, it is assumed that the
座標算出部102は、位置検出部101からのLED41bの位置に基づいて、撮像画像121内におけるLED41bの位置を示す座標を算出し、送信部63に供給する。
The coordinate
次に、図7を参照して、座標算出部102が行う詳細な処理の一例を説明する。
Next, an example of detailed processing performed by the coordinate
図7は、撮像画像121内に定義されるXY座標を示している。このXY座標は、撮像画像121の最も左下の位置を原点(0,0)として、互いに直交するX軸とY軸とで定義される直交座標を示している。
FIG. 7 shows XY coordinates defined in the captured
座標算出部102は、位置検出部101からの4画素それぞれのLED41bの位置(例えば図7に示す位置121a乃至121d)に対応する、撮像画像121上の座標(x,y)を算出する。そして、算出した4つの座標(x,y)の、例えば重心を、LED41bの位置を示す座標として、送信部63に供給する。
The coordinate
[受信装置の動作説明]
次に、図8のフローチャートを参照して、受信装置42が行う第1の座標算出処理を説明する。
[Description of receiver operation]
Next, the first coordinate calculation process performed by the receiving
ステップS1において、カメラ61は、予め決められた撮像範囲内で撮像し、その撮像により得られた撮像画像を、DSP62の位置検出部101に供給する。
In step S <b> 1, the
ステップS2において、位置検出部101は、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素を検出する。そして、検出した4画素それぞれの位置を、LED41bの位置(操作者の小指の位置)として、座標算出部102に供給する。
In step S <b> 2, the
ステップS3において、座標算出部102は、位置検出部101からの4画素それぞれのLED41bの位置(例えば図7に示す位置121a乃至121d)に対応する、撮像画像121上の座標(x,y)を算出する。そして、算出した4つの座標(x,y)の、例えば重心を、LED41bの位置を示す座標として、送信部63に供給する。
In step S3, the coordinate
ステップS4において、送信部63は、座標算出部102からの座標を、PC43に送信する。このとき、PC43は、送信部63からの座標に基づいて、LED41bが移動した移動方向、移動量、移動速度等を検出し、検出した移動方向に、検出した移動量や移動速度に対応する距離だけ、表示画面43a上のポインタを移動させる。
In step S <b> 4, the
以上説明したように、第1の座標算出処理では、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に(殆ど)影響されない小指の位置をトレースポイントとし、そのトレースポイントを示す座標を算出して、PC43に送信するようにした。したがって、他の指をトレースポイントとした場合と比較して、ポインタの移動やクリック等の操作性をより向上させることができる。
As described above, in the first coordinate calculation process, the position of the little finger that moves with the same movement direction and movement amount as the contact point and is not (almost) affected by the click operation is used as the trace point, and the trace point is indicated. The coordinates were calculated and transmitted to the
すなわち、例えば、トレースポイントである小指は、クリック動作に影響されて動いてしまうことがないため、クリック動作時に生じるトレースポイントの位置ずれを防止することが可能となる。 That is, for example, the little finger that is the trace point does not move due to the click operation, so that it is possible to prevent the displacement of the trace point that occurs during the click operation.
また、両手の小指それぞれにLED41bを装着した場合には、2つのポインタを同時に移動させるとともに、クリックを行うことが可能となるため、マルチタッチインタフェースに対応することが可能となる。
Further, when the
さらに、操作者の小指に装着されたLED41bは、手首を回転軸として親指と人指し指との接触点が描く軌跡と(殆ど)同じ軌跡を描く。よって、操作者は、トレースポイントとして、直感的に認識される親指と人指し指との接触点を、トレースポイントとして認識した状態で、容易に操作を行うことが可能となる。
Further, the
また、操作者は、例えば、マウスを用いてポインタを移動させるときのように、片手の形状をマウスの形状に合わせることにより、片手を、片手の甲の方向に沿った状態(手の甲と、肘から手首までの腕により形成される手首の角度が小さい不自然な状態)を維持する必要がなく、操作者に負担のかからない片手の形状を維持した状態(手首の角度が大きい(160度乃至180度程度)の自然な状態)で、ポインタを移動させることが可能である。 In addition, the operator, for example, moves one pointer to the shape of the mouse by moving the pointer with the mouse so that the one hand is in a state along the back of the one hand (from the back of the hand and the elbow). It is not necessary to maintain an unnatural state in which the wrist angle formed by the arm up to the wrist is small, and a state in which the shape of one hand is maintained that does not burden the operator (the wrist angle is large (160 to 180 degrees). It is possible to move the pointer in a natural state).
次に、図9乃至図13を参照して、トレースポイントを小指とした情報処理システム21が、トレースポイントを小指以外の他の指(例えば、人差し指)とした場合と比較して、より操作性を向上させることができるシステムであることを説明する。
Next, referring to FIGS. 9 to 13, the
[情報処理システムの外観例]
図9は、トレースポイントを人指し指とする情報処理システム141の外観の一例を示している。
[External appearance of information processing system]
FIG. 9 shows an example of the appearance of the
この情報処理システム141は、クリック検出部41aが、人差し指に代えて中指に装着されているとともに、LED41bが、小指に代えて人差し指に装着されている他は、図3の情報処理システム21と同様に構成されているため、情報処理システム141の説明は省略する。
This
[被験者による実験結果]
次に、図10乃至図13を参照して、小指をトレースポイントとしたほうが、例えば人指し指をトレースポイントとする場合と比較して、所定の位置でクリックを行う精度が向上することを説明する。
[Experimental results of subjects]
Next, with reference to FIG. 10 to FIG. 13, it will be described that when the little finger is used as a trace point, the accuracy of performing a click at a predetermined position is improved as compared with, for example, the case where the index finger is used as a trace point.
図10は、被験者1を対象として、2つの異なる位置で交互にクリックする動作を10往復だけ行わせる実験を、小指をトレースポイントとする情報処理システム21により行うとともに、人指し指をトレースポイントとする情報処理システム141により行ったときの実験結果を示している。
FIG. 10 shows an
図10A及び図10Bに示す表示画面43aには、左側の領域TL、及び右側の領域TRが表示されている。なお、領域TL及び領域TRは、直径7(mm)の円を示しており、領域TLと領域TRは、70(mm)だけ離れて配置されている。また、表示画面43a内の黒点は、操作者がクリックを行ったときのポインタのクリック位置を示している。
On the
なお、表示画面43aの大きさは11インチであって、その解像度は1280×768(横×縦)画素である。
The
被験者1は、情報処理システム21と情報処理システム141とを用いて、表示画面43aに表示される領域TLと領域TRを交互にクリックする動作を、10往復だけ行う。なお、この実験は、操作入力装置41と表示画面43aとを、300(mm)の距離だけ離した状態で行われる。
小指をトレースポイントとする情報処理システム21(第1の実施の形態)により実験を行った場合、図10Aに示したように、被験者1のクリック位置が、領域TL及び領域TR内にすべて含まれている。
If little finger experiments were carried out by the
人指し指をトレースポイントとする情報処理システム141により実験を行った場合、図10Bに示したように、被験者1のクリック位置が、領域TL及び領域TRから外れてしまっている。
If the index finger experiments were carried out by the
次に、図11乃至図13には、それぞれ、被験者2乃至被験者4を対象として、上述の実験を行ったときの実験結果を示している。
Next, FIGS. 11 to 13 show experimental results when the above-described experiment is performed on
なお、被験者1乃至4は、それぞれ異なる被験者を示している。また、図11乃至図13は、上述した図10と同様に構成されているため、説明は省略する。
図10乃至図13において、被験者1乃至被験者4のいずれの場合においても、小指をトレースポイントとする情報処理システム21の方が、領域TL及び領域TRに対するクリック位置の精度が良いことがわかる。
In FIGS. 10 to 13, in any of the subject 1 to the
上述した第1の実施の形態では、操作者の小指(LED41b)を撮像した撮像画像に対して、画像処理を行うことにより、操作者の小指の位置を示す座標を算出することとしたが、図14乃至図16に示すように、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、検出した加速度等に基づいて、座標を算出することが可能である。
In the first embodiment described above, the coordinates indicating the position of the operator's little finger are calculated by performing image processing on the captured image obtained by imaging the operator's little finger (
<2.第2の実施の形態>
[情報処理システムの外観例]
図14は、本発明の第2の実施の形態である情報処理システム151の外観の一例を示している。
<2. Second Embodiment>
[External appearance of information processing system]
FIG. 14 shows an example of the appearance of an
なお、図中、図3に示された第1の外観例に対応する部分については同一の符号を付してあるため、以下、その説明は適宜省略する。すなわち、第2の実施の形態である情報処理システム151は、第1の実施の形態である情報処理システム21(図3)に対して、LED41bに代えて座標入力部161(位置情報入力装置)が、受信装置42に代えて受信装置162が、それぞれ設けられたものである。
In the drawing, the same reference numerals are given to the portions corresponding to the first appearance example shown in FIG. 3, and the description thereof will be omitted as appropriate. That is, the
座標入力部161は、操作者の小指に装着されており、操作者の小指の動きに応じて生じる3軸方向の加速度等を示す動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、受信装置162に送信する。
The coordinate
受信装置162は、PC43の表示画面43aの下側に固定されており、制御部41cからのクリック信号を受信し、PC43に供給する。
The receiving
また、受信装置162は、座標入力部161からの座標を受信し、USB等の有線を介してPC43に供給する。
The receiving
[座標入力部の構成例]
図15は、座標入力部161の構成例を示している。
[Configuration example of coordinate input section]
FIG. 15 shows a configuration example of the coordinate
この座標入力部161は、モーションセンサ181、座標算出部182、及び送信部183により構成される。
The coordinate
モーションセンサ181は、加速度センサやジャイロセンサであり、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、その検出結果を示す動き情報を、座標算出部182に供給する。
The
座標算出部182は、モーションセンサ181からの動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、送信部183に供給する。
The coordinate
送信部183は、座標算出部182からの座標を、受信装置162に送信する。
The
[座標入力部の動作説明]
次に、図16のフローチャートを参照して、座標入力部161が行う第2の座標算出処理を説明する。
[Explanation of operation of coordinate input unit]
Next, the second coordinate calculation process performed by the coordinate
ステップS31において、モーションセンサ181は、加速度センサやジャイロセンサであり、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、その検出結果を示す動き情報を、座標算出部182に供給する。
In step S <b> 31, the
ステップS32において、座標算出部182は、モーションセンサ181からの動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、送信部183に供給する。
In step S <b> 32, the coordinate
ステップS33において、送信部183は、座標算出部182からの座標を、受信装置162に送信する。このとき、受信装置162は、送信部183からの座標を、PC43に供給する。そして、PC43は、受信装置162からの座標に対応して、表示画面43a上のポインタを移動させる。
In step S <b> 33, the
以上説明したように、第2の座標算出処理では、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に(殆ど)影響されない小指の位置をトレースポイントとし、そのトレースポイントを示す座標を算出して、受信装置162を介してPC43に送信するようにした。したがって、他の指をトレースポイントとした場合と比較して、ポインタの移動やクリック等の操作性をより向上させることができる。
As described above, in the second coordinate calculation processing, the position of the little finger that is moved in the same movement direction and movement amount as the contact point and is not (almost) affected by the click operation is used as the trace point, and the trace point is indicated. The coordinates are calculated and transmitted to the
<3.第1の実施の形態の変形例> <3. Modification of First Embodiment>
なお、第1の実施の形態では、図5の位置検出部101が、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素の位置を検出することとした。
Note that in the first embodiment, the
しかしながら、検出した4画素の輝度値が、LED41bが発光する光の輝度値として想定される範囲内でない場合には、検出した4画素それぞれの位置を、LED41bの位置として検出しないようにすることが可能である。この場合、LED41bの位置が誤って検出されることを防止することができる。
However, if the detected luminance value of the four pixels is not within the range assumed as the luminance value of the light emitted from the
また、位置検出部101が検出する画素数は4個に限定されず、5個以上又は3個以下の画素数を採用することが可能である。
In addition, the number of pixels detected by the
さらに、第1の実施の形態では、座標算出部102が、位置検出部101からの4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)の重心を、LED41bの位置を示す座標として算出したが、これに限定されない。
Further, in the first embodiment, the coordinate
すなわち、例えば、座標算出部102は、4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)を、そのまま、受信装置42の送信部63、及びPC43の受信部81を介して、アプリケーション部82に供給するようにしてもよい。そして、アプリケーション部82は、座標算出部102からの4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)から、LED41bの位置を示す座標を算出し、算出した座標に対応して、表示画面43a上のポインタを移動させる。
That is, for example, the coordinate
この場合、座標算出部102は、撮像画像121上の座標(x,y)の重心を算出する場合と比較して、より迅速に処理を行うことが可能となる。
In this case, the coordinate
また、第1の実施の形態では、操作者の小指の位置を検出するための目印(マーカ)として、操作者の小指にLED41bを装着し、位置検出部101が、撮像画像から、LED41bの位置を、操作者の小指の位置として検出することとしたが、操作者の小指を検出するための目印は、これに限定されない。
In the first embodiment, the
すなわち、操作者の小指を検出するための目印としては、その他、例えば、操作者の小指にはめられた指輪、小指に塗布された所定の波長を反射するマニキュア等を採用することが可能である。 That is, as a mark for detecting the operator's little finger, for example, a ring fitted on the operator's little finger, a manicure reflecting a predetermined wavelength applied to the little finger, or the like can be adopted. .
なお、小指に塗布されたマニキュアを、操作者の小指の位置として検出する場合には、操作入力装置41が不要になり、LED41bを装着する場合と比較して、片手の動きが制限されなくなるため、例えば、文字を書く等の他の動作を容易に行うことが可能となる。
Note that when the nail polish applied to the little finger is detected as the position of the operator's little finger, the
さらに、第1の実施の形態では、操作者の小指の位置を検出するために、操作者の小指にLED41bを装着することとしたが、スケルトンモデル(skelton model)や容量モデル(volumetric model)等の3次元モデルを用いることにより、LED41b等の目印を装着(付加)することなく、操作者の小指の関節の位置を検出することが可能である。
Furthermore, in the first embodiment, the
すなわち、例えば、図5の位置検出部101は、操作者の手を撮像した撮像画像から、操作者の手の形状を示すシルエットを生成し、生成したシルエットと、様々な手の形状を示す複数の3次元モデルとを比較して、生成したシルエットと最も類似(マッチ)する3次元モデルを、操作者の手の形状を表す3次元モデルとして決定する。
That is, for example, the
そして、決定された3次元モデルに対して、拡張カルマンフィルタ(EKF,extended kalman filter)を適用することにより、操作者の手を構成する小指の各関節の3次元位置を検出することが可能である。この場合、小指に塗布されたマニキュアを、操作者の小指の位置として検出する場合と同様に、操作入力装置41が不要になり、例えば、文字を書く等の他の動作を容易に行うことが可能となる。
Then, by applying an extended Kalman filter (EKF) to the determined three-dimensional model, it is possible to detect the three-dimensional position of each joint of the little finger constituting the operator's hand. . In this case, as in the case where the nail polish applied to the little finger is detected as the position of the operator's little finger, the
なお、関節の3次元位置を検出するためのより詳細な検出方法は、例えば、N.Shimada, Y.Shirai, Y.Kuno, J.Miura,”Hand gesture estimation and model refinement using monocular camera-ambiguilty limitation by inequality constraints,””Proc.IEEE International Conference on Automatic Face and Gesture Recognition '98,pp.268-273,1998”に記載されている。 A more detailed detection method for detecting the three-dimensional position of a joint is, for example, N. Shimada, Y. Shirai, Y. Kuno, J. Miura, “Hand gesture estimation and model refinement using monocular camera-ambiguilty limitation by inequality constraints, “” Proc. IEEE International Conference on Automatic Face and Gesture Recognition '98, pp. 268-273, 1998 ”.
また、拡張カルマンフィルタについては、R.Kalman,”A new approach to linear filtering and prediction problem,” Journal of Basic Engineering,Vol.82,pp.35-45,1960.に、より詳細に記載されている。 The extended Kalman filter is described in more detail in R. Kalman, “A new approach to linear filtering and prediction problem,” Journal of Basic Engineering, Vol. 82, pp. 35-45, 1960.
さらに、位置検出部101は、LED41bの位置を、操作者の小指の位置として検出することとしたが、例えば、撮像画像内の、操作者の小指を示す領域の重心を、操作者の小指の位置として検出することができる。
Further, the
この場合、例えば、操作者が、ポインタの移動を意図せずに小指を動かしてしまったときでも、操作者の小指の位置として重心を採用することにより、操作者の意図しない小指の動きにより、ポインタが大きく移動してしまうことを抑止することが可能となる。 In this case, for example, even when the operator moves the little finger without intending to move the pointer, by adopting the center of gravity as the position of the operator's little finger, It is possible to prevent the pointer from moving greatly.
また、第1の実施の形態では、情報処理システム21において、受信装置42とPC43とを別々の装置としたが、受信装置42とPC43とを、両機能を有する電子装置として構成することが可能である。
In the first embodiment, the receiving
なお、本発明は、操作者の片手のジェスチャを認識し、その認識結果に基づいて、PCの他、テレビジョン受像機、カーナビゲーション装置、画像を写真立てのように表示させるデジタルフォトフレーム等の表示制御装置への操作入力が可能な入力装置に適用することが可能である。 The present invention recognizes a gesture of one hand of the operator, and based on the recognition result, in addition to a PC, a television receiver, a car navigation device, a digital photo frame that displays an image like a photo frame, etc. The present invention can be applied to an input device that can input an operation to the display control device.
次に、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。 Next, the series of processes described above can be executed by dedicated hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a so-called embedded computer or various programs. For example, it is installed from a recording medium in a general-purpose personal computer.
[コンピュータの構成例]
図17は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
[Computer configuration example]
FIG. 17 shows a configuration example of a computer that executes the above-described series of processing by a program.
CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a
CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
An input /
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
A
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
Further, a program may be acquired via the
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録する記録媒体は、図17に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に記録されるROM202や、記憶部208を構成するハードディスクなどにより構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデムなどのインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 17, a recording medium for recording a program installed in a computer and executable by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory). ), DVD (including Digital Versatile Disc)), magneto-optical disc (including MD (Mini-Disc)), or
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The present embodiment is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
21 情報処理システム, 41 操作入力装置, 41a クリック検出部, 41b LED, 41c 制御部, 42 受信装置, 43 PC, 61 カメラ, 62 DSP, 63 送信部, 81 受信部, 82 アプリケーション部, 101 位置検出部, 102 座標算出部, 151 情報処理システム, 161 座標入力部, 162 受信装置, 181 モーションセンサ, 182 座標算出部, 183 送信部 21 information processing system, 41 operation input device, 41a click detection unit, 41b LED, 41c control unit, 42 reception device, 43 PC, 61 camera, 62 DSP, 63 transmission unit, 81 reception unit, 82 application unit, 101 position detection Unit, 102 coordinate calculation unit, 151 information processing system, 161 coordinate input unit, 162 receiver, 181 motion sensor, 182 coordinate calculation unit, 183 transmission unit
Claims (11)
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を入力する入力手段と
を含む位置情報入力装置。 In a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
A position information input device comprising: input means for inputting the calculated position information.
前記検出手段は、前記比較手段による比較結果に基づいて、前記操作者の小指を検出する
請求項1に記載の位置情報入力装置。 It further includes a comparing means for comparing the prepared three-dimensional model with the captured image,
The position information input device according to claim 1, wherein the detection unit detects the operator's little finger based on a comparison result by the comparison unit.
前記検出手段は、前記撮像画像から、前記マーカを前記操作者の小指として検出し、
前記算出手段は、前記マーカの位置を示す前記位置情報を算出する
請求項1に記載の位置情報入力装置。 A marker is added to the little finger of the operator,
The detection means detects the marker as the operator's little finger from the captured image,
The position information input device according to claim 1, wherein the calculation unit calculates the position information indicating a position of the marker.
請求項1に記載の位置情報入力装置。 The position information input device according to claim 1, wherein the calculating unit calculates a center of gravity of an area indicating the little finger of the operator in the captured image as the position information.
前記位置情報入力装置は、
撮像手段と、
検出手段と、
算出手段と、
入力手段と
を含み、
前記撮像手段が、所定の撮像範囲を撮像して撮像画像を生成し、
前記検出手段が、生成された前記撮像画像から、前記操作者の小指を検出し、
前記算出手段が、検出された前記小指の、前記撮像画像における前記位置情報を算出し、
前記入力手段が、算出された前記位置情報を入力する
ステップを含む位置情報入力方法。 In a position information input method of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
The position information input device includes:
Imaging means;
Detection means;
A calculation means;
Including input means and
The imaging means captures a predetermined imaging range and generates a captured image;
The detection means detects the operator's little finger from the generated captured image,
The calculating means calculates the position information of the detected little finger in the captured image;
A position information input method including a step in which the input means inputs the calculated position information.
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を入力する入力手段と
して機能させるためのプログラム。 A computer of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device;
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
A program for functioning as input means for inputting the calculated position information.
前記位置情報入力装置が、
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を、前記情報処理装置に入力する入力手段と
を含み、
前記情報処理装置が、
入力された前記位置情報に応じた処理を実行する処理手段
を含む情報処理システム。 An information processing system including a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device, and the information processing device that executes processing according to the input position information. In
The position information input device is
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
Input means for inputting the calculated position information to the information processing apparatus,
The information processing apparatus is
An information processing system including processing means for executing processing according to the input position information.
前記操作者の小指に生じた加速度を検出する加速度検出手段と、
検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、
更新された前記位置情報を入力する入力手段と
を含む位置情報入力装置。 In a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
Acceleration detecting means for detecting acceleration generated in the operator's little finger;
Updating means for updating the position information based on the detected acceleration;
A position information input device comprising: input means for inputting the updated position information.
前記位置情報入力装置は、
加速度検出手段と、
更新手段と、
入力手段と
を含み、
前記加速度検出手段が、前記操作者の小指に生じた加速度を検出し、
前記更新手段が、検出された前記加速度に基づいて、前記位置情報を更新し、
前記入力手段が、更新された前記位置情報を入力する
ステップを含む位置情報入力方法。 In a position information input method of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
The position information input device includes:
Acceleration detection means;
Update means;
Including input means and
The acceleration detecting means detects an acceleration generated in the operator's little finger;
The update means updates the position information based on the detected acceleration,
A position information input method including a step in which the input means inputs the updated position information.
前記操作者の小指に生じた加速度を検出する加速度検出手段と、
検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、
更新された前記位置情報を入力する入力手段と
して機能させるためのプログラム。 A computer of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device;
Acceleration detecting means for detecting acceleration generated in the operator's little finger;
Updating means for updating the position information based on the detected acceleration;
A program for functioning as an input means for inputting the updated position information.
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報に応じた処理を実行する処理手段と
を含む電子装置。 In an electronic device that executes processing according to position information indicating a position indicated by an operator,
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
Processing means for executing processing according to the calculated position information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008255985A JP2010086367A (en) | 2008-10-01 | 2008-10-01 | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008255985A JP2010086367A (en) | 2008-10-01 | 2008-10-01 | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010086367A true JP2010086367A (en) | 2010-04-15 |
Family
ID=42250247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008255985A Pending JP2010086367A (en) | 2008-10-01 | 2008-10-01 | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010086367A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013168508A1 (en) * | 2012-05-09 | 2013-11-14 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2014142751A (en) * | 2013-01-23 | 2014-08-07 | Seiko Epson Corp | Display device, head-mounted type display device, and method for controlling display device |
JP2014206782A (en) * | 2013-04-10 | 2014-10-30 | Necカシオモバイルコミュニケーションズ株式会社 | Operation processing apparatus, operation processing method, and program |
JP2015038664A (en) * | 2011-12-27 | 2015-02-26 | 株式会社東芝 | Content reproduction device, content reproduction program, and content reproduction method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08211979A (en) * | 1995-02-02 | 1996-08-20 | Canon Inc | Hand shake input device and method |
JPH10207602A (en) * | 1997-01-21 | 1998-08-07 | Canon Inc | Symbol input device |
JP2000112651A (en) * | 1998-10-06 | 2000-04-21 | Olympus Optical Co Ltd | Pointing mechanism |
JP2003528382A (en) * | 2000-03-21 | 2003-09-24 | レナード ライフェル | Data input by retroreflector for multi-user |
JP2003346162A (en) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | Input system by hand image recognition |
JP2005084817A (en) * | 2003-09-05 | 2005-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 3D object posture operation method and program |
JP2005165804A (en) * | 2003-12-04 | 2005-06-23 | Matsushita Electric Ind Co Ltd | Data input device |
JP2007219966A (en) * | 2006-02-20 | 2007-08-30 | Sharp Corp | Projection input device, and information terminal and charger having projection input device |
-
2008
- 2008-10-01 JP JP2008255985A patent/JP2010086367A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08211979A (en) * | 1995-02-02 | 1996-08-20 | Canon Inc | Hand shake input device and method |
JPH10207602A (en) * | 1997-01-21 | 1998-08-07 | Canon Inc | Symbol input device |
JP2000112651A (en) * | 1998-10-06 | 2000-04-21 | Olympus Optical Co Ltd | Pointing mechanism |
JP2003528382A (en) * | 2000-03-21 | 2003-09-24 | レナード ライフェル | Data input by retroreflector for multi-user |
JP2003346162A (en) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | Input system by hand image recognition |
JP2005084817A (en) * | 2003-09-05 | 2005-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 3D object posture operation method and program |
JP2005165804A (en) * | 2003-12-04 | 2005-06-23 | Matsushita Electric Ind Co Ltd | Data input device |
JP2007219966A (en) * | 2006-02-20 | 2007-08-30 | Sharp Corp | Projection input device, and information terminal and charger having projection input device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015038664A (en) * | 2011-12-27 | 2015-02-26 | 株式会社東芝 | Content reproduction device, content reproduction program, and content reproduction method |
WO2013168508A1 (en) * | 2012-05-09 | 2013-11-14 | ソニー株式会社 | Information processing device, information processing method, and program |
CN104272225A (en) * | 2012-05-09 | 2015-01-07 | 索尼公司 | Information processing device, information processing method, and program |
JPWO2013168508A1 (en) * | 2012-05-09 | 2016-01-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
CN104272225B (en) * | 2012-05-09 | 2017-11-03 | 索尼公司 | Information processor, information processing method |
JP2014142751A (en) * | 2013-01-23 | 2014-08-07 | Seiko Epson Corp | Display device, head-mounted type display device, and method for controlling display device |
JP2014206782A (en) * | 2013-04-10 | 2014-10-30 | Necカシオモバイルコミュニケーションズ株式会社 | Operation processing apparatus, operation processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11983326B2 (en) | Hand gesture input for wearable system | |
US10534431B2 (en) | Tracking finger movements to generate inputs for computer systems | |
CN112926423B (en) | Pinch gesture detection and recognition method, device and system | |
KR101844390B1 (en) | Systems and techniques for user interface control | |
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
KR102170321B1 (en) | System, method and device to recognize motion using gripped object | |
CN101930286B (en) | Operation control device and operation control method | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
JP2010108500A (en) | User interface device for wearable computing environmental base, and method therefor | |
US20150220158A1 (en) | Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion | |
US20110148755A1 (en) | User interface apparatus and user interfacing method based on wearable computing environment | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
JP2004280834A (en) | Motion recognition system using virtual writing plane and its recognition method | |
JPWO2012011263A1 (en) | Gesture input device and gesture input method | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
WO2015198688A1 (en) | Information processing device, information processing method, and program | |
US11054923B2 (en) | Automatic switching between different modes of tracking user motions to control computer applications | |
KR102184243B1 (en) | System for controlling interface based on finger gestures using imu sensor | |
JP2010086367A (en) | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment | |
KR101394604B1 (en) | method for implementing user interface based on motion detection and apparatus thereof | |
JP2016095795A (en) | Recognition device, method, and program | |
KR101337429B1 (en) | Input device | |
JP2019003366A (en) | Information input device, information input method and information input system | |
JP6523509B1 (en) | Game program, method, and information processing apparatus | |
JP2017228216A (en) | Information processing apparatus, control method therefor, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130326 |