[go: up one dir, main page]

JP2010086367A - Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment - Google Patents

Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment Download PDF

Info

Publication number
JP2010086367A
JP2010086367A JP2008255985A JP2008255985A JP2010086367A JP 2010086367 A JP2010086367 A JP 2010086367A JP 2008255985 A JP2008255985 A JP 2008255985A JP 2008255985 A JP2008255985 A JP 2008255985A JP 2010086367 A JP2010086367 A JP 2010086367A
Authority
JP
Japan
Prior art keywords
position information
operator
little finger
captured image
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255985A
Other languages
Japanese (ja)
Inventor
Nobuhiro Saijo
信広 西条
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008255985A priority Critical patent/JP2010086367A/en
Publication of JP2010086367A publication Critical patent/JP2010086367A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve operability when performing an operation input in accordance with a gesture. <P>SOLUTION: A receiver 42 images a prescribed imaging range to generate a picked-up image, detects an operator's little finger from the generated picked-up image, calculates positional information of the detected little finger in the picked-up image, and inputs the calculated positional information into a PC 43. The PC 43 accordingly executes processing corresponding to the positional information input from the receiver 42. The invention is applicable, for example, to an information processing system comprising an input device which can recognize the gesture of one hand of the operator and perform an operation input based on the recognition result, and an information processor which performs processing corresponding to the operation input. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置に関し、特に、操作者のジェスチャに応じて操作入力を行う位置情報入力装置等の操作性を向上させるようにした位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置に関する。   The present invention relates to a position information input device, a position information input method, a program, an information processing system, and an electronic device, and in particular, improves the operability of a position information input device that performs operation input according to an operator's gesture. The present invention relates to a position information input device, a position information input method, a program, an information processing system, and an electronic device.

従来、操作者の片手が撮像された撮像画像から、操作者の片手が表示された領域(片手領域)を検出し、検出した片手領域に基づいて、表示画面上のポインタを移動させるジェスチャ認識技術が存在する(例えば、非特許文献1を参照)。   2. Description of the Related Art Conventionally, a gesture recognition technology that detects an area (one-handed area) where an operator's one hand is displayed from a captured image obtained by imaging one hand of the operator and moves a pointer on a display screen based on the detected one-handed area. (For example, refer nonpatent literature 1).

ここで、従来のジェスチャ認識技術を説明する。図1は、操作者の片手の形状1を示している。   Here, a conventional gesture recognition technique will be described. FIG. 1 shows the shape 1 of the operator's one hand.

従来のジェスチャ認識技術では、撮像画像から図1に示すような片手の形状1を検出した場合、人差し指の指先2をトレースポイント(TracePoint)として、そのトレースポイントの動きを追尾するように、表示画面上のポインタを移動させる。   In the conventional gesture recognition technology, when the shape 1 of one hand as shown in FIG. 1 is detected from a captured image, the display screen is configured to track the movement of the trace point with the fingertip 2 of the index finger as a trace point (TracePoint). Move the top pointer.

そして、操作者は、表示画面上のポインタを任意の位置に移動させ、移動後のポインタの位置でクリックを行う場合には、トレースポイントとされていない方の手を用いて、クリックを行うためのボタン等を押下する。   Then, when the operator moves the pointer on the display screen to an arbitrary position and clicks at the position of the pointer after the movement, the operator uses the hand that is not set as the trace point to perform the click. Press the button.

また、片手のみで、表示画面上のポインタを移動させる他、クリックを行うことが可能なエアタップ操作技術が存在する(例えば、非特許文献2を参照)。このエアタップ操作技術では、図2に示すように、図2A、図2B、図2Cの順序で、人指し指を空中で上下させるエアタップを行った場合に、表示画面上でクリックが行われる。   In addition, there is an air tap operation technique that can be clicked in addition to moving the pointer on the display screen with only one hand (see Non-Patent Document 2, for example). In this air tap operation technique, as shown in FIG. 2, when an air tap for raising and lowering the index finger in the air is performed in the order of FIGS. 2A, 2B, and 2C, a click is performed on the display screen.

Thomas A. Mysliwiec."FingerMouse:A Freehand Computer Pointing Interface," The University of Illinois, 1994.Thomas A. Mysliwiec. "FingerMouse: A Freehand Computer Pointing Interface," The University of Illinois, 1994. Daniel Vogel,Ravin Balakrishnan."Distant Freehand Pointing and Clicking on Very Large, High Resolution Displays," University of Tronto.Daniel Vogel, Ravin Balakrishnan. "Distant Freehand Pointing and Clicking on Very Large, High Resolution Displays," University of Tronto.

ところで、従来のジェスチャ認識技術では、1つのポインタの位置を入力することは可能だが、2つ以上のポインタの位置を入力する、いわゆるマルチタッチインタフェースに対応することができない。   By the way, in the conventional gesture recognition technology, it is possible to input the position of one pointer, but it is not possible to cope with a so-called multi-touch interface that inputs the positions of two or more pointers.

また、従来のエアタップ操作技術では、エアタップを行うときに、エアタップの動作に影響されて、トレースポイントである人差し指の指先が移動してしまうため、操作者が所望する、表示画面上のポインタの位置で、クリックを行うことができない。   In addition, in the conventional air tap operation technology, when the air tap is performed, the fingertip of the index finger, which is a trace point, is moved by the operation of the air tap, so the position of the pointer on the display screen desired by the operator is desired. I can't click.

なお、人差し指に代えて、親指、中指等の指を用いて、エアタップを行うことも提案されているが、その場合にも、エアタップの動作に影響されて、やはり、人差し指の指先が移動してしまい、ポインタの位置がずれてしまう。   In addition, it has been proposed to perform air tapping using fingers such as the thumb and middle finger instead of the index finger, but in that case as well, the fingertip of the forefinger moves due to the influence of the operation of the air tap. As a result, the position of the pointer is shifted.

そこで、現在時刻から所定の時間だけ過去のポインタの位置を記憶しておいて、エアタップが行われた場合には、その直前のポインタの位置でクリックが行われるように構成することも提案されている。   Therefore, it has also been proposed to store the past pointer positions for a predetermined time from the current time, and to perform a click at the position of the pointer immediately before the air tap is performed. Yes.

しかしながら、そのような構成を実現させる場合、ソフトウェアを実装する負担が増加してしまうため、実装されるソフトウェアにバグが生じ易く、ジェスチャを用いた操作入力において不安定な動作を招きかねない。   However, when realizing such a configuration, the burden of installing software increases, so that the software to be installed is likely to be bugged, and unstable operation may be caused in operation input using gestures.

本発明は、このような状況に鑑みてなされたものであり、操作者の手を用いたジェスチャによる操作入力の操作性を向上させるようにするものである。   The present invention has been made in view of such a situation, and is intended to improve the operability of an operation input by a gesture using an operator's hand.

本発明の第1の側面の第1の位置情報入力装置は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置であり、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を入力する入力手段とを含む位置情報入力装置である。   A first position information input device according to a first aspect of the present invention is a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing apparatus, and images a predetermined imaging range. Imaging means for generating a captured image, detection means for detecting the operator's little finger from the generated captured image, and calculation means for calculating the position information of the detected little finger in the captured image; And a position information input device including an input means for inputting the calculated position information.

予め用意した3次元モデルと前記撮像画像とを比較する比較手段をさらに設けるようにすることができ、前記検出手段には、前記比較手段による比較結果に基づいて、前記操作者の小指を検出させるようにすることができる。   Comparing means for comparing a three-dimensional model prepared in advance with the captured image may be further provided, and the detecting means is configured to detect the operator's little finger based on a comparison result by the comparing means. Can be.

前記操作者の小指には、マーカが付加されており、前記検出手段には、前記撮像画像から、前記マーカを前記操作者の小指として検出させるようにすることができ、前記算出手段には、前記マーカの位置を示す前記位置情報を算出させるようにすることができる。   A marker is added to the operator's little finger, and the detection means can be made to detect the marker as the operator's little finger from the captured image. The position information indicating the position of the marker can be calculated.

前記算出手段には、前記撮像画像内の、前記操作者の小指を示す領域の重心を、前記位置情報として算出させるようにすることができる。   The calculation means may be configured to calculate a center of gravity of an area indicating the little finger of the operator in the captured image as the position information.

本発明の第1の側面の第1の位置情報入力方法は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法であり、前記位置情報入力装置は、撮像手段と、検出手段と、算出手段と、入力手段とを含み、前記撮像手段が、所定の撮像範囲を撮像して撮像画像を生成し、前記検出手段が、生成された前記撮像画像から、前記操作者の小指を検出し、前記算出手段が、検出された前記小指の、前記撮像画像における前記位置情報を算出し、前記入力手段が、算出された前記位置情報を入力するステップを含む位置情報入力方法である。   A first position information input method according to a first aspect of the present invention is a position information input method for a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device. The information input device includes an imaging unit, a detection unit, a calculation unit, and an input unit. The imaging unit generates a captured image by imaging a predetermined imaging range, and the detection unit is generated. The operator's little finger is detected from the captured image, the calculation means calculates the position information of the detected little finger in the captured image, and the input means inputs the calculated position information. This is a position information input method including the step of:

本発明の第1の側面の第1のプログラムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を入力する入力手段として機能させるためのプログラムである。   According to a first program of the first aspect of the present invention, a computer of a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device is captured by imaging a predetermined imaging range. Imaging means for generating an image; detection means for detecting the operator's little finger from the generated captured image; calculation means for calculating the position information of the detected little finger in the captured image; It is a program for functioning as an input means for inputting the position information.

本発明の第1の側面によれば、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、前記操作者の小指が検出され、検出された前記小指の、前記撮像画像における前記位置情報が算出され、算出された前記位置情報が入力される。   According to the first aspect of the present invention, a predetermined imaging range is imaged to generate a captured image, the operator's little finger is detected from the generated captured image, and the detected little finger of the detected little finger is The position information in the captured image is calculated, and the calculated position information is input.

本発明の第2の側面の情報処理システムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置と、入力された前記位置情報に応じた処理を実行する前記情報処理装置とにより構成される情報処理システムであり、前記位置情報入力装置が、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報を、前記情報処理装置に入力する入力手段とを含み、前記情報処理装置が、入力された前記位置情報に応じた処理を実行する処理手段を含む情報処理システムである。   An information processing system according to a second aspect of the present invention executes a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device, and processing according to the input position information. An information processing system configured by the information processing apparatus, wherein the position information input device captures an image of a predetermined imaging range and generates a captured image, and the operation from the generated captured image. Detection means for detecting a person's little finger, calculation means for calculating the position information of the detected little finger in the captured image, and input means for inputting the calculated position information to the information processing apparatus. And an information processing system in which the information processing apparatus includes processing means for executing processing according to the input position information.

本発明の第2の側面によれば、位置情報入力装置において、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、前記操作者の小指が検出され、検出された前記小指の、前記撮像画像における前記位置情報が算出され、算出された前記位置情報が、情報処理装置に入力される。そして、前記情報処理装置において、入力された前記位置情報に応じた処理が実行される。   According to the second aspect of the present invention, in the position information input device, a predetermined imaging range is imaged to generate a captured image, and the operator's little finger is detected and detected from the generated captured image. The position information of the little finger in the captured image is calculated, and the calculated position information is input to the information processing apparatus. Then, in the information processing apparatus, processing according to the input position information is executed.

本発明の第3の側面の第2の位置情報入力装置は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置であり、前記操作者の小指に生じた加速度を検出する加速度検出手段と、検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、更新された前記位置情報を入力する入力手段とを含む位置情報入力装置である。   A second position information input device according to a third aspect of the present invention is a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing apparatus, and is generated on the little finger of the operator. The position information input device includes: acceleration detection means for detecting the acceleration; update means for updating the position information based on the detected acceleration; and input means for inputting the updated position information.

本発明の第3の側面の第2の位置情報入力方法は、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法であり、前記位置情報入力装置は、加速度検出手段と、更新手段と、入力手段とを含み、前記加速度検出手段が、前記操作者の小指に生じた加速度を検出し、前記更新手段が、検出された前記加速度に基づいて、前記位置情報を更新し、前記入力手段が、更新された前記位置情報を入力するステップを含む位置情報入力方法である。   A second position information input method according to a third aspect of the present invention is a position information input method for a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device. The information input device includes an acceleration detection means, an update means, and an input means, wherein the acceleration detection means detects an acceleration generated in the operator's little finger, and the update means detects the detected acceleration. The position information input method includes updating the position information based on the input means, and the input unit inputting the updated position information.

本発明の第3の側面の第2のプログラムは、操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、前記操作者の小指に生じた加速度を検出する加速度検出手段と、検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、更新された前記位置情報を入力する入力手段として機能させるためのプログラムである。   According to a second program of the third aspect of the present invention, a computer of a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device is transmitted to an acceleration generated on the operator's little finger. Is a program for functioning as an acceleration detecting means for detecting the position, an updating means for updating the position information based on the detected acceleration, and an input means for inputting the updated position information.

本発明の第3の側面によれば、前記操作者の小指に生じた加速度が検出され、検出された前記加速度に基づいて、位置情報が更新され、更新された前記位置情報が入力される。   According to the third aspect of the present invention, acceleration generated in the operator's little finger is detected, position information is updated based on the detected acceleration, and the updated position information is input.

本発明の第4の側面の電子装置は、操作者が指示する位置を示す位置情報に応じた処理を実行する電子装置であり、所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、算出された前記位置情報に応じた処理を実行する処理手段とを含む電子装置である。   An electronic apparatus according to a fourth aspect of the present invention is an electronic apparatus that executes processing according to position information indicating a position designated by an operator, and an imaging unit that captures a predetermined imaging range and generates a captured image. A detection unit that detects the operator's little finger from the generated captured image; a calculation unit that calculates the position information of the detected little finger in the captured image; and And an electronic device including processing means for executing the processing.

本発明の第4の側面によれば、所定の撮像範囲が撮像されて撮像画像が生成され、生成された前記撮像画像から、操作者の小指が検出され、検出された前記小指の、前記撮像画像における位置情報が算出され、算出された前記位置情報に応じた処理が実行される。   According to the fourth aspect of the present invention, a predetermined imaging range is imaged to generate a captured image, an operator's little finger is detected from the generated captured image, and the imaging of the detected little finger is detected. Position information in the image is calculated, and processing according to the calculated position information is executed.

本発明によれば、操作者の手を用いたジェスチャによる操作入力の操作性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the operativity of the operation input by the gesture using an operator's hand can be improved.

以下、発明を実施するための最良の形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。

1.第1の実施の形態(情報処理システム:画像処理を使用する例)
2.第2の実施の形態(情報処理システム:モーションセンサを使用する例)
3.第1の実施の形態の変形例
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described. The description will be given in the following order.

1. First Embodiment (Information Processing System: Example Using Image Processing)
2. Second Embodiment (Information Processing System: Example Using Motion Sensor)
3. Modified example of the first embodiment

<1.第1の実施の形態>
[情報処理システムの外観例]
図3は、本発明の第1の実施の形態である情報処理システム21の外観の一例を示している。
<1. First Embodiment>
[External appearance of information processing system]
FIG. 3 shows an example of the appearance of the information processing system 21 according to the first embodiment of the present invention.

この情報処理システム21では、片手を用いた操作者のジェスチャとして、例えば、操作者が片手を移動させると、その動きを追尾するように、例えば、表示画面上のポインタが移動するようになされている。   In this information processing system 21, as an operator's gesture using one hand, for example, when the operator moves one hand, a pointer on the display screen moves so as to track the movement, for example. Yes.

この情報処理システム21は、操作入力装置41、受信装置42(位置情報入力装置)、及びパーソナルコンピュータ43(以下、PC43という)により構成される。   The information processing system 21 includes an operation input device 41, a receiving device 42 (position information input device), and a personal computer 43 (hereinafter referred to as PC 43).

操作入力装置41は、操作者の片手に装着されるものであり、クリック検出部41a、LED(light emitting diode)41b、及び制御部41cにより構成される。   The operation input device 41 is attached to one hand of the operator, and includes a click detection unit 41a, an LED (light emitting diode) 41b, and a control unit 41c.

クリック検出部41aは、操作者の人差し指に装着されており、人指し指を親指に押し付けることにより、親指により押下されたことを検出し、その検出結果を、制御部41cに供給する。   The click detection unit 41a is attached to the index finger of the operator, detects that the index finger is pressed by the thumb by pressing the index finger against the thumb, and supplies the detection result to the control unit 41c.

LED41bは、操作者の小指(小指の指先から付け根までのいずれかの部分)に装着され、受信装置42に、操作者の小指の位置を検出させるために発光する。本発明では、LED41bを操作者の小指に装着することがポイントである(詳細は後述する)。   The LED 41b is attached to the operator's little finger (any part from the fingertip to the base of the little finger), and emits light to cause the receiving device 42 to detect the position of the operator's little finger. In the present invention, it is important to attach the LED 41b to the operator's little finger (details will be described later).

制御部41cは、操作者の手首に装着されており、クリック検出部41aから検出結果が供給されたことに対応して、クリックが行われたことを示すクリック信号を、赤外線等の無線により、受信装置42に送信する。   The control unit 41c is attached to the operator's wrist, and in response to the detection result supplied from the click detection unit 41a, a click signal indicating that the click has been performed is transmitted by radio such as infrared rays. It transmits to the receiving device 42.

受信装置42は、例えば、PC43の表示画面43aの下側に固定され、且つ、USB(universal serial bus)等の有線によりPC43と接続されており、制御部41cからのクリック信号を受信し、USB等を介してPC43に供給する。   For example, the receiving device 42 is fixed to the lower side of the display screen 43a of the PC 43 and is connected to the PC 43 by a wired line such as USB (universal serial bus), and receives the click signal from the control unit 41c, and receives the USB signal. Supplied to the PC 43 through the above.

また、受信装置42は、予め決められた撮像範囲を撮像するカメラを内蔵しており、内蔵するカメラにより、LED41b(が発光する光)を撮像する。そして、その撮像により得られた撮像画像に基づいて、撮像画像内のLED41bの位置を示す座標(位置情報)を算出し、USB等を介してPC43に供給する。   The receiving device 42 has a built-in camera that captures a predetermined imaging range, and the LED 41b (light emitted from the LED 41b) is captured by the built-in camera. Based on the captured image obtained by the imaging, coordinates (position information) indicating the position of the LED 41b in the captured image are calculated and supplied to the PC 43 via the USB or the like.

PC43は、USB等の有線により受信装置42と接続されており、受信装置42からの座標に対応して、表示画面43a上のポインタを移動させる。   The PC 43 is connected to the receiving device 42 by a wired connection such as USB, and moves the pointer on the display screen 43 a in accordance with the coordinates from the receiving device 42.

また、PC43は、受信装置42からのクリック信号に対応して、現在のポインタの位置でクリックが行われたことに応じた処理を実行する。   In response to the click signal from the receiving device 42, the PC 43 executes a process corresponding to the click performed at the current pointer position.

[受信装置及びPCの構成例]
次に、図4は、受信装置42及びPC43の詳細な構成例を示している。
[Configuration example of receiver and PC]
Next, FIG. 4 shows a detailed configuration example of the receiving device 42 and the PC 43.

受信装置42は、カメラ61、DSP(digital signal processor)62、及び送信部63により構成される。   The reception device 42 includes a camera 61, a DSP (digital signal processor) 62, and a transmission unit 63.

カメラ61は、予め決められた撮像範囲内で撮像し、その撮像により得られた撮像画像をDSP62に供給する。なお、操作者は、表示画面43a上のポインタを移動させる操作等を行う場合には、カメラ61の撮像範囲内で、操作入力装置41が装着された片手を移動させる必要がある。この場合、カメラ61は、撮像により、操作者の片手が表示された撮像画像を得てDSP62に供給する。   The camera 61 captures an image within a predetermined imaging range, and supplies a captured image obtained by the imaging to the DSP 62. Note that when the operator performs an operation of moving the pointer on the display screen 43 a or the like, it is necessary to move the one hand on which the operation input device 41 is mounted within the imaging range of the camera 61. In this case, the camera 61 obtains a captured image in which one hand of the operator is displayed by imaging and supplies the captured image to the DSP 62.

DSP62は、カメラ61からの撮像画像に対して画像処理を行い、撮像画像内の、操作者の小指(小指に装着されたLED41bが発光する光)の位置を示す座標を算出し、送信部63に供給する。   The DSP 62 performs image processing on the captured image from the camera 61, calculates coordinates indicating the position of the operator's little finger (light emitted from the LED 41b attached to the little finger) in the captured image, and transmits the transmission unit 63. To supply.

送信部63は、DSP62からの座標を、PC43に送信する。なお、送信部63には、受信装置42から、クリック信号が供給される。送信部63は、受信装置42からのクリック信号を、PC43に送信する。   The transmission unit 63 transmits the coordinates from the DSP 62 to the PC 43. Note that a click signal is supplied to the transmission unit 63 from the reception device 42. The transmission unit 63 transmits the click signal from the reception device 42 to the PC 43.

PC43は、受信部81及びアプリケーション部82により構成される。   The PC 43 includes a receiving unit 81 and an application unit 82.

受信部81は、送信部63からの座標及びクリック信号を受信し、アプリケーション部82に供給する。   The receiving unit 81 receives the coordinates and click signal from the transmitting unit 63 and supplies them to the application unit 82.

アプリケーション部82は、受信部81からの座標に対応して、PC43の表示画面43a上のポインタを移動させる。すなわち、例えば、アプリケーション部82は、受信部81からの座標に基づいて、LED41bが移動した移動方向、移動量、移動速度等を検出し、検出した移動方向に、検出した移動量や移動速度に対応する距離だけ、表示画面43a上のポインタを移動させる。   The application unit 82 moves the pointer on the display screen 43 a of the PC 43 in accordance with the coordinates from the receiving unit 81. That is, for example, the application unit 82 detects the moving direction, moving amount, moving speed, and the like of the movement of the LED 41b based on the coordinates from the receiving unit 81, and sets the detected moving amount and moving speed in the detected moving direction. The pointer on the display screen 43a is moved by the corresponding distance.

また、アプリケーション部82は、受信部81からのクリック信号に対応して、現在のポインタの位置でクリックが行われたことに応じた処理を実行する。   In response to the click signal from the receiving unit 81, the application unit 82 executes processing corresponding to the click performed at the current pointer position.

[DSPが行う画像処理の説明]
次に、図5乃至図7を参照して、DSP62が行う画像処理について説明する。
[Description of image processing performed by DSP]
Next, image processing performed by the DSP 62 will be described with reference to FIGS.

図5は、DSP62が所定のプログラムを実行することにより実現される機能ブロックとしての、位置検出部101及び座標算出部102により構成される。   FIG. 5 includes a position detection unit 101 and a coordinate calculation unit 102 as functional blocks realized by the DSP 62 executing a predetermined program.

位置検出部101には、カメラ61から撮像画像が供給される。位置検出部101は、カメラ61からの撮像画像に基づいて、操作者の小指の位置を検出し、座標算出部102に供給する。   A captured image is supplied from the camera 61 to the position detection unit 101. The position detection unit 101 detects the position of the operator's little finger based on the captured image from the camera 61 and supplies the detected position to the coordinate calculation unit 102.

次に、図6を参照して、位置検出部101が行う詳細な処理の一例を説明する。   Next, an example of detailed processing performed by the position detection unit 101 will be described with reference to FIG.

図6は、カメラ61により撮像された撮像画像の一例を示している。図6に示す撮像画像121には、操作者の小指に装着されたLED41bが撮像されている。   FIG. 6 shows an example of a captured image captured by the camera 61. In the captured image 121 shown in FIG. 6, the LED 41b mounted on the operator's little finger is captured.

位置検出部101は、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素を検出する。そして、検出した4画素それぞれの位置を、LED41bの位置(操作者の小指の位置)として、座標算出部102に供給する。   The position detection unit 101 detects four pixels corresponding to each of the top four luminance values in the descending order of the luminance value among the luminance values of a plurality of pixels constituting the captured image 121 from the camera 61. Then, the detected positions of the four pixels are supplied to the coordinate calculation unit 102 as the position of the LED 41b (the position of the operator's little finger).

なお、図6に示された例のように、親指と人指し指の指先どうしを接触させた姿勢をとる場合、操作者は、直感的(感覚的)に、親指と人指し指の指先どうしが接触する接触点をトレースポイントとして認識し、片手を動かす傾向にある。したがって、トレースポイントを検出するために装着されるLED41bは、接触点の軌跡と同様の軌跡を描く位置に装着されることが望ましい。   In the case of taking the posture in which the thumb and the fingertip of the index finger are in contact with each other as in the example shown in FIG. 6, the operator touches the thumb and the fingertip of the index finger in an intuitive (sensory) manner. The point is recognized as a trace point and tends to move one hand. Therefore, it is desirable that the LED 41b mounted for detecting the trace point is mounted at a position where a trace similar to the trace of the contact point is drawn.

また、LED41bは、人指し指を親指に押し付けることにより、クリック検出部41aを押下するクリック動作が行われた場合に、ポインタの位置ずれを防止するため、クリック動作に影響されない位置に装着されることが望ましい。   Further, the LED 41b may be mounted at a position that is not affected by the click operation in order to prevent the pointer from being displaced when the click operation of pressing the click detection unit 41a is performed by pressing the index finger against the thumb. desirable.

そこで、本発明者は、トレースポイントとして採用される最適な位置として、小指の位置に着目した。   Therefore, the present inventor paid attention to the position of the little finger as the optimum position adopted as the trace point.

すなわち、例えば、直感的(感覚的)なトレースポイントとして、接触点を移動させる場合、手首を回転軸として、片手を動かすことになる。この場合、回転軸である手首から、トレースポイントとされる小指の位置までの距離を、手首から接触点までの距離としたとき、トレースポイントとされる小指の位置が移動する移動方向や移動量は、接触点の移動方向や移動量と同一となる。   That is, for example, when the contact point is moved as an intuitive (sensory) trace point, one hand is moved with the wrist as the rotation axis. In this case, when the distance from the wrist that is the rotation axis to the position of the little finger that is the trace point is the distance from the wrist to the contact point, the movement direction and amount of movement of the position of the little finger that is the trace point Is the same as the moving direction and moving amount of the contact point.

なお、親指、人指し指、中指、及び薬指についても同様のことがいえるが、クリック動作が行われた場合、親指、人指し指、中指、及び薬指はユーザの意図に反して動いてしまうため、クリック動作によるポインタの位置ずれを防止することはできない。   The same can be said for the thumb, index finger, middle finger, and ring finger, but when the click operation is performed, the thumb, index finger, middle finger, and ring finger move against the user's intention. It is impossible to prevent the pointer from being displaced.

具体的には、例えば、親指又は人差し指のいずれか一方をトレースポイントとした場合、親指と人指し指を用いてクリック動作が行われるため、クリック動作に応じて、親指及び人指し指が動いてしまう。   Specifically, for example, when either one of the thumb or the index finger is used as a trace point, the click operation is performed using the thumb and the index finger, so that the thumb and the index finger move according to the click operation.

また、例えば、中指又は薬指のいずれか一方をトレースポイントとした場合に、クリック動作が行われたとき、中指及び薬指は、人間の手の構造上、親指と人指し指を用いたクリック動作に影響され易いため、クリック動作に伴って、中指及び薬指も動いてしまう。   Also, for example, when the click operation is performed when either the middle finger or the ring finger is used as a trace point, the middle finger and the ring finger are affected by the click operation using the thumb and the index finger due to the structure of the human hand. Since it is easy, the middle finger and the ring finger also move with the click operation.

これに対して、小指は、人間の手の構造上、クリック動作に(殆ど)影響されない。   On the other hand, the little finger is not (almost) affected by the click operation due to the structure of the human hand.

なお、クリック動作に影響されない手の部分としては、小指の他、手の甲や手の平が存在するが、手の甲や手の平と手首との距離は、接触点と手首との距離と比較して短くなる。したがって、手の甲や手の平のいずれかの位置をトレースポイントとした場合、トレースポイントとされる手の甲や手の平のいずれかの位置が移動する移動量は、接触点の移動量と比較して小さくなり、接触点の移動量と同一にはならない。   In addition to the little finger, the back of the hand and the palm of the hand are not affected by the click action, but the distance between the back of the hand or the palm and the wrist is shorter than the distance between the contact point and the wrist. Therefore, when the position of either the back of the hand or the palm is used as the trace point, the amount of movement of either the back of the hand or the palm that is the trace point is smaller than the amount of movement of the contact point. It is not the same as the amount of point movement.

このため、上述したように、本発明者は、トレースポイントとして採用される最適な位置として、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に影響されない小指の位置を採用することとした。   For this reason, as described above, the present inventor employs the position of the little finger that is moved by the same movement direction and movement amount as the contact point and is not affected by the click operation as the optimum position to be adopted as the trace point. It was decided.

以下の説明においては、LED41bは、接触点の軌跡と同一の軌跡を描く最適な位置として、上述した小指の位置に装着されているものとする。   In the following description, it is assumed that the LED 41b is mounted at the position of the little finger described above as the optimum position for drawing the same locus as the locus of the contact point.

座標算出部102は、位置検出部101からのLED41bの位置に基づいて、撮像画像121内におけるLED41bの位置を示す座標を算出し、送信部63に供給する。   The coordinate calculation unit 102 calculates coordinates indicating the position of the LED 41 b in the captured image 121 based on the position of the LED 41 b from the position detection unit 101, and supplies the calculated coordinate to the transmission unit 63.

次に、図7を参照して、座標算出部102が行う詳細な処理の一例を説明する。   Next, an example of detailed processing performed by the coordinate calculation unit 102 will be described with reference to FIG.

図7は、撮像画像121内に定義されるXY座標を示している。このXY座標は、撮像画像121の最も左下の位置を原点(0,0)として、互いに直交するX軸とY軸とで定義される直交座標を示している。   FIG. 7 shows XY coordinates defined in the captured image 121. The XY coordinates are orthogonal coordinates defined by an X axis and a Y axis that are orthogonal to each other, with the lowest left position of the captured image 121 being the origin (0, 0).

座標算出部102は、位置検出部101からの4画素それぞれのLED41bの位置(例えば図7に示す位置121a乃至121d)に対応する、撮像画像121上の座標(x,y)を算出する。そして、算出した4つの座標(x,y)の、例えば重心を、LED41bの位置を示す座標として、送信部63に供給する。   The coordinate calculation unit 102 calculates the coordinates (x, y) on the captured image 121 corresponding to the positions of the LEDs 41b of the four pixels from the position detection unit 101 (for example, the positions 121a to 121d shown in FIG. 7). Then, for example, the center of gravity of the calculated four coordinates (x, y) is supplied to the transmission unit 63 as coordinates indicating the position of the LED 41b.

[受信装置の動作説明]
次に、図8のフローチャートを参照して、受信装置42が行う第1の座標算出処理を説明する。
[Description of receiver operation]
Next, the first coordinate calculation process performed by the receiving device 42 will be described with reference to the flowchart of FIG.

ステップS1において、カメラ61は、予め決められた撮像範囲内で撮像し、その撮像により得られた撮像画像を、DSP62の位置検出部101に供給する。   In step S <b> 1, the camera 61 captures an image within a predetermined imaging range, and supplies a captured image obtained by the imaging to the position detection unit 101 of the DSP 62.

ステップS2において、位置検出部101は、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素を検出する。そして、検出した4画素それぞれの位置を、LED41bの位置(操作者の小指の位置)として、座標算出部102に供給する。   In step S <b> 2, the position detection unit 101 detects four pixels corresponding to the four highest luminance values in the descending order of the luminance value among the luminance values of the plurality of pixels constituting the captured image 121 from the camera 61. . Then, the detected positions of the four pixels are supplied to the coordinate calculation unit 102 as the position of the LED 41b (the position of the operator's little finger).

ステップS3において、座標算出部102は、位置検出部101からの4画素それぞれのLED41bの位置(例えば図7に示す位置121a乃至121d)に対応する、撮像画像121上の座標(x,y)を算出する。そして、算出した4つの座標(x,y)の、例えば重心を、LED41bの位置を示す座標として、送信部63に供給する。   In step S3, the coordinate calculation unit 102 calculates the coordinates (x, y) on the captured image 121 corresponding to the positions of the LEDs 41b of the four pixels from the position detection unit 101 (for example, the positions 121a to 121d shown in FIG. 7). calculate. Then, for example, the center of gravity of the calculated four coordinates (x, y) is supplied to the transmission unit 63 as coordinates indicating the position of the LED 41b.

ステップS4において、送信部63は、座標算出部102からの座標を、PC43に送信する。このとき、PC43は、送信部63からの座標に基づいて、LED41bが移動した移動方向、移動量、移動速度等を検出し、検出した移動方向に、検出した移動量や移動速度に対応する距離だけ、表示画面43a上のポインタを移動させる。   In step S <b> 4, the transmission unit 63 transmits the coordinates from the coordinate calculation unit 102 to the PC 43. At this time, the PC 43 detects the movement direction, movement amount, movement speed, and the like of the movement of the LED 41b based on the coordinates from the transmission unit 63, and the distance corresponding to the detected movement amount and movement speed in the detected movement direction. Only the pointer on the display screen 43a is moved.

以上説明したように、第1の座標算出処理では、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に(殆ど)影響されない小指の位置をトレースポイントとし、そのトレースポイントを示す座標を算出して、PC43に送信するようにした。したがって、他の指をトレースポイントとした場合と比較して、ポインタの移動やクリック等の操作性をより向上させることができる。   As described above, in the first coordinate calculation process, the position of the little finger that moves with the same movement direction and movement amount as the contact point and is not (almost) affected by the click operation is used as the trace point, and the trace point is indicated. The coordinates were calculated and transmitted to the PC 43. Therefore, the operability such as movement of the pointer and click can be further improved as compared with the case where other fingers are used as the trace points.

すなわち、例えば、トレースポイントである小指は、クリック動作に影響されて動いてしまうことがないため、クリック動作時に生じるトレースポイントの位置ずれを防止することが可能となる。   That is, for example, the little finger that is the trace point does not move due to the click operation, so that it is possible to prevent the displacement of the trace point that occurs during the click operation.

また、両手の小指それぞれにLED41bを装着した場合には、2つのポインタを同時に移動させるとともに、クリックを行うことが可能となるため、マルチタッチインタフェースに対応することが可能となる。   Further, when the LED 41b is attached to each of the little fingers of both hands, the two pointers can be moved at the same time and the click can be performed, so that a multi-touch interface can be supported.

さらに、操作者の小指に装着されたLED41bは、手首を回転軸として親指と人指し指との接触点が描く軌跡と(殆ど)同じ軌跡を描く。よって、操作者は、トレースポイントとして、直感的に認識される親指と人指し指との接触点を、トレースポイントとして認識した状態で、容易に操作を行うことが可能となる。   Further, the LED 41b mounted on the operator's little finger draws (almost) the same locus as the locus drawn by the contact point between the thumb and the index finger with the wrist as the rotation axis. Therefore, the operator can easily perform the operation while recognizing the contact point between the thumb and the index finger that are intuitively recognized as the trace point as the trace point.

また、操作者は、例えば、マウスを用いてポインタを移動させるときのように、片手の形状をマウスの形状に合わせることにより、片手を、片手の甲の方向に沿った状態(手の甲と、肘から手首までの腕により形成される手首の角度が小さい不自然な状態)を維持する必要がなく、操作者に負担のかからない片手の形状を維持した状態(手首の角度が大きい(160度乃至180度程度)の自然な状態)で、ポインタを移動させることが可能である。   In addition, the operator, for example, moves one pointer to the shape of the mouse by moving the pointer with the mouse so that the one hand is in a state along the back of the one hand (from the back of the hand and the elbow). It is not necessary to maintain an unnatural state in which the wrist angle formed by the arm up to the wrist is small, and a state in which the shape of one hand is maintained that does not burden the operator (the wrist angle is large (160 to 180 degrees). It is possible to move the pointer in a natural state).

次に、図9乃至図13を参照して、トレースポイントを小指とした情報処理システム21が、トレースポイントを小指以外の他の指(例えば、人差し指)とした場合と比較して、より操作性を向上させることができるシステムであることを説明する。   Next, referring to FIGS. 9 to 13, the information processing system 21 using the trace point as the little finger is more operable than the case where the trace point is used as a finger other than the little finger (for example, the index finger). It is explained that the system can improve the system.

[情報処理システムの外観例]
図9は、トレースポイントを人指し指とする情報処理システム141の外観の一例を示している。
[External appearance of information processing system]
FIG. 9 shows an example of the appearance of the information processing system 141 using the trace point as an index finger.

この情報処理システム141は、クリック検出部41aが、人差し指に代えて中指に装着されているとともに、LED41bが、小指に代えて人差し指に装着されている他は、図3の情報処理システム21と同様に構成されているため、情報処理システム141の説明は省略する。   This information processing system 141 is the same as the information processing system 21 of FIG. 3 except that the click detection unit 41a is attached to the middle finger instead of the index finger and the LED 41b is attached to the index finger instead of the little finger. Therefore, the description of the information processing system 141 is omitted.

[被験者による実験結果]
次に、図10乃至図13を参照して、小指をトレースポイントとしたほうが、例えば人指し指をトレースポイントとする場合と比較して、所定の位置でクリックを行う精度が向上することを説明する。
[Experimental results of subjects]
Next, with reference to FIG. 10 to FIG. 13, it will be described that when the little finger is used as a trace point, the accuracy of performing a click at a predetermined position is improved as compared with, for example, the case where the index finger is used as a trace point.

図10は、被験者1を対象として、2つの異なる位置で交互にクリックする動作を10往復だけ行わせる実験を、小指をトレースポイントとする情報処理システム21により行うとともに、人指し指をトレースポイントとする情報処理システム141により行ったときの実験結果を示している。   FIG. 10 shows an information processing system 21 using a little finger as a trace point and an experiment in which the subject 1 is clicked alternately at two different positions for 10 reciprocations, and the index finger is used as a trace point. The experimental result when it is performed by the processing system 141 is shown.

図10A及び図10Bに示す表示画面43aには、左側の領域TL、及び右側の領域TRが表示されている。なお、領域TL及び領域TRは、直径7(mm)の円を示しており、領域TLと領域TRは、70(mm)だけ離れて配置されている。また、表示画面43a内の黒点は、操作者がクリックを行ったときのポインタのクリック位置を示している。 On the display screen 43a shown in FIGS. 10A and 10B, left region T L, and the right area T R is displayed. The area T L and the region T R indicates a circle having a diameter of 7 (mm), the region T L and the region T R are spaced apart by 70 (mm). A black dot in the display screen 43a indicates the click position of the pointer when the operator clicks.

なお、表示画面43aの大きさは11インチであって、その解像度は1280×768(横×縦)画素である。   The display screen 43a has a size of 11 inches and a resolution of 1280 × 768 (horizontal × vertical) pixels.

被験者1は、情報処理システム21と情報処理システム141とを用いて、表示画面43aに表示される領域TLと領域TRを交互にクリックする動作を、10往復だけ行う。なお、この実験は、操作入力装置41と表示画面43aとを、300(mm)の距離だけ離した状態で行われる。 Subject 1, using an information processing system 21 and the information processing system 141, the operation of clicking alternating regions T L and a region T R to be displayed on the display screen 43a, carried by 10 round trip. This experiment is performed in a state where the operation input device 41 and the display screen 43a are separated by a distance of 300 (mm).

小指をトレースポイントとする情報処理システム21(第1の実施の形態)により実験を行った場合、図10Aに示したように、被験者1のクリック位置が、領域TL及び領域TR内にすべて含まれている。 If little finger experiments were carried out by the information processing system 21, trace points (first embodiment) and, as shown in FIG. 10A, the click position of the subject 1, all in the region T L and the region T R include.

人指し指をトレースポイントとする情報処理システム141により実験を行った場合、図10Bに示したように、被験者1のクリック位置が、領域TL及び領域TRから外れてしまっている。 If the index finger experiments were carried out by the information processing system 141 to trace points, as shown in FIG. 10B, the click position of the subject 1 has gone off the area T L and the region T R.

次に、図11乃至図13には、それぞれ、被験者2乃至被験者4を対象として、上述の実験を行ったときの実験結果を示している。   Next, FIGS. 11 to 13 show experimental results when the above-described experiment is performed on subjects 2 to 4, respectively.

なお、被験者1乃至4は、それぞれ異なる被験者を示している。また、図11乃至図13は、上述した図10と同様に構成されているため、説明は省略する。   Subjects 1 to 4 represent different subjects. Further, FIGS. 11 to 13 are configured in the same manner as FIG. 10 described above, and thus description thereof is omitted.

図10乃至図13において、被験者1乃至被験者4のいずれの場合においても、小指をトレースポイントとする情報処理システム21の方が、領域TL及び領域TRに対するクリック位置の精度が良いことがわかる。 In FIGS. 10 to 13, in any of the subject 1 to the subject 4, towards the information processing system 21, trace points little finger, it can be seen that good precision of the click position for regions T L and the region T R .

上述した第1の実施の形態では、操作者の小指(LED41b)を撮像した撮像画像に対して、画像処理を行うことにより、操作者の小指の位置を示す座標を算出することとしたが、図14乃至図16に示すように、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、検出した加速度等に基づいて、座標を算出することが可能である。   In the first embodiment described above, the coordinates indicating the position of the operator's little finger are calculated by performing image processing on the captured image obtained by imaging the operator's little finger (LED 41b). As shown in FIGS. 14 to 16, it is possible to detect triaxial acceleration or the like generated in accordance with the movement of the operator's little finger, and calculate coordinates based on the detected acceleration or the like.

<2.第2の実施の形態>
[情報処理システムの外観例]
図14は、本発明の第2の実施の形態である情報処理システム151の外観の一例を示している。
<2. Second Embodiment>
[External appearance of information processing system]
FIG. 14 shows an example of the appearance of an information processing system 151 according to the second embodiment of the present invention.

なお、図中、図3に示された第1の外観例に対応する部分については同一の符号を付してあるため、以下、その説明は適宜省略する。すなわち、第2の実施の形態である情報処理システム151は、第1の実施の形態である情報処理システム21(図3)に対して、LED41bに代えて座標入力部161(位置情報入力装置)が、受信装置42に代えて受信装置162が、それぞれ設けられたものである。   In the drawing, the same reference numerals are given to the portions corresponding to the first appearance example shown in FIG. 3, and the description thereof will be omitted as appropriate. That is, the information processing system 151 according to the second embodiment is different from the information processing system 21 according to the first embodiment (FIG. 3) in that a coordinate input unit 161 (position information input device) is used instead of the LED 41b. However, instead of the receiving device 42, a receiving device 162 is provided.

座標入力部161は、操作者の小指に装着されており、操作者の小指の動きに応じて生じる3軸方向の加速度等を示す動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、受信装置162に送信する。   The coordinate input unit 161 is attached to the operator's little finger, and coordinates indicating the position of the operator's little finger are based on motion information indicating acceleration in three axial directions generated according to the movement of the operator's little finger. Calculate (update) and transmit to the receiving device 162.

受信装置162は、PC43の表示画面43aの下側に固定されており、制御部41cからのクリック信号を受信し、PC43に供給する。   The receiving device 162 is fixed to the lower side of the display screen 43a of the PC 43, receives the click signal from the control unit 41c, and supplies it to the PC 43.

また、受信装置162は、座標入力部161からの座標を受信し、USB等の有線を介してPC43に供給する。   The receiving device 162 receives coordinates from the coordinate input unit 161 and supplies the coordinates to the PC 43 via a wired line such as USB.

[座標入力部の構成例]
図15は、座標入力部161の構成例を示している。
[Configuration example of coordinate input section]
FIG. 15 shows a configuration example of the coordinate input unit 161.

この座標入力部161は、モーションセンサ181、座標算出部182、及び送信部183により構成される。   The coordinate input unit 161 includes a motion sensor 181, a coordinate calculation unit 182, and a transmission unit 183.

モーションセンサ181は、加速度センサやジャイロセンサであり、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、その検出結果を示す動き情報を、座標算出部182に供給する。   The motion sensor 181 is an acceleration sensor or a gyro sensor. The motion sensor 181 detects acceleration in three axial directions generated according to the movement of the operator's little finger, and supplies motion information indicating the detection result to the coordinate calculation unit 182.

座標算出部182は、モーションセンサ181からの動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、送信部183に供給する。   The coordinate calculation unit 182 calculates (updates) coordinates indicating the position of the operator's little finger based on the motion information from the motion sensor 181, and supplies the calculated coordinate to the transmission unit 183.

送信部183は、座標算出部182からの座標を、受信装置162に送信する。   The transmission unit 183 transmits the coordinates from the coordinate calculation unit 182 to the reception device 162.

[座標入力部の動作説明]
次に、図16のフローチャートを参照して、座標入力部161が行う第2の座標算出処理を説明する。
[Explanation of operation of coordinate input unit]
Next, the second coordinate calculation process performed by the coordinate input unit 161 will be described with reference to the flowchart of FIG.

ステップS31において、モーションセンサ181は、加速度センサやジャイロセンサであり、操作者の小指の動きに応じて生じる3軸方向の加速度等を検出し、その検出結果を示す動き情報を、座標算出部182に供給する。   In step S <b> 31, the motion sensor 181 is an acceleration sensor or a gyro sensor, detects acceleration in the three-axis directions according to the movement of the operator's little finger, etc., and uses the coordinate calculation unit 182 as movement information indicating the detection result. To supply.

ステップS32において、座標算出部182は、モーションセンサ181からの動き情報に基づいて、操作者の小指の位置を示す座標を算出(更新)し、送信部183に供給する。   In step S <b> 32, the coordinate calculation unit 182 calculates (updates) coordinates indicating the position of the operator's little finger based on the motion information from the motion sensor 181, and supplies the coordinate to the transmission unit 183.

ステップS33において、送信部183は、座標算出部182からの座標を、受信装置162に送信する。このとき、受信装置162は、送信部183からの座標を、PC43に供給する。そして、PC43は、受信装置162からの座標に対応して、表示画面43a上のポインタを移動させる。   In step S <b> 33, the transmission unit 183 transmits the coordinates from the coordinate calculation unit 182 to the reception device 162. At this time, the receiving device 162 supplies the coordinates from the transmission unit 183 to the PC 43. Then, the PC 43 moves the pointer on the display screen 43a in accordance with the coordinates from the receiving device 162.

以上説明したように、第2の座標算出処理では、接触点と同一の移動方向及び移動量で移動するとともに、クリック動作に(殆ど)影響されない小指の位置をトレースポイントとし、そのトレースポイントを示す座標を算出して、受信装置162を介してPC43に送信するようにした。したがって、他の指をトレースポイントとした場合と比較して、ポインタの移動やクリック等の操作性をより向上させることができる。   As described above, in the second coordinate calculation processing, the position of the little finger that is moved in the same movement direction and movement amount as the contact point and is not (almost) affected by the click operation is used as the trace point, and the trace point is indicated. The coordinates are calculated and transmitted to the PC 43 via the receiving device 162. Therefore, the operability such as movement of the pointer and click can be further improved as compared with the case where other fingers are used as the trace points.

<3.第1の実施の形態の変形例> <3. Modification of First Embodiment>

なお、第1の実施の形態では、図5の位置検出部101が、カメラ61からの撮像画像121を構成する複数の画素の輝度値のうち、輝度値の大きい順に上位4位までの輝度値それぞれに対応する4画素の位置を検出することとした。   Note that in the first embodiment, the position detection unit 101 in FIG. 5 has the luminance values up to the top four in the descending order of the luminance values among the luminance values of the plurality of pixels constituting the captured image 121 from the camera 61. The positions of 4 pixels corresponding to each were detected.

しかしながら、検出した4画素の輝度値が、LED41bが発光する光の輝度値として想定される範囲内でない場合には、検出した4画素それぞれの位置を、LED41bの位置として検出しないようにすることが可能である。この場合、LED41bの位置が誤って検出されることを防止することができる。   However, if the detected luminance value of the four pixels is not within the range assumed as the luminance value of the light emitted from the LED 41b, the detected position of each of the four pixels may not be detected as the position of the LED 41b. Is possible. In this case, it is possible to prevent the position of the LED 41b from being erroneously detected.

また、位置検出部101が検出する画素数は4個に限定されず、5個以上又は3個以下の画素数を採用することが可能である。   In addition, the number of pixels detected by the position detection unit 101 is not limited to four, and a number of pixels of 5 or more or 3 or less can be employed.

さらに、第1の実施の形態では、座標算出部102が、位置検出部101からの4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)の重心を、LED41bの位置を示す座標として算出したが、これに限定されない。   Further, in the first embodiment, the coordinate calculation unit 102 calculates the center of gravity of the coordinates (x, y) on the captured image 121 corresponding to the position of the LED 41b of each of the four pixels from the position detection unit 101. Although calculated as coordinates indicating the position, the present invention is not limited to this.

すなわち、例えば、座標算出部102は、4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)を、そのまま、受信装置42の送信部63、及びPC43の受信部81を介して、アプリケーション部82に供給するようにしてもよい。そして、アプリケーション部82は、座標算出部102からの4画素それぞれのLED41bの位置に対応する、撮像画像121上の座標(x,y)から、LED41bの位置を示す座標を算出し、算出した座標に対応して、表示画面43a上のポインタを移動させる。   That is, for example, the coordinate calculation unit 102 uses the coordinates (x, y) on the captured image 121 corresponding to the position of the LED 41b of each of the four pixels as it is, the transmission unit 63 of the reception device 42, and the reception unit 81 of the PC 43. May be supplied to the application unit 82. And the application part 82 calculates the coordinate which shows the position of LED41b from the coordinate (x, y) on the captured image 121 corresponding to the position of LED41b of each four pixels from the coordinate calculation part 102, and calculated coordinates In response to this, the pointer on the display screen 43a is moved.

この場合、座標算出部102は、撮像画像121上の座標(x,y)の重心を算出する場合と比較して、より迅速に処理を行うことが可能となる。   In this case, the coordinate calculation unit 102 can perform processing more quickly than in the case where the center of gravity of the coordinates (x, y) on the captured image 121 is calculated.

また、第1の実施の形態では、操作者の小指の位置を検出するための目印(マーカ)として、操作者の小指にLED41bを装着し、位置検出部101が、撮像画像から、LED41bの位置を、操作者の小指の位置として検出することとしたが、操作者の小指を検出するための目印は、これに限定されない。   In the first embodiment, the LED 41b is mounted on the operator's little finger as a marker (marker) for detecting the position of the operator's little finger, and the position detection unit 101 detects the position of the LED 41b from the captured image. Is detected as the position of the operator's little finger, but the mark for detecting the operator's little finger is not limited to this.

すなわち、操作者の小指を検出するための目印としては、その他、例えば、操作者の小指にはめられた指輪、小指に塗布された所定の波長を反射するマニキュア等を採用することが可能である。   That is, as a mark for detecting the operator's little finger, for example, a ring fitted on the operator's little finger, a manicure reflecting a predetermined wavelength applied to the little finger, or the like can be adopted. .

なお、小指に塗布されたマニキュアを、操作者の小指の位置として検出する場合には、操作入力装置41が不要になり、LED41bを装着する場合と比較して、片手の動きが制限されなくなるため、例えば、文字を書く等の他の動作を容易に行うことが可能となる。   Note that when the nail polish applied to the little finger is detected as the position of the operator's little finger, the operation input device 41 becomes unnecessary, and the movement of one hand is not restricted as compared with the case where the LED 41b is attached. For example, other operations such as writing a character can be easily performed.

さらに、第1の実施の形態では、操作者の小指の位置を検出するために、操作者の小指にLED41bを装着することとしたが、スケルトンモデル(skelton model)や容量モデル(volumetric model)等の3次元モデルを用いることにより、LED41b等の目印を装着(付加)することなく、操作者の小指の関節の位置を検出することが可能である。   Furthermore, in the first embodiment, the LED 41b is mounted on the operator's little finger in order to detect the position of the operator's little finger, but a skeleton model, a volumetric model, etc. By using this three-dimensional model, it is possible to detect the position of the joint of the operator's little finger without wearing (adding) a mark such as the LED 41b.

すなわち、例えば、図5の位置検出部101は、操作者の手を撮像した撮像画像から、操作者の手の形状を示すシルエットを生成し、生成したシルエットと、様々な手の形状を示す複数の3次元モデルとを比較して、生成したシルエットと最も類似(マッチ)する3次元モデルを、操作者の手の形状を表す3次元モデルとして決定する。   That is, for example, the position detection unit 101 in FIG. 5 generates a silhouette indicating the shape of the operator's hand from a captured image obtained by imaging the operator's hand, and generates a plurality of silhouettes indicating the generated silhouette and various hand shapes. The three-dimensional model that is most similar (matched) to the generated silhouette is determined as a three-dimensional model representing the shape of the operator's hand.

そして、決定された3次元モデルに対して、拡張カルマンフィルタ(EKF,extended kalman filter)を適用することにより、操作者の手を構成する小指の各関節の3次元位置を検出することが可能である。この場合、小指に塗布されたマニキュアを、操作者の小指の位置として検出する場合と同様に、操作入力装置41が不要になり、例えば、文字を書く等の他の動作を容易に行うことが可能となる。   Then, by applying an extended Kalman filter (EKF) to the determined three-dimensional model, it is possible to detect the three-dimensional position of each joint of the little finger constituting the operator's hand. . In this case, as in the case where the nail polish applied to the little finger is detected as the position of the operator's little finger, the operation input device 41 is not necessary, and other operations such as writing characters can be easily performed, for example. It becomes possible.

なお、関節の3次元位置を検出するためのより詳細な検出方法は、例えば、N.Shimada, Y.Shirai, Y.Kuno, J.Miura,”Hand gesture estimation and model refinement using monocular camera-ambiguilty limitation by inequality constraints,””Proc.IEEE International Conference on Automatic Face and Gesture Recognition '98,pp.268-273,1998”に記載されている。   A more detailed detection method for detecting the three-dimensional position of a joint is, for example, N. Shimada, Y. Shirai, Y. Kuno, J. Miura, “Hand gesture estimation and model refinement using monocular camera-ambiguilty limitation by inequality constraints, “” Proc. IEEE International Conference on Automatic Face and Gesture Recognition '98, pp. 268-273, 1998 ”.

また、拡張カルマンフィルタについては、R.Kalman,”A new approach to linear filtering and prediction problem,” Journal of Basic Engineering,Vol.82,pp.35-45,1960.に、より詳細に記載されている。   The extended Kalman filter is described in more detail in R. Kalman, “A new approach to linear filtering and prediction problem,” Journal of Basic Engineering, Vol. 82, pp. 35-45, 1960.

さらに、位置検出部101は、LED41bの位置を、操作者の小指の位置として検出することとしたが、例えば、撮像画像内の、操作者の小指を示す領域の重心を、操作者の小指の位置として検出することができる。   Further, the position detection unit 101 detects the position of the LED 41b as the position of the operator's little finger. For example, the center of gravity of the region indicating the operator's little finger in the captured image is determined by the operator's little finger. It can be detected as a position.

この場合、例えば、操作者が、ポインタの移動を意図せずに小指を動かしてしまったときでも、操作者の小指の位置として重心を採用することにより、操作者の意図しない小指の動きにより、ポインタが大きく移動してしまうことを抑止することが可能となる。   In this case, for example, even when the operator moves the little finger without intending to move the pointer, by adopting the center of gravity as the position of the operator's little finger, It is possible to prevent the pointer from moving greatly.

また、第1の実施の形態では、情報処理システム21において、受信装置42とPC43とを別々の装置としたが、受信装置42とPC43とを、両機能を有する電子装置として構成することが可能である。   In the first embodiment, the receiving device 42 and the PC 43 are separate devices in the information processing system 21, but the receiving device 42 and the PC 43 can be configured as an electronic device having both functions. It is.

なお、本発明は、操作者の片手のジェスチャを認識し、その認識結果に基づいて、PCの他、テレビジョン受像機、カーナビゲーション装置、画像を写真立てのように表示させるデジタルフォトフレーム等の表示制御装置への操作入力が可能な入力装置に適用することが可能である。   The present invention recognizes a gesture of one hand of the operator, and based on the recognition result, in addition to a PC, a television receiver, a car navigation device, a digital photo frame that displays an image like a photo frame, etc. The present invention can be applied to an input device that can input an operation to the display control device.

次に、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   Next, the series of processes described above can be executed by dedicated hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a so-called embedded computer or various programs. For example, it is installed from a recording medium in a general-purpose personal computer.

[コンピュータの構成例]
図17は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
[Computer configuration example]
FIG. 17 shows a configuration example of a computer that executes the above-described series of processing by a program.

CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。   A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a storage unit 208. A RAM (Random Access Memory) 203 appropriately stores programs executed by the CPU 201 and data. The CPU 201, ROM 202, and RAM 203 are connected to each other via a bus 204.

CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。   An input / output interface 205 is also connected to the CPU 201 via the bus 204. The input / output interface 205 is connected to an input unit 206 including a keyboard, a mouse, and a microphone, and an output unit 207 including a display and a speaker. The CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.

入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   A storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data. The communication unit 209 communicates with an external device via a network such as the Internet or a local area network.

また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。   Further, a program may be acquired via the communication unit 209 and stored in the storage unit 208.

入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。   The drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録する記録媒体は、図17に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211、または、プログラムが一時的もしくは永続的に記録されるROM202や、記憶部208を構成するハードディスクなどにより構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデムなどのインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 17, a recording medium for recording a program installed in a computer and executable by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory). ), DVD (including Digital Versatile Disc)), magneto-optical disc (including MD (Mini-Disc)), or removable media 211, which is a package media composed of semiconductor memory, or the program is temporarily or permanently It is configured by a ROM 202 to be recorded, a hard disk constituting the storage unit 208, or the like. Recording of a program on a recording medium is performed using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Is called.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The present embodiment is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

ジェスチャ認識技術を説明するための図である。It is a figure for demonstrating a gesture recognition technique. エアタップ操作技術を説明するための図である。It is a figure for demonstrating an air tap operation technique. 第1の実施の形態である情報処理システムの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the information processing system which is 1st Embodiment. 受信装置、及びPCの詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a receiver and PC. DSPにより実現される制御部の一例を示すブロック図である。・It is a block diagram which shows an example of the control part implement | achieved by DSP.・ カメラにより撮像された撮像画像を示す図である。It is a figure which shows the captured image imaged with the camera. 撮像画像内に定義されるXY座標を示す図である。It is a figure which shows the XY coordinate defined in a captured image. 第1の座標算出処理を説明するフローチャートである。It is a flowchart explaining a 1st coordinate calculation process. トレースポイントを人指し指とする情報処理システムの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the information processing system which uses a trace point as an index finger. 被験者1を対象とした実験結果を示す図である。It is a figure which shows the experimental result for the test subject. 被験者2を対象とした実験結果を示す図である。It is a figure which shows the experimental result for the test subject. 被験者3を対象とした実験結果を示す図である。It is a figure which shows the experimental result for the test subject. 被験者4を対象とした実験結果を示す図である。It is a figure which shows the experimental result for the test subject. 第2の実施の形態である情報処理システムの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the information processing system which is 2nd Embodiment. 座標入力部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a coordinate input part. 第2の座標算出処理を説明するフローチャートである。It is a flowchart explaining a 2nd coordinate calculation process. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

符号の説明Explanation of symbols

21 情報処理システム, 41 操作入力装置, 41a クリック検出部, 41b LED, 41c 制御部, 42 受信装置, 43 PC, 61 カメラ, 62 DSP, 63 送信部, 81 受信部, 82 アプリケーション部, 101 位置検出部, 102 座標算出部, 151 情報処理システム, 161 座標入力部, 162 受信装置, 181 モーションセンサ, 182 座標算出部, 183 送信部   21 information processing system, 41 operation input device, 41a click detection unit, 41b LED, 41c control unit, 42 reception device, 43 PC, 61 camera, 62 DSP, 63 transmission unit, 81 reception unit, 82 application unit, 101 position detection Unit, 102 coordinate calculation unit, 151 information processing system, 161 coordinate input unit, 162 receiver, 181 motion sensor, 182 coordinate calculation unit, 183 transmission unit

Claims (11)

操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置において、
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を入力する入力手段と
を含む位置情報入力装置。
In a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
A position information input device comprising: input means for inputting the calculated position information.
予め用意した3次元モデルと前記撮像画像とを比較する比較手段をさらに含み、
前記検出手段は、前記比較手段による比較結果に基づいて、前記操作者の小指を検出する
請求項1に記載の位置情報入力装置。
It further includes a comparing means for comparing the prepared three-dimensional model with the captured image,
The position information input device according to claim 1, wherein the detection unit detects the operator's little finger based on a comparison result by the comparison unit.
前記操作者の小指には、マーカが付加されており、
前記検出手段は、前記撮像画像から、前記マーカを前記操作者の小指として検出し、
前記算出手段は、前記マーカの位置を示す前記位置情報を算出する
請求項1に記載の位置情報入力装置。
A marker is added to the little finger of the operator,
The detection means detects the marker as the operator's little finger from the captured image,
The position information input device according to claim 1, wherein the calculation unit calculates the position information indicating a position of the marker.
前記算出手段は、前記撮像画像内の、前記操作者の小指を示す領域の重心を、前記位置情報として算出する
請求項1に記載の位置情報入力装置。
The position information input device according to claim 1, wherein the calculating unit calculates a center of gravity of an area indicating the little finger of the operator in the captured image as the position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法において、
前記位置情報入力装置は、
撮像手段と、
検出手段と、
算出手段と、
入力手段と
を含み、
前記撮像手段が、所定の撮像範囲を撮像して撮像画像を生成し、
前記検出手段が、生成された前記撮像画像から、前記操作者の小指を検出し、
前記算出手段が、検出された前記小指の、前記撮像画像における前記位置情報を算出し、
前記入力手段が、算出された前記位置情報を入力する
ステップを含む位置情報入力方法。
In a position information input method of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
The position information input device includes:
Imaging means;
Detection means;
A calculation means;
Including input means and
The imaging means captures a predetermined imaging range and generates a captured image;
The detection means detects the operator's little finger from the generated captured image,
The calculating means calculates the position information of the detected little finger in the captured image;
A position information input method including a step in which the input means inputs the calculated position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を入力する入力手段と
して機能させるためのプログラム。
A computer of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device;
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
A program for functioning as input means for inputting the calculated position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置と、入力された前記位置情報に応じた処理を実行する前記情報処理装置とにより構成される情報処理システムにおいて、
前記位置情報入力装置が、
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報を、前記情報処理装置に入力する入力手段と
を含み、
前記情報処理装置が、
入力された前記位置情報に応じた処理を実行する処理手段
を含む情報処理システム。
An information processing system including a position information input device that inputs position information indicating a position indicated by an operator to a predetermined information processing device, and the information processing device that executes processing according to the input position information. In
The position information input device is
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
Input means for inputting the calculated position information to the information processing apparatus,
The information processing apparatus is
An information processing system including processing means for executing processing according to the input position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置において、
前記操作者の小指に生じた加速度を検出する加速度検出手段と、
検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、
更新された前記位置情報を入力する入力手段と
を含む位置情報入力装置。
In a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
Acceleration detecting means for detecting acceleration generated in the operator's little finger;
Updating means for updating the position information based on the detected acceleration;
A position information input device comprising: input means for inputting the updated position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置の位置情報入力方法において、
前記位置情報入力装置は、
加速度検出手段と、
更新手段と、
入力手段と
を含み、
前記加速度検出手段が、前記操作者の小指に生じた加速度を検出し、
前記更新手段が、検出された前記加速度に基づいて、前記位置情報を更新し、
前記入力手段が、更新された前記位置情報を入力する
ステップを含む位置情報入力方法。
In a position information input method of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device,
The position information input device includes:
Acceleration detection means;
Update means;
Including input means and
The acceleration detecting means detects an acceleration generated in the operator's little finger;
The update means updates the position information based on the detected acceleration,
A position information input method including a step in which the input means inputs the updated position information.
操作者が指示する位置を示す位置情報を所定の情報処理装置に入力する位置情報入力装置のコンピュータを、
前記操作者の小指に生じた加速度を検出する加速度検出手段と、
検出された前記加速度に基づいて、前記位置情報を更新する更新手段と、
更新された前記位置情報を入力する入力手段と
して機能させるためのプログラム。
A computer of a position information input device for inputting position information indicating a position indicated by an operator to a predetermined information processing device;
Acceleration detecting means for detecting acceleration generated in the operator's little finger;
Updating means for updating the position information based on the detected acceleration;
A program for functioning as an input means for inputting the updated position information.
操作者が指示する位置を示す位置情報に応じた処理を実行する電子装置において、
所定の撮像範囲を撮像して撮像画像を生成する撮像手段と、
生成された前記撮像画像から、前記操作者の小指を検出する検出手段と、
検出された前記小指の、前記撮像画像における前記位置情報を算出する算出手段と、
算出された前記位置情報に応じた処理を実行する処理手段と
を含む電子装置。
In an electronic device that executes processing according to position information indicating a position indicated by an operator,
Imaging means for imaging a predetermined imaging range and generating a captured image;
Detection means for detecting the operator's little finger from the generated captured image;
Calculating means for calculating the position information of the detected little finger in the captured image;
Processing means for executing processing according to the calculated position information.
JP2008255985A 2008-10-01 2008-10-01 Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment Pending JP2010086367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008255985A JP2010086367A (en) 2008-10-01 2008-10-01 Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255985A JP2010086367A (en) 2008-10-01 2008-10-01 Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment

Publications (1)

Publication Number Publication Date
JP2010086367A true JP2010086367A (en) 2010-04-15

Family

ID=42250247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255985A Pending JP2010086367A (en) 2008-10-01 2008-10-01 Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment

Country Status (1)

Country Link
JP (1) JP2010086367A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168508A1 (en) * 2012-05-09 2013-11-14 ソニー株式会社 Information processing device, information processing method, and program
JP2014142751A (en) * 2013-01-23 2014-08-07 Seiko Epson Corp Display device, head-mounted type display device, and method for controlling display device
JP2014206782A (en) * 2013-04-10 2014-10-30 Necカシオモバイルコミュニケーションズ株式会社 Operation processing apparatus, operation processing method, and program
JP2015038664A (en) * 2011-12-27 2015-02-26 株式会社東芝 Content reproduction device, content reproduction program, and content reproduction method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH10207602A (en) * 1997-01-21 1998-08-07 Canon Inc Symbol input device
JP2000112651A (en) * 1998-10-06 2000-04-21 Olympus Optical Co Ltd Pointing mechanism
JP2003528382A (en) * 2000-03-21 2003-09-24 レナード ライフェル Data input by retroreflector for multi-user
JP2003346162A (en) * 2002-05-28 2003-12-05 Japan Science & Technology Corp Input system by hand image recognition
JP2005084817A (en) * 2003-09-05 2005-03-31 Nippon Telegr & Teleph Corp <Ntt> 3D object posture operation method and program
JP2005165804A (en) * 2003-12-04 2005-06-23 Matsushita Electric Ind Co Ltd Data input device
JP2007219966A (en) * 2006-02-20 2007-08-30 Sharp Corp Projection input device, and information terminal and charger having projection input device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH10207602A (en) * 1997-01-21 1998-08-07 Canon Inc Symbol input device
JP2000112651A (en) * 1998-10-06 2000-04-21 Olympus Optical Co Ltd Pointing mechanism
JP2003528382A (en) * 2000-03-21 2003-09-24 レナード ライフェル Data input by retroreflector for multi-user
JP2003346162A (en) * 2002-05-28 2003-12-05 Japan Science & Technology Corp Input system by hand image recognition
JP2005084817A (en) * 2003-09-05 2005-03-31 Nippon Telegr & Teleph Corp <Ntt> 3D object posture operation method and program
JP2005165804A (en) * 2003-12-04 2005-06-23 Matsushita Electric Ind Co Ltd Data input device
JP2007219966A (en) * 2006-02-20 2007-08-30 Sharp Corp Projection input device, and information terminal and charger having projection input device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015038664A (en) * 2011-12-27 2015-02-26 株式会社東芝 Content reproduction device, content reproduction program, and content reproduction method
WO2013168508A1 (en) * 2012-05-09 2013-11-14 ソニー株式会社 Information processing device, information processing method, and program
CN104272225A (en) * 2012-05-09 2015-01-07 索尼公司 Information processing device, information processing method, and program
JPWO2013168508A1 (en) * 2012-05-09 2016-01-07 ソニー株式会社 Information processing apparatus, information processing method, and program
CN104272225B (en) * 2012-05-09 2017-11-03 索尼公司 Information processor, information processing method
JP2014142751A (en) * 2013-01-23 2014-08-07 Seiko Epson Corp Display device, head-mounted type display device, and method for controlling display device
JP2014206782A (en) * 2013-04-10 2014-10-30 Necカシオモバイルコミュニケーションズ株式会社 Operation processing apparatus, operation processing method, and program

Similar Documents

Publication Publication Date Title
US11983326B2 (en) Hand gesture input for wearable system
US10534431B2 (en) Tracking finger movements to generate inputs for computer systems
CN112926423B (en) Pinch gesture detection and recognition method, device and system
KR101844390B1 (en) Systems and techniques for user interface control
US10444908B2 (en) Virtual touchpads for wearable and portable devices
KR102170321B1 (en) System, method and device to recognize motion using gripped object
CN101930286B (en) Operation control device and operation control method
US11886643B2 (en) Information processing apparatus and information processing method
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User&#39;s Range of Motion
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
JP2004280834A (en) Motion recognition system using virtual writing plane and its recognition method
JPWO2012011263A1 (en) Gesture input device and gesture input method
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
WO2015198688A1 (en) Information processing device, information processing method, and program
US11054923B2 (en) Automatic switching between different modes of tracking user motions to control computer applications
KR102184243B1 (en) System for controlling interface based on finger gestures using imu sensor
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
JP2016095795A (en) Recognition device, method, and program
KR101337429B1 (en) Input device
JP2019003366A (en) Information input device, information input method and information input system
JP6523509B1 (en) Game program, method, and information processing apparatus
JP2017228216A (en) Information processing apparatus, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130326