[go: up one dir, main page]

JP7179334B2 - GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE - Google Patents

GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE Download PDF

Info

Publication number
JP7179334B2
JP7179334B2 JP2019087574A JP2019087574A JP7179334B2 JP 7179334 B2 JP7179334 B2 JP 7179334B2 JP 2019087574 A JP2019087574 A JP 2019087574A JP 2019087574 A JP2019087574 A JP 2019087574A JP 7179334 B2 JP7179334 B2 JP 7179334B2
Authority
JP
Japan
Prior art keywords
hand
user
initial position
gesture
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019087574A
Other languages
Japanese (ja)
Other versions
JP2020184147A (en
Inventor
誠 南平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kodenshi Corp
Original Assignee
Kodenshi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kodenshi Corp filed Critical Kodenshi Corp
Priority to JP2019087574A priority Critical patent/JP7179334B2/en
Publication of JP2020184147A publication Critical patent/JP2020184147A/en
Application granted granted Critical
Publication of JP7179334B2 publication Critical patent/JP7179334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ジェスチャ認識装置及びジェスチャ認識装置用プログラムに関する。 The present invention relates to a gesture recognition device and a program for a gesture recognition device.

近年、ユーザの手指等によるジェスチャを認識し、これにより種々の操作を受け付けるようにしたジェスチャ認識装置が開発されている。このようなジェスチャ認識装置として、例えば特許文献1には、ユーザの手指等の動きをカメラで撮像し、その撮像画像からジェスチャを認識することで、触れることなく車載機器を操作できるようにしたものが開示されている。 In recent years, gesture recognition devices have been developed that recognize gestures made by a user's fingers or the like, and thereby accept various operations. As such a gesture recognition device, for example, Patent Document 1 discloses a device that captures the movement of a user's fingers or the like with a camera and recognizes gestures from the captured image, thereby enabling on-vehicle equipment to be operated without touching it. is disclosed.

特開2015-184841号公報JP 2015-184841 A

しかしながら、先行文献1に示されるような、カメラ等でユーザの手指の動きを撮像するようにしたジェスチャ認識装置では、カメラ等の撮像範囲が見えないため、使い慣れていないユーザとってはジェスチャを開始するのに適した初期位置を把握することが難しい。そのため、適切でない位置で手指を動かすことで、ジェスチャが認識されなかったり、ユーザが意図していないジェスチャが誤認識されてしまったりすることがある。 However, in the gesture recognition device that captures the movement of the user's fingers with a camera or the like, as shown in Prior Document 1, the imaging range of the camera or the like cannot be seen. It is difficult to grasp the initial position suitable for Therefore, by moving fingers in inappropriate positions, gestures may not be recognized, or gestures not intended by the user may be erroneously recognized.

本発明はこのような問題に鑑みてなされたものであり、撮像画像に基づいてユーザのジェスチャを認識するものであって、ジェスチャを開始するのに適した初期位置をユーザが把握でき、ジェスチャの誤認識を低減できるジェスチャ認識装置を提供することを主たる所期課題とするものである。 The present invention has been made in view of such problems, and recognizes a user's gesture based on a captured image. The primary object of the present invention is to provide a gesture recognition device capable of reducing erroneous recognition.

本発明者らは、上記課題を解決するため鋭意検討した結果、ジェスチャを行う手がカメラに近すぎる場合には、手指がカメラの画角(撮像範囲)からはみ出してしまうことでユーザの手形状が認識されず、一方で手がカメラから遠すぎる場合には、カメラの画素分解能が不十分となることでユーザの手形状が認識されず、これによりジェスチャが正しく認識されないことに着眼した。そこで、ユーザの手指が撮像範囲からはみ出さず、かつ撮像手段の画素分解能が足りる位置にある場合にこれをユーザに報知することで、ユーザはジェスチャを開始するのに適した位置を把握でき、ジェスチャの誤認識を低減できることを見出し本発明に至った。 As a result of intensive studies to solve the above problem, the inventors of the present invention have found that when the hand making a gesture is too close to the camera, the finger protrudes from the angle of view (imaging range) of the camera. is not recognized, but if the hand is too far from the camera, the pixel resolution of the camera is insufficient, and the shape of the user's hand is not recognized. Therefore, by notifying the user when the user's finger does not protrude from the imaging range and is at a position where the pixel resolution of the imaging means is sufficient, the user can grasp the position suitable for starting the gesture, The inventors have found that erroneous recognition of gestures can be reduced, leading to the present invention.

すなわち本発明に係るジェスチャ認識装置は、ユーザの手を撮像する撮像手段を備え、当該撮像手段が撮像した撮像画像に基づいて前記ユーザの手のジェスチャを認識するものであって、前記撮像画像に映る前記ユーザの手形状を認識し、その結果に基づき前記ユーザの手がジェスチャを開始するのに適した初期位置にあるかを判定する初期位置判定部と、前記ユーザの手が前記初期位置にあると判定されると、ジェスチャを開始してよい旨を前記ユーザに報知する報知部とを備え、前記初期位置判定部が、少なくとも1本の指を立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定することを特徴とする。 That is, a gesture recognition apparatus according to the present invention includes imaging means for imaging a user's hand, and recognizes a gesture of the user's hand based on the captured image captured by the imaging means. an initial position determination unit that recognizes the shape of the user's hand in the image and determines whether the user's hand is in an initial position suitable for starting a gesture based on the result; and a notifying unit that notifies the user that a gesture may be started when it is determined that there is a gesture, and when the initial position determining unit recognizes a hand shape with at least one finger raised, the It is characterized by determining that the user's hand is in the initial position.

このようなものであれば、少なくとも一本の指を立てた手形状が認識される位置を初期位置とし、そのような初期位置にユーザの手がある場合にジェスチャを開始してよい旨を報知するようにしているので、ユーザは、ジェスチャを開始するのに適した位置(撮像手段との適切な距離感)を容易に把握でき、ジェスチャの誤認識を低減することができる。ここで“少なくとも一本の指を立てた手形状が認識される位置”を初期位置とすることにより、ユーザは、撮像手段に近すぎずかつ遠すぎない位置、すなわち撮像手段の画角内に手指が収まり、かつ手指を認識するのに撮像手段の画素分解能が足りる位置でジェスチャを開始することができるので、ジェスチャの誤認識を低減することができるのである。 In this case, the position where the hand shape with at least one finger is recognized is set as the initial position, and when the user's hand is in such an initial position, it is notified that the gesture can be started. As a result, the user can easily grasp the appropriate position (appropriate sense of distance from the imaging means) to start the gesture, and misrecognition of the gesture can be reduced. Here, by setting "the position where the shape of a hand with at least one finger raised" is the initial position, the user can move to a position that is neither too close nor too far from the imaging means, i.e., within the angle of view of the imaging means. Since the gesture can be started at a position where the finger fits and the pixel resolution of the imaging means is sufficient for recognizing the finger, erroneous recognition of the gesture can be reduced.

前記ジェスチャ認識装置は、前記初期位置判定部が、複数本の指を互いに離して立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定することが好ましく、5本の指を互いに離して立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定することがより好ましい。
撮像手段からの距離が同じであれば、撮像手段の撮像範囲のより中心に近い位置でジェスチャを行うほど誤認識を低減することができる。そのため、複数本の指を互いに離して立てた手形状を認識できる位置を初期位置とし、この位置に手がある場合にこれを報知することで、撮像手段の撮像範囲のより中心に近い位置でジェスチャを開始することができ、ジェスチャの誤認識をより低減できる。5本の指を互いに離して立てた手形状を認識できる位置を初期位置とすることで、ジェスチャの誤認識をより一層低減できる位置でジェスチャを行うことができる。
またこのようにすれば、ユーザが5本の指を互いに離して立てた手形状を作ったとしても、その手が撮像手段に対して正対しておらず傾いている場合には、撮像画像において指が重なってしまい5本の指が認識されないので、ユーザの手が初期位置にあると判定されない。ユーザが5本の指を互いに離して立てた手形状を撮像手段に正対させ、撮像画像において5本の指が認識される場合にのみユーザの手が初期位置にあると判定されるので、ジェスチャの誤認識をより一層低減できる位置でジェスチャを行うことができる。
The gesture recognition device preferably determines that the user's hand is at the initial position when the initial position determination unit recognizes a hand shape in which a plurality of fingers are held apart from each other. It is more preferable to determine that the user's hand is in the initial position when a hand shape in which the fingers of the user are held apart from each other is recognized.
If the distance from the imaging means is the same, misrecognition can be reduced as the gesture is performed at a position closer to the center of the imaging range of the imaging means. Therefore, by setting a position where a hand shape can be recognized with a plurality of fingers spaced apart from each other as an initial position, and notifying that the hand is at this position, a position closer to the center of the imaging range of the imaging means can be obtained. Gestures can be started, and misrecognition of gestures can be further reduced. By setting a position where a hand shape with five fingers held apart from each other can be recognized as the initial position, a gesture can be performed at a position where erroneous recognition of the gesture can be further reduced.
Further, in this way, even if the user creates a hand shape with five fingers spaced apart from each other, if the hand is tilted rather than directly facing the imaging means, the captured image will show Since the fingers overlap and five fingers are not recognized, it is not determined that the user's hand is in the initial position. The hand shape of the user with five fingers spaced apart from each other is placed facing the imaging means, and it is determined that the user's hand is in the initial position only when the five fingers are recognized in the captured image. Gestures can be made at positions where erroneous recognition of gestures can be further reduced.

前記ジェスチャ認識装置は、前記初期位置判定部が、前記認識した手形状の面積が所定の範囲内である場合に、前記ユーザの手が前記初期位置にあると判定することが好ましい。
このようにすれば、ユーザは撮像手段からのより適切な距離感を把握でき、より適切な位置でジェスチャを開始することができるので、ジェスチャの誤認識をより一層低減できる。
Preferably, in the gesture recognition device, the initial position determination unit determines that the user's hand is at the initial position when the area of the recognized hand shape is within a predetermined range.
In this way, the user can grasp a more appropriate sense of distance from the imaging means and can start the gesture at a more appropriate position, thereby further reducing erroneous recognition of the gesture.

前記ジェスチャ認識装置は、少なくとも1本の指を立てた手形状を継続して所定時間以上認識した場合に、前記ユーザの手が前記初期位置にあると判定することが好ましい。
このようにすれば、ユーザの手が初期位置で安定している状態でジェスチャを開始できるので、ジェスチャの誤認識をより一層低減できる。
It is preferable that the gesture recognition device determines that the hand of the user is in the initial position when continuously recognizing a hand shape with at least one finger raised for a predetermined time or longer.
In this way, the gesture can be started in a state in which the user's hand is stable at the initial position, thereby further reducing erroneous recognition of the gesture.

前記ジェスチャ認識装置は、前記撮像画像に基づいて前記ユーザの手のジェスチャを認識するジェスチャ認識部を備え、前記ジェスチャ認識部は前記ユーザの手が前記初期位置にあると判定された後にジェスチャの認識を行うことが好ましい。
このようにすれば、ユーザの手が初期位置にない場合にはジェスチャが認識されないので、適切でない位置でジェスチャが行われることによる誤認識をより低減できる。
The gesture recognition device includes a gesture recognition unit that recognizes a gesture of the user's hand based on the captured image, and the gesture recognition unit recognizes the gesture after it is determined that the user's hand is at the initial position. It is preferable to
In this way, the gesture is not recognized when the user's hand is not in the initial position, so misrecognition due to the gesture being performed in an inappropriate position can be further reduced.

前記ジェスチャ認識装置において、前記報知部は、前記ユーザの手が前記初期位置にないと判定されると、前記ユーザの手を前記初期位置に誘導するための誘導情報を前記ユーザに報知することが好ましい。
このようなものであれば、ユーザはジェスチャ操作に適した初期位置をより簡単に把握することができる。
In the gesture recognition device, the notification unit may notify the user of guidance information for guiding the user's hand to the initial position when it is determined that the user's hand is not at the initial position. preferable.
With such a configuration, the user can more easily grasp the initial position suitable for the gesture operation.

また、本発明のジェスチャ認識装置用のプログラムは、ユーザの手を撮像する撮像手段を備え、当該撮像手段が撮像した撮像画像に基づいて前記ユーザの手のジェスチャを認識するジェスチャ認識装置用のプログラムであって、前記撮像画像に映る前記ユーザの手形状を認識し、認識した手形状が少なくとも1本の指を立てた手形状である場合に、前記ユーザの手がジェスチャを開始するのに適した初期位置にあると判定する初期位置判定部としての機能と、前記ユーザの手が前記初期位置にあると判定されると、ジェスチャを開始してよい旨を前記ユーザに報知する報知部としての機能とをコンピュータに発揮させることを特徴とする。 Further, a program for a gesture recognition device of the present invention is a program for a gesture recognition device that includes imaging means for imaging a user's hand, and recognizes a gesture of the user's hand based on an imaged image taken by the imaging means. and recognizing the shape of the user's hand reflected in the captured image, and when the recognized hand shape is a hand shape with at least one finger raised, the user's hand is suitable for starting a gesture. a function as an initial position determination unit that determines that the user's hand is in the initial position, and a notification unit that notifies the user that a gesture may be started when the user's hand is determined to be in the initial position. It is characterized by causing a computer to exhibit functions.

このようなジェスチャ認識装置用のプログラムであれば、上記したジェスチャ認識装置と同様の作用効果を奏し得る。 A program for such a gesture recognition device can achieve the same effect as the gesture recognition device described above.

このようにした本発明によれば、撮像画像に基づいてユーザのジェスチャを認識するものであって、ジェスチャを開始するのに適した初期位置をユーザが把握でき、ジェスチャの誤認識を低減できるジェスチャ認識装置を提供することができる。 According to the present invention, the user's gesture is recognized based on the captured image, the user can grasp the initial position suitable for starting the gesture, and the erroneous recognition of the gesture can be reduced. A recognition device can be provided.

本発明の一実施形態におけるジェスチャ認識装置の構成を模式的に示す斜視図。1 is a perspective view schematically showing the configuration of a gesture recognition device according to one embodiment of the present invention; FIG. 同実施形態のジェスチャ認識装置の機器構成を示す図。The figure which shows the equipment structure of the gesture recognition apparatus of the same embodiment. 同実施形態のジェスチャ認識装置の機能ブロック図。FIG. 2 is a functional block diagram of the gesture recognition device of the same embodiment; 同実施形態のジェスチャ認識装置の動作フロー図。FIG. 4 is an operation flow diagram of the gesture recognition device of the same embodiment; 同実施形態のジェスチャ認識装置の動作を説明する図。FIG. 4 is a diagram for explaining the operation of the gesture recognition device of the same embodiment; 同実施形態のジェスチャ認識装置の動作を説明する図。FIG. 4 is a diagram for explaining the operation of the gesture recognition device of the same embodiment; 同実施形態のジェスチャ認識装置の動作を説明する図。FIG. 4 is a diagram for explaining the operation of the gesture recognition device of the same embodiment;

以下に、本発明の一実施形態に係るジェスチャ認識装置100について図面を参照して説明する。 A gesture recognition device 100 according to an embodiment of the present invention will be described below with reference to the drawings.

本実施形態に係るジェスチャ認識装置100は、ジェスチャによるコンピュータの操作を支援するためのものである。具体的には、ボタンや音声によって行われていた入力動作をユーザのジェスチャで代替するものであり、ユーザの手のジェスチャを認識して、当該ジェスチャに応じた所定の出力を行うものである。より具体的にこのジェスチャ認識装置100は、図1に示すように、ユーザの手を撮像する撮像手段1と、コンピュータ本体2及びディスプレイ3を一体的に有するコンピュータとを備えている。ディスプレイ3には例えばアイコンやマップ等の操作対象が表示され、ユーザは撮像手段1の撮像領域内で所定のジェスチャを行うことで、ディスプレイ3に表示されている操作対象を非接触で操作できるようになっている。なお本実施形態のジェスチャ認識装置100は、撮像手段1とユーザの手との距離を計測する測距センサ等を備えていない。 A gesture recognition device 100 according to the present embodiment is for assisting computer operations using gestures. Specifically, it replaces input operations performed by buttons and voice with user's gestures, recognizes the user's hand gestures, and performs predetermined outputs according to the gestures. More specifically, as shown in FIG. 1, the gesture recognition device 100 includes imaging means 1 for imaging a user's hand, and a computer integrally having a computer body 2 and a display 3 . An operation target such as an icon or a map is displayed on the display 3, and the user can operate the operation target displayed on the display 3 in a non-contact manner by performing a predetermined gesture within the imaging area of the imaging means 1. It has become. Note that the gesture recognition device 100 of the present embodiment does not include a distance sensor or the like for measuring the distance between the imaging means 1 and the user's hand.

撮像手段1は、ユーザの手(手指を含む)を一定の時間間隔で撮像して、その撮像画像を示す画像データをコンピュータ本体2に逐次出力するものである。この撮像手段1は、具体的には赤外線カメラを備えたものである。ここでは実効画素数:160×120の画像データを30fpsのフレームレートで出力するように構成されているが、これに限らない。撮像手段1は所謂取付けタイプのものであり、前記赤外線カメラがユーザ側を向くようにしてディスプレイ3の下部に取付けられている。なお、撮像手段1は赤外線カメラに限らず、フルカラーのイメージセンサや熱検知素子をアレイ化したセンサを利用したものであってもよい。また取付けタイプに限らず、ディスプレイ3と一体型であってもよい。また撮像手段1は、ディスプレイ3の上部に取り付けられてもよく、ユーザの手元ディスプレイ3と離れた個所に設置されてもよい。 The imaging means 1 captures images of a user's hand (including fingers) at regular time intervals, and sequentially outputs image data representing the captured images to the computer main body 2 . This imaging means 1 is specifically equipped with an infrared camera. Here, the number of effective pixels is configured to output image data of 160×120 at a frame rate of 30 fps, but the configuration is not limited to this. The imaging means 1 is of a so-called attachment type, and is attached to the lower portion of the display 3 so that the infrared camera faces the user. Note that the imaging means 1 is not limited to an infrared camera, and may be a full-color image sensor or a sensor having an array of heat detection elements. Moreover, it is not limited to the attachment type, and may be integrated with the display 3 . The imaging means 1 may be attached to the upper portion of the display 3, or may be installed at a location away from the display 3 at hand of the user.

コンピュータ本体2は、構造的には、図2に示すように、CPU201、メモリ202、入出力インターフェース203等を備えている。このコンピュータ本体2は、前記メモリ202に記憶させた各種のアプリケーションソフトウェア(以下、プログラムと言う)に基づいて、前記CPU201やその周辺機器が協働することにより、図3に示すように、画像データ受付部21、ジェスチャ認識部22、コマンド出力部23、表示制御部等としての機能を実現するように構成されている。以下、各部について説明する。 Structurally, the computer main body 2 includes a CPU 201, a memory 202, an input/output interface 203, etc., as shown in FIG. Based on various application software (hereinafter referred to as a program) stored in the memory 202, the computer main body 2 can generate image data as shown in FIG. It is configured to implement functions as a reception unit 21, a gesture recognition unit 22, a command output unit 23, a display control unit, and the like. Each part will be described below.

画像データ受付部21は、撮像手段1の出力部が出力した画像データを受け付け、これをジェスチャ認識部22に送信するものである。 The image data reception unit 21 receives image data output by the output unit of the imaging unit 1 and transmits the image data to the gesture recognition unit 22 .

ジェスチャ認識部22は、受け付けた画像データが示す撮像画像に基づいて、ユーザにより行われたジェスチャを認識する。具体的にこのジェスチャ認識部22は、受け付けた画像データを処理し、例えばユーザの手の輪郭、指先の位置、指の股の位置、指の関節位置、指の関節の角度、画像内における手の重心位置及び手の面積等を認識し、これらに基づいてユーザが行ったジェスチャを認識する。そしてこの認識したジェスチャを示すジェスチャデータを、コマンド出力部23に送信する。 The gesture recognition unit 22 recognizes gestures made by the user based on the captured image indicated by the received image data. Specifically, the gesture recognition unit 22 processes the received image data, for example, the outline of the user's hand, the position of the fingertip, the position of the crotch of the finger, the position of the finger joint, the angle of the finger joint, and the hand in the image. The position of the center of gravity, the area of the hand, etc. are recognized, and based on these, the gesture made by the user is recognized. Then, gesture data indicating the recognized gesture is transmitted to the command output unit 23 .

ここでジェスチャ認識部22が認識可能なジェスチャは、例えば上下・左右方向へのフリック動作及びスワイプ動作、右回り・左周り方向へのサークル動作、プッシュ・プル動作、ピンチイン・ピンチアウト動作、指を立てる・OKサイン等を作るポージング動作等の手(手指を含む)の動きによるジェスチャである。 Gestures that can be recognized by the gesture recognition unit 22 include, for example, up/down/left/right flicking and swiping actions, clockwise/counterclockwise circle actions, push/pull actions, pinch-in/pinch-out actions, and finger gestures. It is a gesture by the movement of the hands (including fingers) such as posing actions such as standing up and making an OK sign.

コマンド出力部23は、受け付けたジェスチャデータが示すジェスチャに対応するコマンドをコマンドデータとして図示しない制御部に出力する。コマンドデータが示すコマンドは、ディスプレイ3に表示されている操作対象を操作するコマンドである。例えば、ディスプレイ3に表示されているアイコンの選択、画面の切り替え、画像やマップの拡大・縮小・スクロール等、ユーザが設定可能な任意の操作である。 The command output unit 23 outputs a command corresponding to the gesture indicated by the received gesture data to a control unit (not shown) as command data. A command indicated by the command data is a command for operating an operation target displayed on the display 3 . For example, it is an arbitrary operation that can be set by the user, such as selecting an icon displayed on the display 3, switching screens, enlarging/reducing/scrolling an image or map.

ディスプレイ3は、コンピュータ本体2から出力される表示データが示す画像をその画面上に表示するものである。このディスプレイ3は、コンピュータ本体2と一体になっているものに限らず、コンピュータ本体2から分離されたものであってもよい。 The display 3 displays an image indicated by display data output from the computer body 2 on its screen. This display 3 is not limited to being integrated with the computer main body 2 , and may be separated from the computer main body 2 .

しかして本実施形態のジェスチャ認識装置100では、初期位置判定部24及び報知部25としての機能がコンピュータ本体2に更に付与されている。 Thus, in the gesture recognition device 100 of the present embodiment, the computer main body 2 is further provided with the functions of the initial position determination section 24 and the notification section 25 .

初期位置判定部24は、撮像手段1が撮像した撮像画像に映るユーザの手形状を認識し、その結果に基づいて、ユーザの手がジェスチャを開始するのに適した(すなわち、ジェスチャを行った際に誤認識される可能性が低い)初期位置にあるかを判定する。 The initial position determination unit 24 recognizes the shape of the user's hand appearing in the captured image captured by the imaging unit 1, and based on the result, determines whether the user's hand is suitable for starting a gesture (that is, when the gesture is performed). It is determined whether it is in the initial position (the possibility of misrecognition is low).

具体的にこの初期位置判定部24は、画像データ受付部21から画像データを受信してこれを処理し、ユーザの手形状を認識する。より具体的には、受け付けた画像データが示す画像から、例えばユーザの手の輪郭、指先の位置、指の股の位置、画像内における手の重心位置及び手の面積等を認識し、これらに基づいてユーザの手形状を認識する。そして当該認識した手形状が予めメモリ202に記憶した所定の条件を満たす場合に、ユーザの手が初期位置にあると判定し、その旨を示す判定結果データを報知部25及びジェスチャ認識部22に出力する。 Specifically, the initial position determining section 24 receives image data from the image data receiving section 21 and processes it to recognize the user's hand shape. More specifically, from the image indicated by the received image data, for example, the outline of the user's hand, the position of the fingertips, the position of the crotch of the fingers, the center of gravity of the hand and the area of the hand in the image, etc. are recognized. Based on this, the user's hand shape is recognized. Then, when the recognized hand shape satisfies a predetermined condition stored in the memory 202 in advance, it is determined that the user's hand is in the initial position, and determination result data indicating that is sent to the notification unit 25 and the gesture recognition unit 22 . Output.

初期位置判定部24は、認識した手形状が複数本(具体的には5本)の指を互いに離して立てた手形状である場合に、ユーザの手が初期位置にあると判定する。より具体的には、複数本(具体的には5本)の指の指先と、当該複数本の指の間の4つの股(すなわち付け根)とが、撮像画像に映る(すなわち撮像手段1の画角に収まっている)手形状である場合に、ユーザの手が初期位置にあると判定する。 The initial position determination unit 24 determines that the user's hand is in the initial position when the recognized hand shape is a hand shape in which a plurality of (specifically, five) fingers are separated from each other. More specifically, the fingertips of a plurality of fingers (specifically, five fingers) and the four crotches (that is, roots) between the plurality of fingers are reflected in the captured image (that is, the image capturing means 1). If the hand shape is within the angle of view), it is determined that the user's hand is in the initial position.

本実施形態の初期位置判定部24は、上記した手形状を認識し、さらにその面積(撮像画像における、認識した手の輪郭により囲まれる面積)が所定範囲内である場合に、ユーザの手が初期位置にあると判定するようにしている。ここでは認識した手形状の面積が、200画素以上8000画素以下の範囲である場合にユーザの手が初期位置にあると判定する。なお、使用する撮像手段1のセンサの実効画素数に対する手形状の面積(画素数)が40%以下である場合にユーザの手が初期位置にあると判定することが好ましく、35%以下である場合がより好ましく、30%以下であることがより好ましい。このようにすることで、ユーザはより誤認識が少ない初期位置でジェスチャを開始することができる。すなわち、このようにすれば、ジェスチャを開始した後、手が多少撮像手段1側に近づいたとしても、撮像手段1の画角から手がはみ出にくくなるので、ジェスチャの誤認識をより低減できる。 The initial position determination unit 24 of the present embodiment recognizes the above-described hand shape, and if the area (the area surrounded by the contour of the recognized hand in the captured image) is within a predetermined range, the user's hand is It is determined that it is in the initial position. Here, it is determined that the user's hand is in the initial position when the area of the recognized hand shape is in the range of 200 pixels or more and 8000 pixels or less. It is preferable to determine that the user's hand is in the initial position when the area (number of pixels) of the hand shape with respect to the number of effective pixels of the sensor of the imaging means 1 used is 40% or less, and is 35% or less. is more preferable, and 30% or less is more preferable. By doing so, the user can start the gesture at the initial position with less erroneous recognition. That is, in this way, even if the hand slightly approaches the imaging means 1 side after the gesture is started, the hand is less likely to protrude from the angle of view of the imaging means 1, so that erroneous recognition of the gesture can be further reduced.

さらに本実施形態では、初期位置判定部24は、認識した手形状が前記した条件を所定時間以上(具体的には0.1秒以上)継続して満たした場合に、ユーザの手が初期位置にあると判定するようにしている。 Furthermore, in the present embodiment, the initial position determination unit 24 determines that the user's hand is positioned at the initial position when the recognized hand shape continuously satisfies the above conditions for a predetermined period of time or more (specifically, 0.1 seconds or more). I am trying to determine that it is in

一方で、初期位置判定部24は、画像データに基づき認識した手形状が予めメモリ202に記憶した所定の条件を満たさない場合には、ユーザの手が初期位置にないと判定し、その旨を示す判定結果データを報知部25に出力する。さらにこの場合、初期位置判定部24は、認識した手形状に基づき、ユーザの手を初期位置に誘導するための誘導情報を生成し、これを誘導データとして報知部25に出力する。 On the other hand, if the hand shape recognized based on the image data does not satisfy a predetermined condition stored in advance in the memory 202, the initial position determination unit 24 determines that the user's hand is not in the initial position, and notifies the user of the fact. The determination result data shown is output to the notification unit 25 . Further, in this case, the initial position determination unit 24 generates guidance information for guiding the user's hand to the initial position based on the recognized hand shape, and outputs this as guidance data to the notification unit 25 .

報知部25は、初期位置判定部24がユーザの手が初期位置にあると判定すると、その位置でジェスチャを開始してよい旨をユーザに報知する。すなわち、初期位置でジェスチャを行うよう促す旨を報知する。 When the initial position determination unit 24 determines that the user's hand is at the initial position, the notification unit 25 notifies the user that the gesture may be started at that position. That is, it notifies that the user is urged to make a gesture at the initial position.

具体的にこの報知部25は、ユーザの手が初期位置にある旨を示す判定結果データを初期位置判定部24から受け取ると、ジェスチャを開始してよい旨を示す報知データを報知手段4に送信する。そして報知手段4によりジェスチャを開始してよい旨が出力される。ここでは、報知部25はユーザの聴覚を利用してジェスチャを開始してよい旨を報知するようにされており、報知手段4としてコンピュータ本体2に備えられたスピーカ(図示しない)を用いている。より具体的には、報知手段4たるスピーカは、報知データを受け付けるとジェスチャを開始してよい旨を示す音を出す。「ジェスチャを開始してよい旨を示す音」とは、例えば「ジェスチャを開始してください」、「ジェスチャ入力可能です」、「その位置で操作してください」等のユーザにジェスチャ動作の開始を促す音声であってよく、ビープ音等であってもよい。 Specifically, when receiving determination result data indicating that the user's hand is in the initial position from the initial position determination unit 24, the notification unit 25 transmits notification data indicating that the gesture may be started to the notification unit 4. do. Then, the informing means 4 outputs that the gesture may be started. Here, the notification unit 25 uses the user's sense of hearing to notify that the gesture can be started, and a speaker (not shown) provided in the computer body 2 is used as the notification means 4. . More specifically, the speaker, which is the notification means 4, emits a sound indicating that the gesture may be started when the notification data is received. The ``sound indicating that the gesture can be started'' is, for example, ``Please start the gesture'', ``Gesture input is possible'', ``Please operate at that position'', etc. It may be a prompting voice, a beep sound, or the like.

一方で報知部25は、ユーザの手が初期位置にない旨を示す判定結果データと、誘導データとを受け取ると、誘導情報を示す報知データを報知手段4に送信する。そして報知手段4(ここではスピーカ)から誘導情報が出力される。出力される誘導情報は、例えば、「手をもう少し右に移動してください。」や「手を動かさないでください」等の手の動きに関する情報であってもよく、「手をしっかり開いてください。」や「手をまっすぐカメラに向けてください」といった、手の形状や向きに関する情報であってもよい。 On the other hand, when the notification unit 25 receives the determination result data indicating that the user's hand is not in the initial position and the guidance data, the notification unit 25 transmits notification data indicating the guidance information to the notification unit 4 . Then, guidance information is output from the notification means 4 (speaker in this case). The guidance information to be output may be, for example, information related to hand movements such as "Please move your hand a little more to the right" or "Please do not move your hand", or "Please open your hand firmly". or "Please point your hand straight at the camera."

また本実施形態では、ジェスチャ認識部22は、ユーザの手が初期位置にある旨を示す判定結果データを受け付けた後、ユーザにより行われるジェスチャを認識するようにされている。具体的にジェスチャ認識部22は、当該判定結果データを受け付けると、これをトリガとして受け付けた画像データを処理し、ユーザにより行われたジェスチャを認識する。機能的に説明すると、ジェスチャ認識部22は、初期位置判定部24によってユーザの手が初期位置にあると判定される前にはジェスチャを認識せず、当該判定がなされた後にジェスチャを認識するようになっている。 Further, in this embodiment, the gesture recognition unit 22 recognizes a gesture made by the user after receiving determination result data indicating that the user's hand is in the initial position. Specifically, when receiving the determination result data, the gesture recognition unit 22 processes the received image data using this as a trigger, and recognizes the gesture made by the user. Functionally, the gesture recognition unit 22 does not recognize a gesture before the initial position determination unit 24 determines that the user's hand is in the initial position, and recognizes the gesture after the determination is made. It has become.

次に、このような構成のジェスチャ認識装置100の動作について、図4~図7を参照しつつ以下に説明する。ここでディスプレイ3には、地図等の操作対象とともに、「カメラに向かって手を開いてください」等というメッセージが表示されている。 Next, the operation of the gesture recognition device 100 having such a configuration will be described below with reference to FIGS. 4 to 7. FIG. Here, the display 3 displays an operation target such as a map and a message such as "Please open your hand toward the camera."

まずユーザは、カメラ(撮像手段1)の撮像範囲内と考える位置に手をかざし、そこでカメラに向かって手を開く。すると、カメラから出力された画像データに基づき、初期位置判定部24がユーザの手形状を認識する(ステップS1)。 First, the user places his or her hand over a position considered to be within the imaging range of the camera (imaging means 1), and then opens the hand toward the camera. Then, the initial position determination unit 24 recognizes the user's hand shape based on the image data output from the camera (step S1).

初期位置判定部24は、ユーザの手が初期位置にあるかを判定する(ステップS2)。初期位置判定部24は、認識した手形状が複数本(具体的には5本)の指を互いに離して立てた手形状であって、かつ複数本(5本)の指の指先と、当該複数本の指の間の4つの股(すなわち付け根)とを含む手形状である場合に、ユーザの手が初期位置にあると判定する(ステップS4に進む)。一方で、認識した手形状が当該条件を満たさない場合には、ユーザの手が初期位置にないと判定し、ユーザの手を初期位置に誘導するための誘導情報を出力する(ステップS3)とともに、ユーザの手形状の認識を続けて行う(ステップS1に戻る)。 The initial position determination unit 24 determines whether the user's hand is in the initial position (step S2). The initial position determining unit 24 determines that the recognized hand shape is a hand shape in which a plurality of (specifically, five) fingers are held apart from each other, and the fingertips of the plurality of (five) fingers are If the hand shape includes four crotches (that is, roots) between a plurality of fingers, it is determined that the user's hand is in the initial position (proceed to step S4). On the other hand, if the recognized hand shape does not satisfy the condition, it is determined that the user's hand is not in the initial position, and guidance information for guiding the user's hand to the initial position is output (step S3). , the recognition of the user's hand shape is continued (return to step S1).

例えば、ユーザの手が図5の(a)に示すP位置(カメラからの距離が適切であり、かつカメラから見て真正面の位置)にある場合、初期位置判定部24には図5の(b)に示すような画像データが送信される。初期位置判定部24は、当該画像データから、5本の指を互いに離して立てた手形状であって、かつ5本の指の指先とこれらの間の4つの股を含む手形状であることを認識し、ユーザの手が初期位置にあると判定する。 For example, when the user's hand is at position P (a position that is an appropriate distance from the camera and is directly in front of the camera) shown in FIG. Image data as shown in b) is transmitted. The initial position determination unit 24 determines from the image data that the hand shape is a hand shape in which five fingers are set apart from each other, and that the hand shape includes the fingertips of the five fingers and four crotches between them. and determines that the user's hand is in the initial position.

一方でユーザの手が図6の(a)に示すQ位置(カメラからの距離が適切であるが、カメラから見て横にずれた位置)にある場合、初期位置判定部24には図6の(b)に示すような画像データが送信される。また、ユーザの手がR位置(カメラからの距離が適切であるが、カメラから見て下にずれた位置)にある場合、初期位置判定部24には図6の(c)に示すような画像データが送信される。これらの場合、初期位置判定部24は、当該画像データから、5本の指を互いに離して立てた手形状であって、かつ5本の指の指先とこれらの間の4つの股を含む手形状であることを認識できず、ユーザの手が初期位置にないと判定する。 On the other hand, when the user's hand is at position Q shown in FIG. Image data as shown in (b) of is transmitted. Also, when the user's hand is in the R position (a position where the distance from the camera is appropriate, but is shifted downward when viewed from the camera), the initial position determination unit 24 displays a position as shown in FIG. 6(c). Image data is sent. In these cases, the initial position determining unit 24 determines from the image data that the hand has a hand shape in which five fingers are spaced apart from each other and includes the fingertips of the five fingers and the four crotches therebetween. The shape cannot be recognized, and it is determined that the user's hand is not in the initial position.

また、ユーザの手が図7の(a)に示すS位置(カメラからの距離が近すぎる位置)にある場合、初期位置判定部24には図7の(b)に示すような画像データが送信される。この場合、初期位置判定部24は、当該画像データから、5本の指を互いに離して立てた手形状であって、かつ5本の指の指先とこれらの間の4つの股を含む手形状であることを認識できず、ユーザの手が初期位置にないと判定する。また、ユーザの手が図7の(a)に示すT位置(カメラからの距離が遠すぎる位置)にある場合、初期位置判定部24には図7の(c)に示すような画像データが送信される。この場合、初期位置判定部24は、映っている手が小さすぎるため当該画像データから指先や指股を検出できず、5本の指を互いに離して立てた手形状であって、かつ5本の指の指先とこれらの間の4つの股を含む手形状であることを認識できず、ユーザの手が初期位置にないと判定する。 When the user's hand is at position S (a position too close to the camera) shown in FIG. sent. In this case, the initial position determination unit 24 determines from the image data that the hand shape is a hand shape in which five fingers are spaced apart from each other and includes the fingertips of the five fingers and the four crotches therebetween. It is determined that the user's hand is not in the initial position. When the user's hand is at position T (a position too far from the camera) shown in FIG. sent. In this case, the initial position determination unit 24 cannot detect the fingertips and finger cuffs from the image data because the hand shown is too small. It is determined that the user's hand is not in the initial position because the hand shape including the fingertips and the four crotches therebetween cannot be recognized.

ユーザの手が初期位置にあると判定されると、報知部25は、ジェスチャを開始してよい旨をユーザに報知する(ステップS4)。具体的には、報知手段4(スピーカ)から「その位置でジェスチャを開始してください」等の音声を発し、ユーザにジェスチャの開始を促す。 When it is determined that the user's hand is in the initial position, the notification unit 25 notifies the user that the gesture may be started (step S4). Specifically, a voice such as "Please start the gesture at that position" is emitted from the notification means 4 (speaker) to urge the user to start the gesture.

そしてユーザがP位置(初期位置)でジェスチャを行うと、ジェスチャ認識部22がそのジェスチャを認識する(ステップS5)。そして、コマンド出力部23によりそのジェスチャに応じたコマンドが出力され、ディスプレイ3に映った操作対象が操作される(ステップS6)。 Then, when the user makes a gesture at the P position (initial position), the gesture recognition unit 22 recognizes the gesture (step S5). Then, the command output unit 23 outputs a command corresponding to the gesture, and the operation target displayed on the display 3 is operated (step S6).

このように構成された本実施形態のジェスチャ認識装置100によれば、5本の指を互いに離して立てた手形状が認識される位置を初期位置とし、そのような初期位置にユーザの手がある場合にジェスチャを開始してよい旨を報知するようにしているので、ユーザは、ジェスチャを開始するのに適した位置を容易に把握でき、ジェスチャの誤認識を低減することができる。ここで“5本の指を互いに離して立てた手形状が認識される位置”を初期位置とすることにより、ユーザは、撮像手段1に近すぎずかつ遠すぎない位置、すなわち撮像手段1の画角内に手指が収まり、かつ手指を認識するのに撮像手段1の画素分解能が足りる位置であって、撮像手段1の画角の中心に近い位置でジェスチャを開始することができるので、ジェスチャの誤認識を高い精度で防ぐことができるのである。 According to the gesture recognition device 100 of the present embodiment configured as described above, the initial position is a position where a hand shape with five fingers held apart from each other is recognized, and the user's hand is positioned at such an initial position. Since it is notified that the gesture may be started in a certain case, the user can easily grasp the position suitable for starting the gesture, and erroneous recognition of the gesture can be reduced. Here, by setting "a position where a hand shape with five fingers held apart from each other is recognized" as the initial position, the user can move to a position that is neither too close nor too far from the imaging means 1, i.e. A gesture can be started at a position close to the center of the angle of view of the imaging means 1, where the fingers fit within the angle of view and where the pixel resolution of the imaging means 1 is sufficient for recognizing the fingers. erroneous recognition can be prevented with high accuracy.

なお、本発明は前記実施形態に限られるものではない。 It should be noted that the present invention is not limited to the above embodiments.

前記実施形態では、初期位置判定部24は、認識した手形状が複数本(具体的には5本)の指を互いに離して立てた手形状である場合に、ユーザの手が初期位置にあると判定するものであったがこれに限らない。初期位置判定部24は、認識した手形状が1本指を立てた手形状である場合に、ユーザの手が初期位置にあると判定してもよい。 In the above embodiment, when the recognized hand shape is a hand shape in which a plurality of (specifically, five) fingers are separated from each other, the initial position determination unit 24 determines that the user's hand is in the initial position. However, it is not limited to this. The initial position determination unit 24 may determine that the user's hand is in the initial position when the recognized hand shape is a hand shape with one finger up.

また前記実施形態では、初期位置判定部24は、認識した手形状が所定の条件を継続して所定時間以上満たした場合にユーザの手が初期位置にあると判定するものであったがこれに限らない。他の実施形態では、初期位置判定部24は、認識した手形状が所定の条件(すなわち手形状)を満たすと、ユーザの手が初期位置にあると即座に判定してもよい。 In the above embodiment, the initial position determination unit 24 determines that the user's hand is in the initial position when the recognized hand shape continuously satisfies a predetermined condition for a predetermined time or longer. Not exclusively. In another embodiment, the initial position determination unit 24 may immediately determine that the user's hand is in the initial position when the recognized hand shape satisfies a predetermined condition (that is, the hand shape).

前記実施形態では、画像データ受付部21、ジェスチャ認識部22、コマンド出力部23、初期位置判定部24及び報知部25の機能の全てをコンピュータ本体2が発揮するようにしていたが、これに限定されない。これらの機能の一部又は全部が撮像手段1により発揮されるようにしてもよい。 In the above embodiment, the computer main body 2 exhibits all the functions of the image data reception unit 21, the gesture recognition unit 22, the command output unit 23, the initial position determination unit 24, and the notification unit 25, but this is not the only option. not. Some or all of these functions may be exhibited by the imaging means 1 .

前記実施形態では、報知部25はユーザの聴覚を利用するものであったが、これに限らず、ユーザの視覚を利用して報知するものであってもよい。例えば、報知手段4としてディスプレイ3を用いて、ジェスチャを開始する旨を示す情報や、手の誘導情報を画面上に表示するようにしてもよい。 In the above-described embodiment, the notification unit 25 utilizes the user's sense of hearing. For example, the display 3 may be used as the notification means 4 to display information indicating the start of the gesture and hand guidance information on the screen.

前記実施形態の撮像手段1は、ここでは実効画素数:160×120の画像データを30fpsのフレームレートで出力するように構成されているがこれに限らない。例えば16×16の画像データを10fpsのフレームレートで出力するように構成されていてもよい。このように実効画素数が低い撮像手段1を用いた場合において、上記したジェスチャ認識装置100の効果が顕著に奏される。 Although the imaging means 1 of the above embodiment is configured to output image data with an effective pixel count of 160×120 at a frame rate of 30 fps, the present invention is not limited to this. For example, it may be configured to output 16×16 image data at a frame rate of 10 fps. In the case of using the imaging means 1 having a low number of effective pixels in this way, the effects of the above-described gesture recognition device 100 are remarkably exhibited.

その他、本発明は前記実施形態に限られず、その趣旨を逸脱しない範囲で種々の変形が可能であるのは言うまでもない。 In addition, the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications are possible without departing from the spirit of the present invention.

100・・・ジェスチャ認識装置
1 ・・・撮像手段
2 ・・・コンピュータ本体
21 ・・・画像データ受付部
22 ・・・ジェスチャ認識部
23 ・・・コマンド出力部
24 ・・・初期位置判定部
25 ・・・報知部
3 ・・・ディスプレイ
4 ・・・報知手段
DESCRIPTION OF SYMBOLS 100... Gesture recognition apparatus 1... Imaging means 2... Computer main body 21... Image data reception part 22... Gesture recognition part 23... Command output part 24... Initial position determination part 25 ... Notification unit 3 ... Display 4 ... Notification means

Claims (8)

ユーザの手を撮像する撮像手段を備え、当該撮像手段が撮像した撮像画像に基づいて前記ユーザの手のジェスチャを認識するジェスチャ認識装置であって、
前記撮像画像に映る前記ユーザの手形状を認識し、その結果に基づき前記ユーザの手がジェスチャを開始するのに適した初期位置にあるかを判定する初期位置判定部と、
前記ユーザの手が前記初期位置にあると判定されると、ジェスチャを開始してよい旨を前記ユーザに報知する報知部と
を備え、
前記初期位置判定部が、少なくとも1本の指を立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定するジェスチャ認識装置。
A gesture recognition device comprising imaging means for capturing an image of a user's hand, and recognizing a gesture of the user's hand based on an image captured by the imaging means,
an initial position determination unit that recognizes the user's hand shape reflected in the captured image and determines whether the user's hand is in an initial position suitable for starting a gesture based on the result;
a notification unit that notifies the user that a gesture may be started when it is determined that the user's hand is in the initial position;
The gesture recognition device determines that the hand of the user is in the initial position when the initial position determination unit recognizes a hand shape with at least one finger up.
前記初期位置判定部が、複数本の指を互いに離して立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定する請求項1に記載のジェスチャ認識装置。 2. The gesture recognition device according to claim 1, wherein the initial position determination unit determines that the hand of the user is in the initial position when a hand shape in which a plurality of fingers are held apart from each other is recognized. 前記初期位置判定部が、5本の指を互いに離して立てた手形状を認識した場合に、前記ユーザの手が前記初期位置にあると判定する請求項2に記載のジェスチャ認識装置。 3. The gesture recognition device according to claim 2, wherein the initial position determination unit determines that the user's hand is in the initial position when the initial position determination unit recognizes a hand shape in which five fingers are spaced apart from each other. 前記初期位置判定部が、前記認識した手形状の面積が所定の範囲内である場合に、前記ユーザの手が前記初期位置にあると判定する請求項1~3のいずれか1項に記載のジェスチャ認識装置。 4. The initial position determining unit determines that the hand of the user is at the initial position when the area of the recognized hand shape is within a predetermined range. gesture recognizer. 前記初期位置判定部が、少なくとも1本の指を立てた手形状を継続して所定時間以上認識した場合に、前記ユーザの手が前記初期位置にあると判定する請求項1~4のいずれか1項に記載のジェスチャ認識装置。 5. The initial position determination unit determines that the hand of the user is in the initial position when the hand shape with at least one finger raised is continuously recognized for a predetermined time or longer. 2. The gesture recognition device according to item 1. 前記撮像画像に基づいて前記ユーザの手のジェスチャを認識するジェスチャ認識部を備え、
前記ジェスチャ認識部は前記ユーザの手が前記初期位置にあると判定された後にジェスチャの認識を行う請求項1~5のいずれか1項に記載のジェスチャ認識装置。
a gesture recognition unit that recognizes a hand gesture of the user based on the captured image;
The gesture recognition device according to any one of claims 1 to 5, wherein the gesture recognition unit recognizes the gesture after it is determined that the user's hand is in the initial position.
前記報知部は、前記ユーザの手が前記初期位置にないと判定されると、前記ユーザの手を前記初期位置に誘導するための誘導情報を前記ユーザに報知する、請求項1~6のいずれか1項に記載のジェスチャ認識装置。 7. The notification unit according to any one of claims 1 to 6, wherein, when it is determined that the user's hand is not at the initial position, the notification unit notifies the user of guidance information for guiding the user's hand to the initial position. 2. The gesture recognition device according to claim 1. ユーザの手を撮像する撮像手段を備え、当該撮像手段が撮像した撮像画像に基づいて前記ユーザの手のジェスチャを認識するジェスチャ認識装置用のプログラムであって、
前記撮像画像に映る前記ユーザの手形状を認識し、認識した手形状が少なくとも1本の指を立てた手形状である場合に、前記ユーザの手がジェスチャを開始するのに適した初期位置にあると判定する初期位置判定部としての機能と、
前記ユーザの手が前記初期位置にあると判定されると、ジェスチャを開始してよい旨を前記ユーザに報知する報知部としての機能と
をコンピュータに発揮させることを特徴とするジェスチャ認識装置用のプログラム。
A program for a gesture recognition device comprising imaging means for imaging a user's hand, and recognizing a gesture of the user's hand based on an image captured by the imaging means,
recognizing the hand shape of the user reflected in the captured image, and moving the user's hand to an initial position suitable for starting a gesture when the recognized hand shape is a hand shape with at least one finger raised; A function as an initial position determination unit that determines that there is
and a function as an informing unit for informing the user that a gesture may be started when it is determined that the user's hand is in the initial position. program.
JP2019087574A 2019-05-07 2019-05-07 GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE Active JP7179334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019087574A JP7179334B2 (en) 2019-05-07 2019-05-07 GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019087574A JP7179334B2 (en) 2019-05-07 2019-05-07 GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE

Publications (2)

Publication Number Publication Date
JP2020184147A JP2020184147A (en) 2020-11-12
JP7179334B2 true JP7179334B2 (en) 2022-11-29

Family

ID=73044558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019087574A Active JP7179334B2 (en) 2019-05-07 2019-05-07 GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE

Country Status (1)

Country Link
JP (1) JP7179334B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050025345A1 (en) 2003-07-30 2005-02-03 Nissan Motor Co., Ltd. Non-contact information input device
JP2005135439A (en) 2004-12-28 2005-05-26 Toshiba Corp Operation input device
JP2014048680A (en) 2012-08-29 2014-03-17 Alpine Electronics Inc Information system
WO2015125213A1 (en) 2014-02-18 2015-08-27 三菱電機株式会社 Gesture guidance device for mobile body, gesture guidance system for mobile body, and gesture guidance method for mobile body
JP2016177658A (en) 2015-03-20 2016-10-06 カシオ計算機株式会社 Virtual input device, input method, and program
JP2017212007A (en) 2017-08-03 2017-11-30 シャープ株式会社 Image display unit
JP2018036902A (en) 2016-08-31 2018-03-08 島根県 Equipment operation system, equipment operation method, and equipment operation program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050025345A1 (en) 2003-07-30 2005-02-03 Nissan Motor Co., Ltd. Non-contact information input device
JP2005135439A (en) 2004-12-28 2005-05-26 Toshiba Corp Operation input device
JP2014048680A (en) 2012-08-29 2014-03-17 Alpine Electronics Inc Information system
WO2015125213A1 (en) 2014-02-18 2015-08-27 三菱電機株式会社 Gesture guidance device for mobile body, gesture guidance system for mobile body, and gesture guidance method for mobile body
JP2016177658A (en) 2015-03-20 2016-10-06 カシオ計算機株式会社 Virtual input device, input method, and program
JP2018036902A (en) 2016-08-31 2018-03-08 島根県 Equipment operation system, equipment operation method, and equipment operation program
JP2017212007A (en) 2017-08-03 2017-11-30 シャープ株式会社 Image display unit

Also Published As

Publication number Publication date
JP2020184147A (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP5412227B2 (en) Video display device and display control method thereof
US8867791B2 (en) Gesture recognition method and interactive system using the same
US20130057469A1 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
WO2012120958A1 (en) Projection device
JP2013061848A (en) Noncontact input device
US9557821B2 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP5817149B2 (en) Projection device
JP6177482B1 (en) Touch panel input device, touch gesture determination device, touch gesture determination method, and touch gesture determination program
JP2004078977A (en) Interface device
JP6868427B2 (en) Display device with input function
JP2012185630A (en) Projection device
JP2012027515A (en) Input method and input device
WO2015189710A2 (en) Apparatus and method for disambiguating information input to a portable electronic device
TWI499938B (en) Touch control system
JP7179334B2 (en) GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE
CN111258443B (en) Information input device
JP5062898B2 (en) User interface device
JP6329373B2 (en) Electronic device and program for controlling electronic device
CN110162257A (en) Multiconductor touch control method, device, equipment and computer readable storage medium
JP2006140700A (en) Digital camera
JP2020201664A (en) Display device
JP6447179B2 (en) Information input system and input device
JP2019128707A (en) Display input device
EP2919096B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2014203367A (en) Gesture input device, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221109

R150 Certificate of patent or registration of utility model

Ref document number: 7179334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150