JP2014137667A - Control device and control method - Google Patents
Control device and control method Download PDFInfo
- Publication number
- JP2014137667A JP2014137667A JP2013005208A JP2013005208A JP2014137667A JP 2014137667 A JP2014137667 A JP 2014137667A JP 2013005208 A JP2013005208 A JP 2013005208A JP 2013005208 A JP2013005208 A JP 2013005208A JP 2014137667 A JP2014137667 A JP 2014137667A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- mouse
- mouse event
- user interface
- graphical user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
【課題】手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができるようにすること。
【解決手段】制御装置100は、操作者を撮像して、映像信号を生成する撮像部としてのカメラ101と、カメラ101で生成された映像信号で示される映像から、操作者の特定部位の動きを検出する対象部位位置検出部102と、対象部位位置検出部102で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部103と、マウスイベント変換部103で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部106とを備える。
【選択図】図1An object of the present invention is to enable control according to an operator's gesture without performing complicated processing such as capturing a change in hand shape.
A control apparatus captures an operator and captures a motion of a specific part of the operator from a camera as an imaging unit that generates a video signal and a video indicated by the video signal generated by the camera. A target part position detection unit 102 that detects the mouse, a mouse event conversion unit 103 that generates a mouse event when the mouse moves according to the movement detected by the target part position detection unit 102, and a mouse event conversion unit 103 And a display unit 106 for displaying a graphical user interface screen according to the mouse event.
[Selection] Figure 1
Description
本発明は、制御装置及び制御方法に関する。 The present invention relates to a control device and a control method.
現在、TV受像機等は、リモコンを用いて離れた場所から操作されるのが一般的である。近年、TV受像機等に内蔵されるCPUの性能の向上とともに、より使いやすく、便利な操作法が模索されている。
その一つとしてジェスチャを用いる方式が提案されている。例えば、ユーザの手の動き及び形状によって、ユーザが行わせようとする操作を操作対象装置に認識させる技術がある。特許文献1には、カメラによって撮影されたユーザの手の動き及び形状を検出して、その軌跡及び形状に基づいて対象機器を制御する方法が開示されている。
また、特許文献2には、複数の画像から対象物が所定の形状であるかどうかを識別する対象物識別部を備えることにより、その誤認識を抑制する方法が開示されている。
Currently, TV receivers and the like are generally operated from a remote place using a remote controller. In recent years, with the improvement of the performance of a CPU incorporated in a TV receiver or the like, a more convenient and convenient operation method has been sought.
As one of them, a method using a gesture has been proposed. For example, there is a technique for causing an operation target device to recognize an operation to be performed by the user based on the movement and shape of the user's hand. Patent Document 1 discloses a method of detecting the movement and shape of a user's hand taken by a camera and controlling a target device based on the locus and shape.
Patent Document 2 discloses a method for suppressing erroneous recognition by providing an object identifying unit that identifies whether an object has a predetermined shape from a plurality of images.
このようにジェスチャを用いる場合、制御対象機器の操作に対応したジェスチャを認識し、特定の機器の特定の操作に結びつける必要がある。このため、ジェスチャの認識を正確に行う必要があり、ユーザは、ジェスチャと操作の対応関係を機器毎に知っておかなければならない。 When using a gesture in this way, it is necessary to recognize a gesture corresponding to the operation of the device to be controlled and connect it to a specific operation of a specific device. For this reason, it is necessary to accurately recognize the gesture, and the user needs to know the correspondence between the gesture and the operation for each device.
また、ジェスチャによって操作する内容が多岐にわたる選択肢を有する場合に、例えば、手の形状等でその選択肢を区別しようとすると、その形状を正確に判定する必要があり、実用的な精度の認識を行うには困難を伴う。 Also, when the contents operated by gestures have a wide range of options, for example, when trying to distinguish the options by the shape of the hand, it is necessary to accurately determine the shape, and recognition of practical accuracy is performed. There are difficulties.
そこで、本発明は、手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができるようにすることを特徴とする。 Therefore, the present invention is characterized in that control according to the gesture of the operator can be performed without performing complicated processing such as capturing a change in the shape of the hand.
本発明の一態様に係る制御装置は、操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像部と、前記撮像部で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出部と、前記対象部位位置検出部で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部と、前記マウスイベント変換部で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部と、を備えることを特徴とする。 The control device according to an aspect of the present invention captures an operator, generates an image signal indicating an image of the operator, and an image indicated by the image signal generated by the image capturing unit. A target part position detecting unit for detecting a movement of a specific part of the operator; a mouse event converting unit for generating a mouse event when the mouse moves in accordance with the movement detected by the target part position detecting unit; and the mouse And a display unit for displaying a graphical user interface screen in accordance with the mouse event generated by the event conversion unit.
本発明の一態様に係る制御方法は、操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像過程と、前記撮像過程で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出過程と、前記対象部位位置検出過程で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換過程と、前記マウスイベント変換過程で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示過程と、を有することを特徴とする。 A control method according to an aspect of the present invention includes: an imaging process for capturing an operator and generating a video signal indicating an image of the operator; and an image indicated by the video signal generated in the imaging process, A target part position detection process for detecting movement of a specific part of the operator, a mouse event conversion process for generating a mouse event when the mouse moves according to the movement detected in the target part position detection process, and the mouse A display process for displaying a graphical user interface screen in accordance with a mouse event generated in the event conversion process.
本発明の一態様によれば、手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができる。 According to one aspect of the present invention, control according to an operator's gesture can be performed without performing complicated processing such as capturing a change in the shape of a hand.
実施の形態1.
図1は、実施の形態1に係る制御装置100の構成を概略的に示すブロック図である。制御装置100は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部103と、入力部104と、グラフィカルユーザインタフェース作成部(以下、GUI作成部という)105と、表示部106とを備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing a configuration of a
カメラ101は、操作者を撮像して、この操作者の映像を示す映像信号を生成する撮像部である。カメラ101は、特に、操作者の手等の、動きを検出する対象部位が含まれるように撮像する。カメラ101は、撮像した映像を示す映像信号を対象部位位置検出部102に与える。
対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位の動きを検出する。例えば、まず、対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位を特定する。そして、対象部位位置検出部102は、映像において予め定められた2次元座標上で、特定された対象部位の動きの方向と速さ(大きさ)を、動きベクトルとして特定する。対象部位位置検出部102は、特定された動きベクトルをマウスイベント変換部103に与える。
The
The target part
マウスイベント変換部103は、対象部位位置検出部102で検出された動きに応じてマウスが動いた際のマウスイベントを生成する。例えば、マウスイベント変換部103は、対象部位位置検出部102から与えられた動きベクトルに基づいて、マウスが動いた際に生成するマウスイベントと等価なマウスイベントを生成する。そして、マウスイベント変換部103は、生成したマウスイベントをGUI作成部105に与える。
The mouse
入力部104は、指示の入力を受け付ける。入力部104は、マウス又はキーボード等により構成することができる。そして、入力部104は、入力された指示を、マウスイベント又はキーボードイベントとして、GUI作成部105に与える。
The
GUI作成部105は、マウスイベント変換部103から与えられたマウスイベント、並びに、入力部104から与えられたマウスイベント又はキーボードイベント、の少なくとも何れか一方に従って、グラフィカルユーザインタフェース(以下、GUIという)を作成する。そして、GUI作成部105は、作成されたGUIを表示部106に与える。
表示部106は、GUI作成部105から与えられたGUIの画面を表示する。ここで、GUI作成部105から与えられるGUIは、マウスイベント変換部103で生成されたマウスイベントに従って作成されるため、表示部106は、マウスイベント変換部103で生成されたマウスイベントに従って、GUIの画面を表示することになる。
The
The
図2は、制御装置100での処理の一例を示すフローチャートである。
まず、カメラ101は、操作者を含む映像を撮像し、その映像信号を対象部位位置検出部102に与える(S10)。
FIG. 2 is a flowchart illustrating an example of processing in the
First, the
対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位を特定して、特定された対象部位の、当該映像において予め定められた2次元座標軸上での位置を検出する(S11)。ジェスチャにおいては手を対象とすることが一般的であるため、対象部位は手とする。また、手の位置検出方法等は様々な開発がなされている。ここでは、手の位置を検出する方法自体は、既存の手法を活かして、最適と思われる方法を用いるものとする。例えば、米国特許第5594469号明細書、Freeman et al. Mitsubishi Electric Information Technology Center America、“Hand gesture machine control system”、に記載された、手の位置の検出方法を用いることができる。以下、米国特許第5594469号明細書の記載に基づいた、手の位置の検出方法の一例を説明する。
The target part
操作者は、カメラ101に向かって、手のひらをかざす等して、監視の対象部位である手を対象部位位置検出部102に認識させる。対象部位位置検出部102は、局部方向性(local orientation)の相関を用いて、手の位置の検出を行なっている。具体的には、以下の通りである。
The operator causes the target part
まず、操作者は、カメラ101から送られてくる手を含んだ映像信号で示される映像を表示部106に表示させた状態で、入力部104を用いて、手の初期位置を示す。対象部位位置検出部102は、カメラ101から送られてくる映像信号で示される映像の内、初期位置で示された範囲に対応する部分を、図示しない映像量子化器でデジタル信号に変換する。そして、対象部位位置検出部102は、デジタル信号化された映像において、x軸方向における画素の画像強度の微分値dI/dX、x軸と直交するy軸方向における画像強度の微分値dI/dYを、デジタル変換された画面全体について算出する。さらに、対象部位位置検出部102は、(dI/dX)2及び(dI/dY)2を加えた値の平方根を取ることで、コントラストイメージを生成する。ここで、対象部位位置検出部102は、コントラストイメージを閾値処理することで、コントラストの低い部分を無視して、ノイズを除去する。ここで、コントラストイメージを構成する各々の画素の値を、コントラスト値とする。
First, the operator uses the
次に、対象部位位置検出部102は、検出対象部分についてx軸方向の微分値を対応するコントラスト値で除した値と、y軸方向の微分値を対応するコントラスト値で除した値とが、それぞれcosθ及びsinθとなる値θを位置の関数として求める。すなわち、対象部位位置検出部102は、sinθを定義する。このデータペア(cosθ,sinθ)のセットが、手の位置を検出するためのテンプレートを構成する。図3は、以上のようにして構成されたテンプレートの一例を示す概略図である。そして、対象部位位置検出部102は、以上のようにして構成されたテンプレートを、テンプレート記憶部としてのメモリ102aに記憶する。
Next, the target part
図2の説明に戻り、対象部位位置検出部102は、手の動きを検出する(S12)。手の動きの検出方法についても、既存の手法を活かして、最適と思われる方法を用いるものとする。例えば、上述した米国特許第5594469号明細書に記載された、手の動きの検出方法を用いることができる。以下、米国特許第5594469号明細書の記載に基づいた、手の動きの検出方法の一例を説明する。
Returning to the description of FIG. 2, the target part
対象部位位置検出部102は、カメラ101からの映像信号から、テンプレートを構成するのと同様の手順で、データペア(cosθ,sinθ)のセットからなる対象イメージを生成する。ここで、対象イメージは、カメラ101からの映像信号で示される全ての範囲(全画面)について生成されてもよく、また、前回手の位置が検出された周囲の予め定められた範囲について生成されてもよい。そして、対象部位位置検出部102は、手の動きの検出を開始する際、準備段階で作成したテンプレートを用いて、手の初期位置を、対象イメージと前記テンプレートとの相関を用いて検出する。この検出は、例えば、次のような処理によって行われる。
The target part
まず、対象部位位置検出部102は、テンプレート及び対象イメージのそれぞれについて、x軸方向の微分値をコントラスト値で除した値と、y軸方向の微分値をコントラスト値で除した値とをひとつの大きなベクトルに集約し、2つのベクトル間の正規化相関値を下記の(1)式で算出する。
さらに、カメラ101から送られてくる映像信号で示される映像を分割した領域において、上述したコントラスト値が閾値を超えた部分の占める割合を算出して、その割合がテンプレートにおいて算出された割合に近い部分を、例えば、閾値等で特定し、対象部位である手のある位置を含む領域の候補とする。以上のような相関値の組み合わせで手の位置が確定されると、同様の相関値を確定された位置の周辺領域で監視することで、手の動きをトラッキングでき、本発明で必要となる手の動きを得ることができる。
Further, in the area obtained by dividing the video indicated by the video signal sent from the
そして、対象部位位置検出部102は、検出された手の位置情報から、一定時間毎に動きベクトルを算出して、算出された動きベクトルをマウスイベント変換部103に与える。
Then, the target part
次に、マウスイベント変換部103は、対象部位位置検出部102から与えられた動きベクトルの方向及び速さを、マウスを動かした方向及び速さに変換する(S13)。
Next, the mouse
マウスでは、光学センサーによって検出された動きにより決まるマウスの現在座標(ポインタ位置)又はボタンの状態が変化した際に、イベントが発生する。本実施の形態では、ジェスチャとして手の動きのみに着目し、手を動かす方向と速さとに注目する。マウスイベント変換部103は、手を一定時間停止した後に動かした最初の方向をマウス移動の方向に、また、手の速さを、マウスを動かす速さに換算して、等価なマウスイベントを生成する。
この時、手は、所望の方向に振られる、言い換えると、往復動されることになるが、マウスイベント変換部103は、手を元の位置付近に戻す動きを無視して、その動きベクトルに対応するマウスイベントを生成しない。つまり、操作者は、手を一旦停止させた後、マウスを動かしたい方向に手を動かし、そのまま、手を停止させることなく手を戻す方向に動かし、元の手の停止位置付近に戻して、さらにマウスを動かしたい方向に手を動かすことで、手を戻す際の動きは無視されて、所望の方向へ、ポインタを移動させることができる。手を戻す動作の検出は、予め定められた時間内に、上述した動きベクトルが、予め定められた角度である90度以上変化した場合に適用する。ここで、動きベクトルの無視は、例えば、90度以上変化した動きベクトルが検出された時点以降の動きベクトルについて行われる。そして、動きベクトルの無視は、例えば、予め定められた時間以内に方向が90度以上変化した動きベクトルが再度検出されるまで行われる。なお、動きベクトルの無視は、手を一定時間停止した後に動かした最初の方向の動きベクトルに対して、予め定められた角度範囲(例えば、90度よりも小さい角度)の動きベクトルが算出されるまで行われてもよい。
In the mouse, an event occurs when the current coordinates (pointer position) of the mouse or the state of the button determined by the movement detected by the optical sensor changes. In this embodiment, attention is paid only to the movement of the hand as a gesture, and attention is paid to the direction and speed of moving the hand. The mouse
At this time, the hand is swung in a desired direction, in other words, reciprocated. However, the mouse
また、一般に、操作者は、まず、マウスを目的位置近傍まで早く動かし、その後、マウスを目的位置に向かってゆっくりと動かす動作を行う。本実施の形態においてもこのような動きを念頭に置き、手の動きが早い場合は、動きベクトルの単位移動量当たりのポインタの位置の変化(移動量)を大きくし、手の動きが遅い場合は、動きベクトルの単位移動量当たりのポインタ位置の変化を小さくすることで、操作性を高める。言い換えると、マウスイベント変換部103は、動きベクトルで示される速さが早くなるほど、対象部位位置検出部102で検出される動きベクトルの単位移動量当たりの、ポインタの動く移動量がより大きくなるように、マウスイベントを生成する。例えば、マウスイベント変換部103は、動きベクトルで示される速さが早くなるほど、対象部位位置検出部102で検出される動きベクトルの単位移動量当たりの、マウスの移動量がより大きくなるように、マウスイベントを生成する。
なお、余分な手の動きによるポインタの移動を避けるため、マウスイベント変換部103は、動きベクトルの大きさ(速さ)が予め定められた閾値以下である場合には、そのような動きベクトルを無視して、そのような動きベクトルに基づくマウスイベントの生成を行わない。
In general, the operator first moves the mouse quickly to the vicinity of the target position, and then moves the mouse slowly toward the target position. Also in this embodiment, with such movement in mind, when the movement of the hand is fast, the change (movement amount) of the pointer per unit movement amount of the motion vector is increased, and the movement of the hand is slow Improves the operability by reducing the change in the pointer position per unit movement amount of the motion vector. In other words, the mouse
In order to avoid the movement of the pointer due to an extra hand movement, the mouse
次に、GUI作成部105は、マウスイベント変換部103から与えられたマウスイベントに応じて、GUIを作成する(S14)。ここでは、GUI作成部105は、カメラ101で撮像された手の動き(ジェスチャ)に対応して、2次元座標軸上において、カーソル(ポインタ)が移動するGUIを作成する。そして、GUI作成部105は、作成されたGUIを表示部106に与える。
表示部106は、GUI作成部105から与えられたGUIの画面を表示する(S15)。これにより、GUIの画面において、ジェスチャに対応したカーソルの移動が表示される。
Next, the
The
なお、カーソルが、GUI上の選択肢に相当する位置に移動された後、通常のマウスでは、左クリックで選択項目が確定される。しかしながら、本実施の形態では、ジェスチャをマウスの動きに限定して使用することにより、ジェスチャ検出の簡易化が図られている。従って、従来からジェスチャの利用法として提案されている、手の形状等による操作の入力は検出されない。このため、例えば、GUI作成部105は、カーソルが所望の選択肢上に移動された後、一定時間止まった場合には、その選択肢がクリックされたものとみなして、そのマウスイベントを生成する。または、操作者は、入力部104を介して、クリック等の操作を入力してもよい。
In addition, after the cursor is moved to a position corresponding to an option on the GUI, the selection item is determined by left clicking with a normal mouse. However, in the present embodiment, the gesture detection is simplified by using the gesture limited to the movement of the mouse. Therefore, the input of the operation based on the shape of the hand, which has been conventionally proposed as a method of using the gesture, is not detected. For this reason, for example, when the cursor is moved over a desired option and then stops for a certain period of time, the
本実施の形態では、手の動きの方向と速さのみをジェスチャとして検出し、マウスイベントに変換してGUIのマウス入力として利用するので、簡易なジェスチャ検出で、従来からのGUIに対してもジェスチャを用いた操作を行うことができる。 In this embodiment, only the direction and speed of hand movement is detected as a gesture, converted into a mouse event and used as a mouse input of the GUI. Therefore, even with a conventional GUI, simple gesture detection is possible. An operation using a gesture can be performed.
また、対象部位の動きベクトルの変化を見ながら、手を戻す動作等の、マウスイベントに繋がらない動きを排除して、より自然でスムーズなマウスカーソルの動きを実現することができる。 In addition, it is possible to realize a more natural and smooth movement of the mouse cursor by observing a change in the motion vector of the target part and eliminating a movement that does not lead to a mouse event, such as an action of returning the hand.
実施の形態2.
図4は、実施の形態2に係る制御装置200の構成を概略的に示すブロック図である。制御装置200は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部203と、入力部104と、GUI作成部205と、表示部106と、マイク207と、音声認識部208と、キーボードイベント変換部209とを備える。実施の形態2に係る制御装置200は、マウスイベント変換部203及びGUI作成部205での処理の点、並びに、マイク207、音声認識部208及びキーボードイベント変換部209がさらに備えられている点において、実施の形態1に係る制御装置100と異なっている。
Embodiment 2. FIG.
FIG. 4 is a block diagram schematically showing the configuration of the
マイク207は、音声を取得して、取得された音声を示す音声信号を生成する集音部である。マイク207は、生成した音声信号を音声認識部208に与える。
音声認識部208は、マイク207から与えられる音声信号で示される音声から言語を認識し、認識された言語の文字列を示す文字列データを生成する。そして、音声認識部208は、予め定められた文字列を示す文字列データについては、マウスイベント変換部203に与え、その他の文字列データについては、キーボードイベント変換部209に与える。例えば、音声認識部208は、「左クリック」及び「右クリック」等、マウスの操作を示す文字列については、マウスイベント変換部203に与え、キーボードの操作を示す文字列については、キーボードイベント変換部209に与える。
キーボードイベント変換部209は、音声認識部208から与えられた文字列データで示される文字列に対応するキーボードイベントを生成する。キーボードイベント変換部209は、生成されたキーボードイベントをGUI作成部205に与える。
The
The
The keyboard
マウスイベント変換部203は、実施の形態1におけるマウスイベント変換部103と同様の処理を行う他、音声認識部208から与えられた文字列データで示される文字列に対応するマウスイベントを生成する。例えば、マウスイベント変換部203は、音声認識部208から「右クリック」又は「左クリック」を示す文字列データを取得すると、「右クリック」又は「左クリック」のマウスイベントを生成する。そして、マウスイベント変換部203は、生成されたマウスイベントをGUI作成部205に与える。
The mouse
GUI作成部205は、マウスイベント変換部203から与えられたマウスイベント、入力部104から与えられたマウスイベント又はキーイベント、並びに、キーボードイベント変換部209から与えられたキーボードイベントの少なくとも何れか一つに応じて、GUIを作成する。そして、GUI作成部205は、作成されたGUIを表示部106に与える。
The
実施の形態1では、GUI画面上のポインタ位置を移動するためにマウスを使う代わりに、ジェスチャを用いる方式を導入したが、GUI上では文字入力が必要な場合もある。実施の形態2では、以上の構成を有することにより、操作者は、ジェスチャを用いて所望の位置にカーソルを移動させた時点で、音声で、例えば、「クリック」と言えば、左クリックが行われるように、実施の形態1で示した方式を変更することもできる。また、実施の形態2では、「右クリック」等のマウスイベントのバリエーションにも対応できる。 In the first embodiment, a method of using a gesture instead of using a mouse to move the pointer position on the GUI screen has been introduced. However, character input may be required on the GUI. In the second embodiment, by having the above-described configuration, when the operator moves the cursor to a desired position using a gesture, for example, “click” means that a left click is performed. As shown, the system shown in the first embodiment can be changed. In the second embodiment, it is possible to deal with variations of mouse events such as “right click”.
実施の形態3.
図5は、実施の形態3に係る制御システム330の構成を概略的に示すブロック図である。制御システム330は、制御装置300と、制御対象装置340とを備える。制御装置300と、制御対象装置340とは、例えば、図示しないネットワークに接続することにより、通信を行うことができるように構成されている。
Embodiment 3 FIG.
FIG. 5 is a block diagram schematically showing the configuration of the
制御装置300は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部203と、入力部104と、GUI処理部310と、表示部106と、マイク207と、音声認識部208と、キーボードイベント変換部209と、通信部311とを備える。実施の形態3における制御装置300は、GUI作成部205の代わりにGUI処理部310を備える点、及び、通信部311をさらに備える点において、実施の形態2に係る制御装置200と異なっている。
The
GUI処理部310は、制御対象装置340から送られてくるGUIを、通信部311を介して受信し、受信されたGUIを106に与えて、表示部106にこのGUIの画面を表示させる。また、GUI処理部310は、マウスイベント変換部203から与えられたマウスイベント、入力部104から与えられたマウスイベント又はキーイベント、並びに、キーボードイベント変換部209から与えられたキーボードイベントの少なくとも何れか一つを、通信部311を介して、制御対象装置340に送信する。例えば、制御システム330が、VNC(Virtual Network Cpmputing)に対応したものであれば、GUI処理部310は、VNCクライアントプログラムにより実現することができる。また、制御システム330が、X−Windowに対応したものであれば、GUI処理部310は、Xサーバを実装することにより、実現することができる。
The
通信部311は、制御対象装置340と通信するためのインタフェースである。例えば、通信部311は、NIC(Network Interface Card)により実現することができる。
The
制御対象装置340は、制御部341と、GUI作成部342と、通信部343とを備える。
The
制御部341は、制御対象装置340の全体を制御する。
GUI作成部342は、制御装置300から与えられたマウスイベント又はキーイベントに応じて、GUIを作成する。そして、GUI作成部342は、作成されたGUIを通信部343を介して、制御装置300に送信する。例えば、制御システム330が、VNCに対応したものであれば、GUI作成部342は、VNCサーバプログラムにより実現することができる。また、制御システム330が、X−Windowに対応したものであれば、GUI作成部342は、Xクライアントを実装することにより、実現することができる。
The
The
通信部343は、制御装置300と通信するためのインタフェースである。例えば、通信部343は、NICにより実現することができる。
The
実施の形態3における制御装置300は、ネットワークに接続された別の装置である制御対象装置340のGUIの画面を、表示部106に表示させて、離れた場所にある別の装置を制御することができる。具体的には、制御装置300は、PC用途で広く用いられるVNC又はX-Window等を導入することにより実装される。
The
例えば、VNCでは、サーバーとなるPCは、その画像をビットマップデータとして、クライアント装置に送る。クライアント装置側では、受け取ったビットマップデータをフレームバッファ上に展開し、表示画面上に表示する。一方、クライアント装置には、マウス及びキーボードが接続され、クライアント装置は、ネットワーク経由でマウスイベント及びキーボードイベントをRFBと呼ばれるプロトコルでサーバーに送ることにより、画面を見ながらPCを操作することができる。 For example, in VNC, a PC serving as a server sends the image as bitmap data to a client device. On the client device side, the received bitmap data is expanded on the frame buffer and displayed on the display screen. On the other hand, a mouse and a keyboard are connected to the client device, and the client device can operate the PC while watching the screen by sending a mouse event and a keyboard event to the server using a protocol called RFB via the network.
従って、実施の形態2におけるGUI作成部205を、例えば、VNCクライアントプログラムで実現されるGUI処理部310で置き換えることにより、制御対象装置340の操作についてもジェスチャ及び音声による入力インタフェースを用いて行うことができる。
Therefore, by replacing the
また、X−Windowを用いる場合にも、同様な構成で実現することができる。例えば、GUI処理部310としてはXサーバーを実装し、制御対象装置340におけるGUI作成部342は、Xクライアントとして構築されればよい。Xサーバー及びXクライアントでも、上記VNC同様、キーボード及びマウス入力をXサーバーで取得して、クライアントに送出する。また、Xクライアントは、Xサーバーを有する装置自体の制御に用いることも、ネットワーク接続された他の装置の制御用のXクライアントを接続して、対象の装置を制御することもできる。
Moreover, when using X-Window, it is realizable with the same structure. For example, an X server may be mounted as the
このように、実施の形態1及び2で導入されたジェスチャ及び音声認識による入力インタフェースは、マウスイベント及びキーボードイベントに変換したデータとして得られるので、VNC又はX−Windowシステムを用いることによりネットワーク接続された別の装置のユーザインタフェースを操作するためにも容易に展開可能となっている。 As described above, since the input interface based on the gesture and voice recognition introduced in the first and second embodiments is obtained as data converted into the mouse event and the keyboard event, it is connected to the network by using the VNC or the X-Window system. It can also be easily deployed to operate the user interface of another device.
実施の形態1〜3によれば、ジェスチャによって取得される情報を、手等特定の部位の動き量及び方向に限定して検出する。そして、予め設定された2次元座標軸上での変化は、マウスを動かした際に発生するイベントの形式に変換されて、制御対象に伝達することで、手の形状変化を捉える等の複雑な処理を伴うジェスチャ検出行うことなく、画面上に表示されたGUIのカーソルを変換されたイベントに基づいて移動させることができる。これにより、操作の選択等が行われるので、マウスを使うことを前提に作成されたGUIをそのまま利用して、ジェスチャ対応の装置とすることができる。 According to the first to third embodiments, information acquired by a gesture is limited to a movement amount and direction of a specific part such as a hand. And the change on the preset 2D coordinate axis is converted into the format of the event that occurs when the mouse is moved, and it is transmitted to the control object, so that complicated processing such as capturing the shape change of the hand It is possible to move the GUI cursor displayed on the screen based on the converted event without performing gesture detection accompanied with. As a result, selection of operations and the like are performed, and thus a GUI created on the premise that the mouse is used can be used as it is to make a gesture-compatible device.
また、音声認識部208により、文字入力を可能とすると共に、ジェスチャ認識におけるマウスイベントの内、クリック等の操作を音声認識で行うことにより、ジェスチャ認識の簡易化を図ることができる。
In addition, the
更に、上記ジェスチャ及び音声認識で生成されたイベントを、VNC等のキーボードイベント及びマウスイベントとして用いることで、ネットワーク接続された別の機器の操作を含めて、入力インタフェースを利用することができる。 Furthermore, by using the events generated by the gesture and voice recognition as keyboard events and mouse events such as VNC, it is possible to use the input interface including operations of other devices connected to the network.
100,200,300 制御装置、 101 カメラ、 102 対象部位位置検出部、 103,203 マウスイベント変換部、 104 入力部、 105,205,342 グラフィカルユーザインタフェース作成部、 106 表示部、 207 マイク、 208 音声認識部、 209 キーボードイベント変換部、 310 グラフィカルユーザインタフェース処理部、 311,343 通信部、 340 制御対象装置、 341 制御部。 100, 200, 300 control device, 101 camera, 102 target part position detection unit, 103, 203 mouse event conversion unit, 104 input unit, 105, 205, 342 graphical user interface creation unit, 106 display unit, 207 microphone, 208 audio Recognition unit, 209 keyboard event conversion unit, 310 graphical user interface processing unit, 311, 343 communication unit, 340 control target device, 341 control unit.
Claims (13)
前記撮像部で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出部と、
前記対象部位位置検出部で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部と、
前記マウスイベント変換部で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部と、を備えること
を特徴とする制御装置。 An imaging unit that images the operator and generates a video signal indicating the video of the operator;
A target part position detection unit that detects a movement of the specific part of the operator from the video indicated by the video signal generated by the imaging unit;
A mouse event conversion unit that generates a mouse event when the mouse moves according to the movement detected by the target part position detection unit;
And a display unit for displaying a graphical user interface screen in accordance with the mouse event generated by the mouse event conversion unit.
前記マウスイベント変換部は、前記対象部位位置検出部で検出された動きベクトルで示される方向及び速さを、前記マウスが動いた方向及び速さに変換して、前記マウスイベントを生成すること
を特徴とする請求項1に記載の制御装置。 The target part position detection unit detects the movement of the specific part of the operator as a motion vector on a predetermined two-dimensional coordinate,
The mouse event conversion unit generates the mouse event by converting the direction and speed indicated by the motion vector detected by the target part position detection unit into the direction and speed of movement of the mouse. The control device according to claim 1, wherein
を特徴とする請求項2に記載の制御装置。 The mouse event conversion unit is a motion vector detected by the target part position detection unit when the specific part of the operator starts moving from a stationary state based on the motion vector detected by the target part position detection unit. The specified direction is the direction in which the mouse has moved, and the speed corresponding to the speed specified by the motion vector detected by the target site position detector after that time is the speed at which the mouse has moved. The control device according to claim 2, wherein:
を特徴とする請求項2又は3に記載の制御装置。 When the direction specified by the motion vector detected by the target part position detection unit changes by a predetermined angle or more within a predetermined time, the mouse event conversion unit The control device according to claim 2 or 3, wherein a mouse event is not generated based on a motion vector.
を特徴とする請求項2から4の何れか一項に記載の制御装置。 The mouse event conversion unit, the faster the speed indicated by the motion vector detected by the target part position detection unit, the faster the pointer per unit movement amount indicated by the motion vector detected by the target part position detection unit The control device according to any one of claims 2 to 4, wherein the mouse event is generated so that the movement amount of the mouse increases.
前記集音部で取得された音声から言語を認識して、当該認識された言語の文字列を示す文字列データを生成する音声認識部と、をさらに備え、
前記マウスイベント変換部は、前記音声認識部で生成された文字列データで示される文字列が予め定められた文字列である場合に、前記音声認識部で生成された文字列データで示される文字列に対応するマウスイベントを生成すること
を特徴とする請求項1から5の何れか一項に記載の制御装置。 A sound collection unit for acquiring sound;
A speech recognition unit that recognizes a language from the speech acquired by the sound collection unit and generates character string data indicating a character string of the recognized language;
The mouse event conversion unit, when the character string indicated by the character string data generated by the voice recognition unit is a predetermined character string, the character indicated by the character string data generated by the voice recognition unit The control device according to any one of claims 1 to 5, wherein a mouse event corresponding to the column is generated.
前記表示部は、前記マウスイベント変換部で生成されたマウスイベント及び前記キーボードイベント変換部で生成されたキーボードイベントに従って、グラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項6に記載の制御装置。 When the character string indicated by the character string data generated by the voice recognition unit is not a predetermined character string, the character string indicated by the character string data generated by the voice recognition unit is input with the keyboard A keyboard event conversion unit for generating a keyboard event of the case,
The control according to claim 6, wherein the display unit displays a screen of a graphical user interface in accordance with the mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit. apparatus.
前記表示部は、前記グラフィカルユーザインタフェース生成部で生成されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項1から6の何れか一項に記載の制御装置。 A graphical user interface generating unit that generates a graphical user interface according to the mouse event generated by the mouse event converting unit;
The control device according to claim 1, wherein the display unit displays a screen of a graphical user interface generated by the graphical user interface generation unit.
前記表示部は、前記グラフィカルユーザインタフェース生成部で生成されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項7に記載の制御装置。 In accordance with the mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit, further comprising a graphical user interface generation unit for generating a graphical user interface,
The control device according to claim 7, wherein the display unit displays a graphical user interface screen generated by the graphical user interface generation unit.
前記マウスイベント変換部で生成されたマウスイベントを、前記通信部を介して、前記制御対象装置に送信するとともに、当該送信されたマウスイベントに従って、前記制御対象装置で生成されたグラフィカルユーザインタフェースを、前記通信部を介して受信するグラフィカルユーザインタフェース処理部と、をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース処理部で受信されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項1から6の何れか一項に記載の制御装置。 A communication unit that communicates with the control target device;
A mouse event generated by the mouse event conversion unit is transmitted to the control target device via the communication unit, and a graphical user interface generated by the control target device according to the transmitted mouse event, A graphical user interface processing unit for receiving via the communication unit,
The control device according to claim 1, wherein the display unit displays a screen of a graphical user interface received by the graphical user interface processing unit.
前記マウスイベント変換部で生成されたマウスイベント及び前記キーボードイベント変換部で生成されたキーボードイベントを、前記通信部を介して、前記制御対象装置に送信するとともに、当該送信されたマウスイベント及びキーボードイベントに従って、前記制御対象装置で生成されたグラフィカルユーザインタフェースを、前記通信部を介して受信するグラフィカルユーザインタフェース処理部と、をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース処理部で受信されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項7に記載の制御装置。 A communication unit that communicates with the control target device;
The mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit are transmitted to the control target device via the communication unit, and the transmitted mouse event and keyboard event are transmitted. And a graphical user interface processing unit that receives a graphical user interface generated by the control target device via the communication unit,
The control device according to claim 7, wherein the display unit displays a screen of a graphical user interface received by the graphical user interface processing unit.
を特徴とする請求項10又は11に記載の制御装置。 The control device according to claim 10 or 11, wherein the graphical user interface processing unit corresponds to a VNC client or an X-Window X server.
前記撮像過程で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出過程と、
前記対象部位位置検出過程で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換過程と、
前記マウスイベント変換過程で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示過程と、を有すること
を特徴とする制御方法。 An imaging process of imaging the operator and generating a video signal indicating the operator's video;
From the video shown by the video signal generated in the imaging process, the target part position detection process for detecting the movement of the specific part of the operator,
A mouse event conversion process for generating a mouse event when the mouse moves according to the movement detected in the target part position detection process;
A display process for displaying a graphical user interface screen in accordance with the mouse event generated in the mouse event conversion process.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013005208A JP2014137667A (en) | 2013-01-16 | 2013-01-16 | Control device and control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013005208A JP2014137667A (en) | 2013-01-16 | 2013-01-16 | Control device and control method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014137667A true JP2014137667A (en) | 2014-07-28 |
| JP2014137667A5 JP2014137667A5 (en) | 2015-11-12 |
Family
ID=51415143
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013005208A Pending JP2014137667A (en) | 2013-01-16 | 2013-01-16 | Control device and control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014137667A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016125475A1 (en) * | 2015-02-04 | 2016-08-11 | 株式会社デンソー | Image display control device, electronic mirror system, and image display control program |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11272662A (en) * | 1998-03-20 | 1999-10-08 | Sharp Corp | Speech information processing apparatus and method, and medium storing control program therefor |
| JP2000196914A (en) * | 1998-10-13 | 2000-07-14 | Sony Electronics Inc | Action detecting interface |
| JP2000267799A (en) * | 1999-03-19 | 2000-09-29 | Mitsubishi Electric Corp | Coordinate position control system, coordinate position control method, and computer-readable recording medium storing a program for causing a computer to execute the method |
| JP2004258837A (en) * | 2003-02-25 | 2004-09-16 | Nippon Hoso Kyokai <Nhk> | Cursor operating device, its method and its program |
| US20110001699A1 (en) * | 2009-05-08 | 2011-01-06 | Kopin Corporation | Remote control of host application using motion and voice commands |
| JP2011513847A (en) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | Advanced input using recognized gestures |
| JP2011159034A (en) * | 2010-01-29 | 2011-08-18 | Sony Corp | Information processor and information processing method |
| JP2011221672A (en) * | 2010-04-06 | 2011-11-04 | Sony Corp | Image processing apparatus, image processing method, program, and electronic device |
-
2013
- 2013-01-16 JP JP2013005208A patent/JP2014137667A/en active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11272662A (en) * | 1998-03-20 | 1999-10-08 | Sharp Corp | Speech information processing apparatus and method, and medium storing control program therefor |
| JP2000196914A (en) * | 1998-10-13 | 2000-07-14 | Sony Electronics Inc | Action detecting interface |
| JP2000267799A (en) * | 1999-03-19 | 2000-09-29 | Mitsubishi Electric Corp | Coordinate position control system, coordinate position control method, and computer-readable recording medium storing a program for causing a computer to execute the method |
| JP2004258837A (en) * | 2003-02-25 | 2004-09-16 | Nippon Hoso Kyokai <Nhk> | Cursor operating device, its method and its program |
| JP2011513847A (en) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | Advanced input using recognized gestures |
| US20110001699A1 (en) * | 2009-05-08 | 2011-01-06 | Kopin Corporation | Remote control of host application using motion and voice commands |
| JP2011159034A (en) * | 2010-01-29 | 2011-08-18 | Sony Corp | Information processor and information processing method |
| JP2011221672A (en) * | 2010-04-06 | 2011-11-04 | Sony Corp | Image processing apparatus, image processing method, program, and electronic device |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016125475A1 (en) * | 2015-02-04 | 2016-08-11 | 株式会社デンソー | Image display control device, electronic mirror system, and image display control program |
| US10076998B2 (en) | 2015-02-04 | 2018-09-18 | Denso Corporation | Image display control apparatus, electronic mirror system, and image display control program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9195345B2 (en) | Position aware gestures with visual feedback as input method | |
| US9020194B2 (en) | Systems and methods for performing a device action based on a detected gesture | |
| JP6424601B2 (en) | Display control method, information processing program, and information processing apparatus | |
| US10055064B2 (en) | Controlling multiple devices with a wearable input device | |
| JP6372487B2 (en) | Information processing apparatus, control method, program, and storage medium | |
| US9158391B2 (en) | Method and apparatus for controlling content on remote screen | |
| EP2908215B1 (en) | Method and apparatus for gesture detection and display control | |
| CN111475059A (en) | Gesture detection based on proximity sensor and image sensor | |
| TW201447740A (en) | Device, method and graphical user interface for adjusting the appearance of the control | |
| WO2020078319A1 (en) | Gesture-based manipulation method and terminal device | |
| US20190286255A1 (en) | Electronic whiteboard, image display method, and recording medium | |
| JP2015118442A (en) | Information processor, information processing method, and program | |
| US20190096130A1 (en) | Virtual mobile terminal implementing system in mixed reality and control method thereof | |
| JPWO2010095204A1 (en) | Interface control apparatus and method | |
| JP5266416B1 (en) | Test system and test program | |
| CN101042620A (en) | Pointing input device, method, and system using image pattern | |
| CN109104573B (en) | Method for determining focusing point and terminal equipment | |
| KR20090093220A (en) | Used the infrared ray camera the space projection presentation system | |
| CN104102334B (en) | Remote device control method and remote control system | |
| JP2014137667A (en) | Control device and control method | |
| CN111913574A (en) | Method, apparatus, electronic device and computer readable medium for controlling device | |
| US9761009B2 (en) | Motion tracking device control systems and methods | |
| JP2013257830A (en) | Information processor | |
| CN103902028B (en) | Input equipment, interactive system and input method | |
| KR20070025138A (en) | Spatial Projection Presentation System and Recognition Method for 3D Motion in Space |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150916 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150916 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160728 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170214 |
