[go: up one dir, main page]

JP2014137667A - Control device and control method - Google Patents

Control device and control method Download PDF

Info

Publication number
JP2014137667A
JP2014137667A JP2013005208A JP2013005208A JP2014137667A JP 2014137667 A JP2014137667 A JP 2014137667A JP 2013005208 A JP2013005208 A JP 2013005208A JP 2013005208 A JP2013005208 A JP 2013005208A JP 2014137667 A JP2014137667 A JP 2014137667A
Authority
JP
Japan
Prior art keywords
unit
mouse
mouse event
user interface
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013005208A
Other languages
Japanese (ja)
Other versions
JP2014137667A5 (en
Inventor
Kenji Tsunashima
健次 綱島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013005208A priority Critical patent/JP2014137667A/en
Publication of JP2014137667A publication Critical patent/JP2014137667A/en
Publication of JP2014137667A5 publication Critical patent/JP2014137667A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができるようにすること。
【解決手段】制御装置100は、操作者を撮像して、映像信号を生成する撮像部としてのカメラ101と、カメラ101で生成された映像信号で示される映像から、操作者の特定部位の動きを検出する対象部位位置検出部102と、対象部位位置検出部102で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部103と、マウスイベント変換部103で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部106とを備える。
【選択図】図1
An object of the present invention is to enable control according to an operator's gesture without performing complicated processing such as capturing a change in hand shape.
A control apparatus captures an operator and captures a motion of a specific part of the operator from a camera as an imaging unit that generates a video signal and a video indicated by the video signal generated by the camera. A target part position detection unit 102 that detects the mouse, a mouse event conversion unit 103 that generates a mouse event when the mouse moves according to the movement detected by the target part position detection unit 102, and a mouse event conversion unit 103 And a display unit 106 for displaying a graphical user interface screen according to the mouse event.
[Selection] Figure 1

Description

本発明は、制御装置及び制御方法に関する。   The present invention relates to a control device and a control method.

現在、TV受像機等は、リモコンを用いて離れた場所から操作されるのが一般的である。近年、TV受像機等に内蔵されるCPUの性能の向上とともに、より使いやすく、便利な操作法が模索されている。
その一つとしてジェスチャを用いる方式が提案されている。例えば、ユーザの手の動き及び形状によって、ユーザが行わせようとする操作を操作対象装置に認識させる技術がある。特許文献1には、カメラによって撮影されたユーザの手の動き及び形状を検出して、その軌跡及び形状に基づいて対象機器を制御する方法が開示されている。
また、特許文献2には、複数の画像から対象物が所定の形状であるかどうかを識別する対象物識別部を備えることにより、その誤認識を抑制する方法が開示されている。
Currently, TV receivers and the like are generally operated from a remote place using a remote controller. In recent years, with the improvement of the performance of a CPU incorporated in a TV receiver or the like, a more convenient and convenient operation method has been sought.
As one of them, a method using a gesture has been proposed. For example, there is a technique for causing an operation target device to recognize an operation to be performed by the user based on the movement and shape of the user's hand. Patent Document 1 discloses a method of detecting the movement and shape of a user's hand taken by a camera and controlling a target device based on the locus and shape.
Patent Document 2 discloses a method for suppressing erroneous recognition by providing an object identifying unit that identifies whether an object has a predetermined shape from a plurality of images.

特開2002−83302号公報JP 2002-83302 A 国際公開2011/027397号International Publication No. 2011/027397

このようにジェスチャを用いる場合、制御対象機器の操作に対応したジェスチャを認識し、特定の機器の特定の操作に結びつける必要がある。このため、ジェスチャの認識を正確に行う必要があり、ユーザは、ジェスチャと操作の対応関係を機器毎に知っておかなければならない。   When using a gesture in this way, it is necessary to recognize a gesture corresponding to the operation of the device to be controlled and connect it to a specific operation of a specific device. For this reason, it is necessary to accurately recognize the gesture, and the user needs to know the correspondence between the gesture and the operation for each device.

また、ジェスチャによって操作する内容が多岐にわたる選択肢を有する場合に、例えば、手の形状等でその選択肢を区別しようとすると、その形状を正確に判定する必要があり、実用的な精度の認識を行うには困難を伴う。   Also, when the contents operated by gestures have a wide range of options, for example, when trying to distinguish the options by the shape of the hand, it is necessary to accurately determine the shape, and recognition of practical accuracy is performed. There are difficulties.

そこで、本発明は、手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができるようにすることを特徴とする。   Therefore, the present invention is characterized in that control according to the gesture of the operator can be performed without performing complicated processing such as capturing a change in the shape of the hand.

本発明の一態様に係る制御装置は、操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像部と、前記撮像部で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出部と、前記対象部位位置検出部で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部と、前記マウスイベント変換部で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部と、を備えることを特徴とする。   The control device according to an aspect of the present invention captures an operator, generates an image signal indicating an image of the operator, and an image indicated by the image signal generated by the image capturing unit. A target part position detecting unit for detecting a movement of a specific part of the operator; a mouse event converting unit for generating a mouse event when the mouse moves in accordance with the movement detected by the target part position detecting unit; and the mouse And a display unit for displaying a graphical user interface screen in accordance with the mouse event generated by the event conversion unit.

本発明の一態様に係る制御方法は、操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像過程と、前記撮像過程で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出過程と、前記対象部位位置検出過程で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換過程と、前記マウスイベント変換過程で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示過程と、を有することを特徴とする。   A control method according to an aspect of the present invention includes: an imaging process for capturing an operator and generating a video signal indicating an image of the operator; and an image indicated by the video signal generated in the imaging process, A target part position detection process for detecting movement of a specific part of the operator, a mouse event conversion process for generating a mouse event when the mouse moves according to the movement detected in the target part position detection process, and the mouse A display process for displaying a graphical user interface screen in accordance with a mouse event generated in the event conversion process.

本発明の一態様によれば、手の形状変化を捉える等の複雑な処理を行うことなく、操作者のジェスチャに応じた制御を行うことができる。   According to one aspect of the present invention, control according to an operator's gesture can be performed without performing complicated processing such as capturing a change in the shape of a hand.

実施の形態1に係る制御装置の構成を概略的に示すブロック図である。2 is a block diagram schematically showing the configuration of a control device according to Embodiment 1. FIG. 実施の形態1に係る制御装置での処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing in the control device according to the first embodiment. 実施の形態1におけるテンプレートの一例を示す概略図である。6 is a schematic diagram illustrating an example of a template according to Embodiment 1. FIG. 実施の形態2に係る制御装置の構成を概略的に示すブロック図である。FIG. 5 is a block diagram schematically showing a configuration of a control device according to a second embodiment. 実施の形態3に係る制御システムの構成を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a configuration of a control system according to a third embodiment.

実施の形態1.
図1は、実施の形態1に係る制御装置100の構成を概略的に示すブロック図である。制御装置100は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部103と、入力部104と、グラフィカルユーザインタフェース作成部(以下、GUI作成部という)105と、表示部106とを備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing a configuration of a control device 100 according to the first embodiment. The control device 100 includes a camera 101, a target part position detection unit 102, a mouse event conversion unit 103, an input unit 104, a graphical user interface creation unit (hereinafter referred to as GUI creation unit) 105, and a display unit 106. Prepare.

カメラ101は、操作者を撮像して、この操作者の映像を示す映像信号を生成する撮像部である。カメラ101は、特に、操作者の手等の、動きを検出する対象部位が含まれるように撮像する。カメラ101は、撮像した映像を示す映像信号を対象部位位置検出部102に与える。
対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位の動きを検出する。例えば、まず、対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位を特定する。そして、対象部位位置検出部102は、映像において予め定められた2次元座標上で、特定された対象部位の動きの方向と速さ(大きさ)を、動きベクトルとして特定する。対象部位位置検出部102は、特定された動きベクトルをマウスイベント変換部103に与える。
The camera 101 is an imaging unit that captures an image of an operator and generates a video signal indicating the image of the operator. In particular, the camera 101 captures an image so as to include a target portion for detecting movement, such as an operator's hand. The camera 101 gives a video signal indicating the captured video to the target part position detection unit 102.
The target part position detection unit 102 detects the movement of the target part of the operator from the video indicated by the video signal given from the camera 101. For example, first, the target part position detection unit 102 specifies the target part of the operator from the video indicated by the video signal given from the camera 101. Then, the target part position detection unit 102 specifies the direction and speed (magnitude) of the movement of the specified target part as a motion vector on the predetermined two-dimensional coordinates in the video. The target part position detection unit 102 gives the identified motion vector to the mouse event conversion unit 103.

マウスイベント変換部103は、対象部位位置検出部102で検出された動きに応じてマウスが動いた際のマウスイベントを生成する。例えば、マウスイベント変換部103は、対象部位位置検出部102から与えられた動きベクトルに基づいて、マウスが動いた際に生成するマウスイベントと等価なマウスイベントを生成する。そして、マウスイベント変換部103は、生成したマウスイベントをGUI作成部105に与える。   The mouse event conversion unit 103 generates a mouse event when the mouse moves in accordance with the movement detected by the target part position detection unit 102. For example, the mouse event conversion unit 103 generates a mouse event equivalent to a mouse event generated when the mouse moves based on the motion vector given from the target part position detection unit 102. Then, the mouse event conversion unit 103 gives the generated mouse event to the GUI creation unit 105.

入力部104は、指示の入力を受け付ける。入力部104は、マウス又はキーボード等により構成することができる。そして、入力部104は、入力された指示を、マウスイベント又はキーボードイベントとして、GUI作成部105に与える。   The input unit 104 receives an instruction input. The input unit 104 can be configured by a mouse or a keyboard. Then, the input unit 104 gives the input instruction to the GUI creation unit 105 as a mouse event or a keyboard event.

GUI作成部105は、マウスイベント変換部103から与えられたマウスイベント、並びに、入力部104から与えられたマウスイベント又はキーボードイベント、の少なくとも何れか一方に従って、グラフィカルユーザインタフェース(以下、GUIという)を作成する。そして、GUI作成部105は、作成されたGUIを表示部106に与える。
表示部106は、GUI作成部105から与えられたGUIの画面を表示する。ここで、GUI作成部105から与えられるGUIは、マウスイベント変換部103で生成されたマウスイベントに従って作成されるため、表示部106は、マウスイベント変換部103で生成されたマウスイベントに従って、GUIの画面を表示することになる。
The GUI creation unit 105 generates a graphical user interface (hereinafter referred to as GUI) in accordance with at least one of the mouse event given from the mouse event conversion unit 103 and the mouse event or keyboard event given from the input unit 104. create. Then, the GUI creation unit 105 gives the created GUI to the display unit 106.
The display unit 106 displays the GUI screen given from the GUI creation unit 105. Here, since the GUI given from the GUI creation unit 105 is created according to the mouse event generated by the mouse event conversion unit 103, the display unit 106 displays the GUI according to the mouse event generated by the mouse event conversion unit 103. The screen will be displayed.

図2は、制御装置100での処理の一例を示すフローチャートである。
まず、カメラ101は、操作者を含む映像を撮像し、その映像信号を対象部位位置検出部102に与える(S10)。
FIG. 2 is a flowchart illustrating an example of processing in the control device 100.
First, the camera 101 captures an image including the operator and provides the image signal to the target part position detection unit 102 (S10).

対象部位位置検出部102は、カメラ101から与えられた映像信号で示される映像から、操作者の対象部位を特定して、特定された対象部位の、当該映像において予め定められた2次元座標軸上での位置を検出する(S11)。ジェスチャにおいては手を対象とすることが一般的であるため、対象部位は手とする。また、手の位置検出方法等は様々な開発がなされている。ここでは、手の位置を検出する方法自体は、既存の手法を活かして、最適と思われる方法を用いるものとする。例えば、米国特許第5594469号明細書、Freeman et al. Mitsubishi Electric Information Technology Center America、“Hand gesture machine control system”、に記載された、手の位置の検出方法を用いることができる。以下、米国特許第5594469号明細書の記載に基づいた、手の位置の検出方法の一例を説明する。   The target part position detection unit 102 specifies the operator's target part from the video indicated by the video signal given from the camera 101, and the specified target part on the predetermined two-dimensional coordinate axis in the video. The position at is detected (S11). Since it is common to use a hand as a target in a gesture, the target part is a hand. In addition, various developments have been made for hand position detection methods and the like. Here, as the method for detecting the position of the hand itself, it is assumed that an existing method is utilized and a method considered to be optimal is used. For example, US Pat. No. 5,594,469, Freeman et al. The hand position detection method described in Mitsubishi Electric Information Technology Center America, “Hand gesture machine control system” can be used. Hereinafter, an example of a hand position detection method based on the description in US Pat. No. 5,594,469 will be described.

操作者は、カメラ101に向かって、手のひらをかざす等して、監視の対象部位である手を対象部位位置検出部102に認識させる。対象部位位置検出部102は、局部方向性(local orientation)の相関を用いて、手の位置の検出を行なっている。具体的には、以下の通りである。   The operator causes the target part position detection unit 102 to recognize the hand that is the target part to be monitored by holding the palm of the hand toward the camera 101. The target part position detection unit 102 detects the position of the hand using the correlation of the local orientation. Specifically, it is as follows.

まず、操作者は、カメラ101から送られてくる手を含んだ映像信号で示される映像を表示部106に表示させた状態で、入力部104を用いて、手の初期位置を示す。対象部位位置検出部102は、カメラ101から送られてくる映像信号で示される映像の内、初期位置で示された範囲に対応する部分を、図示しない映像量子化器でデジタル信号に変換する。そして、対象部位位置検出部102は、デジタル信号化された映像において、x軸方向における画素の画像強度の微分値dI/dX、x軸と直交するy軸方向における画像強度の微分値dI/dYを、デジタル変換された画面全体について算出する。さらに、対象部位位置検出部102は、(dI/dX)及び(dI/dY)を加えた値の平方根を取ることで、コントラストイメージを生成する。ここで、対象部位位置検出部102は、コントラストイメージを閾値処理することで、コントラストの低い部分を無視して、ノイズを除去する。ここで、コントラストイメージを構成する各々の画素の値を、コントラスト値とする。 First, the operator uses the input unit 104 to indicate the initial position of the hand while displaying on the display unit 106 the video indicated by the video signal including the hand sent from the camera 101. The target part position detection unit 102 converts a portion corresponding to the range indicated by the initial position in the video indicated by the video signal sent from the camera 101 into a digital signal using a video quantizer (not shown). Then, the target part position detection unit 102, in the digitalized video, the differential value dI / dX of the image intensity of the pixel in the x-axis direction, and the differential value dI / dY of the image intensity in the y-axis direction orthogonal to the x-axis. Is calculated for the entire digitally converted screen. Further, the target part position detection unit 102 generates a contrast image by taking the square root of the value obtained by adding (dI / dX) 2 and (dI / dY) 2 . Here, the target part position detection unit 102 performs threshold processing on the contrast image, thereby ignoring the low-contrast portion and removing noise. Here, the value of each pixel constituting the contrast image is defined as a contrast value.

次に、対象部位位置検出部102は、検出対象部分についてx軸方向の微分値を対応するコントラスト値で除した値と、y軸方向の微分値を対応するコントラスト値で除した値とが、それぞれcosθ及びsinθとなる値θを位置の関数として求める。すなわち、対象部位位置検出部102は、sinθを定義する。このデータペア(cosθ,sinθ)のセットが、手の位置を検出するためのテンプレートを構成する。図3は、以上のようにして構成されたテンプレートの一例を示す概略図である。そして、対象部位位置検出部102は、以上のようにして構成されたテンプレートを、テンプレート記憶部としてのメモリ102aに記憶する。   Next, the target part position detection unit 102 has a value obtained by dividing the differential value in the x-axis direction by the corresponding contrast value and a value obtained by dividing the differential value in the y-axis direction by the corresponding contrast value for the detection target part. A value θ that is cos θ and sin θ is obtained as a function of position. That is, the target part position detection unit 102 defines sin θ. This set of data pairs (cos θ, sin θ) constitutes a template for detecting the position of the hand. FIG. 3 is a schematic diagram showing an example of a template configured as described above. Then, the target part position detection unit 102 stores the template configured as described above in the memory 102a serving as a template storage unit.

図2の説明に戻り、対象部位位置検出部102は、手の動きを検出する(S12)。手の動きの検出方法についても、既存の手法を活かして、最適と思われる方法を用いるものとする。例えば、上述した米国特許第5594469号明細書に記載された、手の動きの検出方法を用いることができる。以下、米国特許第5594469号明細書の記載に基づいた、手の動きの検出方法の一例を説明する。   Returning to the description of FIG. 2, the target part position detection unit 102 detects the movement of the hand (S12). As for the method of detecting hand movements, a method that seems to be optimal will be used by utilizing existing methods. For example, the hand movement detection method described in the above-mentioned US Pat. No. 5,594,469 can be used. Hereinafter, an example of a hand movement detection method based on the description of US Pat. No. 5,594,469 will be described.

対象部位位置検出部102は、カメラ101からの映像信号から、テンプレートを構成するのと同様の手順で、データペア(cosθ,sinθ)のセットからなる対象イメージを生成する。ここで、対象イメージは、カメラ101からの映像信号で示される全ての範囲(全画面)について生成されてもよく、また、前回手の位置が検出された周囲の予め定められた範囲について生成されてもよい。そして、対象部位位置検出部102は、手の動きの検出を開始する際、準備段階で作成したテンプレートを用いて、手の初期位置を、対象イメージと前記テンプレートとの相関を用いて検出する。この検出は、例えば、次のような処理によって行われる。   The target part position detection unit 102 generates a target image consisting of a set of data pairs (cos θ, sin θ) from the video signal from the camera 101 in the same procedure as that for forming a template. Here, the target image may be generated for all the ranges (full screen) indicated by the video signal from the camera 101, or for a predetermined range around the position where the previous hand position was detected. May be. Then, when the detection of the hand movement is started, the target part position detection unit 102 detects the initial position of the hand using the template created in the preparation stage using the correlation between the target image and the template. This detection is performed by the following process, for example.

まず、対象部位位置検出部102は、テンプレート及び対象イメージのそれぞれについて、x軸方向の微分値をコントラスト値で除した値と、y軸方向の微分値をコントラスト値で除した値とをひとつの大きなベクトルに集約し、2つのベクトル間の正規化相関値を下記の(1)式で算出する。

Figure 2014137667
First, for each of the template and the target image, the target part position detection unit 102 sets a value obtained by dividing the differential value in the x-axis direction by the contrast value and a value obtained by dividing the differential value in the y-axis direction by the contrast value. Aggregating into large vectors, the normalized correlation value between the two vectors is calculated by the following equation (1).
Figure 2014137667

さらに、カメラ101から送られてくる映像信号で示される映像を分割した領域において、上述したコントラスト値が閾値を超えた部分の占める割合を算出して、その割合がテンプレートにおいて算出された割合に近い部分を、例えば、閾値等で特定し、対象部位である手のある位置を含む領域の候補とする。以上のような相関値の組み合わせで手の位置が確定されると、同様の相関値を確定された位置の周辺領域で監視することで、手の動きをトラッキングでき、本発明で必要となる手の動きを得ることができる。   Further, in the area obtained by dividing the video indicated by the video signal sent from the camera 101, the ratio of the portion where the contrast value exceeds the threshold is calculated, and the ratio is close to the ratio calculated in the template. For example, the part is specified by a threshold or the like, and is set as a candidate for a region including a position where the hand is the target part. When the position of the hand is determined by the combination of the correlation values as described above, the movement of the hand can be tracked by monitoring the similar correlation value in the peripheral region of the determined position. Can get the movements.

そして、対象部位位置検出部102は、検出された手の位置情報から、一定時間毎に動きベクトルを算出して、算出された動きベクトルをマウスイベント変換部103に与える。   Then, the target part position detection unit 102 calculates a motion vector at regular time intervals from the detected hand position information, and gives the calculated motion vector to the mouse event conversion unit 103.

次に、マウスイベント変換部103は、対象部位位置検出部102から与えられた動きベクトルの方向及び速さを、マウスを動かした方向及び速さに変換する(S13)。   Next, the mouse event conversion unit 103 converts the direction and speed of the motion vector given from the target part position detection unit 102 into the direction and speed of moving the mouse (S13).

マウスでは、光学センサーによって検出された動きにより決まるマウスの現在座標(ポインタ位置)又はボタンの状態が変化した際に、イベントが発生する。本実施の形態では、ジェスチャとして手の動きのみに着目し、手を動かす方向と速さとに注目する。マウスイベント変換部103は、手を一定時間停止した後に動かした最初の方向をマウス移動の方向に、また、手の速さを、マウスを動かす速さに換算して、等価なマウスイベントを生成する。
この時、手は、所望の方向に振られる、言い換えると、往復動されることになるが、マウスイベント変換部103は、手を元の位置付近に戻す動きを無視して、その動きベクトルに対応するマウスイベントを生成しない。つまり、操作者は、手を一旦停止させた後、マウスを動かしたい方向に手を動かし、そのまま、手を停止させることなく手を戻す方向に動かし、元の手の停止位置付近に戻して、さらにマウスを動かしたい方向に手を動かすことで、手を戻す際の動きは無視されて、所望の方向へ、ポインタを移動させることができる。手を戻す動作の検出は、予め定められた時間内に、上述した動きベクトルが、予め定められた角度である90度以上変化した場合に適用する。ここで、動きベクトルの無視は、例えば、90度以上変化した動きベクトルが検出された時点以降の動きベクトルについて行われる。そして、動きベクトルの無視は、例えば、予め定められた時間以内に方向が90度以上変化した動きベクトルが再度検出されるまで行われる。なお、動きベクトルの無視は、手を一定時間停止した後に動かした最初の方向の動きベクトルに対して、予め定められた角度範囲(例えば、90度よりも小さい角度)の動きベクトルが算出されるまで行われてもよい。
In the mouse, an event occurs when the current coordinates (pointer position) of the mouse or the state of the button determined by the movement detected by the optical sensor changes. In this embodiment, attention is paid only to the movement of the hand as a gesture, and attention is paid to the direction and speed of moving the hand. The mouse event conversion unit 103 generates an equivalent mouse event by converting the first direction of movement after the hand is stopped for a certain period of time into the direction of mouse movement and the speed of the hand into the speed of moving the mouse. To do.
At this time, the hand is swung in a desired direction, in other words, reciprocated. However, the mouse event conversion unit 103 ignores the movement of returning the hand to the vicinity of the original position, and sets the motion vector. Does not generate the corresponding mouse event. In other words, the operator temporarily stops the hand, moves the hand in the direction in which the mouse is desired to move, moves it in the direction to return the hand without stopping the hand, returns it to the vicinity of the stop position of the original hand, Further, by moving the hand in the direction in which the mouse is desired to move, the movement when returning the hand is ignored, and the pointer can be moved in a desired direction. The detection of the action of returning the hand is applied when the above-described motion vector changes by 90 degrees or more, which is a predetermined angle, within a predetermined time. Here, the motion vector is ignored, for example, for motion vectors after a point in time when a motion vector changed by 90 degrees or more is detected. The motion vector is ignored until, for example, a motion vector whose direction has changed 90 degrees or more within a predetermined time is detected again. In the case of ignoring the motion vector, a motion vector in a predetermined angle range (for example, an angle smaller than 90 degrees) is calculated with respect to the motion vector in the first direction after the hand has been stopped for a certain time. It may be done.

また、一般に、操作者は、まず、マウスを目的位置近傍まで早く動かし、その後、マウスを目的位置に向かってゆっくりと動かす動作を行う。本実施の形態においてもこのような動きを念頭に置き、手の動きが早い場合は、動きベクトルの単位移動量当たりのポインタの位置の変化(移動量)を大きくし、手の動きが遅い場合は、動きベクトルの単位移動量当たりのポインタ位置の変化を小さくすることで、操作性を高める。言い換えると、マウスイベント変換部103は、動きベクトルで示される速さが早くなるほど、対象部位位置検出部102で検出される動きベクトルの単位移動量当たりの、ポインタの動く移動量がより大きくなるように、マウスイベントを生成する。例えば、マウスイベント変換部103は、動きベクトルで示される速さが早くなるほど、対象部位位置検出部102で検出される動きベクトルの単位移動量当たりの、マウスの移動量がより大きくなるように、マウスイベントを生成する。
なお、余分な手の動きによるポインタの移動を避けるため、マウスイベント変換部103は、動きベクトルの大きさ(速さ)が予め定められた閾値以下である場合には、そのような動きベクトルを無視して、そのような動きベクトルに基づくマウスイベントの生成を行わない。
In general, the operator first moves the mouse quickly to the vicinity of the target position, and then moves the mouse slowly toward the target position. Also in this embodiment, with such movement in mind, when the movement of the hand is fast, the change (movement amount) of the pointer per unit movement amount of the motion vector is increased, and the movement of the hand is slow Improves the operability by reducing the change in the pointer position per unit movement amount of the motion vector. In other words, the mouse event conversion unit 103 increases the movement amount of the pointer per unit movement amount of the motion vector detected by the target part position detection unit 102 as the speed indicated by the motion vector increases. Generate a mouse event. For example, the mouse event conversion unit 103 increases the movement amount of the mouse per unit movement amount of the motion vector detected by the target part position detection unit 102 as the speed indicated by the motion vector increases. Generate a mouse event.
In order to avoid the movement of the pointer due to an extra hand movement, the mouse event conversion unit 103 determines that such a motion vector is used when the magnitude (speed) of the motion vector is equal to or less than a predetermined threshold. Ignore and do not generate mouse events based on such motion vectors.

次に、GUI作成部105は、マウスイベント変換部103から与えられたマウスイベントに応じて、GUIを作成する(S14)。ここでは、GUI作成部105は、カメラ101で撮像された手の動き(ジェスチャ)に対応して、2次元座標軸上において、カーソル(ポインタ)が移動するGUIを作成する。そして、GUI作成部105は、作成されたGUIを表示部106に与える。
表示部106は、GUI作成部105から与えられたGUIの画面を表示する(S15)。これにより、GUIの画面において、ジェスチャに対応したカーソルの移動が表示される。
Next, the GUI creation unit 105 creates a GUI according to the mouse event given from the mouse event conversion unit 103 (S14). Here, the GUI creation unit 105 creates a GUI in which a cursor (pointer) moves on a two-dimensional coordinate axis in response to a hand movement (gesture) imaged by the camera 101. Then, the GUI creation unit 105 gives the created GUI to the display unit 106.
The display unit 106 displays the GUI screen given from the GUI creation unit 105 (S15). Thereby, the movement of the cursor corresponding to the gesture is displayed on the GUI screen.

なお、カーソルが、GUI上の選択肢に相当する位置に移動された後、通常のマウスでは、左クリックで選択項目が確定される。しかしながら、本実施の形態では、ジェスチャをマウスの動きに限定して使用することにより、ジェスチャ検出の簡易化が図られている。従って、従来からジェスチャの利用法として提案されている、手の形状等による操作の入力は検出されない。このため、例えば、GUI作成部105は、カーソルが所望の選択肢上に移動された後、一定時間止まった場合には、その選択肢がクリックされたものとみなして、そのマウスイベントを生成する。または、操作者は、入力部104を介して、クリック等の操作を入力してもよい。   In addition, after the cursor is moved to a position corresponding to an option on the GUI, the selection item is determined by left clicking with a normal mouse. However, in the present embodiment, the gesture detection is simplified by using the gesture limited to the movement of the mouse. Therefore, the input of the operation based on the shape of the hand, which has been conventionally proposed as a method of using the gesture, is not detected. For this reason, for example, when the cursor is moved over a desired option and then stops for a certain period of time, the GUI creation unit 105 regards that option as being clicked and generates the mouse event. Alternatively, the operator may input an operation such as a click through the input unit 104.

本実施の形態では、手の動きの方向と速さのみをジェスチャとして検出し、マウスイベントに変換してGUIのマウス入力として利用するので、簡易なジェスチャ検出で、従来からのGUIに対してもジェスチャを用いた操作を行うことができる。   In this embodiment, only the direction and speed of hand movement is detected as a gesture, converted into a mouse event and used as a mouse input of the GUI. Therefore, even with a conventional GUI, simple gesture detection is possible. An operation using a gesture can be performed.

また、対象部位の動きベクトルの変化を見ながら、手を戻す動作等の、マウスイベントに繋がらない動きを排除して、より自然でスムーズなマウスカーソルの動きを実現することができる。   In addition, it is possible to realize a more natural and smooth movement of the mouse cursor by observing a change in the motion vector of the target part and eliminating a movement that does not lead to a mouse event, such as an action of returning the hand.

実施の形態2.
図4は、実施の形態2に係る制御装置200の構成を概略的に示すブロック図である。制御装置200は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部203と、入力部104と、GUI作成部205と、表示部106と、マイク207と、音声認識部208と、キーボードイベント変換部209とを備える。実施の形態2に係る制御装置200は、マウスイベント変換部203及びGUI作成部205での処理の点、並びに、マイク207、音声認識部208及びキーボードイベント変換部209がさらに備えられている点において、実施の形態1に係る制御装置100と異なっている。
Embodiment 2. FIG.
FIG. 4 is a block diagram schematically showing the configuration of the control device 200 according to the second embodiment. The control device 200 includes a camera 101, a target part position detection unit 102, a mouse event conversion unit 203, an input unit 104, a GUI creation unit 205, a display unit 106, a microphone 207, a voice recognition unit 208, A keyboard event conversion unit 209. The control device 200 according to the second embodiment is further provided with a processing point in the mouse event conversion unit 203 and the GUI creation unit 205, and a microphone 207, a voice recognition unit 208, and a keyboard event conversion unit 209. This is different from the control device 100 according to the first embodiment.

マイク207は、音声を取得して、取得された音声を示す音声信号を生成する集音部である。マイク207は、生成した音声信号を音声認識部208に与える。
音声認識部208は、マイク207から与えられる音声信号で示される音声から言語を認識し、認識された言語の文字列を示す文字列データを生成する。そして、音声認識部208は、予め定められた文字列を示す文字列データについては、マウスイベント変換部203に与え、その他の文字列データについては、キーボードイベント変換部209に与える。例えば、音声認識部208は、「左クリック」及び「右クリック」等、マウスの操作を示す文字列については、マウスイベント変換部203に与え、キーボードの操作を示す文字列については、キーボードイベント変換部209に与える。
キーボードイベント変換部209は、音声認識部208から与えられた文字列データで示される文字列に対応するキーボードイベントを生成する。キーボードイベント変換部209は、生成されたキーボードイベントをGUI作成部205に与える。
The microphone 207 is a sound collection unit that acquires sound and generates a sound signal indicating the acquired sound. The microphone 207 gives the generated voice signal to the voice recognition unit 208.
The voice recognition unit 208 recognizes a language from the voice indicated by the voice signal given from the microphone 207, and generates character string data indicating a character string of the recognized language. Then, the voice recognition unit 208 gives the character string data indicating the predetermined character string to the mouse event conversion unit 203, and gives the other character string data to the keyboard event conversion unit 209. For example, the voice recognizing unit 208 gives a character string indicating a mouse operation such as “left click” and “right click” to the mouse event conversion unit 203, and converts a character string indicating a keyboard operation into a keyboard event conversion Part 209.
The keyboard event conversion unit 209 generates a keyboard event corresponding to the character string indicated by the character string data given from the voice recognition unit 208. The keyboard event conversion unit 209 gives the generated keyboard event to the GUI creation unit 205.

マウスイベント変換部203は、実施の形態1におけるマウスイベント変換部103と同様の処理を行う他、音声認識部208から与えられた文字列データで示される文字列に対応するマウスイベントを生成する。例えば、マウスイベント変換部203は、音声認識部208から「右クリック」又は「左クリック」を示す文字列データを取得すると、「右クリック」又は「左クリック」のマウスイベントを生成する。そして、マウスイベント変換部203は、生成されたマウスイベントをGUI作成部205に与える。   The mouse event conversion unit 203 performs the same processing as the mouse event conversion unit 103 in Embodiment 1, and generates a mouse event corresponding to the character string indicated by the character string data given from the voice recognition unit 208. For example, when the mouse event conversion unit 203 acquires character string data indicating “right click” or “left click” from the voice recognition unit 208, the mouse event conversion unit 203 generates a mouse event of “right click” or “left click”. Then, the mouse event conversion unit 203 gives the generated mouse event to the GUI creation unit 205.

GUI作成部205は、マウスイベント変換部203から与えられたマウスイベント、入力部104から与えられたマウスイベント又はキーイベント、並びに、キーボードイベント変換部209から与えられたキーボードイベントの少なくとも何れか一つに応じて、GUIを作成する。そして、GUI作成部205は、作成されたGUIを表示部106に与える。   The GUI creation unit 205 is at least one of a mouse event given from the mouse event conversion unit 203, a mouse event or key event given from the input unit 104, and a keyboard event given from the keyboard event conversion unit 209. In response to this, a GUI is created. Then, the GUI creation unit 205 gives the created GUI to the display unit 106.

実施の形態1では、GUI画面上のポインタ位置を移動するためにマウスを使う代わりに、ジェスチャを用いる方式を導入したが、GUI上では文字入力が必要な場合もある。実施の形態2では、以上の構成を有することにより、操作者は、ジェスチャを用いて所望の位置にカーソルを移動させた時点で、音声で、例えば、「クリック」と言えば、左クリックが行われるように、実施の形態1で示した方式を変更することもできる。また、実施の形態2では、「右クリック」等のマウスイベントのバリエーションにも対応できる。   In the first embodiment, a method of using a gesture instead of using a mouse to move the pointer position on the GUI screen has been introduced. However, character input may be required on the GUI. In the second embodiment, by having the above-described configuration, when the operator moves the cursor to a desired position using a gesture, for example, “click” means that a left click is performed. As shown, the system shown in the first embodiment can be changed. In the second embodiment, it is possible to deal with variations of mouse events such as “right click”.

実施の形態3.
図5は、実施の形態3に係る制御システム330の構成を概略的に示すブロック図である。制御システム330は、制御装置300と、制御対象装置340とを備える。制御装置300と、制御対象装置340とは、例えば、図示しないネットワークに接続することにより、通信を行うことができるように構成されている。
Embodiment 3 FIG.
FIG. 5 is a block diagram schematically showing the configuration of the control system 330 according to the third embodiment. The control system 330 includes a control device 300 and a control target device 340. For example, the control device 300 and the control target device 340 are configured to be able to communicate by connecting to a network (not shown).

制御装置300は、カメラ101と、対象部位位置検出部102と、マウスイベント変換部203と、入力部104と、GUI処理部310と、表示部106と、マイク207と、音声認識部208と、キーボードイベント変換部209と、通信部311とを備える。実施の形態3における制御装置300は、GUI作成部205の代わりにGUI処理部310を備える点、及び、通信部311をさらに備える点において、実施の形態2に係る制御装置200と異なっている。   The control device 300 includes a camera 101, a target part position detection unit 102, a mouse event conversion unit 203, an input unit 104, a GUI processing unit 310, a display unit 106, a microphone 207, a voice recognition unit 208, A keyboard event conversion unit 209 and a communication unit 311 are provided. The control device 300 according to the third embodiment is different from the control device 200 according to the second embodiment in that a GUI processing unit 310 is provided instead of the GUI creation unit 205 and a communication unit 311 is further provided.

GUI処理部310は、制御対象装置340から送られてくるGUIを、通信部311を介して受信し、受信されたGUIを106に与えて、表示部106にこのGUIの画面を表示させる。また、GUI処理部310は、マウスイベント変換部203から与えられたマウスイベント、入力部104から与えられたマウスイベント又はキーイベント、並びに、キーボードイベント変換部209から与えられたキーボードイベントの少なくとも何れか一つを、通信部311を介して、制御対象装置340に送信する。例えば、制御システム330が、VNC(Virtual Network Cpmputing)に対応したものであれば、GUI処理部310は、VNCクライアントプログラムにより実現することができる。また、制御システム330が、X−Windowに対応したものであれば、GUI処理部310は、Xサーバを実装することにより、実現することができる。   The GUI processing unit 310 receives the GUI sent from the control target device 340 via the communication unit 311, gives the received GUI to 106, and causes the display unit 106 to display the screen of this GUI. In addition, the GUI processing unit 310 is at least one of a mouse event given from the mouse event conversion unit 203, a mouse event or key event given from the input unit 104, and a keyboard event given from the keyboard event conversion unit 209. One is transmitted to the control target device 340 via the communication unit 311. For example, if the control system 330 is compatible with VNC (Virtual Network Computing), the GUI processing unit 310 can be realized by a VNC client program. Further, if the control system 330 is compatible with X-Window, the GUI processing unit 310 can be realized by mounting an X server.

通信部311は、制御対象装置340と通信するためのインタフェースである。例えば、通信部311は、NIC(Network Interface Card)により実現することができる。   The communication unit 311 is an interface for communicating with the control target device 340. For example, the communication unit 311 can be realized by a NIC (Network Interface Card).

制御対象装置340は、制御部341と、GUI作成部342と、通信部343とを備える。   The control target device 340 includes a control unit 341, a GUI creation unit 342, and a communication unit 343.

制御部341は、制御対象装置340の全体を制御する。
GUI作成部342は、制御装置300から与えられたマウスイベント又はキーイベントに応じて、GUIを作成する。そして、GUI作成部342は、作成されたGUIを通信部343を介して、制御装置300に送信する。例えば、制御システム330が、VNCに対応したものであれば、GUI作成部342は、VNCサーバプログラムにより実現することができる。また、制御システム330が、X−Windowに対応したものであれば、GUI作成部342は、Xクライアントを実装することにより、実現することができる。
The control unit 341 controls the entire control target device 340.
The GUI creation unit 342 creates a GUI in response to a mouse event or key event given from the control device 300. Then, the GUI creation unit 342 transmits the created GUI to the control device 300 via the communication unit 343. For example, if the control system 330 is compatible with VNC, the GUI creation unit 342 can be realized by a VNC server program. If the control system 330 is compatible with X-Window, the GUI creation unit 342 can be realized by installing an X client.

通信部343は、制御装置300と通信するためのインタフェースである。例えば、通信部343は、NICにより実現することができる。   The communication unit 343 is an interface for communicating with the control device 300. For example, the communication unit 343 can be realized by a NIC.

実施の形態3における制御装置300は、ネットワークに接続された別の装置である制御対象装置340のGUIの画面を、表示部106に表示させて、離れた場所にある別の装置を制御することができる。具体的には、制御装置300は、PC用途で広く用いられるVNC又はX-Window等を導入することにより実装される。   The control device 300 according to the third embodiment displays a GUI screen of the control target device 340, which is another device connected to the network, on the display unit 106, and controls another device at a remote location. Can do. Specifically, the control device 300 is implemented by introducing VNC or X-Window that is widely used in PC applications.

例えば、VNCでは、サーバーとなるPCは、その画像をビットマップデータとして、クライアント装置に送る。クライアント装置側では、受け取ったビットマップデータをフレームバッファ上に展開し、表示画面上に表示する。一方、クライアント装置には、マウス及びキーボードが接続され、クライアント装置は、ネットワーク経由でマウスイベント及びキーボードイベントをRFBと呼ばれるプロトコルでサーバーに送ることにより、画面を見ながらPCを操作することができる。   For example, in VNC, a PC serving as a server sends the image as bitmap data to a client device. On the client device side, the received bitmap data is expanded on the frame buffer and displayed on the display screen. On the other hand, a mouse and a keyboard are connected to the client device, and the client device can operate the PC while watching the screen by sending a mouse event and a keyboard event to the server using a protocol called RFB via the network.

従って、実施の形態2におけるGUI作成部205を、例えば、VNCクライアントプログラムで実現されるGUI処理部310で置き換えることにより、制御対象装置340の操作についてもジェスチャ及び音声による入力インタフェースを用いて行うことができる。   Therefore, by replacing the GUI creation unit 205 in the second embodiment with, for example, the GUI processing unit 310 realized by a VNC client program, the operation of the control target device 340 is also performed using the gesture and voice input interface. Can do.

また、X−Windowを用いる場合にも、同様な構成で実現することができる。例えば、GUI処理部310としてはXサーバーを実装し、制御対象装置340におけるGUI作成部342は、Xクライアントとして構築されればよい。Xサーバー及びXクライアントでも、上記VNC同様、キーボード及びマウス入力をXサーバーで取得して、クライアントに送出する。また、Xクライアントは、Xサーバーを有する装置自体の制御に用いることも、ネットワーク接続された他の装置の制御用のXクライアントを接続して、対象の装置を制御することもできる。   Moreover, when using X-Window, it is realizable with the same structure. For example, an X server may be mounted as the GUI processing unit 310, and the GUI creation unit 342 in the control target device 340 may be configured as an X client. Also in the X server and the X client, the keyboard and mouse input are acquired by the X server and transmitted to the client, as in the VNC. The X client can be used for controlling the device itself having the X server, or can be connected to an X client for controlling other devices connected to the network to control the target device.

このように、実施の形態1及び2で導入されたジェスチャ及び音声認識による入力インタフェースは、マウスイベント及びキーボードイベントに変換したデータとして得られるので、VNC又はX−Windowシステムを用いることによりネットワーク接続された別の装置のユーザインタフェースを操作するためにも容易に展開可能となっている。   As described above, since the input interface based on the gesture and voice recognition introduced in the first and second embodiments is obtained as data converted into the mouse event and the keyboard event, it is connected to the network by using the VNC or the X-Window system. It can also be easily deployed to operate the user interface of another device.

実施の形態1〜3によれば、ジェスチャによって取得される情報を、手等特定の部位の動き量及び方向に限定して検出する。そして、予め設定された2次元座標軸上での変化は、マウスを動かした際に発生するイベントの形式に変換されて、制御対象に伝達することで、手の形状変化を捉える等の複雑な処理を伴うジェスチャ検出行うことなく、画面上に表示されたGUIのカーソルを変換されたイベントに基づいて移動させることができる。これにより、操作の選択等が行われるので、マウスを使うことを前提に作成されたGUIをそのまま利用して、ジェスチャ対応の装置とすることができる。   According to the first to third embodiments, information acquired by a gesture is limited to a movement amount and direction of a specific part such as a hand. And the change on the preset 2D coordinate axis is converted into the format of the event that occurs when the mouse is moved, and it is transmitted to the control object, so that complicated processing such as capturing the shape change of the hand It is possible to move the GUI cursor displayed on the screen based on the converted event without performing gesture detection accompanied with. As a result, selection of operations and the like are performed, and thus a GUI created on the premise that the mouse is used can be used as it is to make a gesture-compatible device.

また、音声認識部208により、文字入力を可能とすると共に、ジェスチャ認識におけるマウスイベントの内、クリック等の操作を音声認識で行うことにより、ジェスチャ認識の簡易化を図ることができる。   In addition, the voice recognition unit 208 can input characters, and the gesture recognition can be simplified by performing an operation such as clicking a mouse event in gesture recognition by voice recognition.

更に、上記ジェスチャ及び音声認識で生成されたイベントを、VNC等のキーボードイベント及びマウスイベントとして用いることで、ネットワーク接続された別の機器の操作を含めて、入力インタフェースを利用することができる。   Furthermore, by using the events generated by the gesture and voice recognition as keyboard events and mouse events such as VNC, it is possible to use the input interface including operations of other devices connected to the network.

100,200,300 制御装置、 101 カメラ、 102 対象部位位置検出部、 103,203 マウスイベント変換部、 104 入力部、 105,205,342 グラフィカルユーザインタフェース作成部、 106 表示部、 207 マイク、 208 音声認識部、 209 キーボードイベント変換部、 310 グラフィカルユーザインタフェース処理部、 311,343 通信部、 340 制御対象装置、 341 制御部。   100, 200, 300 control device, 101 camera, 102 target part position detection unit, 103, 203 mouse event conversion unit, 104 input unit, 105, 205, 342 graphical user interface creation unit, 106 display unit, 207 microphone, 208 audio Recognition unit, 209 keyboard event conversion unit, 310 graphical user interface processing unit, 311, 343 communication unit, 340 control target device, 341 control unit.

Claims (13)

操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像部と、
前記撮像部で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出部と、
前記対象部位位置検出部で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換部と、
前記マウスイベント変換部で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示部と、を備えること
を特徴とする制御装置。
An imaging unit that images the operator and generates a video signal indicating the video of the operator;
A target part position detection unit that detects a movement of the specific part of the operator from the video indicated by the video signal generated by the imaging unit;
A mouse event conversion unit that generates a mouse event when the mouse moves according to the movement detected by the target part position detection unit;
And a display unit for displaying a graphical user interface screen in accordance with the mouse event generated by the mouse event conversion unit.
前記対象部位位置検出部は、前記操作者の特定部位の動きを、予め定められた2次元座標上での動きベクトルとして検出し、
前記マウスイベント変換部は、前記対象部位位置検出部で検出された動きベクトルで示される方向及び速さを、前記マウスが動いた方向及び速さに変換して、前記マウスイベントを生成すること
を特徴とする請求項1に記載の制御装置。
The target part position detection unit detects the movement of the specific part of the operator as a motion vector on a predetermined two-dimensional coordinate,
The mouse event conversion unit generates the mouse event by converting the direction and speed indicated by the motion vector detected by the target part position detection unit into the direction and speed of movement of the mouse. The control device according to claim 1, wherein
前記マウスイベント変換部は、前記対象部位位置検出部で検出された動きベクトルに基づいて、前記操作者の特定部位が静止状態から動き出した時点において前記対象部位位置検出部で検出された動きベクトルで特定される方向を、前記マウスが動いた方向とし、当該時点以降において前記対象部位位置検出部で検出された動きベクトルで特定される速さに対応する速さを、前記マウスが動いた速さとすること
を特徴とする請求項2に記載の制御装置。
The mouse event conversion unit is a motion vector detected by the target part position detection unit when the specific part of the operator starts moving from a stationary state based on the motion vector detected by the target part position detection unit. The specified direction is the direction in which the mouse has moved, and the speed corresponding to the speed specified by the motion vector detected by the target site position detector after that time is the speed at which the mouse has moved. The control device according to claim 2, wherein:
前記マウスイベント変換部は、前記対象部位位置検出部で検出された動きベクトルで特定される方向が、予め定められた時間内において、予め定められた角度以上変化した場合には、当該変化後の動きベクトルに基づくマウスイベントの生成を行わないこと
を特徴とする請求項2又は3に記載の制御装置。
When the direction specified by the motion vector detected by the target part position detection unit changes by a predetermined angle or more within a predetermined time, the mouse event conversion unit The control device according to claim 2 or 3, wherein a mouse event is not generated based on a motion vector.
前記マウスイベント変換部は、前記対象部位位置検出部で検出された動きベクトルで示される速さが速いほど、前記対象部位位置検出部で検出された動きベクトルで示される単位移動量当たりの、ポインタの移動量がより大きくなるように、前記マウスイベントを生成すること
を特徴とする請求項2から4の何れか一項に記載の制御装置。
The mouse event conversion unit, the faster the speed indicated by the motion vector detected by the target part position detection unit, the faster the pointer per unit movement amount indicated by the motion vector detected by the target part position detection unit The control device according to any one of claims 2 to 4, wherein the mouse event is generated so that the movement amount of the mouse increases.
音声を取得する集音部と、
前記集音部で取得された音声から言語を認識して、当該認識された言語の文字列を示す文字列データを生成する音声認識部と、をさらに備え、
前記マウスイベント変換部は、前記音声認識部で生成された文字列データで示される文字列が予め定められた文字列である場合に、前記音声認識部で生成された文字列データで示される文字列に対応するマウスイベントを生成すること
を特徴とする請求項1から5の何れか一項に記載の制御装置。
A sound collection unit for acquiring sound;
A speech recognition unit that recognizes a language from the speech acquired by the sound collection unit and generates character string data indicating a character string of the recognized language;
The mouse event conversion unit, when the character string indicated by the character string data generated by the voice recognition unit is a predetermined character string, the character indicated by the character string data generated by the voice recognition unit The control device according to any one of claims 1 to 5, wherein a mouse event corresponding to the column is generated.
前記音声認識部で生成された文字列データで示される文字列が予め定められた文字列ではない場合に、前記音声認識部で生成された文字列データで示される文字列がキーボードで入力された場合のキーボードイベントを生成するキーボードイベント変換部をさらに備え、
前記表示部は、前記マウスイベント変換部で生成されたマウスイベント及び前記キーボードイベント変換部で生成されたキーボードイベントに従って、グラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項6に記載の制御装置。
When the character string indicated by the character string data generated by the voice recognition unit is not a predetermined character string, the character string indicated by the character string data generated by the voice recognition unit is input with the keyboard A keyboard event conversion unit for generating a keyboard event of the case,
The control according to claim 6, wherein the display unit displays a screen of a graphical user interface in accordance with the mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit. apparatus.
前記マウスイベント変換部で生成されたマウスイベントに従って、グラフィカルユーザインタフェースを生成するグラフィカルユーザインタフェース生成部をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース生成部で生成されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項1から6の何れか一項に記載の制御装置。
A graphical user interface generating unit that generates a graphical user interface according to the mouse event generated by the mouse event converting unit;
The control device according to claim 1, wherein the display unit displays a screen of a graphical user interface generated by the graphical user interface generation unit.
前記マウスイベント変換部で生成されたマウスイベント及び前記キーボードイベント変換部で生成されたキーボードイベントに従って、グラフィカルユーザインタフェースを生成するグラフィカルユーザインタフェース生成部をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース生成部で生成されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項7に記載の制御装置。
In accordance with the mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit, further comprising a graphical user interface generation unit for generating a graphical user interface,
The control device according to claim 7, wherein the display unit displays a graphical user interface screen generated by the graphical user interface generation unit.
制御対象装置と通信する通信部と、
前記マウスイベント変換部で生成されたマウスイベントを、前記通信部を介して、前記制御対象装置に送信するとともに、当該送信されたマウスイベントに従って、前記制御対象装置で生成されたグラフィカルユーザインタフェースを、前記通信部を介して受信するグラフィカルユーザインタフェース処理部と、をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース処理部で受信されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項1から6の何れか一項に記載の制御装置。
A communication unit that communicates with the control target device;
A mouse event generated by the mouse event conversion unit is transmitted to the control target device via the communication unit, and a graphical user interface generated by the control target device according to the transmitted mouse event, A graphical user interface processing unit for receiving via the communication unit,
The control device according to claim 1, wherein the display unit displays a screen of a graphical user interface received by the graphical user interface processing unit.
制御対象装置と通信する通信部と、
前記マウスイベント変換部で生成されたマウスイベント及び前記キーボードイベント変換部で生成されたキーボードイベントを、前記通信部を介して、前記制御対象装置に送信するとともに、当該送信されたマウスイベント及びキーボードイベントに従って、前記制御対象装置で生成されたグラフィカルユーザインタフェースを、前記通信部を介して受信するグラフィカルユーザインタフェース処理部と、をさらに備え、
前記表示部は、前記グラフィカルユーザインタフェース処理部で受信されたグラフィカルユーザインタフェースの画面を表示すること
を特徴とする請求項7に記載の制御装置。
A communication unit that communicates with the control target device;
The mouse event generated by the mouse event conversion unit and the keyboard event generated by the keyboard event conversion unit are transmitted to the control target device via the communication unit, and the transmitted mouse event and keyboard event are transmitted. And a graphical user interface processing unit that receives a graphical user interface generated by the control target device via the communication unit,
The control device according to claim 7, wherein the display unit displays a screen of a graphical user interface received by the graphical user interface processing unit.
前記グラフィカルユーザインタフェース処理部は、VNCのクライアント又はX−WindowのXサーバーに対応したものであること
を特徴とする請求項10又は11に記載の制御装置。
The control device according to claim 10 or 11, wherein the graphical user interface processing unit corresponds to a VNC client or an X-Window X server.
操作者を撮像して、当該操作者の映像を示す映像信号を生成する撮像過程と、
前記撮像過程で生成された映像信号で示される映像から、前記操作者の特定部位の動きを検出する対象部位位置検出過程と、
前記対象部位位置検出過程で検出された動きに応じてマウスが動いた際のマウスイベントを生成するマウスイベント変換過程と、
前記マウスイベント変換過程で生成されたマウスイベントに従って、グラフィカルユーザインタフェースの画面を表示する表示過程と、を有すること
を特徴とする制御方法。
An imaging process of imaging the operator and generating a video signal indicating the operator's video;
From the video shown by the video signal generated in the imaging process, the target part position detection process for detecting the movement of the specific part of the operator,
A mouse event conversion process for generating a mouse event when the mouse moves according to the movement detected in the target part position detection process;
A display process for displaying a graphical user interface screen in accordance with the mouse event generated in the mouse event conversion process.
JP2013005208A 2013-01-16 2013-01-16 Control device and control method Pending JP2014137667A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013005208A JP2014137667A (en) 2013-01-16 2013-01-16 Control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005208A JP2014137667A (en) 2013-01-16 2013-01-16 Control device and control method

Publications (2)

Publication Number Publication Date
JP2014137667A true JP2014137667A (en) 2014-07-28
JP2014137667A5 JP2014137667A5 (en) 2015-11-12

Family

ID=51415143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005208A Pending JP2014137667A (en) 2013-01-16 2013-01-16 Control device and control method

Country Status (1)

Country Link
JP (1) JP2014137667A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125475A1 (en) * 2015-02-04 2016-08-11 株式会社デンソー Image display control device, electronic mirror system, and image display control program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272662A (en) * 1998-03-20 1999-10-08 Sharp Corp Speech information processing apparatus and method, and medium storing control program therefor
JP2000196914A (en) * 1998-10-13 2000-07-14 Sony Electronics Inc Action detecting interface
JP2000267799A (en) * 1999-03-19 2000-09-29 Mitsubishi Electric Corp Coordinate position control system, coordinate position control method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2004258837A (en) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> Cursor operating device, its method and its program
US20110001699A1 (en) * 2009-05-08 2011-01-06 Kopin Corporation Remote control of host application using motion and voice commands
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
JP2011159034A (en) * 2010-01-29 2011-08-18 Sony Corp Information processor and information processing method
JP2011221672A (en) * 2010-04-06 2011-11-04 Sony Corp Image processing apparatus, image processing method, program, and electronic device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272662A (en) * 1998-03-20 1999-10-08 Sharp Corp Speech information processing apparatus and method, and medium storing control program therefor
JP2000196914A (en) * 1998-10-13 2000-07-14 Sony Electronics Inc Action detecting interface
JP2000267799A (en) * 1999-03-19 2000-09-29 Mitsubishi Electric Corp Coordinate position control system, coordinate position control method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2004258837A (en) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> Cursor operating device, its method and its program
JP2011513847A (en) * 2008-02-27 2011-04-28 ジェスチャー テック,インコーポレイテッド Advanced input using recognized gestures
US20110001699A1 (en) * 2009-05-08 2011-01-06 Kopin Corporation Remote control of host application using motion and voice commands
JP2011159034A (en) * 2010-01-29 2011-08-18 Sony Corp Information processor and information processing method
JP2011221672A (en) * 2010-04-06 2011-11-04 Sony Corp Image processing apparatus, image processing method, program, and electronic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125475A1 (en) * 2015-02-04 2016-08-11 株式会社デンソー Image display control device, electronic mirror system, and image display control program
US10076998B2 (en) 2015-02-04 2018-09-18 Denso Corporation Image display control apparatus, electronic mirror system, and image display control program

Similar Documents

Publication Publication Date Title
US9195345B2 (en) Position aware gestures with visual feedback as input method
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
JP6424601B2 (en) Display control method, information processing program, and information processing apparatus
US10055064B2 (en) Controlling multiple devices with a wearable input device
JP6372487B2 (en) Information processing apparatus, control method, program, and storage medium
US9158391B2 (en) Method and apparatus for controlling content on remote screen
EP2908215B1 (en) Method and apparatus for gesture detection and display control
CN111475059A (en) Gesture detection based on proximity sensor and image sensor
TW201447740A (en) Device, method and graphical user interface for adjusting the appearance of the control
WO2020078319A1 (en) Gesture-based manipulation method and terminal device
US20190286255A1 (en) Electronic whiteboard, image display method, and recording medium
JP2015118442A (en) Information processor, information processing method, and program
US20190096130A1 (en) Virtual mobile terminal implementing system in mixed reality and control method thereof
JPWO2010095204A1 (en) Interface control apparatus and method
JP5266416B1 (en) Test system and test program
CN101042620A (en) Pointing input device, method, and system using image pattern
CN109104573B (en) Method for determining focusing point and terminal equipment
KR20090093220A (en) Used the infrared ray camera the space projection presentation system
CN104102334B (en) Remote device control method and remote control system
JP2014137667A (en) Control device and control method
CN111913574A (en) Method, apparatus, electronic device and computer readable medium for controlling device
US9761009B2 (en) Motion tracking device control systems and methods
JP2013257830A (en) Information processor
CN103902028B (en) Input equipment, interactive system and input method
KR20070025138A (en) Spatial Projection Presentation System and Recognition Method for 3D Motion in Space

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170214