[go: up one dir, main page]

JP6994206B2 - An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method - Google Patents

An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method Download PDF

Info

Publication number
JP6994206B2
JP6994206B2 JP2020158130A JP2020158130A JP6994206B2 JP 6994206 B2 JP6994206 B2 JP 6994206B2 JP 2020158130 A JP2020158130 A JP 2020158130A JP 2020158130 A JP2020158130 A JP 2020158130A JP 6994206 B2 JP6994206 B2 JP 6994206B2
Authority
JP
Japan
Prior art keywords
gesture
user
hand
control command
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020158130A
Other languages
Japanese (ja)
Other versions
JP2021184232A (en
Inventor
ス ペ、ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobesoft Co Ltd
Original Assignee
Tobesoft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tobesoft Co Ltd filed Critical Tobesoft Co Ltd
Publication of JP2021184232A publication Critical patent/JP2021184232A/en
Application granted granted Critical
Publication of JP6994206B2 publication Critical patent/JP6994206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置およびその動作方法に関する。 The present invention relates to an electronic terminal device that recognizes a user's hand gesture and executes a control command, and an operation method thereof.

最近、タッチスクリーンが搭載された様々な電子端末装置が発売されるにつれて、このような電子端末装置を制御するための様々なインターフェース技術が登場している。タッチスクリーンが搭載された電子端末装置は、タッチスクリーン上に入力されるユーザのタッチ入力パターンを認識し、該パターンに対応する制御命令を実行する形態で動作する。 Recently, as various electronic terminal devices equipped with touch screens have been released, various interface technologies for controlling such electronic terminal devices have appeared. The electronic terminal device equipped with the touch screen operates in a form of recognizing a user's touch input pattern input on the touch screen and executing a control command corresponding to the pattern.

さらに、最近、VR(Virtual Reality)機器などが登場することによって、別のコントローラー無しにユーザのジェスチャーだけで機器を制御できるようにするインターフェース技術に関する研究が活発に行われている。 Further, recently, with the advent of VR (Virtual Reality) devices and the like, research on interface technology that enables the device to be controlled only by a user's gesture without another controller is being actively researched.

このようなインターフェース技術は、所定のカメラを介してユーザの手の模様を撮影した後、撮影されたイメージでのユーザの手の模様に応じて、それに対応する適切な制御命令を電子端末装置上に印加するように構成される。 Such an interface technology captures a pattern of a user's hand through a predetermined camera, and then issues an appropriate control command corresponding to the pattern of the user's hand in the captured image on the electronic terminal device. Is configured to apply to.

このように、ユーザが特定形態の手の模様を作るだけで機器を制御できるようにするインターフェース技術は、VR機器などのように別のコントローラーを用いない次世代マルチメディア装置における活用性が高いという点で、技術に対する需要が次第に増加する傾向である。 In this way, the interface technology that allows the user to control the device simply by creating a specific hand pattern is said to be highly useful in next-generation multimedia devices that do not use another controller, such as VR devices. In that respect, the demand for technology tends to increase gradually.

本発明は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行できる電子端末装置およびその動作方法を提示する。 In the present invention, when the user takes a predetermined hand pattern, an image for the user's hand is acquired through the camera, joint points for the user's hand are extracted from the image, and gesture confirmation is performed for the user's hand area. Appropriate control command corresponding to the pattern of the user's hand by checking which joint point of each joint point belongs to the reference circle after generating a predetermined reference circle for An electronic terminal device capable of executing the above and an operation method thereof are presented.

本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置は、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部、カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するイメージ取得部、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する関節ポイント抽出部、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成する基準円生成部、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するジェスチャーベクトル生成部、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する類似度確認部、および前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する制御命令実行部を含む。 The electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention is preliminarily corresponding to a plurality of preset control commands different from each other and each of the plurality of control commands. Multiple n (n is a natural number of 2 or more) -dimensional gesture judgment reference vectors that are different from each other-the plurality of gesture judgment reference vectors are vectors having the codes of "0" and "1" as components. A stored gesture judgment reference vector storage unit, an image acquisition unit that captures a user's hand (Hand) through a camera and acquires an image including the user's hand, and a user's hand area from the image. A joint point extraction unit that detects and extracts n (n is a natural number of 2 or more) joint points from the user's hand area, and a virtual reference circle for gesture confirmation for the user's hand area. The reference circle generation unit that generates the By assigning a code of "1" to the located point and assigning a code of "0" to the point located outside the virtual reference circle, it was assigned to each of the n joint points. The similarity between each of the plurality of gesture judgment reference vectors stored in the gesture vector generation unit that generates the n-dimensional gesture vector having the code as a component and the gesture judgment reference vector storage unit and the gesture vector is determined. After the calculation, the first gesture determination is performed from the similarity confirmation unit for confirming the first gesture determination reference vector whose similarity is maximized among the plurality of gesture determination reference vectors, and the gesture determination reference vector storage unit. A control command execution unit that executes the first control command after confirming the first control command stored corresponding to the reference vector with the control command corresponding to the pattern of the user's hand is included.

また、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部を保持するステップ、カメラを介してユーザの手を撮影して前記ユーザの手が含まれたイメージを取得するステップ、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出するステップ、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円を生成するステップ、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するステップ、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認するステップ、および前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行するステップを含む。 Further, the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention includes a plurality of preset control commands different from each other and each of the plurality of control commands. Multiple n (n is a natural number of 2 or more) dimensions that are preset to correspond to each other and differ from each other. Gesture judgment reference vector-The plurality of gesture judgment reference vectors have codes of "0" and "1" as components. The step of holding the gesture judgment reference vector storage unit in which the user's hand is stored, the step of photographing the user's hand through the camera and acquiring the image including the user's hand, and the step of acquiring the image including the user's hand from the image. Step to detect the hand area of the user and extract n (n is a natural number of 2 or more) joint points from the user's hand area, and generate a virtual reference circle for gesture confirmation for the user's hand area. Step, check whether the n joint points are located inside the virtual reference circle, and for the points located inside the virtual reference circle among the n joint points. By assigning the code of "1" and assigning the code of "0" to the points located outside the virtual reference circle, the code assigned to each of the n joint points is included as a component. A step of generating an n-dimensional gesture vector, after calculating the similarity between each of the plurality of gesture judgment reference vectors stored in the gesture judgment reference vector storage unit and the gesture vector, the plurality of gestures. A step of confirming the first gesture judgment reference vector in which the similarity is calculated to the maximum among the judgment reference vectors, and a first stored from the gesture judgment reference vector storage unit corresponding to the first gesture judgment reference vector. (1) The step includes a step of executing the first control command after confirming the control command with the control command corresponding to the pattern of the user's hand.

本発明は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行できる電子端末装置およびその動作方法を提示することができる。 In the present invention, when the user takes a predetermined hand pattern, an image for the user's hand is acquired through the camera, joint points for the user's hand are extracted from the image, and gesture confirmation is performed for the user's hand area. Appropriate control command corresponding to the pattern of the user's hand by checking which joint point of each joint point belongs to the reference circle after generating a predetermined reference circle for It is possible to present an electronic terminal device capable of executing the above and an operation method thereof.

本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の構造を示す図である。It is a figure which shows the structure of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention. 本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作を説明するための図である。It is a figure for demonstrating the operation of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention. 本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作を説明するための図である。It is a figure for demonstrating the operation of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention. 本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作を説明するための図である。It is a figure for demonstrating the operation of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention. 本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作を説明するための図である。It is a figure for demonstrating the operation of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention. 本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法を示すフローチャートである。It is a flowchart which shows the operation method of the electronic terminal apparatus which recognizes a user's hand gesture and executes a control command by one Embodiment of this invention.

以下では、本発明に係る実施形態を添付された図面を参照して詳しく説明する。このような説明は本発明を特定の実施形態に対して限定しようとするものではなく、本発明の思想および技術範囲に含まれる全ての変更、均等物乃至代替物を含むものとして理解しなければならない。各図面を説明する際に類似した参照符号は類似した構成要素に付することにし、特に定義しない限り、技術的または科学的な用語を含めて本明細書上で用いられる全ての用語は本発明が属する技術分野における通常の知識を有した者によって一般的に理解されるものと同様の意味を有する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. Such description is not intended to limit the invention to any particular embodiment and must be understood as including all modifications, equivalents or alternatives contained within the ideas and technical scope of the invention. It doesn't become. Similar reference numerals will be attached to similar components in the description of each drawing, and unless otherwise defined, all terms used herein, including technical or scientific terms, are the present invention. It has the same meaning as what is generally understood by those with ordinary knowledge in the technical field to which it belongs.

本文書において、ある部分がある構成要素を「含む」とする時、これは、特に反する記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいことを意味する。また、本発明の様々な実施形態において、各構成要素、機能ブロックまたは手段は一つまたはそれ以上の下部構成要素で構成されてもよく、各構成要素が実行する電気、電子、機械的な機能は電子回路、集積回路、ASIC(Application Specific Integrated Circuit)などのような公知の様々な素子または機械的要素で実現されてもよく、各々個別に実現されるかまたは2以上が一つに統合されて実現されてもよい。 In this document, when a component is referred to as "contains" a component, this does not exclude other components unless otherwise stated, and may further include other components. do. Also, in various embodiments of the invention, each component, functional block or means may be composed of one or more subcomponents, the electrical, electronic and mechanical functions performed by each component. May be realized by various known elements or mechanical elements such as electronic circuits, integrated circuits, ASICs (Application Specific Integrated Circuits), etc., each of which is individually realized or two or more integrated into one. May be realized.

一方、添付されたブロック図のブロックやフローチャートのステップは、汎用コンピュータ、特殊用コンピュータ、携帯用ノートブックコンピュータ、ネットワークコンピュータなど、データプロセッシング可能な装置のプロセッサやメモリに搭載され、指定された機能を実行するコンピュータプログラム命令(instructions)を意味するものとして解釈できる。これらのコンピュータプログラム命令はコンピュータ装置に備えられたメモリまたはコンピュータ読み取り可能なメモリに格納できるため、ブロック図のブロックまたはフローチャートのステップで説明された機能はそれを実行する命令手段を含む製造物に生産されてもよい。さらに、各ブロックまたは各ステップは、特定の論理的機能を実行するための一つ以上の実行可能な命令を含むモジュール、セグメントまたはコードの一部を表すことができる。また、幾つかの代替可能な実施形態においては、ブロックまたはステップで言及された機能が定められた順序とは異なるように実行できるということを注目しなければならない。例えば、次いで図示された二つのブロックまたはステップは、実質的に同時に実行されてもよく、または逆順に実行されてもよく、場合によっては、一部のブロックまたはステップが省略された状態で実行されてもよい。
図1は、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の構造を示す図である。
On the other hand, the blocks of the attached block diagram and the steps of the flowchart are installed in the processor and memory of a device capable of data processing such as a general-purpose computer, a special computer, a portable notebook computer, and a network computer, and perform specified functions. It can be interpreted as meaning the computer program instructions to be executed. Since these computer program instructions can be stored in the memory provided in the computer device or in the computer-readable memory, the functions described in the blocks of the block diagram or the steps of the flowchart are produced in the product including the instruction means to execute it. May be done. In addition, each block or step can represent part of a module, segment, or code that contains one or more executable instructions to perform a particular logical function. It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps can be performed out of a defined order. For example, the two blocks or steps shown below may be executed substantially simultaneously or in reverse order, and in some cases may be executed with some blocks or steps omitted. You may.
FIG. 1 is a diagram showing a structure of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention.

図1を参照すれば、本発明に係る電子端末装置110は、ジェスチャー判断基準ベクトル格納部111、イメージ取得部112、関節ポイント抽出部113、基準円生成部114、ジェスチャーベクトル生成部115、類似度確認部116および制御命令実行部117を含む。 Referring to FIG. 1, the electronic terminal device 110 according to the present invention has a gesture determination reference vector storage unit 111, an image acquisition unit 112, a joint point extraction unit 113, a reference circle generation unit 114, a gesture vector generation unit 115, and a similarity degree. It includes a confirmation unit 116 and a control command execution unit 117.

ジェスチャー判断基準ベクトル格納部111には、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトルとが格納されている。
ここで、前記複数のジェスチャー判断基準ベクトルは、「0」と「1」のコードを成分として有するベクトルを意味する。
これと関連し、nを21とする場合、ジェスチャー判断基準ベクトル格納部111には、下記の表1のように情報が格納されている。
In the gesture determination reference vector storage unit 111, a plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) preset to correspond to each of the plurality of control commands. ) Dimensional gesture judgment reference vector and is stored.
Here, the plurality of gesture determination reference vectors mean a vector having the codes of "0" and "1" as components.
In relation to this, when n is 21, information is stored in the gesture determination reference vector storage unit 111 as shown in Table 1 below.

Figure 0006994206000001
イメージ取得部112は、カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得する。
Figure 0006994206000001
The image acquisition unit 112 photographs the user's hand (Hand) through the camera and acquires an image including the user's hand.

関節ポイント抽出部113は、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する。 The joint point extraction unit 113 detects the user's hand region from the image, and extracts n (n is a natural number of 2 or more) joint points from the user's hand region.

ここで、関節ポイント抽出部113は、CPM(Convolutional Pose Machines)技術を活用して、前記ユーザの手領域から前記n個の関節ポイントを抽出することができる。 Here, the joint point extraction unit 113 can extract the n joint points from the user's hand region by utilizing CPM (Convolutional Pose Machines) technology.

CPMとは、一人の人に対して人の姿勢(Pose)を出力するネットワークを学習させたモデルであり、人の関節間の関係を理解し、出力を精製(Refine)するためにMulti-Stateのネットワーク形態で構成し、それを評価(Evaluation)したのを特徴とするモデルである。CNN(Convolutional Neural Networks)を利用して各関節のHeatmapを出力するネットワーク構造を有しており、Stage 1の結果はイメージ特徴(Feature)と共にStage 2の入力として再び用いられ、このように反復的に同一なHeatmap結果を多くのStageにかけて処理した最終的な結果がCPMネットワークの出力となる。このようにするのは、前半のStageでは一部分のイメージ領域を通じて関節を探し出し、後半のStageではさらに大きくなったReceptive Fieldの影響で互いに異なる関節間の関係まで考慮されるので、より正確なHeatmap結果を得ることができるためである。 CPM is a model in which one person is trained to learn a network that outputs a person's posture (Pose), and is a multi-state for understanding the relationship between human joints and refining the output. It is a model characterized by being configured in the network form of the above and evaluated (Evaluation). It has a network structure that outputs the Heatmap of each joint using CNN (Convolutional Neural Networks), and the result of Stage 1 is used again as the input of Stage 2 together with the image feature (Feature), and thus iteratively. The final result of processing the same Heatmap result over many stages is the output of the CPM network. In this way, the joints are searched for through a part of the image area in the first half of the Stage, and the relationship between the joints different from each other is taken into consideration due to the influence of the larger Receptive Field in the second half of the Stage, so that the heatmap result is more accurate. Is because it can be obtained.

この時、関節ポイント抽出部113は、このようなCPM技術を活用して、前記ユーザの手領域から、図2に示すように、主要関節ポイントである21個の関節ポイント(1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、21)を抽出することができる。 At this time, the joint point extraction unit 113 utilizes such a CPM technique to obtain 21 joint points (1, 2, 3) which are the main joint points, as shown in FIG. 2, from the user's hand area. 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21) can be extracted.

この時、本発明の一実施形態によれば、関節ポイント抽出部113は、前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当てることができる。 At this time, according to one embodiment of the present invention, the joint point extraction unit 113 corresponds to each of the n joint points based on the positions of the n joint points in the user's hand region. You can assign an order.

これと関連し、関節ポイント抽出部113は、図2に示すように、21個の関節ポイントの前記ユーザの手領域での位置に応じて、1から21までの順番を一つずつ割り当てることができる。
基準円生成部114は、前記ユーザの手領域に対して、ジェスチャー確認のための仮想の基準円(circle)を生成する。
In connection with this, as shown in FIG. 2, the joint point extraction unit 113 may assign the order from 1 to 21 one by one according to the position of the 21 joint points in the user's hand area. can.
The reference circle generation unit 114 generates a virtual reference circle for gesture confirmation for the user's hand area.

これと関連し、基準円生成部114は、図3で図面符号310で示したように、前記ユーザの手領域に対して、ジェスチャー確認のための仮想の基準円310を生成することができる。 In connection with this, the reference circle generation unit 114 can generate a virtual reference circle 310 for gesture confirmation with respect to the user's hand region, as shown by reference numeral 310 in FIG.

ジェスチャーベクトル生成部115は、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成する。 The gesture vector generation unit 115 confirms whether or not the n joint points are located inside the virtual reference circle, and positions the n joint points inside the virtual reference circle among the n joint points. By assigning a code of "1" to the points to be used and a code of "0" to the points located outside the virtual reference circle, the codes assigned to each of the n joint points. Generates an n-dimensional gesture vector having.

この時、本発明の一実施形態によれば、ジェスチャーベクトル生成部115は、前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成することができる。 At this time, according to one embodiment of the present invention, the gesture vector generation unit 115 vectorizes the code assigned to each of the n joint points according to the order corresponding to each of the n joint points. The gesture vector can be generated by designating each of the components of.

これと関連し、図3に示すように、21個の関節ポイントが抽出され、1から21までの順番が割り当てられたとする場合、ジェスチャーベクトル生成部115は、21個の関節ポイントのうち、仮想の基準円310の内部に位置するポイントに対して「1」のコードを割り当て、仮想の基準円310の外部に位置するポイントに対して「0」のコードを割り当てることができる。 In connection with this, as shown in FIG. 3, when 21 joint points are extracted and the order from 1 to 21 is assigned, the gesture vector generation unit 115 is virtual among the 21 joint points. A code of "1" can be assigned to a point located inside the reference circle 310, and a code of "0" can be assigned to a point located outside the virtual reference circle 310.

そして、ジェスチャーベクトル生成部115は、21個の関節ポイントの順番に応じて各関節ポイントに割り当てられたコードをベクトルの成分に一つずつ順次指定することによって、[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]という21次元のジェスチャーベクトルを生成することができる。 Then, the gesture vector generation unit 115 sequentially designates the code assigned to each joint point as a component of the vector according to the order of the 21 joint points, thereby [1 1 1 0 1 1 1 1 1 1 1 1 It is possible to generate a 21-dimensional gesture vector of [1 1 0 0 0 1 0 0 0 1 0 0 0].

類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する。 The similarity confirmation unit 116 calculates the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination reference vector storage unit 111 and the gesture vector, and then the plurality of gesture determination reference vectors. Of these, the first gesture determination reference vector in which the similarity is calculated to the maximum is confirmed.

この時、本発明の一実施形態によれば、類似度確認部116は、前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算することができる。 At this time, according to one embodiment of the present invention, the similarity confirmation unit 116 calculates a Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector, and the Hadamard product. The number of existing code values of "1" in the components constituting the vector calculated by the above calculation can be calculated as the similarity.

ここで、アダマール積とは同じ大きさのベクトルや行列における各成分をかける演算を意味し、[a b c]と[x y z]というベクトルが存在する時、二つのベクトル間のアダマール積は[ax by cz]に演算される。 Here, the Hadamard product means an operation of multiplying each component in a vector or matrix of the same magnitude, and when the vectors [ab c] and [x yz] exist, the Hadamard product between the two vectors is. It is calculated in [ax by cz].

これと関連し、前述した例示のように、ジェスチャーベクトル生成部115において[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]という21次元のジェスチャーベクトルが生成されたとし、ジェスチャー判断基準ベクトル格納部111に表1のように情報が格納されているとする場合、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されている1番目のジェスチャー判断基準ベクトルである[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]と[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]というジェスチャーベクトルとの間のアダマール積を演算して[1 0 1 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0]というベクトルを算出した後、算出されたベクトルを構成する成分において「1」のコード値が存在する個数である「5」を[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]というジェスチャー判断基準ベクトルと[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]というジェスチャーベクトルとの間の類似度として演算することができる。 In connection with this, as in the above-mentioned example, the gesture vector generation unit 115 generates a 21-dimensional gesture vector [1 1 1 0 1 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]. Assuming that the information is stored in the gesture judgment reference vector storage unit 111 as shown in Table 1, the similarity confirmation unit 116 determines the first gesture stored in the gesture judgment reference vector storage unit 111. The reference vectors [1 0 1 1 1 1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1] and [1 1 1 0 1 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0 0 ] And the Adamal product is calculated to calculate the vector [1 0 1 0 1 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0], and then the calculated vector is constructed. The gesture judgment reference vector [1 0 1 1 1 1 1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1] and [1], which is the number of existing code values of “1”, are set to It can be calculated as the degree of similarity with the gesture vector of 1 1 0 1 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0].

このようにして、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されているジェスチャー判断基準ベクトルと前記ジェスチャーベクトルとの間の類似度を全て演算することができる。 In this way, the similarity confirmation unit 116 can calculate all the similarity between the gesture determination reference vector stored in the gesture determination reference vector storage unit 111 and the gesture vector.

その後、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されているジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルを前記第1ジェスチャー判断基準ベクトルに確認することができる。 After that, the similarity confirmation unit 116 confirms the gesture determination reference vector in which the similarity is calculated to the maximum among the gesture determination reference vectors stored in the gesture determination reference vector storage unit 111 in the first gesture determination reference vector. can do.

制御命令実行部117は、ジェスチャー判断基準ベクトル格納部111から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する。 The control command execution unit 117 confirms the first control command stored corresponding to the first gesture judgment reference vector from the gesture judgment reference vector storage unit 111 to the control command corresponding to the pattern of the user's hand. , The first control command is executed.

これと関連し、前記第1ジェスチャー判断基準ベクトルが[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]とする場合、制御命令実行部117は、表1のようなジェスチャー判断基準ベクトル格納部111から[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]というジェスチャー判断基準ベクトルに対応して格納されている「制御命令3」を前記ユーザの手の模様に対応する制御命令に確認した後、「制御命令3」を実行することができる。
この時、本発明の一実施形態によれば、制御命令実行部117は、制御命令選択メッセージ表示部120および選択制御命令実行部121を含むことができる。
In relation to this, when the first gesture judgment reference vector is [1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1], the control command execution unit 117 is shown in Table 1. "Control command 3" stored corresponding to the gesture judgment reference vector [1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1] from the gesture judgment reference vector storage unit 111 such as Is confirmed by the control command corresponding to the pattern of the user's hand, and then the "control command 3" can be executed.
At this time, according to one embodiment of the present invention, the control command execution unit 117 can include the control command selection message display unit 120 and the selection control command execution unit 121.

制御命令選択メッセージ表示部120は、類似度確認部116において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、ジェスチャー判断基準ベクトル格納部111から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示する。 When the control command selection message display unit 120 confirms in the similarity confirmation unit 116 that two or more gesture determination reference vectors having the maximum similarity calculated among the plurality of gesture determination reference vectors exist, the gesture determination criterion After confirming the two or more control commands stored corresponding to the two or more gesture judgment reference vectors from the vector storage unit 111, it is possible to select one of the two or more control commands. Display the selection message to be instructed on the screen.

選択制御命令実行部121は、前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行する。 When the second control command is selected from the two or more control commands by the user, the selection control command execution unit 121 confirms the second control command with the control command corresponding to the pattern of the user's hand. , The second control command is executed.

例えば、類似度確認部116において類似度が最大に演算されたジェスチャー判断基準ベクトルを確認した結果、[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]と[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]というジェスチャー判断基準ベクトルに対する類似度が最大に演算されたとする場合、制御命令選択メッセージ表示部120は、表1のようなジェスチャー判断基準ベクトル格納部111から「制御命令1」と「制御命令3」を確認した後、「制御命令1」と「制御命令3」のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示することができる。 For example, as a result of confirming the gesture judgment reference vector in which the similarity is calculated to the maximum by the similarity confirmation unit 116, [1 0 1 1 1 1 1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1] and [ When the similarity to the gesture judgment reference vector of 1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1] is calculated to the maximum, the control command selection message display unit 120 is shown in Table 1. After confirming "control command 1" and "control command 3" from the gesture judgment reference vector storage unit 111 such as, select one of "control command 1" and "control command 3". A selection message instructing is displayed on the screen.

この時、ユーザが前記選択メッセージを見て、「制御命令3」を選択したとする場合、選択制御命令実行部121は、「制御命令3」を前記ユーザの手の模様に対応する制御命令に確認した後、「制御命令3」を実行することができる。 At this time, if the user sees the selection message and selects "control command 3", the selection control command execution unit 121 converts the "control command 3" into a control command corresponding to the pattern of the user's hand. After confirmation, "control instruction 3" can be executed.

その結果、本発明に係る電子端末装置110は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行することができる。それにより、ユーザは、別のコントローラー無しに、手を利用して所定のジェスチャーを取るだけで電子端末装置110を容易に制御することができる。 As a result, the electronic terminal device 110 according to the present invention acquires an image of the user's hand through the camera when the user takes a predetermined hand pattern, and extracts joint points for the user's hand from the image. After generating a predetermined reference circle for gesture confirmation for the user's hand area, the user's hand is confirmed by checking which joint point of each joint point belongs to the reference circle. Appropriate control commands corresponding to the pattern of can be executed. Thereby, the user can easily control the electronic terminal device 110 simply by taking a predetermined gesture by using a hand without another controller.

本発明に係る電子端末装置110は、どの関節ポイントが基準円に含まれているか含まれていないかを確認することによって、ユーザの手の模様に対応するジェスチャーを決定する方法を取っているという点で、ユーザの手が撮影されたイメージの大きさなどに応じて前記基準円の大きさや位置が適切に指定される必要がある。 It is said that the electronic terminal device 110 according to the present invention adopts a method of determining a gesture corresponding to a pattern of a user's hand by confirming which joint point is included or not included in the reference circle. In terms of points, it is necessary to appropriately specify the size and position of the reference circle according to the size of the image taken by the user's hand.

これと関連し、本発明の一実施形態によれば、基準円生成部114は、基準円の大きさや位置を適切に指定するための構成であり、生成部118および配置部119を含むことができる。 In connection with this, according to one embodiment of the present invention, the reference circle generation unit 114 is configured to appropriately specify the size and position of the reference circle, and may include the generation unit 118 and the arrangement unit 119. can.

生成部118は、前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成する。 The generation unit 118 generates a virtual square area surrounding the user's hand area, compares the virtual square area with a reference square area having a preset pattern and size, and compares the reference square area with each other. After confirming the horizontal axis size ratio and the vertical axis size ratio of the virtual square area to the area, the horizontal axis size ratio is calculated with respect to the horizontal axis diameter of the reference circle having a preset pattern and size. The virtual reference circle is generated by multiplying the diameter of the vertical axis of the reference circle by the size ratio of the vertical axis to change the pattern and size of the reference circle.

そして、配置部119は、前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置する。
これと関連し、図3~図5を参照して、生成部118と配置部119の動作を例を挙げて説明すれば以下のとおりである。
生成部118は、図3に示すように、イメージにおいてユーザの手領域を囲む仮想の四角領域320を生成することができる。
Then, the arrangement unit 119 confirms the first point corresponding to the first relative ratio set in advance with respect to the left side point on the horizontal axis of the virtual square area, and on the vertical axis of the virtual square area, the arrangement unit 119 confirms. After confirming the second point corresponding to the second relative ratio set in advance with respect to the upper end point, the intersection of the vertical line passing through the first point and the horizontal line passing through the second point is the virtual reference. By setting it at the center point of the circle, the virtual reference circle is arranged on the virtual square area.
In relation to this, the operations of the generation unit 118 and the arrangement unit 119 will be described with reference to FIGS. 3 to 5 as follows.
As shown in FIG. 3, the generation unit 118 can generate a virtual square area 320 that surrounds the user's hand area in the image.

そして、生成部118は、図4の図面符号410に示すように、仮想の四角領域320と、予め設定された模様と大きさを有する基準四角領域411とを互いに比較して、基準四角領域411に対する仮想の四角領域410の横軸大きさ比率と縦軸大きさ比率を確認することができる。 Then, as shown in the drawing reference numeral 410 of FIG. 4, the generation unit 118 compares the virtual square region 320 with the reference square region 411 having a preset pattern and size, and compares the reference square region 411 with each other. It is possible to confirm the horizontal axis size ratio and the vertical axis size ratio of the virtual square area 410 with respect to.

その後、生成部118は、図4の図面符号420に示すように、予め設定された模様と大きさを有する参照円421の横軸直径に対して前記横軸大きさ比率をかけ、参照円421の縦軸直径に対して前記縦軸大きさ比率をかけて参照円421の模様と大きさを変更することによって、仮想の基準円310を生成することができる。 After that, as shown in the drawing reference numeral 420 of FIG. 4, the generation unit 118 multiplies the horizontal axis diameter of the reference circle 421 having a preset pattern and size by the horizontal axis size ratio, and the reference circle 421. By multiplying the vertical axis diameter of the vertical axis by the vertical axis size ratio to change the pattern and size of the reference circle 421, a virtual reference circle 310 can be generated.

例えば、前記横軸大きさ比率が1.3、前記縦軸大きさ比率が1.8とする場合、生成部118は、参照円421の横軸直径に対して1.3をかけ、縦軸直径に対して1.8をかけることによって、仮想の基準円310を生成することができる。 For example, when the horizontal axis size ratio is 1.3 and the vertical axis size ratio is 1.8, the generation unit 118 multiplies the horizontal axis diameter of the reference circle 421 by 1.3 and the vertical axis. By multiplying the diameter by 1.8, a virtual reference circle 310 can be generated.

このように、仮想の基準円310が生成されれば、配置部119は、図5に示すように、仮想の四角領域320の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点510を確認し、仮想の四角領域320の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点520を確認することができる。 When the virtual reference circle 310 is generated in this way, as shown in FIG. 5, the arrangement unit 119 has a first relative ratio preset with respect to the left side point on the horizontal axis of the virtual square region 320. The first point 510 corresponding to the above can be confirmed, and the second point 520 corresponding to the second relative ratio set in advance with respect to the upper end point can be confirmed on the vertical axis of the virtual square area 320.

例えば、前記第1相対比率が3/5、前記第2相対比率が4/7とする場合、配置部119は、仮想の四角領域320の横軸において、左側地点を基準に3/5に該当する地点を第1地点510に確認し、仮想の四角領域320の縦軸において、上端地点を基準に4/7に該当する地点を第2地点520に確認することができる。 For example, when the first relative ratio is 3/5 and the second relative ratio is 4/7, the arrangement unit 119 corresponds to 3/5 with respect to the left side point on the horizontal axis of the virtual square area 320. The point corresponding to 4/7 can be confirmed at the second point 520 on the vertical axis of the virtual square area 320 with respect to the upper end point.

その後、配置部119は、図5に示すように、第1地点510を通過する縦線と第2地点520を通過する横線が交わる交点530を仮想の基準円310の中心点に設定することによって、仮想の基準円310を仮想の四角領域320上に配置することができる。それにより、仮想の基準円310は、図3に示すように、ユーザの手領域上の適切な位置に適切な大きさと模様で配置される。
図6は、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法を示すフローチャートである。
After that, as shown in FIG. 5, the arrangement unit 119 sets the intersection 530 where the vertical line passing through the first point 510 and the horizontal line passing through the second point 520 intersect as the center point of the virtual reference circle 310. , The virtual reference circle 310 can be placed on the virtual square area 320. As a result, the virtual reference circle 310 is arranged at an appropriate position on the user's hand area with an appropriate size and pattern, as shown in FIG.
FIG. 6 is a flowchart showing an operation method of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention.

ステップ(S610)では、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル(前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである)とが格納されているジェスチャー判断基準ベクトル格納部を保持する。
ステップ(S620)では、カメラを介してユーザの手を撮影して前記ユーザの手が含まれたイメージを取得する。
ステップ(S630)では、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する。
ステップ(S640)では、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円を生成する。
In step (S610), a plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensional gestures preset to correspond to each of the plurality of control commands. It holds a gesture judgment reference vector storage unit in which a judgment reference vector (the plurality of gesture judgment reference vectors are vectors having codes of "0" and "1" as components) is stored.
In step (S620), the user's hand is photographed through the camera to acquire an image including the user's hand.
In step (S630), the user's hand region is detected from the image, and n (n is a natural number of 2 or more) joint points are extracted from the user's hand region.
In step (S640), a virtual reference circle for gesture confirmation is generated for the user's hand area.

ステップ(S650)では、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成する。 In step (S650), it is confirmed whether or not the n joint points are located inside the virtual reference circle, and the n joint points are located inside the virtual reference circle among the n joint points. By assigning a code of "1" to a point and a code of "0" to a point located outside the virtual reference circle, the code assigned to each of the n joint points is assigned. Generates an n-dimensional gesture vector having as a component.

ステップ(S660)では、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する。 In step (S660), after calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination reference vector storage unit and the gesture vector, the plurality of gesture determination reference vectors of the plurality of gesture determination reference vectors are calculated. Among them, the first gesture judgment reference vector in which the similarity is calculated to the maximum is confirmed.

ステップ(S670)では、前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する。 In step (S670), after confirming the first control command stored corresponding to the first gesture judgment reference vector from the gesture judgment reference vector storage unit to the control command corresponding to the pattern of the user's hand, The first control command is executed.

この時、本発明の一実施形態によれば、ステップ(S630)では、前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当てることができる。 At this time, according to one embodiment of the present invention, in step (S630), the order corresponding to each of the n joint points is based on the position of the n joint points in the user's hand region. Can be assigned.

この時、ステップ(S650)では、前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成することができる。 At this time, in step (S650), the code assigned to each of the n joint points is specified for each of the vector components according to the order corresponding to each of the n joint points. The gesture vector can be generated.

また、本発明の一実施形態によれば、ステップ(S660)では、前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算することができる。 Further, according to one embodiment of the present invention, in step (S660), the Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector is calculated, and the calculation is performed by the calculation of the Hadamard product. The number of existing code values of "1" in the components constituting the vector can be calculated as the similarity.

また、本発明の一実施形態によれば、ステップ(S640)では、前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成するステップ、および前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置するステップを含むことができる。 Further, according to one embodiment of the present invention, in step (S640), a virtual square area surrounding the user's hand area is generated, and the virtual square area has a preset pattern and size. After comparing the reference square area with each other and confirming the horizontal axis size ratio and the vertical axis size ratio of the virtual square area with respect to the reference square area, the reference circle having a preset pattern and size By multiplying the horizontal axis diameter by the horizontal axis size ratio and multiplying the vertical axis diameter of the reference circle by the vertical axis size ratio to change the pattern and size of the reference circle, the virtual In the step of generating the reference circle of, and in the horizontal axis of the virtual square area, the first point corresponding to the first relative ratio set in advance with respect to the left side point is confirmed, and the vertical axis of the virtual square area is confirmed. In, after confirming the second point corresponding to the second ratio set in advance with respect to the upper end point, the intersection of the vertical line passing through the first point and the horizontal line passing through the second point is the virtual intersection. By setting the center point of the reference circle, the step of arranging the virtual reference circle on the virtual square region can be included.

また、本発明の一実施形態によれば、前記電子端末装置の動作方法は、ステップ(S660)において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、前記ジェスチャー判断基準ベクトル格納部から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示するステップ、および前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行するステップをさらに含むことができる。 Further, according to one embodiment of the present invention, in the operation method of the electronic terminal device, the gesture determination reference vector in which the similarity is calculated to the maximum is 2 among the plurality of gesture determination reference vectors in step (S660). When it is confirmed that the above exists, after confirming two or more control commands stored corresponding to the two or more gesture judgment reference vectors from the gesture judgment reference vector storage unit, among the two or more control commands. A step of displaying a selection message on the screen instructing to select any one of the control commands, and when the second control command is selected from the two or more control commands by the user, the second control command. Can be further included in the step of executing the second control command after confirming with the control command corresponding to the pattern of the user's hand.

以上、図6を参照して本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法について説明した。ここで、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、図1を用いて説明したユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置110の動作に関する構成と対応するため、これに関するより詳細な説明は省略することにする。 As described above, the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention has been described with reference to FIG. Here, in the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention, the user's hand gesture described with reference to FIG. 1 is recognized and the control command is executed. In order to correspond to the configuration relating to the operation of the electronic terminal device 110, a more detailed description thereof will be omitted.

本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、コンピュータとの結合によって実行させるための格納媒体に格納されたコンピュータプログラムで実現されてもよい。 Even if the operation method of the electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention is realized by a computer program stored in a storage medium for execution by coupling with a computer. good.

また、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、様々なコンピュータ手段を介して実行できるプログラム命令形態で実現されてコンピュータ読み取り可能な媒体に記録されてもよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであるか、またはコンピュータソフトウェア当業者に公知されて使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータにより実行できる高級言語コードを含む。 Further, the operation method of the electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention is realized in a program instruction form that can be executed via various computer means and can be read by a computer. It may be recorded on a medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention, or those known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptic discs. Includes magnetic-optical media such as disk) and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory and the like. Examples of program instructions include machine language code, such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

以上のように、本発明を具体的な構成要素などのような特定事項と限定された実施形態および図面によって説明したが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施形態に限定されるものではなく、本発明が属する分野で通常の知識を有した者であれば、このような記載から様々な修正および変形が可能である。 As described above, the present invention has been described by means of specific matters such as specific components and limited embodiments and drawings, which are provided to aid in a more general understanding of the invention. However, the present invention is not limited to the above-described embodiment, and any person who has ordinary knowledge in the field to which the present invention belongs can make various modifications and modifications from such a description.

したがって、本発明の思想は説明された実施形態に限定して定められてはならず、後述する特許請求の範囲だけでなく、該特許請求の範囲と均等または等価的な変形がある全てのものは本発明思想の範疇に属すると言える。 Therefore, the idea of the present invention should not be limited to the described embodiments, and is not limited to the scope of claims described later, but anything having a modification equal to or equivalent to the scope of claims. Can be said to belong to the category of the idea of the present invention.

110 ・・・ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置
111 ・・・ジェスチャー判断基準ベクトル格納部
112 ・・・イメージ取得部
113 ・・・関節ポイント抽出部
114 ・・・基準円生成部
115 ・・・ジェスチャーベクトル生成部
116 ・・・類似度確認部
117 ・・・制御命令実行部
118 ・・・生成部
119 ・・・配置部
120 ・・・制御命令選択メッセージ表示部
121 ・・・選択制御命令実行部
110 ・ ・ ・ Electronic terminal device that recognizes the user's hand gesture and executes control commands 111 ・ ・ ・ Gesture judgment reference vector storage unit 112 ・ ・ ・ Image acquisition unit 113 ・ ・ ・ Joint point extraction unit 114 ・ ・ ・ Reference Circle generation unit 115 ・ ・ ・ Gesture vector generation unit 116 ・ ・ ・ Similarity confirmation unit 117 ・ ・ ・ Control command execution unit 118 ・ ・ ・ Generation unit 119 ・ ・ ・ Arrangement unit 120 ・ ・ ・ Control command selection message display unit 121・ ・ ・ Selection control command execution unit

Claims (12)

予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部、
カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するイメージ取得部、
前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する関節ポイント抽出部、
前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成する基準円生成部、
前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するジェスチャーベクトル生成部、
前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する類似度確認部、および
前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する制御命令実行部
を含む、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。
A plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensions gesture determination presets corresponding to each of the plurality of control commands-the plurality. Gesture judgment reference vector of is a vector having a code of "0" and "1" as components-and a gesture judgment reference vector storage unit, which stores
An image acquisition unit that captures a user's hand (Hand) through a camera and acquires an image including the user's hand.
A joint point extraction unit that detects the user's hand area from the image and extracts n (n is a natural number of 2 or more) joint points from the user's hand area.
A reference circle generator that generates a virtual reference circle for gesture confirmation for the user's hand area,
It is confirmed whether or not the n joint points are located inside the virtual reference circle, and among the n joint points, "1" is given to the point located inside the virtual reference circle. By assigning the code of "0" to the point located outside the virtual reference circle, the n-dimensional code having the code assigned to each of the n joint points is used as a component. Gesture vector generator, which generates gesture vectors,
After calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination criterion vector storage unit and the gesture vector, the similarity is the maximum among the plurality of gesture determination criterion vectors. A similarity confirmation unit for confirming the first gesture determination reference vector calculated in the above, and a first control command stored from the gesture determination reference vector storage unit corresponding to the first gesture determination reference vector are transmitted by the user. An electronic terminal device that recognizes a user's hand gesture and executes a control command, including a control command execution unit that executes the first control command after confirming the control command corresponding to the pattern of the hand.
前記関節ポイント抽出部は、
前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当て、
前記ジェスチャーベクトル生成部は、
前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成する、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。
The joint point extraction unit is
Based on the position of the n joint points in the user's hand area, the order corresponding to each of the n joint points is assigned.
The gesture vector generation unit is
Claimed to generate the gesture vector by designating one code assigned to each of the n joint points as a component of the vector according to the order corresponding to each of the n joint points. An electronic terminal device that recognizes the user's hand gesture according to 1 and executes a control command.
前記類似度確認部は、
前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算する、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。
The similarity confirmation unit is
A code value of "1" exists in a component that calculates a Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector and constitutes a vector calculated by the calculation of the Hadamard product. An electronic terminal device that recognizes the user's hand gesture according to claim 1 and executes a control command by calculating the number of vectors to be performed as the similarity.
前記基準円生成部は、
前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成する生成部、および
前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置する配置部
を含む、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。
The reference circle generator is
A virtual square area surrounding the user's hand area is generated, the virtual square area and a reference square area having a preset pattern and size are compared with each other, and the virtual square area with respect to the reference square area is compared with each other. After confirming the horizontal axis size ratio and the vertical axis size ratio of the square area, multiply the horizontal axis diameter of the reference circle having a preset pattern and size by the horizontal axis size ratio, and then multiply the reference circle. By multiplying the vertical axis diameter of the vertical axis by the vertical axis size ratio to change the pattern and size of the reference circle, the generation unit that generates the virtual reference circle, and the horizontal axis of the virtual square region. In, the first point corresponding to the first relative ratio set in advance with respect to the left side point is confirmed, and in the vertical axis of the virtual square area, it corresponds to the second relative ratio preset with reference to the upper end point. After confirming the second point, the intersection of the vertical line passing through the first point and the horizontal line passing through the second point is set as the center point of the virtual reference circle, thereby setting the virtual reference circle. An electronic terminal device for recognizing a user's hand gesture according to claim 1 and executing a control command, including an arrangement unit for arranging the above-mentioned virtual square area.
前記制御命令実行部は、
前記類似度確認部において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、前記ジェスチャー判断基準ベクトル格納部から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示する制御命令選択メッセージ表示部、および
前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行する選択制御命令実行部
を含む、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。
The control command execution unit is
When it is confirmed in the similarity confirmation unit that there are two or more gesture judgment reference vectors having the maximum similarity calculated among the plurality of gesture judgment reference vectors, the gesture judgment reference vector storage unit indicates that the two or more gesture judgment reference vectors are present. After confirming two or more control commands stored corresponding to the gesture judgment reference vector, a selection message instructing to select one of the two or more control commands is displayed on the screen. When the second control command is selected from the two or more control commands by the control command selection message display unit and the user, the second control command is confirmed by the control command corresponding to the pattern of the user's hand. An electronic terminal device that recognizes the user's hand gesture according to claim 1 and executes a control command, including a selection control command execution unit that executes the second control command.
予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部を保持するステップ、
カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するステップ、
前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出するステップ、
前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成するステップ、
前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するステップ、
前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認するステップ、および
前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行するステップ
を含む、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。
A plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensions gesture determination presets corresponding to each of the plurality of control commands-the plurality. The gesture judgment reference vector of is a vector having the code of "0" and "1" as components-the step of holding the gesture judgment reference vector storage unit in which the code is stored.
A step of photographing a user's hand (Hand) through a camera and acquiring an image including the user's hand.
A step of detecting the user's hand region from the image and extracting n (n is a natural number of 2 or more) joint points from the user's hand region.
A step of generating a virtual reference circle for gesture confirmation for the user's hand area,
It is confirmed whether or not the n joint points are located inside the virtual reference circle, and among the n joint points, "1" is given to the point located inside the virtual reference circle. By assigning the code of "0" to the point located outside the virtual reference circle, the n-dimensional code having the code assigned to each of the n joint points is used as a component. Steps to generate gesture vectors,
After calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination criterion vector storage unit and the gesture vector, the similarity is the maximum among the plurality of gesture determination criterion vectors. The step of confirming the first gesture judgment reference vector calculated in the above, and the first control command stored corresponding to the first gesture judgment reference vector from the gesture judgment reference vector storage unit are the pattern of the user's hand. A method of operating an electronic terminal device that recognizes a user's hand gesture and executes a control command, including a step of executing the first control command after confirming with the control command corresponding to the above.
前記抽出するステップは、
前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当て、
前記ジェスチャーベクトルを生成するステップは、
前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成する、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。
The extraction step is
Based on the position of the n joint points in the user's hand area, the order corresponding to each of the n joint points is assigned.
The step of generating the gesture vector is
Claimed to generate the gesture vector by designating one code assigned to each of the n joint points as a component of the vector according to the order corresponding to each of the n joint points. 6. An operation method of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to 6.
前記確認するステップは、
前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算する、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。
The step to confirm is
A code value of "1" exists in a component that calculates a Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector and constitutes a vector calculated by the calculation of the Hadamard product. The operation method of an electronic terminal apparatus which recognizes a user's hand gesture according to claim 6 and executes a control command, which calculates the number of vectors to be performed as the similarity.
前記基準円を生成するステップは、
前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成するステップ、および
前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置するステップ
を含む、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。
The step of generating the reference circle is
A virtual square area surrounding the user's hand area is generated, the virtual square area and a reference square area having a preset pattern and size are compared with each other, and the virtual square area with respect to the reference square area is compared with each other. After confirming the horizontal axis size ratio and the vertical axis size ratio of the square area, multiply the horizontal axis diameter of the reference circle having a preset pattern and size by the horizontal axis size ratio, and then multiply the reference circle. In the step of generating the virtual reference circle by multiplying the vertical axis diameter by the vertical axis size ratio to change the pattern and size of the reference circle, and on the horizontal axis of the virtual square region. , Confirm the first point corresponding to the first relative ratio set in advance based on the left side point, and correspond to the second relative ratio preset in reference to the upper end point on the vertical axis of the virtual square area. After confirming the second point, the virtual reference circle is set by setting the intersection of the vertical line passing through the first point and the horizontal line passing through the second point as the center point of the virtual reference circle. The operation method of the electronic terminal apparatus which recognizes a user's hand gesture according to claim 6 and executes a control command, including the step of arranging on the virtual square area.
前記確認するステップにおいて前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、前記ジェスチャー判断基準ベクトル格納部から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示するステップ、および
前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行するステップ
をさらに含む、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。
When it is confirmed that there are two or more gesture judgment reference vectors having the maximum similarity calculated among the plurality of gesture judgment reference vectors in the confirmation step, the two or more gestures are performed from the gesture judgment reference vector storage unit. After confirming two or more control commands stored corresponding to the judgment reference vector, a selection message instructing to select one of the two or more control commands is displayed on the screen. When the step and the second control command among the two or more control commands are selected by the user, the second control command is confirmed to the control command corresponding to the pattern of the user's hand, and then the second control is performed. The method of operating an electronic terminal device for recognizing a user's hand gesture and executing a control command according to claim 6, further comprising a step of executing the command.
請求項6~10のいずれか1項に記載の方法をコンピュータとの結合によって実行させるためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which a computer program for executing the method according to any one of claims 6 to 10 by coupling with a computer is recorded. 請求項6~10のいずれか1項に記載の方法をコンピュータとの結合によって実行させるための格納媒体に格納されたコンピュータプログラム。 A computer program stored in a storage medium for executing the method according to any one of claims 6 to 10 by coupling with a computer.
JP2020158130A 2020-05-21 2020-09-23 An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method Active JP6994206B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0060732 2020-05-21
KR1020200060732A KR102280408B1 (en) 2020-05-21 2020-05-21 Electronic terminal device for executing a control command by recognizing a user's hand gesture and operating method thereof

Publications (2)

Publication Number Publication Date
JP2021184232A JP2021184232A (en) 2021-12-02
JP6994206B2 true JP6994206B2 (en) 2022-01-14

Family

ID=77157966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158130A Active JP6994206B2 (en) 2020-05-21 2020-09-23 An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method

Country Status (2)

Country Link
JP (1) JP6994206B2 (en)
KR (1) KR102280408B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2025079832A (en) * 2022-03-25 2025-05-23 ソニーグループ株式会社 Information processing device, information processing method, and storage medium
CN117648035B (en) * 2023-12-14 2024-11-05 上海最安网络科技有限公司 A virtual gesture control method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101281461B1 (en) 2012-04-24 2013-07-03 군산대학교산학협력단 Multi-touch input method and system using image analysis
US20140119596A1 (en) 2012-10-31 2014-05-01 Wistron Corporation Method for recognizing gesture and electronic device
US20140253429A1 (en) 2013-03-08 2014-09-11 Fastvdo Llc Visual language for human computer interfaces
JP2018132319A (en) 2017-02-13 2018-08-23 キヤノン株式会社 Information processing apparatus, control method of information processing apparatus, computer program, and memory medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548872B1 (en) * 2014-06-13 2015-09-02 세종대학교산학협력단 Fingers recognition method and system using image processing
KR102187525B1 (en) * 2018-11-05 2020-12-07 주식회사 한글과컴퓨터 Electronic terminal device capable of executing a gesture recognition-based control command and operating method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101281461B1 (en) 2012-04-24 2013-07-03 군산대학교산학협력단 Multi-touch input method and system using image analysis
US20140119596A1 (en) 2012-10-31 2014-05-01 Wistron Corporation Method for recognizing gesture and electronic device
US20140253429A1 (en) 2013-03-08 2014-09-11 Fastvdo Llc Visual language for human computer interfaces
JP2018132319A (en) 2017-02-13 2018-08-23 キヤノン株式会社 Information processing apparatus, control method of information processing apparatus, computer program, and memory medium

Also Published As

Publication number Publication date
JP2021184232A (en) 2021-12-02
KR102280408B1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
JP6994207B2 (en) An electronic terminal device that executes control commands corresponding to user hand gestures and outputs feedback, and its operation method.
DK2996015T3 (en) PROCEDURE TO USE IMPROVED REALITY AS HMI VIEW
JP6171671B2 (en) Information processing apparatus, position specifying method, and position specifying program
US20110273474A1 (en) Image display apparatus and image display method
KR20200032055A (en) Method and program for making reactive video
JP6994206B2 (en) An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method
JP5550124B2 (en) INPUT DEVICE, DEVICE, INPUT METHOD, AND PROGRAM
US11978252B2 (en) Communication system, display apparatus, and display control method
CN114223021A (en) Electronic device and method for processing handwriting input
JP7009904B2 (en) Terminal devices, information processing systems, information processing methods and programs
JP6575329B2 (en) Electronic album creation device
JP2015102875A (en) Display system and display control device
JP2018112894A (en) System and control method
CN113780045B (en) Method and apparatus for training a distance prediction model
CN111290577B (en) Non-contact input method and device
JP7786109B2 (en) Communication system, display device, display control method, and display control program
CN102985894B (en) First response and second response
JP2017531226A (en) Motion recognition method and motion recognition device
JP2015060421A (en) Similar image search method, and similar image search device
WO2018048227A1 (en) Device, method and program for generating multidimensional reaction-type image, and method and program for reproducing multidimensional reaction-type image
JP6624861B2 (en) Image processing apparatus, control method, and program
JP2017073039A (en) Object identification device, object identification method and program
KR102773910B1 (en) Method and apparatus for determining hand pose for control by using hand action
JP7623994B2 (en) Image processing device, image processing method, and program
JP6803035B2 (en) An electronic device that provides a user interface based on the user's intention and how it operates

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6994206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250