JP6994206B2 - An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method - Google Patents
An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method Download PDFInfo
- Publication number
- JP6994206B2 JP6994206B2 JP2020158130A JP2020158130A JP6994206B2 JP 6994206 B2 JP6994206 B2 JP 6994206B2 JP 2020158130 A JP2020158130 A JP 2020158130A JP 2020158130 A JP2020158130 A JP 2020158130A JP 6994206 B2 JP6994206 B2 JP 6994206B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- hand
- control command
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置およびその動作方法に関する。 The present invention relates to an electronic terminal device that recognizes a user's hand gesture and executes a control command, and an operation method thereof.
最近、タッチスクリーンが搭載された様々な電子端末装置が発売されるにつれて、このような電子端末装置を制御するための様々なインターフェース技術が登場している。タッチスクリーンが搭載された電子端末装置は、タッチスクリーン上に入力されるユーザのタッチ入力パターンを認識し、該パターンに対応する制御命令を実行する形態で動作する。 Recently, as various electronic terminal devices equipped with touch screens have been released, various interface technologies for controlling such electronic terminal devices have appeared. The electronic terminal device equipped with the touch screen operates in a form of recognizing a user's touch input pattern input on the touch screen and executing a control command corresponding to the pattern.
さらに、最近、VR(Virtual Reality)機器などが登場することによって、別のコントローラー無しにユーザのジェスチャーだけで機器を制御できるようにするインターフェース技術に関する研究が活発に行われている。 Further, recently, with the advent of VR (Virtual Reality) devices and the like, research on interface technology that enables the device to be controlled only by a user's gesture without another controller is being actively researched.
このようなインターフェース技術は、所定のカメラを介してユーザの手の模様を撮影した後、撮影されたイメージでのユーザの手の模様に応じて、それに対応する適切な制御命令を電子端末装置上に印加するように構成される。 Such an interface technology captures a pattern of a user's hand through a predetermined camera, and then issues an appropriate control command corresponding to the pattern of the user's hand in the captured image on the electronic terminal device. Is configured to apply to.
このように、ユーザが特定形態の手の模様を作るだけで機器を制御できるようにするインターフェース技術は、VR機器などのように別のコントローラーを用いない次世代マルチメディア装置における活用性が高いという点で、技術に対する需要が次第に増加する傾向である。 In this way, the interface technology that allows the user to control the device simply by creating a specific hand pattern is said to be highly useful in next-generation multimedia devices that do not use another controller, such as VR devices. In that respect, the demand for technology tends to increase gradually.
本発明は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行できる電子端末装置およびその動作方法を提示する。 In the present invention, when the user takes a predetermined hand pattern, an image for the user's hand is acquired through the camera, joint points for the user's hand are extracted from the image, and gesture confirmation is performed for the user's hand area. Appropriate control command corresponding to the pattern of the user's hand by checking which joint point of each joint point belongs to the reference circle after generating a predetermined reference circle for An electronic terminal device capable of executing the above and an operation method thereof are presented.
本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置は、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部、カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するイメージ取得部、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する関節ポイント抽出部、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成する基準円生成部、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するジェスチャーベクトル生成部、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する類似度確認部、および前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する制御命令実行部を含む。 The electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention is preliminarily corresponding to a plurality of preset control commands different from each other and each of the plurality of control commands. Multiple n (n is a natural number of 2 or more) -dimensional gesture judgment reference vectors that are different from each other-the plurality of gesture judgment reference vectors are vectors having the codes of "0" and "1" as components. A stored gesture judgment reference vector storage unit, an image acquisition unit that captures a user's hand (Hand) through a camera and acquires an image including the user's hand, and a user's hand area from the image. A joint point extraction unit that detects and extracts n (n is a natural number of 2 or more) joint points from the user's hand area, and a virtual reference circle for gesture confirmation for the user's hand area. The reference circle generation unit that generates the By assigning a code of "1" to the located point and assigning a code of "0" to the point located outside the virtual reference circle, it was assigned to each of the n joint points. The similarity between each of the plurality of gesture judgment reference vectors stored in the gesture vector generation unit that generates the n-dimensional gesture vector having the code as a component and the gesture judgment reference vector storage unit and the gesture vector is determined. After the calculation, the first gesture determination is performed from the similarity confirmation unit for confirming the first gesture determination reference vector whose similarity is maximized among the plurality of gesture determination reference vectors, and the gesture determination reference vector storage unit. A control command execution unit that executes the first control command after confirming the first control command stored corresponding to the reference vector with the control command corresponding to the pattern of the user's hand is included.
また、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル-前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである-とが格納されているジェスチャー判断基準ベクトル格納部を保持するステップ、カメラを介してユーザの手を撮影して前記ユーザの手が含まれたイメージを取得するステップ、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出するステップ、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円を生成するステップ、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するステップ、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認するステップ、および前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行するステップを含む。 Further, the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention includes a plurality of preset control commands different from each other and each of the plurality of control commands. Multiple n (n is a natural number of 2 or more) dimensions that are preset to correspond to each other and differ from each other. Gesture judgment reference vector-The plurality of gesture judgment reference vectors have codes of "0" and "1" as components. The step of holding the gesture judgment reference vector storage unit in which the user's hand is stored, the step of photographing the user's hand through the camera and acquiring the image including the user's hand, and the step of acquiring the image including the user's hand from the image. Step to detect the hand area of the user and extract n (n is a natural number of 2 or more) joint points from the user's hand area, and generate a virtual reference circle for gesture confirmation for the user's hand area. Step, check whether the n joint points are located inside the virtual reference circle, and for the points located inside the virtual reference circle among the n joint points. By assigning the code of "1" and assigning the code of "0" to the points located outside the virtual reference circle, the code assigned to each of the n joint points is included as a component. A step of generating an n-dimensional gesture vector, after calculating the similarity between each of the plurality of gesture judgment reference vectors stored in the gesture judgment reference vector storage unit and the gesture vector, the plurality of gestures. A step of confirming the first gesture judgment reference vector in which the similarity is calculated to the maximum among the judgment reference vectors, and a first stored from the gesture judgment reference vector storage unit corresponding to the first gesture judgment reference vector. (1) The step includes a step of executing the first control command after confirming the control command with the control command corresponding to the pattern of the user's hand.
本発明は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行できる電子端末装置およびその動作方法を提示することができる。 In the present invention, when the user takes a predetermined hand pattern, an image for the user's hand is acquired through the camera, joint points for the user's hand are extracted from the image, and gesture confirmation is performed for the user's hand area. Appropriate control command corresponding to the pattern of the user's hand by checking which joint point of each joint point belongs to the reference circle after generating a predetermined reference circle for It is possible to present an electronic terminal device capable of executing the above and an operation method thereof.
以下では、本発明に係る実施形態を添付された図面を参照して詳しく説明する。このような説明は本発明を特定の実施形態に対して限定しようとするものではなく、本発明の思想および技術範囲に含まれる全ての変更、均等物乃至代替物を含むものとして理解しなければならない。各図面を説明する際に類似した参照符号は類似した構成要素に付することにし、特に定義しない限り、技術的または科学的な用語を含めて本明細書上で用いられる全ての用語は本発明が属する技術分野における通常の知識を有した者によって一般的に理解されるものと同様の意味を有する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. Such description is not intended to limit the invention to any particular embodiment and must be understood as including all modifications, equivalents or alternatives contained within the ideas and technical scope of the invention. It doesn't become. Similar reference numerals will be attached to similar components in the description of each drawing, and unless otherwise defined, all terms used herein, including technical or scientific terms, are the present invention. It has the same meaning as what is generally understood by those with ordinary knowledge in the technical field to which it belongs.
本文書において、ある部分がある構成要素を「含む」とする時、これは、特に反する記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいことを意味する。また、本発明の様々な実施形態において、各構成要素、機能ブロックまたは手段は一つまたはそれ以上の下部構成要素で構成されてもよく、各構成要素が実行する電気、電子、機械的な機能は電子回路、集積回路、ASIC(Application Specific Integrated Circuit)などのような公知の様々な素子または機械的要素で実現されてもよく、各々個別に実現されるかまたは2以上が一つに統合されて実現されてもよい。 In this document, when a component is referred to as "contains" a component, this does not exclude other components unless otherwise stated, and may further include other components. do. Also, in various embodiments of the invention, each component, functional block or means may be composed of one or more subcomponents, the electrical, electronic and mechanical functions performed by each component. May be realized by various known elements or mechanical elements such as electronic circuits, integrated circuits, ASICs (Application Specific Integrated Circuits), etc., each of which is individually realized or two or more integrated into one. May be realized.
一方、添付されたブロック図のブロックやフローチャートのステップは、汎用コンピュータ、特殊用コンピュータ、携帯用ノートブックコンピュータ、ネットワークコンピュータなど、データプロセッシング可能な装置のプロセッサやメモリに搭載され、指定された機能を実行するコンピュータプログラム命令(instructions)を意味するものとして解釈できる。これらのコンピュータプログラム命令はコンピュータ装置に備えられたメモリまたはコンピュータ読み取り可能なメモリに格納できるため、ブロック図のブロックまたはフローチャートのステップで説明された機能はそれを実行する命令手段を含む製造物に生産されてもよい。さらに、各ブロックまたは各ステップは、特定の論理的機能を実行するための一つ以上の実行可能な命令を含むモジュール、セグメントまたはコードの一部を表すことができる。また、幾つかの代替可能な実施形態においては、ブロックまたはステップで言及された機能が定められた順序とは異なるように実行できるということを注目しなければならない。例えば、次いで図示された二つのブロックまたはステップは、実質的に同時に実行されてもよく、または逆順に実行されてもよく、場合によっては、一部のブロックまたはステップが省略された状態で実行されてもよい。
図1は、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の構造を示す図である。
On the other hand, the blocks of the attached block diagram and the steps of the flowchart are installed in the processor and memory of a device capable of data processing such as a general-purpose computer, a special computer, a portable notebook computer, and a network computer, and perform specified functions. It can be interpreted as meaning the computer program instructions to be executed. Since these computer program instructions can be stored in the memory provided in the computer device or in the computer-readable memory, the functions described in the blocks of the block diagram or the steps of the flowchart are produced in the product including the instruction means to execute it. May be done. In addition, each block or step can represent part of a module, segment, or code that contains one or more executable instructions to perform a particular logical function. It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps can be performed out of a defined order. For example, the two blocks or steps shown below may be executed substantially simultaneously or in reverse order, and in some cases may be executed with some blocks or steps omitted. You may.
FIG. 1 is a diagram showing a structure of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention.
図1を参照すれば、本発明に係る電子端末装置110は、ジェスチャー判断基準ベクトル格納部111、イメージ取得部112、関節ポイント抽出部113、基準円生成部114、ジェスチャーベクトル生成部115、類似度確認部116および制御命令実行部117を含む。
Referring to FIG. 1, the
ジェスチャー判断基準ベクトル格納部111には、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトルとが格納されている。
ここで、前記複数のジェスチャー判断基準ベクトルは、「0」と「1」のコードを成分として有するベクトルを意味する。
これと関連し、nを21とする場合、ジェスチャー判断基準ベクトル格納部111には、下記の表1のように情報が格納されている。
In the gesture determination reference
Here, the plurality of gesture determination reference vectors mean a vector having the codes of "0" and "1" as components.
In relation to this, when n is 21, information is stored in the gesture determination reference
関節ポイント抽出部113は、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する。
The joint
ここで、関節ポイント抽出部113は、CPM(Convolutional Pose Machines)技術を活用して、前記ユーザの手領域から前記n個の関節ポイントを抽出することができる。
Here, the joint
CPMとは、一人の人に対して人の姿勢(Pose)を出力するネットワークを学習させたモデルであり、人の関節間の関係を理解し、出力を精製(Refine)するためにMulti-Stateのネットワーク形態で構成し、それを評価(Evaluation)したのを特徴とするモデルである。CNN(Convolutional Neural Networks)を利用して各関節のHeatmapを出力するネットワーク構造を有しており、Stage 1の結果はイメージ特徴(Feature)と共にStage 2の入力として再び用いられ、このように反復的に同一なHeatmap結果を多くのStageにかけて処理した最終的な結果がCPMネットワークの出力となる。このようにするのは、前半のStageでは一部分のイメージ領域を通じて関節を探し出し、後半のStageではさらに大きくなったReceptive Fieldの影響で互いに異なる関節間の関係まで考慮されるので、より正確なHeatmap結果を得ることができるためである。
CPM is a model in which one person is trained to learn a network that outputs a person's posture (Pose), and is a multi-state for understanding the relationship between human joints and refining the output. It is a model characterized by being configured in the network form of the above and evaluated (Evaluation). It has a network structure that outputs the Heatmap of each joint using CNN (Convolutional Neural Networks), and the result of
この時、関節ポイント抽出部113は、このようなCPM技術を活用して、前記ユーザの手領域から、図2に示すように、主要関節ポイントである21個の関節ポイント(1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、21)を抽出することができる。
At this time, the joint
この時、本発明の一実施形態によれば、関節ポイント抽出部113は、前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当てることができる。
At this time, according to one embodiment of the present invention, the joint
これと関連し、関節ポイント抽出部113は、図2に示すように、21個の関節ポイントの前記ユーザの手領域での位置に応じて、1から21までの順番を一つずつ割り当てることができる。
基準円生成部114は、前記ユーザの手領域に対して、ジェスチャー確認のための仮想の基準円(circle)を生成する。
In connection with this, as shown in FIG. 2, the joint
The reference
これと関連し、基準円生成部114は、図3で図面符号310で示したように、前記ユーザの手領域に対して、ジェスチャー確認のための仮想の基準円310を生成することができる。
In connection with this, the reference
ジェスチャーベクトル生成部115は、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成する。
The gesture
この時、本発明の一実施形態によれば、ジェスチャーベクトル生成部115は、前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成することができる。
At this time, according to one embodiment of the present invention, the gesture
これと関連し、図3に示すように、21個の関節ポイントが抽出され、1から21までの順番が割り当てられたとする場合、ジェスチャーベクトル生成部115は、21個の関節ポイントのうち、仮想の基準円310の内部に位置するポイントに対して「1」のコードを割り当て、仮想の基準円310の外部に位置するポイントに対して「0」のコードを割り当てることができる。
In connection with this, as shown in FIG. 3, when 21 joint points are extracted and the order from 1 to 21 is assigned, the gesture
そして、ジェスチャーベクトル生成部115は、21個の関節ポイントの順番に応じて各関節ポイントに割り当てられたコードをベクトルの成分に一つずつ順次指定することによって、[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]という21次元のジェスチャーベクトルを生成することができる。
Then, the gesture
類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する。
The
この時、本発明の一実施形態によれば、類似度確認部116は、前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算することができる。
At this time, according to one embodiment of the present invention, the
ここで、アダマール積とは同じ大きさのベクトルや行列における各成分をかける演算を意味し、[a b c]と[x y z]というベクトルが存在する時、二つのベクトル間のアダマール積は[ax by cz]に演算される。 Here, the Hadamard product means an operation of multiplying each component in a vector or matrix of the same magnitude, and when the vectors [ab c] and [x yz] exist, the Hadamard product between the two vectors is. It is calculated in [ax by cz].
これと関連し、前述した例示のように、ジェスチャーベクトル生成部115において[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]という21次元のジェスチャーベクトルが生成されたとし、ジェスチャー判断基準ベクトル格納部111に表1のように情報が格納されているとする場合、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されている1番目のジェスチャー判断基準ベクトルである[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]と[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]というジェスチャーベクトルとの間のアダマール積を演算して[1 0 1 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0]というベクトルを算出した後、算出されたベクトルを構成する成分において「1」のコード値が存在する個数である「5」を[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]というジェスチャー判断基準ベクトルと[1 1 1 0 1 1 1 1 1 1 0 0 0 1 0 0 0 1 0 0 0]というジェスチャーベクトルとの間の類似度として演算することができる。
In connection with this, as in the above-mentioned example, the gesture
このようにして、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されているジェスチャー判断基準ベクトルと前記ジェスチャーベクトルとの間の類似度を全て演算することができる。
In this way, the
その後、類似度確認部116は、ジェスチャー判断基準ベクトル格納部111に格納されているジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルを前記第1ジェスチャー判断基準ベクトルに確認することができる。
After that, the
制御命令実行部117は、ジェスチャー判断基準ベクトル格納部111から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する。
The control
これと関連し、前記第1ジェスチャー判断基準ベクトルが[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]とする場合、制御命令実行部117は、表1のようなジェスチャー判断基準ベクトル格納部111から[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]というジェスチャー判断基準ベクトルに対応して格納されている「制御命令3」を前記ユーザの手の模様に対応する制御命令に確認した後、「制御命令3」を実行することができる。
この時、本発明の一実施形態によれば、制御命令実行部117は、制御命令選択メッセージ表示部120および選択制御命令実行部121を含むことができる。
In relation to this, when the first gesture judgment reference vector is [1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1], the control
At this time, according to one embodiment of the present invention, the control
制御命令選択メッセージ表示部120は、類似度確認部116において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、ジェスチャー判断基準ベクトル格納部111から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示する。
When the control command selection
選択制御命令実行部121は、前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行する。
When the second control command is selected from the two or more control commands by the user, the selection control
例えば、類似度確認部116において類似度が最大に演算されたジェスチャー判断基準ベクトルを確認した結果、[1 0 1 1 1 1 0 0 0 0 0 1 0 1 0 0 0 0 1 1 1]と[1 1 1 1 1 1 0 0 0 0 0 0 0 1 0 0 1 0 0 0 1]というジェスチャー判断基準ベクトルに対する類似度が最大に演算されたとする場合、制御命令選択メッセージ表示部120は、表1のようなジェスチャー判断基準ベクトル格納部111から「制御命令1」と「制御命令3」を確認した後、「制御命令1」と「制御命令3」のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示することができる。
For example, as a result of confirming the gesture judgment reference vector in which the similarity is calculated to the maximum by the
この時、ユーザが前記選択メッセージを見て、「制御命令3」を選択したとする場合、選択制御命令実行部121は、「制御命令3」を前記ユーザの手の模様に対応する制御命令に確認した後、「制御命令3」を実行することができる。
At this time, if the user sees the selection message and selects "control command 3", the selection control
その結果、本発明に係る電子端末装置110は、ユーザが所定の手の模様を取れば、カメラを介してユーザの手に対するイメージを取得し、前記イメージからユーザの手に対する関節ポイントを抽出し、ユーザの手領域に対してジェスチャー確認のための所定の基準円を生成した後、各関節ポイントのうち、どの関節ポイントが前記基準円内に属しているか否かを確認することによって、ユーザの手の模様に対応する適切な制御命令を実行することができる。それにより、ユーザは、別のコントローラー無しに、手を利用して所定のジェスチャーを取るだけで電子端末装置110を容易に制御することができる。
As a result, the electronic
本発明に係る電子端末装置110は、どの関節ポイントが基準円に含まれているか含まれていないかを確認することによって、ユーザの手の模様に対応するジェスチャーを決定する方法を取っているという点で、ユーザの手が撮影されたイメージの大きさなどに応じて前記基準円の大きさや位置が適切に指定される必要がある。
It is said that the electronic
これと関連し、本発明の一実施形態によれば、基準円生成部114は、基準円の大きさや位置を適切に指定するための構成であり、生成部118および配置部119を含むことができる。
In connection with this, according to one embodiment of the present invention, the reference
生成部118は、前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成する。
The
そして、配置部119は、前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置する。
これと関連し、図3~図5を参照して、生成部118と配置部119の動作を例を挙げて説明すれば以下のとおりである。
生成部118は、図3に示すように、イメージにおいてユーザの手領域を囲む仮想の四角領域320を生成することができる。
Then, the
In relation to this, the operations of the
As shown in FIG. 3, the
そして、生成部118は、図4の図面符号410に示すように、仮想の四角領域320と、予め設定された模様と大きさを有する基準四角領域411とを互いに比較して、基準四角領域411に対する仮想の四角領域410の横軸大きさ比率と縦軸大きさ比率を確認することができる。
Then, as shown in the
その後、生成部118は、図4の図面符号420に示すように、予め設定された模様と大きさを有する参照円421の横軸直径に対して前記横軸大きさ比率をかけ、参照円421の縦軸直径に対して前記縦軸大きさ比率をかけて参照円421の模様と大きさを変更することによって、仮想の基準円310を生成することができる。
After that, as shown in the
例えば、前記横軸大きさ比率が1.3、前記縦軸大きさ比率が1.8とする場合、生成部118は、参照円421の横軸直径に対して1.3をかけ、縦軸直径に対して1.8をかけることによって、仮想の基準円310を生成することができる。
For example, when the horizontal axis size ratio is 1.3 and the vertical axis size ratio is 1.8, the
このように、仮想の基準円310が生成されれば、配置部119は、図5に示すように、仮想の四角領域320の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点510を確認し、仮想の四角領域320の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点520を確認することができる。
When the
例えば、前記第1相対比率が3/5、前記第2相対比率が4/7とする場合、配置部119は、仮想の四角領域320の横軸において、左側地点を基準に3/5に該当する地点を第1地点510に確認し、仮想の四角領域320の縦軸において、上端地点を基準に4/7に該当する地点を第2地点520に確認することができる。
For example, when the first relative ratio is 3/5 and the second relative ratio is 4/7, the
その後、配置部119は、図5に示すように、第1地点510を通過する縦線と第2地点520を通過する横線が交わる交点530を仮想の基準円310の中心点に設定することによって、仮想の基準円310を仮想の四角領域320上に配置することができる。それにより、仮想の基準円310は、図3に示すように、ユーザの手領域上の適切な位置に適切な大きさと模様で配置される。
図6は、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法を示すフローチャートである。
After that, as shown in FIG. 5, the
FIG. 6 is a flowchart showing an operation method of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention.
ステップ(S610)では、予め設定された互いに異なる複数の制御命令と、前記複数の制御命令の各々に対応するものとして予め設定された互いに異なる複数のn(nは2以上の自然数)次元のジェスチャー判断基準ベクトル(前記複数のジェスチャー判断基準ベクトルは「0」と「1」のコードを成分として有するベクトルである)とが格納されているジェスチャー判断基準ベクトル格納部を保持する。
ステップ(S620)では、カメラを介してユーザの手を撮影して前記ユーザの手が含まれたイメージを取得する。
ステップ(S630)では、前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する。
ステップ(S640)では、前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円を生成する。
In step (S610), a plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensional gestures preset to correspond to each of the plurality of control commands. It holds a gesture judgment reference vector storage unit in which a judgment reference vector (the plurality of gesture judgment reference vectors are vectors having codes of "0" and "1" as components) is stored.
In step (S620), the user's hand is photographed through the camera to acquire an image including the user's hand.
In step (S630), the user's hand region is detected from the image, and n (n is a natural number of 2 or more) joint points are extracted from the user's hand region.
In step (S640), a virtual reference circle for gesture confirmation is generated for the user's hand area.
ステップ(S650)では、前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成する。 In step (S650), it is confirmed whether or not the n joint points are located inside the virtual reference circle, and the n joint points are located inside the virtual reference circle among the n joint points. By assigning a code of "1" to a point and a code of "0" to a point located outside the virtual reference circle, the code assigned to each of the n joint points is assigned. Generates an n-dimensional gesture vector having as a component.
ステップ(S660)では、前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する。 In step (S660), after calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination reference vector storage unit and the gesture vector, the plurality of gesture determination reference vectors of the plurality of gesture determination reference vectors are calculated. Among them, the first gesture judgment reference vector in which the similarity is calculated to the maximum is confirmed.
ステップ(S670)では、前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する。 In step (S670), after confirming the first control command stored corresponding to the first gesture judgment reference vector from the gesture judgment reference vector storage unit to the control command corresponding to the pattern of the user's hand, The first control command is executed.
この時、本発明の一実施形態によれば、ステップ(S630)では、前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当てることができる。 At this time, according to one embodiment of the present invention, in step (S630), the order corresponding to each of the n joint points is based on the position of the n joint points in the user's hand region. Can be assigned.
この時、ステップ(S650)では、前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成することができる。 At this time, in step (S650), the code assigned to each of the n joint points is specified for each of the vector components according to the order corresponding to each of the n joint points. The gesture vector can be generated.
また、本発明の一実施形態によれば、ステップ(S660)では、前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算することができる。 Further, according to one embodiment of the present invention, in step (S660), the Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector is calculated, and the calculation is performed by the calculation of the Hadamard product. The number of existing code values of "1" in the components constituting the vector can be calculated as the similarity.
また、本発明の一実施形態によれば、ステップ(S640)では、前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成するステップ、および前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置するステップを含むことができる。 Further, according to one embodiment of the present invention, in step (S640), a virtual square area surrounding the user's hand area is generated, and the virtual square area has a preset pattern and size. After comparing the reference square area with each other and confirming the horizontal axis size ratio and the vertical axis size ratio of the virtual square area with respect to the reference square area, the reference circle having a preset pattern and size By multiplying the horizontal axis diameter by the horizontal axis size ratio and multiplying the vertical axis diameter of the reference circle by the vertical axis size ratio to change the pattern and size of the reference circle, the virtual In the step of generating the reference circle of, and in the horizontal axis of the virtual square area, the first point corresponding to the first relative ratio set in advance with respect to the left side point is confirmed, and the vertical axis of the virtual square area is confirmed. In, after confirming the second point corresponding to the second ratio set in advance with respect to the upper end point, the intersection of the vertical line passing through the first point and the horizontal line passing through the second point is the virtual intersection. By setting the center point of the reference circle, the step of arranging the virtual reference circle on the virtual square region can be included.
また、本発明の一実施形態によれば、前記電子端末装置の動作方法は、ステップ(S660)において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、前記ジェスチャー判断基準ベクトル格納部から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示するステップ、および前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行するステップをさらに含むことができる。 Further, according to one embodiment of the present invention, in the operation method of the electronic terminal device, the gesture determination reference vector in which the similarity is calculated to the maximum is 2 among the plurality of gesture determination reference vectors in step (S660). When it is confirmed that the above exists, after confirming two or more control commands stored corresponding to the two or more gesture judgment reference vectors from the gesture judgment reference vector storage unit, among the two or more control commands. A step of displaying a selection message on the screen instructing to select any one of the control commands, and when the second control command is selected from the two or more control commands by the user, the second control command. Can be further included in the step of executing the second control command after confirming with the control command corresponding to the pattern of the user's hand.
以上、図6を参照して本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法について説明した。ここで、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、図1を用いて説明したユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置110の動作に関する構成と対応するため、これに関するより詳細な説明は省略することにする。
As described above, the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention has been described with reference to FIG. Here, in the operation method of the electronic terminal device that recognizes the user's hand gesture and executes the control command according to the embodiment of the present invention, the user's hand gesture described with reference to FIG. 1 is recognized and the control command is executed. In order to correspond to the configuration relating to the operation of the electronic
本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、コンピュータとの結合によって実行させるための格納媒体に格納されたコンピュータプログラムで実現されてもよい。 Even if the operation method of the electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention is realized by a computer program stored in a storage medium for execution by coupling with a computer. good.
また、本発明の一実施形態によるユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法は、様々なコンピュータ手段を介して実行できるプログラム命令形態で実現されてコンピュータ読み取り可能な媒体に記録されてもよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであるか、またはコンピュータソフトウェア当業者に公知されて使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体(magnetic media)、CD-ROM、DVDのような光記録媒体(optical media)、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータにより実行できる高級言語コードを含む。 Further, the operation method of the electronic terminal device that recognizes a user's hand gesture and executes a control command according to an embodiment of the present invention is realized in a program instruction form that can be executed via various computer means and can be read by a computer. It may be recorded on a medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention, or those known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptic discs. Includes magnetic-optical media such as disk) and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory and the like. Examples of program instructions include machine language code, such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
以上のように、本発明を具体的な構成要素などのような特定事項と限定された実施形態および図面によって説明したが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施形態に限定されるものではなく、本発明が属する分野で通常の知識を有した者であれば、このような記載から様々な修正および変形が可能である。 As described above, the present invention has been described by means of specific matters such as specific components and limited embodiments and drawings, which are provided to aid in a more general understanding of the invention. However, the present invention is not limited to the above-described embodiment, and any person who has ordinary knowledge in the field to which the present invention belongs can make various modifications and modifications from such a description.
したがって、本発明の思想は説明された実施形態に限定して定められてはならず、後述する特許請求の範囲だけでなく、該特許請求の範囲と均等または等価的な変形がある全てのものは本発明思想の範疇に属すると言える。 Therefore, the idea of the present invention should not be limited to the described embodiments, and is not limited to the scope of claims described later, but anything having a modification equal to or equivalent to the scope of claims. Can be said to belong to the category of the idea of the present invention.
110 ・・・ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置
111 ・・・ジェスチャー判断基準ベクトル格納部
112 ・・・イメージ取得部
113 ・・・関節ポイント抽出部
114 ・・・基準円生成部
115 ・・・ジェスチャーベクトル生成部
116 ・・・類似度確認部
117 ・・・制御命令実行部
118 ・・・生成部
119 ・・・配置部
120 ・・・制御命令選択メッセージ表示部
121 ・・・選択制御命令実行部
110 ・ ・ ・ Electronic terminal device that recognizes the user's hand gesture and executes control commands 111 ・ ・ ・ Gesture judgment reference
Claims (12)
カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するイメージ取得部、
前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出する関節ポイント抽出部、
前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成する基準円生成部、
前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するジェスチャーベクトル生成部、
前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認する類似度確認部、および
前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行する制御命令実行部
を含む、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。 A plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensions gesture determination presets corresponding to each of the plurality of control commands-the plurality. Gesture judgment reference vector of is a vector having a code of "0" and "1" as components-and a gesture judgment reference vector storage unit, which stores
An image acquisition unit that captures a user's hand (Hand) through a camera and acquires an image including the user's hand.
A joint point extraction unit that detects the user's hand area from the image and extracts n (n is a natural number of 2 or more) joint points from the user's hand area.
A reference circle generator that generates a virtual reference circle for gesture confirmation for the user's hand area,
It is confirmed whether or not the n joint points are located inside the virtual reference circle, and among the n joint points, "1" is given to the point located inside the virtual reference circle. By assigning the code of "0" to the point located outside the virtual reference circle, the n-dimensional code having the code assigned to each of the n joint points is used as a component. Gesture vector generator, which generates gesture vectors,
After calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination criterion vector storage unit and the gesture vector, the similarity is the maximum among the plurality of gesture determination criterion vectors. A similarity confirmation unit for confirming the first gesture determination reference vector calculated in the above, and a first control command stored from the gesture determination reference vector storage unit corresponding to the first gesture determination reference vector are transmitted by the user. An electronic terminal device that recognizes a user's hand gesture and executes a control command, including a control command execution unit that executes the first control command after confirming the control command corresponding to the pattern of the hand.
前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当て、
前記ジェスチャーベクトル生成部は、
前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成する、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。 The joint point extraction unit is
Based on the position of the n joint points in the user's hand area, the order corresponding to each of the n joint points is assigned.
The gesture vector generation unit is
Claimed to generate the gesture vector by designating one code assigned to each of the n joint points as a component of the vector according to the order corresponding to each of the n joint points. An electronic terminal device that recognizes the user's hand gesture according to 1 and executes a control command.
前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算する、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。 The similarity confirmation unit is
A code value of "1" exists in a component that calculates a Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector and constitutes a vector calculated by the calculation of the Hadamard product. An electronic terminal device that recognizes the user's hand gesture according to claim 1 and executes a control command by calculating the number of vectors to be performed as the similarity.
前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成する生成部、および
前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置する配置部
を含む、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。 The reference circle generator is
A virtual square area surrounding the user's hand area is generated, the virtual square area and a reference square area having a preset pattern and size are compared with each other, and the virtual square area with respect to the reference square area is compared with each other. After confirming the horizontal axis size ratio and the vertical axis size ratio of the square area, multiply the horizontal axis diameter of the reference circle having a preset pattern and size by the horizontal axis size ratio, and then multiply the reference circle. By multiplying the vertical axis diameter of the vertical axis by the vertical axis size ratio to change the pattern and size of the reference circle, the generation unit that generates the virtual reference circle, and the horizontal axis of the virtual square region. In, the first point corresponding to the first relative ratio set in advance with respect to the left side point is confirmed, and in the vertical axis of the virtual square area, it corresponds to the second relative ratio preset with reference to the upper end point. After confirming the second point, the intersection of the vertical line passing through the first point and the horizontal line passing through the second point is set as the center point of the virtual reference circle, thereby setting the virtual reference circle. An electronic terminal device for recognizing a user's hand gesture according to claim 1 and executing a control command, including an arrangement unit for arranging the above-mentioned virtual square area.
前記類似度確認部において前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算されたジェスチャー判断基準ベクトルが2以上存在すると確認された場合、前記ジェスチャー判断基準ベクトル格納部から前記2以上のジェスチャー判断基準ベクトルに対応して格納されている2以上の制御命令を確認した後、前記2以上の制御命令のうちいずれか一つの制御命令を選択することを指示する選択メッセージを画面上に表示する制御命令選択メッセージ表示部、および
前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行する選択制御命令実行部
を含む、請求項1に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置。 The control command execution unit is
When it is confirmed in the similarity confirmation unit that there are two or more gesture judgment reference vectors having the maximum similarity calculated among the plurality of gesture judgment reference vectors, the gesture judgment reference vector storage unit indicates that the two or more gesture judgment reference vectors are present. After confirming two or more control commands stored corresponding to the gesture judgment reference vector, a selection message instructing to select one of the two or more control commands is displayed on the screen. When the second control command is selected from the two or more control commands by the control command selection message display unit and the user, the second control command is confirmed by the control command corresponding to the pattern of the user's hand. An electronic terminal device that recognizes the user's hand gesture according to claim 1 and executes a control command, including a selection control command execution unit that executes the second control command.
カメラを介してユーザの手(Hand)を撮影して前記ユーザの手が含まれたイメージを取得するステップ、
前記イメージから前記ユーザの手領域を検出し、前記ユーザの手領域からn(nは2以上の自然数)個の関節ポイントを抽出するステップ、
前記ユーザの手領域に対してジェスチャー確認のための仮想の基準円(circle)を生成するステップ、
前記仮想の基準円の内部に前記n個の関節ポイントが位置するか否かを確認して、前記n個の関節ポイントのうち、前記仮想の基準円の内部に位置するポイントに対して「1」のコードを割り当て、前記仮想の基準円の外部に位置するポイントに対して「0」のコードを割り当てることによって、前記n個の関節ポイントの各々に割り当てられたコードを成分として有するn次元のジェスチャーベクトルを生成するステップ、
前記ジェスチャー判断基準ベクトル格納部に格納されている前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間の類似度を演算した後、前記複数のジェスチャー判断基準ベクトルのうち前記類似度が最大に演算された第1ジェスチャー判断基準ベクトルを確認するステップ、および
前記ジェスチャー判断基準ベクトル格納部から前記第1ジェスチャー判断基準ベクトルに対応して格納されている第1制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第1制御命令を実行するステップ
を含む、ユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。 A plurality of preset control commands different from each other and a plurality of different n (n is a natural number of 2 or more) dimensions gesture determination presets corresponding to each of the plurality of control commands-the plurality. The gesture judgment reference vector of is a vector having the code of "0" and "1" as components-the step of holding the gesture judgment reference vector storage unit in which the code is stored.
A step of photographing a user's hand (Hand) through a camera and acquiring an image including the user's hand.
A step of detecting the user's hand region from the image and extracting n (n is a natural number of 2 or more) joint points from the user's hand region.
A step of generating a virtual reference circle for gesture confirmation for the user's hand area,
It is confirmed whether or not the n joint points are located inside the virtual reference circle, and among the n joint points, "1" is given to the point located inside the virtual reference circle. By assigning the code of "0" to the point located outside the virtual reference circle, the n-dimensional code having the code assigned to each of the n joint points is used as a component. Steps to generate gesture vectors,
After calculating the similarity between each of the plurality of gesture determination reference vectors stored in the gesture determination criterion vector storage unit and the gesture vector, the similarity is the maximum among the plurality of gesture determination criterion vectors. The step of confirming the first gesture judgment reference vector calculated in the above, and the first control command stored corresponding to the first gesture judgment reference vector from the gesture judgment reference vector storage unit are the pattern of the user's hand. A method of operating an electronic terminal device that recognizes a user's hand gesture and executes a control command, including a step of executing the first control command after confirming with the control command corresponding to the above.
前記n個の関節ポイントの前記ユーザの手領域での位置に基づいて、前記n個の関節ポイントの各々に対応する順番を割り当て、
前記ジェスチャーベクトルを生成するステップは、
前記n個の関節ポイントの各々に対応する順番に応じて前記n個の関節ポイントの各々に割り当てられたコードをベクトルの成分に一つずつ指定することによって、前記ジェスチャーベクトルを生成する、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。 The extraction step is
Based on the position of the n joint points in the user's hand area, the order corresponding to each of the n joint points is assigned.
The step of generating the gesture vector is
Claimed to generate the gesture vector by designating one code assigned to each of the n joint points as a component of the vector according to the order corresponding to each of the n joint points. 6. An operation method of an electronic terminal device that recognizes a user's hand gesture and executes a control command according to 6.
前記複数のジェスチャー判断基準ベクトルの各々と前記ジェスチャーベクトルとの間のアダマール積(Hadamard product)を演算し、前記アダマール積の演算により算出されるベクトルを構成する成分において「1」のコード値が存在する個数を前記類似度として演算する、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。 The step to confirm is
A code value of "1" exists in a component that calculates a Hadamard product between each of the plurality of gesture determination reference vectors and the gesture vector and constitutes a vector calculated by the calculation of the Hadamard product. The operation method of an electronic terminal apparatus which recognizes a user's hand gesture according to claim 6 and executes a control command, which calculates the number of vectors to be performed as the similarity.
前記ユーザの手領域を囲む仮想の四角領域を生成し、前記仮想の四角領域と、予め設定された模様と大きさを有する基準四角領域とを互いに比較して、前記基準四角領域に対する前記仮想の四角領域の横軸大きさ比率と縦軸大きさ比率を確認した後、予め設定された模様と大きさを有する参照円の横軸直径に対して前記横軸大きさ比率をかけ、前記参照円の縦軸直径に対して前記縦軸大きさ比率をかけて前記参照円の模様と大きさを変更することによって、前記仮想の基準円を生成するステップ、および
前記仮想の四角領域の横軸において、左側地点を基準に予め設定された第1相対比率に該当する第1地点を確認し、前記仮想の四角領域の縦軸において、上端地点を基準に予め設定された第2相対比率に該当する第2地点を確認した後、前記第1地点を通過する縦線と前記第2地点を通過する横線が交わる交点を前記仮想の基準円の中心点に設定することによって、前記仮想の基準円を前記仮想の四角領域上に配置するステップ
を含む、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。 The step of generating the reference circle is
A virtual square area surrounding the user's hand area is generated, the virtual square area and a reference square area having a preset pattern and size are compared with each other, and the virtual square area with respect to the reference square area is compared with each other. After confirming the horizontal axis size ratio and the vertical axis size ratio of the square area, multiply the horizontal axis diameter of the reference circle having a preset pattern and size by the horizontal axis size ratio, and then multiply the reference circle. In the step of generating the virtual reference circle by multiplying the vertical axis diameter by the vertical axis size ratio to change the pattern and size of the reference circle, and on the horizontal axis of the virtual square region. , Confirm the first point corresponding to the first relative ratio set in advance based on the left side point, and correspond to the second relative ratio preset in reference to the upper end point on the vertical axis of the virtual square area. After confirming the second point, the virtual reference circle is set by setting the intersection of the vertical line passing through the first point and the horizontal line passing through the second point as the center point of the virtual reference circle. The operation method of the electronic terminal apparatus which recognizes a user's hand gesture according to claim 6 and executes a control command, including the step of arranging on the virtual square area.
前記ユーザによって前記2以上の制御命令のうち第2制御命令が選択された場合、前記第2制御命令を前記ユーザの手の模様に対応する制御命令に確認した後、前記第2制御命令を実行するステップ
をさらに含む、請求項6に記載のユーザのハンドジェスチャーを認識して制御命令を実行する電子端末装置の動作方法。 When it is confirmed that there are two or more gesture judgment reference vectors having the maximum similarity calculated among the plurality of gesture judgment reference vectors in the confirmation step, the two or more gestures are performed from the gesture judgment reference vector storage unit. After confirming two or more control commands stored corresponding to the judgment reference vector, a selection message instructing to select one of the two or more control commands is displayed on the screen. When the step and the second control command among the two or more control commands are selected by the user, the second control command is confirmed to the control command corresponding to the pattern of the user's hand, and then the second control is performed. The method of operating an electronic terminal device for recognizing a user's hand gesture and executing a control command according to claim 6, further comprising a step of executing the command.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2020-0060732 | 2020-05-21 | ||
| KR1020200060732A KR102280408B1 (en) | 2020-05-21 | 2020-05-21 | Electronic terminal device for executing a control command by recognizing a user's hand gesture and operating method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021184232A JP2021184232A (en) | 2021-12-02 |
| JP6994206B2 true JP6994206B2 (en) | 2022-01-14 |
Family
ID=77157966
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020158130A Active JP6994206B2 (en) | 2020-05-21 | 2020-09-23 | An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6994206B2 (en) |
| KR (1) | KR102280408B1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2025079832A (en) * | 2022-03-25 | 2025-05-23 | ソニーグループ株式会社 | Information processing device, information processing method, and storage medium |
| CN117648035B (en) * | 2023-12-14 | 2024-11-05 | 上海最安网络科技有限公司 | A virtual gesture control method and device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101281461B1 (en) | 2012-04-24 | 2013-07-03 | 군산대학교산학협력단 | Multi-touch input method and system using image analysis |
| US20140119596A1 (en) | 2012-10-31 | 2014-05-01 | Wistron Corporation | Method for recognizing gesture and electronic device |
| US20140253429A1 (en) | 2013-03-08 | 2014-09-11 | Fastvdo Llc | Visual language for human computer interfaces |
| JP2018132319A (en) | 2017-02-13 | 2018-08-23 | キヤノン株式会社 | Information processing apparatus, control method of information processing apparatus, computer program, and memory medium |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101548872B1 (en) * | 2014-06-13 | 2015-09-02 | 세종대학교산학협력단 | Fingers recognition method and system using image processing |
| KR102187525B1 (en) * | 2018-11-05 | 2020-12-07 | 주식회사 한글과컴퓨터 | Electronic terminal device capable of executing a gesture recognition-based control command and operating method thereof |
-
2020
- 2020-05-21 KR KR1020200060732A patent/KR102280408B1/en active Active
- 2020-09-23 JP JP2020158130A patent/JP6994206B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101281461B1 (en) | 2012-04-24 | 2013-07-03 | 군산대학교산학협력단 | Multi-touch input method and system using image analysis |
| US20140119596A1 (en) | 2012-10-31 | 2014-05-01 | Wistron Corporation | Method for recognizing gesture and electronic device |
| US20140253429A1 (en) | 2013-03-08 | 2014-09-11 | Fastvdo Llc | Visual language for human computer interfaces |
| JP2018132319A (en) | 2017-02-13 | 2018-08-23 | キヤノン株式会社 | Information processing apparatus, control method of information processing apparatus, computer program, and memory medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021184232A (en) | 2021-12-02 |
| KR102280408B1 (en) | 2021-07-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6994207B2 (en) | An electronic terminal device that executes control commands corresponding to user hand gestures and outputs feedback, and its operation method. | |
| DK2996015T3 (en) | PROCEDURE TO USE IMPROVED REALITY AS HMI VIEW | |
| JP6171671B2 (en) | Information processing apparatus, position specifying method, and position specifying program | |
| US20110273474A1 (en) | Image display apparatus and image display method | |
| KR20200032055A (en) | Method and program for making reactive video | |
| JP6994206B2 (en) | An electronic terminal device that recognizes a user's hand gesture and executes a control command and its operation method | |
| JP5550124B2 (en) | INPUT DEVICE, DEVICE, INPUT METHOD, AND PROGRAM | |
| US11978252B2 (en) | Communication system, display apparatus, and display control method | |
| CN114223021A (en) | Electronic device and method for processing handwriting input | |
| JP7009904B2 (en) | Terminal devices, information processing systems, information processing methods and programs | |
| JP6575329B2 (en) | Electronic album creation device | |
| JP2015102875A (en) | Display system and display control device | |
| JP2018112894A (en) | System and control method | |
| CN113780045B (en) | Method and apparatus for training a distance prediction model | |
| CN111290577B (en) | Non-contact input method and device | |
| JP7786109B2 (en) | Communication system, display device, display control method, and display control program | |
| CN102985894B (en) | First response and second response | |
| JP2017531226A (en) | Motion recognition method and motion recognition device | |
| JP2015060421A (en) | Similar image search method, and similar image search device | |
| WO2018048227A1 (en) | Device, method and program for generating multidimensional reaction-type image, and method and program for reproducing multidimensional reaction-type image | |
| JP6624861B2 (en) | Image processing apparatus, control method, and program | |
| JP2017073039A (en) | Object identification device, object identification method and program | |
| KR102773910B1 (en) | Method and apparatus for determining hand pose for control by using hand action | |
| JP7623994B2 (en) | Image processing device, image processing method, and program | |
| JP6803035B2 (en) | An electronic device that provides a user interface based on the user's intention and how it operates |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200923 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211201 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6994206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
