[go: up one dir, main page]

WO2011142317A1 - ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 - Google Patents

ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 Download PDF

Info

Publication number
WO2011142317A1
WO2011142317A1 PCT/JP2011/060655 JP2011060655W WO2011142317A1 WO 2011142317 A1 WO2011142317 A1 WO 2011142317A1 JP 2011060655 W JP2011060655 W JP 2011060655W WO 2011142317 A1 WO2011142317 A1 WO 2011142317A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
hand
gravity
center
palm
Prior art date
Application number
PCT/JP2011/060655
Other languages
English (en)
French (fr)
Inventor
聡 味香
Original Assignee
日本システムウエア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本システムウエア株式会社 filed Critical 日本システムウエア株式会社
Priority to US13/697,172 priority Critical patent/US9069386B2/en
Priority to JP2012514789A priority patent/JPWO2011142317A1/ja
Publication of WO2011142317A1 publication Critical patent/WO2011142317A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to a gesture recognition device, method, program, and computer-readable medium storing the program, and more specifically, a gesture recognition device, method, program, and program capable of providing an intuitive operation to a user.
  • the present invention relates to a computer readable medium storing a program.
  • Various input devices for the operation of personal computers are commercially available. Examples of the input device include a mouse, a trackball, a joystick, and a touch panel. Such an input device is different from a keyboard and can provide various intuitive operations to the user.
  • the touch panel does not require a dedicated work area, and various operations can be performed by bringing a finger or a dedicated pen into contact with the display surface. It is installed in various devices such as vending machines, mobile phones, car navigation systems, and OA devices.
  • a touch panel is created by placing an element for detecting contact on the surface of a display such as a liquid crystal and covering it with a transparent screen.
  • a pressure-sensitive type senses a change in pressure
  • an electrostatic type senses an electrical signal due to static electricity
  • the touch panel is always touched by the user's finger or pen, the surface of the display becomes dirty and difficult to see.
  • the strong pressing may cause problems such as damage or damage to the surface of the display.
  • Patent Document 2 discloses an example of a gesture recognition device. As described above, the gesture recognition device captures a gesture performed by a user's hand or the like in a free space with a camera, recognizes the gesture based on the image, and causes the processing device to perform an operation corresponding to the gesture. Unlike the touch panel, this employs a non-contact method and thus does not adversely affect the display.
  • An object of the present invention is to provide a gesture recognition device capable of accurately recognizing a user's gesture in a free space with a simple configuration, a gesture recognition method using the device, a program for executing the method, and a computer storing the program It is to provide a readable medium.
  • Another object of the present invention is to provide a gesture recognition device capable of accurately recognizing the start and end of a gesture, a gesture recognition method using the device, a program for executing the method, and a computer-readable medium storing the program Is to provide.
  • Still another object of the present invention is to provide a gesture recognition device capable of providing a user with a more intuitive operation, a gesture recognition method using the device, a program for executing the method, and a computer-readable medium storing the program. That is.
  • the invention of claim 1 devised to solve the above-mentioned problem is mounted on a processing device, recognizes a gesture by a human hand in a free space via a moving image, and performs a predetermined operation according to the recognized gesture.
  • a gesture recognition device for causing the processing device to execute: a palm center of gravity specifying means for specifying the center of gravity of the palm portion of the hand; a palm area specifying means for specifying the area of the palm portion of the hand; Finger length calculation means for obtaining a distance between the fingertip, angle calculation means for obtaining an angle formed by a straight line connecting the center of gravity and the fingertip, displacement of the center of gravity of the palm portion of the hand, and palm of the hand Gesture identifying means for identifying the gesture by a combination of a variation in the area of the portion, a variation in the distance between the center of gravity and the fingertip of the hand, and a variation in the angle formed by a straight line connecting the center of gravity and the fingertip , Comprising a.
  • the said gesture identification means has the area of the palm part of the said hand constant. When the distance between the center of gravity and the fingertip of the hand changes, it is determined that the shape indicated by the finger of the hand has changed.
  • Invention of Claim 6 created in order to solve the said subject is a gesture recognition apparatus as described in any one of Claim 1 thru
  • the said gesture performs the gesture which shows operation start, and operation. Including a gesture and a gesture indicating the end of the operation.
  • the said processing apparatus is a personal computer, a portable terminal, car navigation, Mobile phone.
  • the invention of claim 11 created to solve the above problem recognizes a gesture by a human hand in a free space through a moving image, and causes the processing device to execute a predetermined operation according to the recognized gesture.
  • a gesture recognition method comprising: a palm centroid specifying step for specifying a centroid of a palm portion of the hand; a palm area specifying step for specifying an area of the palm portion of the hand; and a distance between the centroid and a fingertip of the hand.
  • a finger length calculation step for obtaining an angle an angle calculation step for obtaining an angle formed by a straight line connecting the centroid and the fingertip, a displacement of the centroid of the palm portion of the hand, and a variation in the area of the palm portion
  • the invention according to claim 14, which was created to solve the above-described problem, is the gesture recognition method according to claim 11, wherein an area of the palm portion of the hand is constant in the gesture identification step.
  • the invention of claim 15 devised to solve the above-mentioned problem is the gesture recognition method according to any one of claims 11 to 14, wherein the straight line connecting the center of gravity and the fingertip is the gesture identification step. When the angle formed by the angle changes, it is identified that the palm portion of the hand is rotating.
  • the invention of claim 16 created to solve the above-mentioned problem is the gesture recognition method according to any one of claims 11 to 15, wherein the gesture executes a gesture indicating an operation start and an operation. Including a gesture and a gesture indicating the end of the operation.
  • the invention of claim 17 created to solve the above-mentioned problem is the gesture recognition method according to any one of claims 11 to 16, wherein the gesture indicating the end of the operation is such that the center of gravity of the palm is downward. This corresponds to the case where the area of the palm is reduced and the distance between the center of gravity and the fingertip of the hand is shortened.
  • the invention of claim 18 devised to solve the above problem is the gesture recognition method according to any one of claims 11 to 17, wherein an operation to be executed by the processing device is performed on a screen of the processing device. Displaying a menu, changing the size of an object displayed on the screen of the processing device, moving and rotating an object displayed on the screen of the processing device, a plurality of items displayed on the screen of the processing device Scrolling or frame-by-frame.
  • the invention of claim 19 created to solve the above problem is an electronic circuit for executing the gesture recognition method according to any one of claims 11 to 18.
  • the invention of claim 20 created to solve the above-described problem is a program for causing the processing apparatus to execute the gesture recognition method according to any one of claims 11 to 18.
  • the invention of claim 21 created to solve the above-mentioned problem is a computer-readable medium storing the program of claim 20.
  • movement in the horizontal direction (up, down, left and right) of the hand is determined by movement of the center of gravity of the palm. If a person intentionally moves his / her hand up / down / left / right, only the center of gravity of the palm moves, and other elements remain unchanged. Therefore, the horizontal movement of the hand can be accurately recognized.
  • the movement of the hand in the perspective direction is determined by the change in the palm area.
  • the palm area does not depend on the finger shape (goo, par, choki, etc.). Therefore, if a human intentionally moves his / her hand in the perspective direction, only the palm area changes, and other elements remain unchanged. Therefore, it is possible to accurately recognize the movement of the hand in the perspective direction.
  • the change of the shape indicated by the finger of the hand is discriminated by the change of the length of the finger.
  • the palm area is constant, the distance between the hand and the imaging device does not change. Therefore, when the palm area is constant and the finger length is changed, the finger is moving. Therefore, a change in the shape indicated by the finger can be recognized by a change in the finger length.
  • the gesture is a set of a series of sub-gestures, and these sub-gestures include those indicating the start and end of the operation.
  • these sub-gestures include those indicating the start and end of the operation.
  • an intuitive operation can be provided to the user by accurately recognizing the start and end of the gesture.
  • the gesture recognition device realizes the same operation as the multi-touch operation on the touch panel.
  • the present invention can be applied to various processing apparatuses.
  • the invention of claim 19 provides the present invention in the form of an electronic circuit.
  • the invention of claim 20 provides the present invention in the form of a program.
  • the invention of claim 21 provides the present invention in the form of a computer-readable medium.
  • the present invention it is possible to provide a gesture recognition method with higher recognition accuracy, a program for executing the method, and a computer-readable medium storing the program.
  • the present invention can be realized by a simple system including a single imaging device and a processing device such as a personal computer.
  • the present invention it is possible to discriminate between the start and end of a gesture and intentional movements and unintentional movements. As a result, it is possible to provide a user with more intuitive and diverse operations.
  • Example 1 of the gesture recognition method performed with the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a flowchart of Example 1 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a figure for demonstrating Example 2 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a flowchart of Example 2 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a figure for demonstrating Example 3 of the gesture recognition method performed with the gesture recognition apparatus which concerns on one Embodiment of this invention.
  • Example 3 It is a flowchart of Example 3 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a figure for demonstrating Example 4 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention. It is a flowchart of Example 4 of the gesture recognition method performed by the gesture recognition apparatus which concerns on one Embodiment of this invention.
  • This gesture recognition device is mounted on a processing device such as a computer, and has a function of recognizing a gesture by a user's hand via a moving image and executing an operation corresponding to the recognized gesture on the processing device.
  • a processing device such as a computer
  • This gesture recognition device has a function of recognizing a gesture by a user's hand via a moving image and executing an operation corresponding to the recognized gesture on the processing device.
  • a processing device such as a computer
  • FIG. 1 shows a functional block diagram of a gesture recognition apparatus 1000 according to an embodiment of the present invention.
  • the object recognition apparatus 1000 includes, as functional elements, a frame image receiving unit 10, a hand region detecting unit 20, a palm centroid specifying unit 30, a palm area specifying unit 40, and a finger length / angle specifying unit. 50, a gesture identification unit 60, an operation determination unit 70, and a storage unit 80.
  • an imaging device is connected to the input unit, and a processing device is connected to the output unit.
  • the imaging device has a function of imaging a user's hand at a predetermined frame rate and outputting the captured data as moving image data in a predetermined format.
  • a general-purpose video camera may be used for this imaging device.
  • a general-purpose computer may be used as the processing device.
  • the frame image receiving unit 10 has a function of receiving moving image data from the imaging device. Specifically, moving image data in a predetermined format generated by the imaging device is received, and the moving image data is converted into a data format that can be processed by a subsequent functional element as necessary.
  • the hand region detection unit 20 has a function of obtaining hand regions in a plurality of frame images constituting the moving image data received from the frame image receiving unit 10.
  • the method for obtaining the hand region is not particularly limited, and an existing method may be used.
  • a template matching method may be used.
  • a technique disclosed in Japanese Patent Application Laid-Open No. 2007-43311 may be used in which the hand is irradiated with light such as infrared rays and the hand region is detected with the reflected light.
  • the pixel coordinates of the detected hand region are sent to the palm center of gravity specifying unit 30.
  • the palm center of gravity specifying unit 30 has a function of obtaining the center of gravity of the palm portion in the hand region detected by the hand region detecting unit 20.
  • a method for obtaining the center of gravity of the palm will be described with reference to FIG. 1)
  • the largest part in the horizontal direction is detected in the hand region.
  • the midpoint in the horizontal direction of this detection location is taken as a temporary center of gravity (see FIG. 2A).
  • 2) Draw a square that is centered on the temporary center of gravity and smaller than the hand area (see FIG. 2B). 3) Enlarge until at least one side of the drawn square contacts any edge of the hand region (see FIG. 2C).
  • the palm area specifying unit 40 has a function of obtaining the area of the palm part in the hand region detected by the hand region detecting unit 20.
  • a method for obtaining the palm area will be described with reference to FIG. 1) Draw a perfect circle centered on the center of gravity obtained by the palm center of gravity specifying unit 30 and smaller than the hand region (see FIG. 3A). 2) It expands until the circumference of the drawn perfect circle touches any edge of the hand region (see FIG. 3B). 3) Let the area of the perfect circle at this time be the palm area. If the distance between the hand and the imaging device is constant, the palm area is always constant regardless of the finger shape. That is, when the hand moves in the perspective direction with respect to the imaging device, the palm area changes. Therefore, the palm area is used as an element for grasping the variation in the distance between the imaging apparatus and the hand.
  • the finger length / angle specifying unit 50 has a function of obtaining the length and angle of the finger part in the hand region detected by the hand region detecting unit 20.
  • a method of obtaining the finger length and angle will be described with reference to FIG. 1)
  • the distance from the center of gravity obtained by the palm center of gravity specifying unit 30 to each coordinate of the edge of the hand region is obtained.
  • five coordinates are selected in the longest order (a, b, c, d, e in the figure). These coordinates correspond to the coordinates of each fingertip. 3) Find the distance between each of the five selected coordinates and the center of gravity and add the value. This is the length of the finger.
  • An angle formed by a line connecting each fingertip and the center of gravity and a horizontal line or a vertical line is obtained.
  • the length of the finger is used as an element for discriminating the shape of the hand, for example, goo, par, choki shape.
  • the angle of the finger is used as an element for determining the rotation of the palm.
  • the gesture identifying unit 60 includes the displacement of the center of gravity of the palm determined by the palm center of gravity specifying unit 30 described above, the variation of the palm area determined by the palm area specifying unit 40, and the finger determined by the finger length / angle specifying unit 50. It has a function of recognizing a gesture by a hand based on a combination of elements consisting of length and angle variation. Specifically, the storage unit 80 is accessed and a gesture corresponding to the combination of the above elements is acquired. The following is an example of the relationship between element combinations and gestures.
  • the operation determining unit 70 accesses the storage unit 80, acquires an operation corresponding to the gesture recognized by the gesture identifying unit 60, and sends the operation to the processing device subsequent to the command. For example, if the operation corresponding to the “hand moving to the right” state in Table 1 is “move the cursor to the right”, a command to move the cursor to the right is output.
  • [Storage unit] A database that stores the relationship between the displacement of the center of gravity of the hand, the variation of the palm area, the combination of the finger length variation and angle, the relationship with the gesture, and the relationship between the gesture and the operation to be performed. It has a function. It is mainly implemented by storage means such as a memory, hard disk, CD, and DVD.
  • FIG. 5 shows a flowchart of a gesture recognition method performed by the gesture recognition apparatus 1000 having the above functional elements.
  • the gesture recognition apparatus 1000 causes the processing apparatus to perform a predetermined operation will be described below. Note that in the following embodiment, the processing shown in the flowchart of FIG. 5 is continuously performed.
  • FIG. 6 is a diagram showing a screen of the processing device and a hand for operating it with a gesture
  • FIG. 7 is a flowchart of this processing.
  • the hand region detection unit 20 determines whether or not the shape of the user's hand is one finger (step S100).
  • step S100 When it is determined that the shape is a single finger (“YES” in step S100), the cursor on the screen is moved in accordance with the movement direction of the center of gravity on the hand (FIG. 6A).
  • the gesture identification unit 60 determines whether or not the center of gravity of the palm is changing, the palm area is constant, and the finger length is constant (step S130).
  • the elapsed time is counted in this state (step S140).
  • step S140 When the elapsed time reaches 0.5 seconds (“YES” in step S140), the cursor shape and color on the screen are changed, and the user is visually informed that the menu is displayed (step S150) (FIG. S150). 6 (b) (c)). In this state, the elapsed time is counted again, and when the elapsed time reaches 3 seconds (“YES” in step S160), a menu is displayed on the screen, and this process is terminated (step S170) (FIG. 6D). )).
  • FIG. 8 shows the correspondence between the user's hand and the screen, and FIG. 9 is a flowchart of the processing performed at this time.
  • the hand region detection unit 20 determines whether or not the shape of the user's hand is two fingers (step S200).
  • step S210 it is next determined whether or not the cursor is within a predetermined area on the screen (step S210). If it is determined that it is in a predetermined position (“YES” in step S210), the gesture identification unit 60 determines whether the center of gravity of the palm is stationary, the palm area is constant, and the finger length is constant ( Step S220). If it is determined that the center of gravity of the hand is stationary, the palm area is constant, and the finger length is constant (“YES” in step S220), it is determined that the object enlargement / shape operation starts, and this state The elapsed time is counted (step S230).
  • step S230 When 0.5 second has elapsed (“YES” in step S230), the object on the screen is enlarged / reduced in accordance with the change in the length of the finger, ie, expansion / reduction (step S240). At this time, the center of gravity of the palm is moved, the area is reduced, the finger length is shortened, that is, it is recognized that the user's hand has moved unconsciously (step S250), and the cursor is moved to a predetermined area on the screen. If it is determined that it has moved outside (step S260), it is determined that the operation has ended, and the process ends.
  • FIG. 10 shows the correspondence between the user's hand and the screen
  • FIG. 11 is a flowchart of the processing performed at this time. In this flowchart, the same steps as those in the flowchart of FIG. 9 are given the same step numbers, and description thereof is omitted.
  • Step S230 After determining that the operation is started (“YES” in step S230), if it is determined that the center of gravity of the palm is constant and the angle of the finger is changing, the object on the screen is rotated according to the changed angle. (Step S340). On the other hand, when the finger angle is constant and the center of gravity of the palm changes, the object on the screen is moved in accordance with the movement (step S345).
  • gesture recognition apparatus 1000 The above is an example of operations performed by the gesture recognition apparatus 1000 according to an embodiment of the present invention.
  • the implementation content of the gesture recognition apparatus 1000 is not limited to the above example.
  • folders or images arranged on the screen may be scrolled or framed horizontally or vertically.
  • a fourth embodiment using this method will be described below.
  • the hand region detection unit 20 determines whether or not the shape of the user's hand is two fingers (step S400). If it is determined that the finger is a two finger (“YES” in step S400), the gesture identification unit 60 determines whether the fingertip of the two fingers is stationary, that is, whether the fingertip coordinates are constant (step S410). If it is determined that the fingertip of the two fingers is stationary (“YES” in step S410), the elapsed time is counted in this state (step S420). If 0.5 second has elapsed (“YES” in step S420), it is determined that the operation has started. Further, the coordinates of the fingertips of the two fingers at this time are used as the base point. Next, steps S430, S440, and S450 are performed.
  • a midpoint between the coordinates of the fingertips of the two fingers is obtained, and the target object is moved according to the movement of the position of the midpoint (step S430).
  • the distance between the coordinates of the fingertips of the two fingers is obtained, and the target object is enlarged or reduced according to the change in the distance (step S440). For example, if the distance between the coordinates of the fingertip is increased, the object is enlarged according to the increase, and if the distance is reduced, the object is reduced according to the decrease.
  • the angle of the straight line connecting the coordinates of the fingertips of the two fingers is obtained, and the target object is rotated according to the fluctuation of the angle (step S450).
  • step S460 If it is determined that the coordinates of the fingertips of the two fingers are stationary ("YES” in step S460), the elapsed time is counted in this state (step S470). When 3 seconds have elapsed (“YES” in step S470), it is determined that the operation has ended, and the process ends.
  • the position of the fingertip does not have to be located on the object to be operated, and may be located in an arbitrary area on the screen.
  • the behavior of the hand during the operation period is determined by a combination of palm area, finger length, finger angle, and the like.
  • the behavior is based only on the positions of the two fingertips. Judging. This is based on the grounds that the position of the user's hand does not greatly shake (change) with respect to the imaging device during the operation period.
  • the operation of the gesture according to the fourth embodiment takes a certain amount of time, the recognition process is simple, and it is possible to suitably follow the quick movement of the finger.
  • the gesture recognition apparatus 1000 causes the processing apparatus to perform a predetermined operation.
  • a plurality of finger states may be recognized simultaneously and a plurality of operations corresponding to the respective finger states may be performed simultaneously.
  • the gestures of both hands may be recognized at the same time, and operations corresponding to the respective gestures may be performed simultaneously.
  • the processing apparatus to which the gesture recognition apparatus 1000 according to an embodiment of the present invention is applied is not particularly limited. For example, you may apply to various apparatuses, such as a personal computer, a portable terminal, ATM, a car navigation, a vending machine, a mobile telephone, and OA apparatus.
  • gesture recognition apparatus 1000 is not limited to specific hardware resources or software processing. That is, as long as this function can be realized, any hardware (electronic circuit or the like), software (program), or a combination thereof may be used.
  • the gesture recognition method according to the embodiment of the present invention described above is implemented as a program
  • the program is downloaded from an external server or the like to an information processing apparatus that executes the method, or in the form of a computer-readable medium It is preferable that it is distributed by.
  • the computer-readable medium include CD-ROM, DVD, magnetic tape, flexible disk, magneto-optical disk, hard disk, memory medium, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】自由空間におけるユーザのジェスチャーを正確に認識することが可能なジェスチャー認識装置を提供する。 【解決手段】本発明は、処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置(1000)であり、前記手の掌部分の重心を特定する掌重心特定手段(30)と、前記手の掌部分の面積を特定する掌面積特定手段(40)と、前記重心と手の指先との間の距離を求める指長さ算出手段(50)と、前記重心と指先とを結んだ直線がなす角度を求める角度算出手段(50)と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段(60)と、を備える。

Description

ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
 本発明は、ジェスチャーを認識する装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体に関し、より詳細には、ユーザに直観的な操作を提供可能なジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体に関する。
 パーソナルコンピュータの操作を目的とした種々の入力デバイスが市販されている。この入力デバイスの例としては、マウス、トラックボール、ジョイスティック、タッチパネルなどが挙げられる。このような入力デバイスはキーボードとは異なり、ユーザに種々の直観的な操作を提供することができる。
 特にタッチパネルは他の入力デバイスと異なり、専用の作業領域を必要とせず、指や専用のペンをディスプレイの表面に接触させることで様々な操作が可能となるため、主にモバイル用のコンピュータに加え、自動販売機、携帯電話、カーナビ、OA機器など多種の機器に搭載されている。
 タッチパネルは、液晶などのディスプレイの表面に接触を検知するための素子を配置し、さらにそれを透明なスクリーンで覆うことで作成される。画面への接触を感知する方式は感圧式と静電式との2種類があり、前者は圧力の変化を感知し、後者は静電気による電気信号を感知する(特許文献1参照)。
 しかし、タッチパネルは常にユーザの指やペンによって触れられるため、ディスプレイの表面が汚れて視認し難くなる。さらに、強く押圧することにより、ディスプレイの表面に傷がつく、あるいは破損する等の不具合が発生するおそれがある。
 上述の不具合点を改善したものがジェスチャー認識装置である。特許文献2はジェスチャー認識装置の一例を開示している。このように、ジェスチャー認識装置は自由空間にユーザの手などで行われるジェスチャーをカメラで撮像し、その画像を基にそのジェスチャーを認識し、それに応じた操作を処理装置に行わせている。これは、タッチパネルと異なって非接触方式を採用しているため、ディスプレイに悪影響を与えることはない。
特開2007-43311 特開2004-78977
 しかし、現行のジェスチャー認識装置はいくつかの改善すべき問題点がある。
ユーザによるジェスチャーは自由空間内で行われるため、その挙動は複雑かつ不安定になる。そのため、ユーザによる意図的な動作なのか、あるいは無意識な動作なのかを判別する、あるいは特定のジェスチャーの開始点、終了点などを認識することが困難である。また、三次元の動きをカメラで撮像して二次元の画像で判定するため、カメラに対して遠近方向の動きと、上下左右の動きとを明確に区分けすることができず、そのためには複数のカメラでジェスチャーを撮像するなど複雑な構成を用いねばならない。
 本発明の目的は、単純な構成で自由空間におけるユーザのジェスチャーを正確に認識することが可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
 本発明の別の目的は、ジェスチャーの開始および終了を正確に認識することが可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
 本発明のさらに別の目的は、より直感的な操作をユーザに提供可能なジェスチャー認識装置、該装置によるジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することである。
 前記課題を解決するために創案された請求項1の発明は、処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置であって、前記手の掌部分の重心を特定する掌重心特定手段と、前記手の掌部分の面積を特定する掌面積特定手段と、前記重心と手の指先との間の距離を求める指長さ算出手段と、前記重心と指先とを結んだ直線がなす角度を求める角度算出手段と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段と、を備える。
 前記課題を解決するために創案された請求項2の発明は、請求項1に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の重心が変位したときに、前記手が上下左右の何れかに移動したと判断することである。
 前記課題を解決するために創案された請求項3の発明は、請求項1または2に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の面積が変動したときに、前記手が前後の何れかに移動したと判断することである。
 前記課題を解決するために創案された請求項4の発明は、請求項1ないし3の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときに、前記手の指が示す形状が変化したと判断することである。
 前記課題を解決するために創案された請求項5の発明は、請求項1ないし4の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー識別手段が前記重心と指先とを結んだ直線がなす角度が変動したときに、前記手の掌部分が回転していると識別することである。
 前記課題を解決するために創案された請求項6の発明は、請求項1ないし5の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことである。
 前記課題を解決するために創案された請求項7の発明は、請求項1ないし6の何れか一項に記載のジェスチャー認識装置において、前記操作終了を示すジェスチャーが前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することである。
 前記課題を解決するために創案された請求項8の発明は、請求項1ないし7の何れか一項に記載のジェスチャー認識装置において、前記処理装置に実行させる操作が、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことである。
 前記課題を解決するために創案された請求項9の発明は、請求項1ないし8の何れか一項に記載のジェスチャー認識装置において、前記ジェスチャー認識装置が複数のジェスチャーを同時に認識し、該認識したジェスチャーのそれぞれに応じた操作を前記処理装置に同時に実行させることである。
 前記課題を解決するために創案された請求項10の発明は、請求項1ないし9の何れか一項に記載のジェスチャー認識装置において、前記処理装置がパーソナルコンピュータと、携帯端末と、カーナビゲーションと、携帯電話と、を含むことである。
 前記課題を解決するために創案された請求項11の発明は、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を処理装置に実行させるジェスチャー認識方法であって、前記手の掌部分の重心を特定する掌重心特定段階と、前記手の掌部分の面積を特定する掌面積特定段階と、前記重心と手の指先との間の距離を求める指長さ算出段階と、前記重心と指先とを結んだ直線がなす角度を求める角度算出段階と、前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別段階と、を含む。
 前記課題を解決するために創案された請求項12の発明は、請求項11に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の重心が変位したときには、前記手が上下左右の何れかに移動したと判断することである。
 前記課題を解決するために創案された請求項13の発明は、請求項11または12に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の面積が変動したときには、前記手が前後の何れかに移動したと判断することである。
 前記課題を解決するために創案された請求項14の発明は、請求項11ないし13の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときには、前記手の指が示す形状が変化したと判断することである。
 前記課題を解決するために創案された請求項15の発明は、請求項11ないし14の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャー識別段階で、前記重心と指先とを結んだ直線がなす角度が変動したときには、前記手の掌部分が回転していると識別することである。
 前記課題を解決するために創案された請求項16の発明は、請求項11ないし15の何れか一項に記載のジェスチャー認識方法において、前記ジェスチャーが、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことである。
 前記課題を解決するために創案された請求項17の発明は、請求項11ないし16の何れか一項に記載のジェスチャー認識方法において、前記操作終了を示すジェスチャーが、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することである。
 前記課題を解決するために創案された請求項18の発明は、請求項11ないし17の何れか一項に記載のジェスチャー認識方法において、前記処理装置に実行させる操作が、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことである。
 前記課題を解決するために創案された請求項19の発明は、請求項11ないし18の何れか一項に記載のジェスチャー認識方法を実行する電子回路である。
 前記課題を解決するために創案された請求項20の発明は、請求項11ないし18の何れか一項に記載のジェスチャー認識方法を前記処理装置に実行させるプログラムである。
 前記課題を解決するために創案された請求項21の発明は、請求項20に記載のプログラムを格納したコンピュータ可読媒体である。
 請求項1および請求項11の発明では、人間の手のジェスチャーを認識するために、掌の重心と、掌の面積と、指の長さと、指の角度と、からなる要素の組み合わせを用いている。これらの要素を組み合わせれば、自由空間のような三次元の不安定な領域におけるジェスチャーであっても正確に認識することができる。
 請求項2および請求項12の発明では、手の水平方向(上下左右)の移動を掌の重心の移動で判別する。人間が意図的に手を上下左右に動かせば、掌の重心のみが動き、他の要素は変わらない。したがって、手の水平方向の動きを正確に認識することができる。
 請求項3および請求項13の発明では、手の遠近方向の移動を掌の面積の変化で判別する。掌の面積は、指の形状(グー、パー、チョキ等)には依存しない。したがって、人間が意図的に手を遠近方向に動かせば、掌の面積のみ変化し、他の要素は変わらない。したがって、手の遠近方向の動きを正確に認識することができる。
 請求項4および請求項14の発明では、手の指が示す形状の変化を指の長さの変化で判別する。上述のように掌の面積が一定ならば手と撮像装置との距離は変化していない。したがって、掌の面積が一定で、かつ指の長さが変化しているときは、指を動かしている場合である。したがって、指の長さの変化によって、指が示す形状の変化を認識することができる。
 請求項5および請求項15の発明では、掌の回転の有無を手の指の角度の変化によって判別する。したがって、掌の回転を正確に認識することができる。
 請求項6および請求項16の発明では、ジェスチャーを一連のサブジェスチャーの集合としており、これらのサブジェスチャーには操作の開始および終了を示すものが含まれている。従来、自由空間におけるジェスチャーでは、その開始および終了を認識することが困難であった。しかし、本発明では、ジェスチャーの開始および終了を正確に認識することで、ユーザにより直感的な操作を提供することができる。
 請求項7および請求項17の発明では、人間の手の無意識の動作を認識し、これを操作終了のジェスチャーとしている。人間は無意識な状態になると脱力状態になる。したがって、人間の手の掌は下を向き、指が若干曲がる。本発明では、この状態を認識することで操作の終了を判断している。その結果、ユーザにより直感的な操作を提供している。
 請求項8および請求項18の発明では、処理装置に行わせる操作を規定している。このように、本発明では多彩な操作を可能にしている。
 請求項9の発明では、タッチパネルにおけるマルチタッチの操作と同様の操作をジェスチャー認識装置で実現している。
 請求項10の発明では、本発明を多種の処理装置に適用することが可能である。
 請求項19の発明は、本発明を電子回路の形態で提供している。
 請求項20の発明は、本発明をプログラムの形態で提供している。
 請求項21の発明は、本発明をコンピュータ可読媒体の形態で提供している。
 本発明によって、より認識確度の高いジェスチャー認識方法、該方法を実行するプログラム、並びに該プログラムを格納したコンピュータ可読媒体を提供することができる。また、本発明は、単一の撮像装置と、パーソナルコンピュータ等の処理装置とから構成される単純なシステムで実現することができる。
 本発明によって、ジェスチャーの開始および終了、並びに、意図的な動作と無意識な動作とを判別することが可能であり、その結果、ユーザにより直感的で、かつ多彩な操作を提供することができる。
本発明の一実施形態に係るジェスチャー認識装置の機能ブロック図である。 本発明の一実施形態に係る掌重心特定部が求める掌の重心の求め方を説明するための図である。 本発明の一実施形態に係る掌面積特定部が求める掌の面積の求め方を説明するための図である。 本発明の一実施形態に係る指長さ/角度特定部が求める指長さおよび角度の求め方を説明するための図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法のフロー図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例1を説明するための図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例1のフロー図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例2を説明するための図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例2のフロー図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例3を説明するための図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例3のフロー図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例4を説明するための図である。 本発明の一実施形態に係るジェスチャー認識装置によって行われるジェスチャー認識方法の実施例4のフロー図である。
 本発明の一実施形態に係るジェスチャー認識装置の構成や機能について添付図面を参照して以下に詳細に説明する。このジェスチャー認識装置は、コンピュータなどの処理装置に搭載され、動画像を介してユーザの手によるジェスチャーを認識し、この認識したジェスチャーに対応する操作を当該処理装置に実行される機能を有する。特に、掌の重心の変位と、掌の面積の変動と、掌の重心から各指先までの距離の変動と、掌の重心から各指先とを結んだ線の角度の変動と、の組み合わせによって、ユーザのジェスチャーを識別する機能を有する。
 図1は、本発明の一実施形態に係るジェスチャー認識装置1000の機能ブロック図を示している。図示のように、物体認識装置1000は、機能要素として、フレーム画像受信部10と、手領域検出部20と、掌重心特定部30と、掌面積特定部40と、指長さ/角度特定部50と、ジェスチャー識別部60と、操作決定部70と、記憶部80と、から構成される。また、入力部には撮像装置が接続され、出力部には処理装置が接続されている。撮像装置は、ユーザの手を所定のフレームレートで撮像し、その撮像したデータを所定の形式の動画像データとして出力する機能を有する。この撮像装置には汎用ビデオカメラを用いてよい。また、処理装置には汎用コンピュータを用いてよい。
 [フレーム画像受信部]
 フレーム画像受信部10は、撮像装置から動画像データを受け取る機能を有する。具体的には、撮像装置が生成した所定の形式の動画像データを受け取り、必要に応じてその動画像データを後段の機能要素が処理可能なデータ形式に変換する。
 [手領域検出部]
 手領域検出部20は、フレーム画像受信部10から受け取った動画像データを構成する複数のフレーム画像内の手の領域を求める機能を有する。手の領域の求め方に特に限定するものではなく、既存の手法を用いてよい。例えば、テンプレートマッチング手法を用いてよい。あるいは、特開2007-43311で開示している、赤外線などの光を手に照射して、その反射光で手の領域を検出する手法を用いてもよい。検出した手の領域の画素座標は掌重心特定部30に送られる。
 [掌重心特定部]
 掌重心特定部30は、手領域検出部20が検出した手の領域における掌部分の重心を求める機能を有する。図2を参照して掌の重心を求める方法を説明する。
1)手の領域において最も水平方向に大きい個所を検出する。そしてこの検出箇所の水平方向における中点を仮の重心とする(図2(a)参照)。
2)仮の重心を中心とし、手の領域よりも小さい正方形を描く(図2(b)参照)。
3)描いた正方形の少なくとも一辺が手の領域の何れかのエッジに接触するまで拡大する(図2(c)参照)。
4)この状態で正方形を未接触のエッジ方向(図では下方向)にシフトさせながら、さらに正方形を拡大させ、すべての辺が手の領域のエッジに達したら拡大を終了する(図2(d))。
5)このときの正方形の中心を掌の重心とする。
 手が撮像装置に対して水平方向に移動すると掌の重心も同様に移動することになる。従って、掌の重心は手の前後左右の変位を把握するための要素として利用する。
 [掌面積特定部]
 掌面積特定部40は、手領域検出部20が検出した手の領域における掌部分の面積を求める機能を有する。図3を参照して掌の面積を求める方法を説明する。
1)掌重心特定部30が求めた重心を中心とし、かつ手の領域よりも小さい真円を描く(図3(a)参照)。
2)描いた真円の円周が手の領域の何れかのエッジに接触するまで拡大する(図3(b)参照)。
3)このときの真円の面積を掌の面積とする。
 手と撮像装置と間の距離が一定ならば、掌の面積は指の形状に左右されずに常に一定となる。すなわち、手が撮像装置に対して遠近方向に移動すると掌の面積が変動する。したがって、掌の面積は、撮像装置と手との間の距離の変動を把握するための要素として利用する。
 [指長さ/角度特定部]
 指長さ/角度特定部50は、手領域検出部20が検出した手の領域における指部分の長さおよびその角度を求める機能を有する。図4を参照して指の長さおよび角度を求める方法を説明する。
1)掌重心特定部30が求めた重心から手の領域のエッジの各座標までの間隔を求める。
2)求めた間隔のうち、最も長い順に5つの座標を選択する(図中のa、b、c、d、e)。これらの座標が各指先の座標に相当する。
3)選択した5つの座標のそれぞれと重心との距離を求めその値を加算する。これを指の長さとする。
4)それぞれの指先と重心とを結んだ線と水平線または垂直線とでなす角度を求める。
 指の長さは、手の形状、例えばグー、パー、チョキ形状等を判別するための要素として利用する。そして、指の角度は、掌の回転を判別するための要素として利用する。
 [ジェスチャー識別部]
 ジェスチャー識別部60は、上述の掌重心特定部30が求めた掌の重心の変位と、掌面積特定部40が求めた掌の面積の変動と、指長さ/角度特定部50が求めた指の長さおよび角度の変動とからなる要素の組み合わせを基に、手によるジェスチャーを認識する機能を有する。具体的には、記憶部80にアクセスして、上記の要素の組み合わせに対応したジェスチャーを取得する。
 以下に要素の組み合わせとジェスチャーとの関係の例を示す。
Figure JPOXMLDOC01-appb-T000001
 表1に示すように、手の重心の変位と、掌の面積の変動と、指の長さおよび角度の変動とからなる要素を組み合わせれば、様々な手の状態を正確に識別することができる。なお、表1の最後の行において、手の状態が「無意識動作」としているが、これは、人間の手が脱力状態になるとその重心が下方に移動し、掌の面積が減少し、指の長さが短縮することが発明者等の種々の実験および経験より判明した(この場合、指の角度は問わない)。そのため、この状態を無意識動作として、他の意識的な動作と区分けしている。
 [操作決定部]
 操作決定部70は、記憶部80にアクセスして、ジェスチャー識別部60が認識したジェスチャーに対応する操作を取得し、そのコマンドの後段の処理装置に送付する。例えば、表1の「手が右に移動中」の状態に対応する操作が「カーソルを右に移動させる」の場合、カーソルを右に移動させるコマンドを出力する。
 [記憶部]
 手の重心の変位と、掌の面積の変動と、指の長さの変動および角度とからなる要素の組み合わせと、ジェスチャーとの関係、並びに、ジェスチャーと実行する操作との関係が格納されたデータベース機能を有する。主に、メモリ、ハードディスク、CD、DVDなどの格納手段によって実装される。
 以上の機能要素を有するジェスチャー認識装置1000が行うジェスチャー認識方法のフロー図を図5に示す。次に、このジェスチャー認識装置1000が処理装置に所定の操作を行わせる場合の実施例を以下に示す。なお、以下の実施例においては、図5のフロー図に示す処理が継続的に行われていることに留意されたい。
(操作内容) 処理装置の画面上にメニューを表示させる。
(条件) 手が一本指の状態で画面上の所定の位置に一定の期間(0.5秒間とする)停止させると開始の合図となって画面上のカーソルが変化する。さらにその状態で一定の期間(3秒間とする)停止させると画面上にメニューが表示される。
(処理内容) 
図6は処理装置の画面とそれをジェスチャーで操作する手を示す図で、図7はこの処理のフロー図である。まず、手領域検出部20がユーザの手の形状が一本指であるかどうかを判断する(ステップS100)。一本指形状と判断した場合に(ステップS100で「YES」)、手に重心の移動方向に合わせて画面上のカーソルを移動させる(図6(a))。次に、ジェスチャー識別部60が掌の重心が変動中で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS130)。掌の重心が変動中で、掌の面積が一定で、指の長さが一定であると判断した場合(ステップS130で「YES」)、この状態で経過時間をカウントする(ステップS140)。経過時間が0.5秒になったら(ステップS140で「YES」)、画面上のカーソルの形状や色を変化させ、メニューが表示されることをビジュアル的にユーザに知らせる(ステップS150)(図6(b)(c))。この状態で経過時間を再びカウントし、経過時間が3秒となったら(ステップS160で「YES」)、画面上にメニューを表示させて、この処理を終了する(ステップS170)(図6(d))。
(操作内容) 画面上のオブジェクトの拡大/縮小
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の位置で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で当該二本指の間隔を狭めると画面に表示されたオブジェクトが縮小し、広げると拡大する。そして、無意識動作(表1参照)になると終了の合図とする。
(処理内容)
 図8は、ユーザの手と画面との対応を示したものであり、図9はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS200)。二本指であると判断したら(ステップS200で「YES」)、次はカーソルが画面上の予め決められた所定の領域内にあるかどうかを判断する(ステップS210)。所定の位置にあると判断したら(ステップS210で「YES」)、ジェスチャー識別部60が掌の重心が静止で、掌の面積が一定で、指の長さが一定であるかどうかを判断する(ステップS220)。手の重心が静止中で、掌の面積が一定で、指の長さが一定であると判断したら(ステップS220で「YES」)、オブジェクトの拡大/形状の操作の開始と判断し、この状態で経過時間をカウントする(ステップS230)。0.5秒経過したら(ステップS230で「YES」)、指の長さの変化、すなわち伸長/短縮に応じて画面上のオブジェクトを拡大/縮小する(ステップS240)。このとき、掌の重心が移動、面積が縮小、指の長さが短縮、すなわち、ユーザの手が無意識動作になったことを認識し(ステップS250)、さらに、画面上でカーソルが所定の領域外に移動したと判断した場合(ステップS260)、操作の終了と判断し、処理を終了する。
(操作内容) 画面上のオブジェクトの回転/移動
(条件) 手を二本指形状にして、かつカーソルを画面上の所定の領域内で一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトも移動し、手を回転させるとオブジェクトも回転する。そして、無意識動作(表1参照)になると終了の合図。
(処理内容)
 図10は、ユーザの手と画面との対応を示したものであり、図11はこの時に行う処理のフロー図である。このフロー図において、図9のフロー図の手順と同一のものには同一のステップ番号を付与してその説明を省略する。操作開始の判断後(ステップS230で「YES」)、掌の重心が一定で、かつ指の角度が変動していると判断した場合には、画面上のオブジェクトをその変動した角度に応じて回転させる(ステップS340)。一方、指の角度が一定で、かつ掌の重心が変動した場合には、画面上のオブジェクトをその移動に合わせて移動させる(ステップS345)。
 以上が本発明の一実施形態に係るジェスチャー認識装置1000が実施する操作の例である。しかし、ジェスチャー認識装置1000の実施内容は当然のことながら上述の例に限定されるものではない。例えば、ユーザの指先の動きを用いて、画面上に並んだフォルダや画像などを水平または垂直方向にスクロールやコマ送りをしてもよい。以下にこの手法を用いた実施例4を説明する。
(操作内容) 画面上のオブジェクトの移動、回転、拡大、縮小
(条件) 手を二本指形状にして一定の期間(0.5秒間とする)静止させると開始の合図。その状態で二本指の位置を移動させるとオブジェクトが移動し、二本指の角度を変えるとオブジェクトが回転する。さらに、二本指の間隔を変更するとオブジェクトが拡大または縮小する。そして、手を二本指形状にして一定の期間(3秒間とする)静止させると終了の合図。
(処理内容)
 図12は、ユーザの手と画面との対応を示したものであり、図13はこの時に行う処理のフロー図である。まず、手領域検出部20がユーザの手の形状が二本指であるかどうかを判断する(ステップS400)。二本指であると判断したら(ステップS400で「YES」)、ジェスチャー識別部60が二本指の指先が静止、すなわち指先の座標が一定であるかどうかを判断する(ステップS410)。二本指の指先が静止状態であると判断したら(ステップS410で「YES」)、この状態で経過時間をカウントする(ステップS420)。0.5秒経過したら(ステップS420で「YES」)、操作開始と判断する。また、このときの二本指の指先の座標を基点とする。次に、ステップS430、S440、S450の処理を行う。なお、説明の便宜上、フロー図ではこれらの処理は相互に独立して行われるように記載しているが、実際は同時に行われる。
 二本指の指先の座標の間の中点を求め、その中点の位置の移動に応じて対象のオブジェクトを移動する(ステップS430)。
 二本指の指先の座標の間の距離を求め、その距離の変動に応じて対象のオブジェクトを拡大または縮小する(ステップS440)。例えば、指先の座標間の距離が大きくなれば、その増加分に応じてオブジェクトを拡大し、距離が小さくなれば、その減少分に応じてオブジェクトを縮小する。
 二本指の指先の座標を結んだ直線の角度を求め、その角度の変動に応じて対象のオブジェクトを回転する(ステップS450)。例えば、指先の座標を結んだ直線が右回りに所定の角度だけ回転すれば、オブジェクトを右回りにその角度だけ回転する。
 二本指の指先の座標が静止状態であると判断したら(ステップS460で「YES」)、この状態で経過時間をカウントする(ステップS470)。3秒経過したら(ステップS470で「YES」)、操作の終了と判断し、処理を終了する。
 なお、以上のステップS430ないしS450の処理では、指先の座標の相対位置に基づいて動作を確定するため、指先の座標の絶対位置は考慮しない。従って、指先の位置は操作対象となるオブジェクトの上に位置する必要はなく、画面上の任意の領域内に位置してよい。
 上記実施例1ないし3では、操作期間中における手の挙動を掌面積、指の長さ、指の角度等の組み合わせで判断しているが、実施例4では2本の指先の位置のみに基づいて判断している。これは、操作期間中はユーザの手の位置が撮像装置に対して大きくブレない(変動しない)という根拠に基づく。実施例4のジェスチャーの操作終了には一定の時間が掛かるが、認識処理が単純なため指の素早い動きにも好適に追従することができる。
 以上に渡り、ジェスチャー認識装置1000が処理装置に所定の操作を行わせる場合の実施例を説明した。また、上記実施例には記載していないが、同時に複数の指の状態を個別に認識して、それぞれの指の状態に応じた複数の操作を同時に行ってもよい。あるいは、両手のジェスチャーを同時に認識して、それぞれのジェスチャーに応じた操作を同時に行ってもよい。
 本発明の一実施形態に係るジェスチャー認識装置1000が適応される処理装置は特に限定するものではない。例えばパーソナルコンピュータ、携帯端末、ATM、カーナビゲーション、自動販売機、携帯電話、OA機器等の様々な機器に適用してよい。
 なお、本発明の一実施形態にジェスチャー認識装置1000が有する機能は、特定のハードウェア資源またはソフトウェア処理に限定されないことに留意されたい。すなわち、この機能を実現できる限り、如何なるハードウェア(電子回路等)、ソフトウェア(プログラム)、あるいはそれらの組み合わせ等を用いてよい。
 上述した本発明の一実施形態に係るジェスチャー認識方法を、プログラムとして実装する場合には、このプログラムを外部のサーバ等から該方法を実行する情報処理装置にダウンロードするか、あるいはコンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、CD-ROM、DVD、磁気テープ、フレキシブルディスク、光磁気ディスク、ハードディスク、メモリ媒体などが挙げられる。
 以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。
 10  フレーム画像受信部
 20  手領域検出部
 30  掌重心特定部
 40  掌面積特定部
 50  指長さ/角度特定部
 60  ジェスチャー識別部
 70  操作決定部
 80  記憶部
 1000 ジェスチャー認識装置

Claims (21)

  1.  処理装置に搭載され、動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を前記処理装置に実行させるジェスチャー認識装置であって、
     前記手の掌部分の重心を特定する掌重心特定手段と、
    前記手の掌部分の面積を特定する掌面積特定手段と、
     前記重心と手の指先との間の距離を求める指長さ算出手段と、
     前記重心と指先とを結んだ直線がなす角度を求める角度算出手段と、
     前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別手段と、
     を備えることを特徴とするジェスチャー認識装置。
  2.  前記ジェスチャー識別手段は、前記手の掌部分の重心が変位したときに、前記手が上下左右の何れかに移動したと判断することを特徴とする請求項1に記載のジェスチャー認識装置。
  3.  前記ジェスチャー識別手段は、前記手の掌部分の面積が変動したときに、前記手が前後の何れかに移動したと判断することを特徴とする請求項1または2に記載のジェスチャー認識装置。
  4.  前記ジェスチャー識別手段は、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときに、前記手の指が示す形状が変化したと判断することを特徴とする請求項1ないし3の何れか一項に記載のジェスチャー認識装置。
  5.  前記ジェスチャー識別手段は、前記重心と指先とを結んだ直線がなす角度が変動したときに、前記手の掌部分が回転していると識別することを特徴とする請求項1ないし4の何れか一項に記載のジェスチャー認識装置。
  6.  前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことを特徴とする請求項1ないし5の何れか一項に記載のジェスチャー認識装置。
  7.  前記操作終了を示すジェスチャーは、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することを特徴とする請求項6に記載のジェスチャー認識装置。
  8.  前記処理装置に実行させる操作は、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことを特徴とする請求項1ないし7の何れか一項に記載のジェスチャー認識装置。
  9.  前記ジェスチャー認識装置は複数のジェスチャーを同時に認識し、該認識したジェスチャーのそれぞれに応じた操作を前記処理装置に同時に実行させることを特徴とする請求項1ないし8の何れか一項に記載のジェスチャー認識装置。
  10.  前記処理装置は、パーソナルコンピュータと、携帯端末と、カーナビゲーションと、携帯電話と、を含むことを特徴とする請求項1ないし9の何れか一項に記載のジェスチャー認識装置。
  11.  動画像を介して自由空間における人間の手によるジェスチャーを認識し、該認識したジェスチャーに応じた所定の操作を処理装置に実行させるジェスチャー認識方法であって、
     前記手の掌部分の重心を特定する掌重心特定段階と、
    前記手の掌部分の面積を特定する掌面積特定段階と、
     前記重心と手の指先との間の距離を求める指長さ算出段階と、
     前記重心と指先とを結んだ直線がなす角度を求める角度算出段階と、
     前記手の掌部分の重心の変位と、前記手の掌部分の面積の変動と、前記重心と手の指先との間の距離の変動と、前記重心と指先とを結んだ直線がなす角度の変動と、の組み合わせによって、前記ジェスチャーを識別するジェスチャー識別段階と、
     を含むことを特徴とするジェスチャー認識方法。
  12.  前記ジェスチャー識別段階で、前記手の掌部分の重心が変位したときには、前記手が上下左右の何れかに移動したと判断することを特徴とする請求項11に記載のジェスチャー認識方法。
  13.  前記ジェスチャー識別段階で、前記手の掌部分の面積が変動したときには、前記手が前後の何れかに移動したと判断することを特徴とする請求項11または12に記載のジェスチャー認識方法。
  14.  前記ジェスチャー識別段階で、前記手の掌部分の面積が一定で、かつ前記重心と手の指先との間の距離が変動したときには、前記手の指が示す形状が変化したと判断することを特徴とする請求項11ないし13の何れか一項に記載のジェスチャー認識方法。
  15.  前記ジェスチャー識別段階で、前記重心と指先とを結んだ直線がなす角度が変動したときには、前記手の掌部分が回転していると識別することを特徴とする請求項11ないし14の何れか一項に記載のジェスチャー認識方法。
  16.  前記ジェスチャーは、操作開始を示すジェスチャーと、操作を実行するジェスチャーと、操作終了を示すジェスチャーと、を含むことを特徴とする請求項11ないし15の何れか一項に記載のジェスチャー認識方法。
  17.  前記操作終了を示すジェスチャーは、前記掌の重心が下方向に移動し、前記掌の面積が減少し、前記重心と手の指先との間の距離が短縮した場合に該当することを特徴とする請求項16に記載のジェスチャー認識方法。
  18.  前記処理装置に実行させる操作は、該処理装置の画面にメニューを表示させること、該処理装置の画面に表示されたオブジェクトの大きさを変えること、該処理装置の画面に表示されたオブジェクトを移動および回転させること、該処理装置の画面に表示された複数の画像をスクロールまたはコマ送りすること、を含むことを特徴とする請求項11ないし17の何れか一項に記載のジェスチャー認識方法。
  19.  請求項11ないし18の何れか一項に記載のジェスチャー認識方法を実行する電子回路。
  20.  請求項11ないし18の何れか一項に記載のジェスチャー認識方法を前記処理装置に実行させるプログラム。
  21.  請求項20に記載のプログラムを格納したコンピュータ可読媒体。
     
PCT/JP2011/060655 2010-05-11 2011-05-09 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 WO2011142317A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/697,172 US9069386B2 (en) 2010-05-11 2011-05-09 Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2012514789A JPWO2011142317A1 (ja) 2010-05-11 2011-05-09 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-109528 2010-05-11
JP2010109528 2010-05-11

Publications (1)

Publication Number Publication Date
WO2011142317A1 true WO2011142317A1 (ja) 2011-11-17

Family

ID=44914373

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060655 WO2011142317A1 (ja) 2010-05-11 2011-05-09 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US9069386B2 (ja)
JP (1) JPWO2011142317A1 (ja)
WO (1) WO2011142317A1 (ja)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019530A (zh) * 2013-01-04 2013-04-03 深圳市中兴移动通信有限公司 基于手势识别的索引菜单的方法、装置及其终端
CN103150018A (zh) * 2013-03-07 2013-06-12 深圳泰山在线科技有限公司 手势识别方法及装置
CN103309439A (zh) * 2012-03-15 2013-09-18 欧姆龙株式会社 姿势识别装置、电子器件、及姿势识别方法
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
JP2013242844A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置、電子機器およびプログラム
CN103488296A (zh) * 2013-09-25 2014-01-01 华为软件技术有限公司 体感交互手势控制方法及装置
CN103529930A (zh) * 2013-01-04 2014-01-22 深圳市中兴移动通信有限公司 基于体感识别的索引菜单的方法、装置及其终端
WO2014027666A1 (ja) * 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、入力方法、及び記憶媒体
JP2014085965A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
US20140160017A1 (en) * 2012-12-11 2014-06-12 Pixart Imaging Inc. Electronic apparatus controll method for performing predetermined action based on object displacement and related apparatus thereof
CN103895651A (zh) * 2012-12-27 2014-07-02 现代自动车株式会社 使用光学扫描提供用户界面的系统和方法
WO2014128788A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
JP2014182662A (ja) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd 操作装置及び操作方法
KR101462792B1 (ko) 2013-07-01 2014-12-01 주식회사 넥서스칩스 제스처 식별 장치 및 그 방법
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
JP2014228945A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 領域指定装置
JP2015041244A (ja) * 2013-08-22 2015-03-02 アルパイン株式会社 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
KR101526423B1 (ko) * 2013-12-19 2015-06-05 현대자동차 주식회사 차량용 제스처 인식 장치
JP2015172887A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
KR101559502B1 (ko) 2013-12-26 2015-10-14 서경대학교 산학협력단 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체
KR101536267B1 (ko) * 2013-10-16 2015-11-23 한양대학교 에리카산학협력단 화면 분할모듈을 갖는 스마트 디스플레이
WO2015181685A1 (en) * 2014-05-24 2015-12-03 Centre For Development Of Telematics Gesture based human machine interface using marker
CN105393281A (zh) * 2013-08-02 2016-03-09 三菱电机株式会社 手势判定装置和方法、手势操作装置、程序以及记录介质
US9317744B2 (en) * 2012-12-07 2016-04-19 Pixart Imaging Inc. Device and method for determining gesture and operation method of gesture determining device
JP2016530659A (ja) * 2013-09-17 2016-09-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 範囲及び値のジェスチャ対応同時選択
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
CN106886275A (zh) * 2015-12-15 2017-06-23 比亚迪股份有限公司 车载终端的控制方法、装置以及车辆
JP2018085087A (ja) * 2016-11-14 2018-05-31 アイシン精機株式会社 動作判定装置
CN113496165A (zh) * 2020-04-01 2021-10-12 北京海益同展信息科技有限公司 用户手势识别方法、装置、手部智能穿戴设备及存储介质
CN113946205A (zh) * 2020-07-17 2022-01-18 云米互联科技(广东)有限公司 燃气控制方法、燃气设备及存储介质
KR20230157156A (ko) * 2022-05-09 2023-11-16 주식회사 피앤씨솔루션 증강현실 글래스 장치의 손 거리 추정 방법 및 장치
JP7514331B2 (ja) 2020-06-05 2024-07-10 北京字節跳動網絡技術有限公司 制御方法、装置、端末および記憶媒体

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013095678A1 (en) 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
US9383895B1 (en) * 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
US9870056B1 (en) * 2012-10-08 2018-01-16 Amazon Technologies, Inc. Hand and hand pose detection
WO2014081104A1 (en) * 2012-11-21 2014-05-30 Lg Electronics Inc. Multimedia device for having touch sensor and method for controlling the same
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
CN103926999B (zh) * 2013-01-16 2017-03-01 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
US9547378B2 (en) * 2013-03-07 2017-01-17 Hewlett-Packard Development Company, L.P. Sensor on side of computing device
US9916009B2 (en) * 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN103544469B (zh) * 2013-07-24 2017-05-10 Tcl集团股份有限公司 一种基于掌心测距的指尖检测方法和装置
US9412012B2 (en) * 2013-10-16 2016-08-09 Qualcomm Incorporated Z-axis determination in a 2D gesture system
RU2014108820A (ru) * 2014-03-06 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев
US10304248B2 (en) * 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
DE102014017166A1 (de) * 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
US9720513B2 (en) * 2015-03-18 2017-08-01 Korea Electronics Technology Institute Apparatus and method for receiving a key input
KR20170104819A (ko) * 2016-03-08 2017-09-18 삼성전자주식회사 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법
US11402909B2 (en) 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
US11237635B2 (en) 2017-04-26 2022-02-01 Cognixion Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
DE102017210317A1 (de) 2017-06-20 2018-12-20 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste
US10860113B2 (en) * 2018-05-30 2020-12-08 Atheer, Inc. Augmented reality head gesture recognition systems
CN110046603B (zh) * 2019-04-25 2020-11-27 合肥工业大学 一种中国普乐手语编码的手势动作识别方法
CN110443148B (zh) * 2019-07-10 2021-10-22 广州市讯码通讯科技有限公司 一种动作识别方法、系统和存储介质
CN113268136B (zh) * 2020-02-14 2024-05-17 京东科技信息技术有限公司 拇指与手掌间自由度解算方法、装置及数据手套
CN115443445A (zh) * 2020-02-26 2022-12-06 奇跃公司 用于可穿戴系统的手部手势输入
CN113946206A (zh) * 2020-07-17 2022-01-18 云米互联科技(广东)有限公司 家电交互方法、家电设备及存储介质
EP4398072A4 (en) * 2021-08-30 2025-01-29 Softbank Corp ELECTRONIC DEVICE AND PROGRAM
CN114253395B (zh) * 2021-11-11 2023-07-18 易视腾科技股份有限公司 一种用于电视控制的手势识别系统及其识别方法
CN117130469B (zh) * 2023-02-27 2024-08-09 荣耀终端有限公司 一种隔空手势识别方法、电子设备及芯片系统
CN119027652B (zh) * 2024-08-28 2025-03-11 北京锐融天下科技股份有限公司 一种掌纹掌脉识别中提取兴趣区域roi的改进方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP2009020691A (ja) * 2007-07-11 2009-01-29 Kyocera Mita Corp ユーザ認証方法、ユーザ認証装置及び画像形成装置
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP2009020691A (ja) * 2007-07-11 2009-01-29 Kyocera Mita Corp ユーザ認証方法、ユーザ認証装置及び画像形成装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KOKEN SOEISHI: "Recognition of human fingers' shape for control robot hand", IEICE TECHNICAL REPORT, vol. 101, no. 154, 22 June 2001 (2001-06-22), pages 21 - 25 *
RYO TAKAMATSU: "Pointing Device Based on Tracking and Recognition of Hand with Local Moments", JOURNAL OF HUMAN INTERFACE SOCIETY, vol. 1, no. 1, 26 February 1999 (1999-02-26), pages 45 - 52 *
TATSUAKI IWATA: "3-D Information Input System Based on Hand Motion Recognition by Image Sequence Processing", IEICE TECHNICAL REPORT, vol. 100, no. 634, 16 January 2001 (2001-01-16), pages 29 - 36 *

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013136776A1 (ja) * 2012-03-15 2015-08-03 パナソニックIpマネジメント株式会社 ジェスチャ入力操作処理装置
EP2827223A4 (en) * 2012-03-15 2017-03-08 Panasonic Intellectual Property Management Co., Ltd. Gesture input operation processing device
CN103309439A (zh) * 2012-03-15 2013-09-18 欧姆龙株式会社 姿势识别装置、电子器件、及姿势识别方法
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
CN104169839A (zh) * 2012-03-15 2014-11-26 松下电器产业株式会社 手势输入操作处理装置
CN103309439B (zh) * 2012-03-15 2016-06-01 欧姆龙株式会社 姿势识别装置、电子器件、及姿势识别方法
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
JP2013242844A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置、電子機器およびプログラム
JP2014038527A (ja) * 2012-08-17 2014-02-27 Nec System Technologies Ltd 入力装置、入力方法、及びプログラム
US20150234469A1 (en) * 2012-08-17 2015-08-20 Nec Solution Innovators, Ltd. Input device, input method, and storage medium
US9753545B2 (en) 2012-08-17 2017-09-05 Nec Solutions Innovators, Ltd. Input device, input method, and storage medium
KR101624215B1 (ko) * 2012-08-17 2016-06-07 엔이씨 솔루션 이노베이터 가부시키가이샤 입력 장치, 입력 방법, 및 기억 매체
WO2014027666A1 (ja) * 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、入力方法、及び記憶媒体
KR20150034258A (ko) * 2012-08-17 2015-04-02 엔이씨 솔루션 이노베이터 가부시키가이샤 입력 장치, 입력 방법, 및 기억 매체
CN104584080A (zh) * 2012-08-17 2015-04-29 日本电气方案创新株式会社 输入设备、输入方法和存储介质
JP2014085965A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
US9317744B2 (en) * 2012-12-07 2016-04-19 Pixart Imaging Inc. Device and method for determining gesture and operation method of gesture determining device
US20140160017A1 (en) * 2012-12-11 2014-06-12 Pixart Imaging Inc. Electronic apparatus controll method for performing predetermined action based on object displacement and related apparatus thereof
US20140184491A1 (en) * 2012-12-27 2014-07-03 Hyundai Motor Company System and method for providing user interface using an optical scanning
CN103895651A (zh) * 2012-12-27 2014-07-02 现代自动车株式会社 使用光学扫描提供用户界面的系统和方法
CN103019530A (zh) * 2013-01-04 2013-04-03 深圳市中兴移动通信有限公司 基于手势识别的索引菜单的方法、装置及其终端
CN103529930A (zh) * 2013-01-04 2014-01-22 深圳市中兴移动通信有限公司 基于体感识别的索引菜单的方法、装置及其终端
CN103019530B (zh) * 2013-01-04 2016-09-28 深圳市中兴移动通信有限公司 基于手势识别的索引菜单的方法、装置及其终端
US20160004907A1 (en) * 2013-02-19 2016-01-07 Brilliantservice Co., Ltd. Shape recognition device, shape recognition program, and shape recognition method
JPWO2014128788A1 (ja) * 2013-02-19 2017-02-02 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
WO2014128788A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
US9778464B2 (en) 2013-02-19 2017-10-03 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method
CN103150018B (zh) * 2013-03-07 2016-09-21 深圳泰山体育科技股份有限公司 手势识别方法及装置
CN103150018A (zh) * 2013-03-07 2013-06-12 深圳泰山在线科技有限公司 手势识别方法及装置
JP2014182662A (ja) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd 操作装置及び操作方法
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
JP2014228945A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 領域指定装置
KR101462792B1 (ko) 2013-07-01 2014-12-01 주식회사 넥서스칩스 제스처 식별 장치 및 그 방법
CN105393281A (zh) * 2013-08-02 2016-03-09 三菱电机株式会社 手势判定装置和方法、手势操作装置、程序以及记录介质
CN105393281B (zh) * 2013-08-02 2018-02-13 三菱电机株式会社 手势判定装置和方法、手势操作装置
JPWO2015015843A1 (ja) * 2013-08-02 2017-03-02 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
JP2015041244A (ja) * 2013-08-22 2015-03-02 アルパイン株式会社 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP2016530659A (ja) * 2013-09-17 2016-09-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 範囲及び値のジェスチャ対応同時選択
CN103488296A (zh) * 2013-09-25 2014-01-01 华为软件技术有限公司 体感交互手势控制方法及装置
CN103488296B (zh) * 2013-09-25 2016-11-23 华为软件技术有限公司 体感交互手势控制方法及装置
KR101536267B1 (ko) * 2013-10-16 2015-11-23 한양대학교 에리카산학협력단 화면 분할모듈을 갖는 스마트 디스플레이
KR101526423B1 (ko) * 2013-12-19 2015-06-05 현대자동차 주식회사 차량용 제스처 인식 장치
KR101559502B1 (ko) 2013-12-26 2015-10-14 서경대학교 산학협력단 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체
JP2015172887A (ja) * 2014-03-12 2015-10-01 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
GB2542516B (en) * 2014-05-24 2018-07-11 Centre For Dev Of Telematics C Dot Gesture based human machine interface using marker
GB2542516A (en) * 2014-05-24 2017-03-22 Centre For Dev Of Telematics (C-Dot) Gesture based human machine interface using marker
WO2015181685A1 (en) * 2014-05-24 2015-12-03 Centre For Development Of Telematics Gesture based human machine interface using marker
US10095308B2 (en) 2014-05-24 2018-10-09 Center For Development Of Telematics Gesture based human machine interface using marker
JP2017049661A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
CN106886275B (zh) * 2015-12-15 2020-03-20 比亚迪股份有限公司 车载终端的控制方法、装置以及车辆
CN106886275A (zh) * 2015-12-15 2017-06-23 比亚迪股份有限公司 车载终端的控制方法、装置以及车辆
JP2018085087A (ja) * 2016-11-14 2018-05-31 アイシン精機株式会社 動作判定装置
CN113496165A (zh) * 2020-04-01 2021-10-12 北京海益同展信息科技有限公司 用户手势识别方法、装置、手部智能穿戴设备及存储介质
CN113496165B (zh) * 2020-04-01 2024-04-16 京东科技信息技术有限公司 用户手势识别方法、装置、手部智能穿戴设备及存储介质
JP7514331B2 (ja) 2020-06-05 2024-07-10 北京字節跳動網絡技術有限公司 制御方法、装置、端末および記憶媒体
CN113946205A (zh) * 2020-07-17 2022-01-18 云米互联科技(广东)有限公司 燃气控制方法、燃气设备及存储介质
CN113946205B (zh) * 2020-07-17 2024-02-09 云米互联科技(广东)有限公司 燃气控制方法、燃气设备及存储介质
KR20230157156A (ko) * 2022-05-09 2023-11-16 주식회사 피앤씨솔루션 증강현실 글래스 장치의 손 거리 추정 방법 및 장치
KR102667189B1 (ko) * 2022-05-09 2024-05-21 주식회사 피앤씨솔루션 증강현실 글래스 장치의 손 거리 추정 방법 및 장치

Also Published As

Publication number Publication date
US9069386B2 (en) 2015-06-30
JPWO2011142317A1 (ja) 2013-07-22
US20130057469A1 (en) 2013-03-07

Similar Documents

Publication Publication Date Title
WO2011142317A1 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US9529527B2 (en) Information processing apparatus and control method, and recording medium
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP5532300B2 (ja) タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
JP6062416B2 (ja) 情報入力装置及び情報表示方法
JP6207240B2 (ja) 情報処理装置及びその制御方法
JP5604279B2 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
EP2699986B1 (en) Touch screen selection
JP6308769B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
TWI421731B (zh) 電子裝置之滑鼠功能執行方法及其電子裝置
JP2013137613A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
CN104978018B (zh) 触控系统及触控方法
EP2899623A2 (en) Information processing apparatus, information processing method, and program
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP5721602B2 (ja) 携帯端末装置およびプログラム
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
CN101598982A (zh) 电子装置的鼠标功能执行方法及其电子装置
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2013077180A (ja) 認識装置およびその制御方法
TW201137671A (en) Vision based hand posture recognition method and system thereof
JP2018185569A (ja) 情報処理装置、表示制御プログラム及び表示制御方法
CN115904063A (zh) 非接触式人机交互笔笔迹生成方法、装置、设备及系统
KR101436586B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780574

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012514789

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13697172

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11780574

Country of ref document: EP

Kind code of ref document: A1