[go: up one dir, main page]

JP2018195053A - Image processing apparatus, image processing program, and gesture recognition system - Google Patents

Image processing apparatus, image processing program, and gesture recognition system Download PDF

Info

Publication number
JP2018195053A
JP2018195053A JP2017098029A JP2017098029A JP2018195053A JP 2018195053 A JP2018195053 A JP 2018195053A JP 2017098029 A JP2017098029 A JP 2017098029A JP 2017098029 A JP2017098029 A JP 2017098029A JP 2018195053 A JP2018195053 A JP 2018195053A
Authority
JP
Japan
Prior art keywords
image
hand
finger
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017098029A
Other languages
Japanese (ja)
Inventor
和洋 武智
Kazuhiro Takechi
和洋 武智
安利 深谷
Yasutoshi Fukaya
安利 深谷
絵里奈 北原
Erina Kitahara
絵里奈 北原
忠 関原
Tadashi Sekihara
忠 関原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2017098029A priority Critical patent/JP2018195053A/en
Publication of JP2018195053A publication Critical patent/JP2018195053A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing apparatus configured to accurately determine a shape of a finger included in an image when an object is image-recognized, an image processing program, and a gesture recognition system.SOLUTION: An image recognition unit 12 executes image recognition processing for recognizing a hand image, which is an area where an object is included in image information D, on the image information D acquired in an image acquisition unit 11. A finger shape determination unit 13 determines a shape of a finger of a hand, on the basis of a distance in at least a depth direction of an image coordinate system including the hand image recognized by the image recognition unit 12.SELECTED DRAWING: Figure 1

Description

本発明は、物体を画像認識する画像処理装置、画像処理プログラム及びジェスチャ認識システムに関する。   The present invention relates to an image processing apparatus, an image processing program, and a gesture recognition system that recognize an object.

従来、カメラ等によって撮影された画像を画像認識することによりユーザのジェスチャ操作を判定し、その判定結果を基に機器を制御するジェスチャ認識システムが開発されている。撮影画像を画像認識する画像処理装置としては、特許文献1の技術が周知である。特許文献1は、撮影画像を画像処理した結果に基づき、指の本数や、画像平面における特定の点から指先までの距離を特定して、手の指の形状を判定する。   Conventionally, a gesture recognition system has been developed in which a user's gesture operation is determined by recognizing an image captured by a camera or the like, and a device is controlled based on the determination result. As an image processing apparatus for recognizing a captured image, the technique of Patent Document 1 is well known. Patent Document 1 determines the shape of a finger of a hand by specifying the number of fingers and the distance from a specific point on the image plane to the fingertip based on the result of image processing of a captured image.

特許第3863809号公報Japanese Patent No. 3863809

ところで、例えば指を開いた手形状は、画像の撮影方向に応じて、指差ししている手画像のように映り込む場合がある。例えば、指を開いた手形状を、手の平や手の甲から撮影した場合には、指を開いた画像として認識できるのに対し、手を側方から撮影した場合、画像撮影の奥行き方向に指が重なって並んでしまう。よって、指を開いた手形状を指差し形状と誤って判定してしまう可能性があった。   By the way, for example, a hand shape with an open finger may be reflected like a pointing hand image depending on the image capturing direction. For example, when a hand shape with an open finger is photographed from the palm or back of the hand, it can be recognized as an image with the finger open, whereas when the hand is photographed from the side, the fingers overlap in the depth direction of image capture. Are lined up. Therefore, there is a possibility that the hand shape with the finger open is erroneously determined as the pointing shape.

本発明の目的は、物体を画像認識するにあたり、画像上に映る指の形状の精度よい判定を可能にした画像処理装置、画像処理プログラム及びジェスチャ認識システムを提供することにある。   An object of the present invention is to provide an image processing apparatus, an image processing program, and a gesture recognition system capable of accurately determining the shape of a finger appearing on an image when recognizing an object.

前記問題点を解決する画像処理装置は、画像認識の対象物としての手を撮像する画像撮影部から、前記対象物が写り込んだ画像を表す画像情報を取得する画像取得部と、前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記画像取得部で取得した前記画像情報に対して実行する画像認識部と、前記画像認識部が認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する指形状判定部とを備えた。   An image processing apparatus that solves the problem includes an image acquisition unit that acquires image information representing an image in which the object is reflected, from an image capturing unit that captures a hand as an object of image recognition, and the image information An image recognition process for recognizing a hand image that is an area in which the object is reflected in the image information acquired by the image acquisition unit, and the hand recognized by the image recognition unit And a finger shape determining unit that determines the shape of the finger of the hand based on at least a distance in a depth direction of an image coordinate system in which an image is shown.

本構成によれば、画像認識処理を通じて、画像認識の対象物としての手画像を検出し、その手画像において画像座標系の少なくとも奥行き方向の距離を基に、画像上に映る手の指の形状を判定する。このように、本構成の場合、単に画像座標系の平面画像から指の形状を認識するのではなく、画像座標系の奥行き方向の距離を用いて、手画像に映る指の形状を判定する。よって、画像上に映る手の指の形状を精度よく判定することが可能となる。   According to this configuration, a hand image as an object of image recognition is detected through image recognition processing, and the shape of the finger of the hand shown on the image is determined based on at least the distance in the depth direction of the image coordinate system in the hand image. Determine. As described above, in the case of this configuration, the shape of the finger shown in the hand image is determined using the distance in the depth direction of the image coordinate system, rather than simply recognizing the shape of the finger from the planar image of the image coordinate system. Therefore, it is possible to accurately determine the shape of the finger of the hand shown on the image.

前記画像処理装置において、前記画像撮影部は、画素ごとに物体との間の距離を表す3次元距離情報を含む前記画像情報を取得し、前記画像認識部は、画像撮影部から取得した前記画像情報に含まれる前記3次元距離情報を基に、前記画像認識を実行することが好ましい。この構成によれば、3次元距離情報を含む画像情報を画像認識処理して、画像上に映る人体の手を立体画像で取得する。よって、立体画像を用いて、画像上に映る指の形状を精度よく判定することが可能となる。   In the image processing device, the image photographing unit obtains the image information including three-dimensional distance information representing a distance from an object for each pixel, and the image recognition unit obtains the image obtained from the image photographing unit. It is preferable to execute the image recognition based on the three-dimensional distance information included in the information. According to this configuration, the image information including the three-dimensional distance information is subjected to image recognition processing, and the human hand shown on the image is acquired as a stereoscopic image. Therefore, it is possible to accurately determine the shape of the finger shown on the image using the stereoscopic image.

前記画像処理装置において、前記指形状判定部は、前記手画像における対象物の構成部分において画像座標系の奥行き方向の距離が最も近い部分と、前記手画像に映る指先との間の距離を求め、当該距離から前記手の指の形状を判定することが好ましい。この構成によれば、指差し操作したときにとる手の特有の形状特徴を利用して、指の形状を精度よく判定することが可能となる。   In the image processing device, the finger shape determination unit obtains a distance between a part of the object image in the hand image having a closest distance in the depth direction of the image coordinate system and a fingertip reflected in the hand image. It is preferable to determine the shape of the finger of the hand from the distance. According to this configuration, it is possible to accurately determine the shape of the finger using the characteristic shape of the hand that is taken when the pointing operation is performed.

前記画像処理装置において、前記指形状判定部は、前記手画像における画像座標系の奥行き方向の距離の配列から前記手の指の形状を判定することが好ましい。この構成によれば、手画像における画像座標系の奥行き方向の距離について、その配列を確認するという簡素な処理により、画像上に映る手の指の形状を判定することが可能となる。   In the image processing apparatus, it is preferable that the finger shape determination unit determines the shape of the finger of the hand from an array of distances in the depth direction of the image coordinate system in the hand image. According to this configuration, it is possible to determine the shape of the finger of the hand shown on the image by a simple process of confirming the arrangement of the distance in the depth direction of the image coordinate system in the hand image.

前記画像処理装置において、前記指形状判定部は、前記手画像における画像座標系の奥行き方向の距離において、当該距離の分布又は距離変化の傾きを基に、前記手の指の形状を判定することが好ましい。この構成によれば、手画像における画像座標系の奥行き方向の距離について、距離の分布又は距離変化の傾きを確認するという簡素な処理により、画像上に映る手の指の形状を判定することが可能となる。   In the image processing apparatus, the finger shape determination unit determines the shape of the finger of the hand based on a distribution of the distance or an inclination of a change in the distance in the depth direction of the image coordinate system in the hand image. Is preferred. According to this configuration, it is possible to determine the shape of the finger of the hand shown on the image by a simple process of confirming the distance distribution or the gradient of the distance change for the distance in the depth direction of the image coordinate system in the hand image. It becomes possible.

前記問題点を解決する画像処理プログラムは、画像認識の対象物としての手を撮像する画像撮影部から、前記対象物が写り込んだ画像を表す画像情報を取得する第1ステップと、前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記第1ステップで取得した前記画像情報に対して実行する第2ステップと、前記第2ステップで認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する第3ステップとをコンピュータに実行させる。   An image processing program that solves the problem includes a first step of acquiring image information representing an image in which the object is reflected from an image photographing unit that captures a hand as an object of image recognition; and the image information A second step of executing image recognition processing for recognizing a hand image that is an area in which the object is reflected in the image information acquired in the first step, and the hand recognized in the second step. And causing the computer to execute a third step of determining the shape of the finger of the hand based on at least the distance in the depth direction of the image coordinate system in which the image is shown.

前記問題点を解決するジェスチャ認識システムは、画像認識の対象物としての手を撮像する画像撮影部と、前記対象物が写り込んだ画像を表す画像情報を前記画像撮影部から取得する画像取得部と、前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記画像取得部で取得した前記画像情報に対して実行する画像認識部と、前記画像認識部が認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する指形状判定部と、前記指形状判定部によって特定された画像上の手の指の動きを基に、ユーザの手の指を用いたジェスチャ操作を判定し、その判定結果を基に機器を制御するジェスチャ制御部とを備えた。   A gesture recognition system that solves the problem includes an image capturing unit that captures a hand as an object of image recognition, and an image acquisition unit that acquires image information representing an image in which the object is reflected from the image capturing unit. An image recognition unit that executes image recognition processing for recognizing a hand image that is an area in which the object is reflected in the image information, with respect to the image information acquired by the image acquisition unit, and the image recognition unit The finger shape determination unit that determines the shape of the finger of the hand based on at least the distance in the depth direction of the image coordinate system in which the hand image recognized by the user is recognized, and the hand on the image specified by the finger shape determination unit A gesture control unit that determines a gesture operation using a finger of a user's hand based on the movement of the finger and controls the device based on the determination result;

本発明によれば、物体を画像認識するにあたり、画像上に映る指の形状を精度よく判定することができる。   According to the present invention, when recognizing an object, the shape of a finger shown on the image can be accurately determined.

第1実施形態の画像処理装置及びジェスチャ認識システムの構成図。1 is a configuration diagram of an image processing device and a gesture recognition system according to a first embodiment. 画像撮影部の配置例を示す運転席の斜視図。The perspective view of the driver's seat which shows the example of arrangement | positioning of an image pick-up part. 3次元距離画像図。FIG. 3次元距離画像の立体的なモデル図。The three-dimensional model figure of a three-dimensional distance image. (a),(b)は指の形状の判定の仕方の説明図。(A), (b) is explanatory drawing of the method of determination of the shape of a finger | toe. 画像処理時に実行されるフローチャート。6 is a flowchart executed during image processing. (a),(b)は第2実施形態で示す指の形状の判定の仕方の説明図。(A), (b) is explanatory drawing of the method of the determination of the shape of the finger | toe shown in 2nd Embodiment. (a),(b)は指の形状の判定の仕方の説明図。(A), (b) is explanatory drawing of the method of determination of the shape of a finger | toe.

(第1実施形態)
以下、画像処理装置、画像処理プログラム及びジェスチャ認識システムの第1実施形態を図1〜図6に従って説明する。
(First embodiment)
Hereinafter, a first embodiment of an image processing device, an image processing program, and a gesture recognition system will be described with reference to FIGS.

図1に示すように、車両1は、ユーザによるジェスチャ操作を認識して機器2を制御するジェスチャ認識システム3を備える。本例のジェスチャ認識システム3は、画像撮影部4により撮影された画像情報Dを基にユーザのジェスチャ操作を画像認識し、そのジェスチャ操作に応じた態様に機器2を制御する。機器2は、例えば車載機器5であることが好ましい。車載機器5は、例えばセンターディスプレイ、カーナビゲーションシステム、空調装置、音量装置、オーディオ装置等がある。   As shown in FIG. 1, the vehicle 1 includes a gesture recognition system 3 that recognizes a gesture operation by a user and controls the device 2. The gesture recognition system 3 of this example recognizes a user's gesture operation based on the image information D photographed by the image photographing unit 4 and controls the device 2 in a manner corresponding to the gesture operation. The device 2 is preferably an in-vehicle device 5, for example. The in-vehicle device 5 includes, for example, a center display, a car navigation system, an air conditioner, a volume device, an audio device, and the like.

画像撮影部4は、画像認識の対象物(ユーザの手等)を撮影可能であって、例えば物体との間の3次元距離情報Daを含む画像情報Dを取得する測距式(距離画像カメラ)である。距離画像カメラは、例えばTOF(Time of Flight)カメラやTOFセンサであってもよい。距離画像カメラは、例えばカメラから赤外線を放射し、その反射光の時間遅れから距離画像、すなわち距離情報付きの画像情報Dを出力する。このように、本例の画像情報Dは、物体との間の距離データも含めた3次元距離情報Daを有する。   The image photographing unit 4 is capable of photographing an object for image recognition (such as a user's hand), and obtains image information D including, for example, three-dimensional distance information Da between the objects (distance image camera). ). The range image camera may be, for example, a TOF (Time of Flight) camera or a TOF sensor. The distance image camera, for example, emits infrared rays from the camera, and outputs a distance image, that is, image information D with distance information, from the time delay of the reflected light. As described above, the image information D of the present example includes the three-dimensional distance information Da including the distance data between the object.

ジェスチャ認識システム3は、画像撮影部4から入力する画像情報Dを画像認識処理してジェスチャ操作を検出する画像処理装置8を備える。画像処理装置8は、画像撮影部4によって撮影された画像に映るユーザの手(指先)を画像認識し、手(指先)の動きを追跡することにより、ユーザのジェスチャ操作を検出する。画像認識処理は、画像から物体(人体)を検出できる画像認識方法であれば、種々の方法が採用可能である。   The gesture recognition system 3 includes an image processing device 8 that performs image recognition processing on the image information D input from the image capturing unit 4 and detects a gesture operation. The image processing device 8 detects the user's gesture operation by recognizing the user's hand (fingertip) in the image captured by the image capturing unit 4 and tracking the movement of the hand (fingertip). As the image recognition processing, various methods can be adopted as long as they are image recognition methods capable of detecting an object (human body) from an image.

ジェスチャ操作は、例えばユーザの手を用いたハンドジェスチャ操作であることが好ましい。ハンドジェスチャ操作の場合、例えば人差し指を所定の態様に動かすことにより、機器2を所定態様に制御する。ハンドジェスチャ操作は、手の動きのみを用いた操作の他に、例えば手の動きと音声とを組み合わせた操作でもよい。手の動きと音声とを組み合わせた操作の場合、例えば機器2を指差しし、具体的な操作内容を声で発することにより、機器2を制御する。   The gesture operation is preferably a hand gesture operation using a user's hand, for example. In the case of hand gesture operation, for example, the device 2 is controlled to a predetermined mode by moving the index finger to a predetermined mode. The hand gesture operation may be an operation using only hand movement and a combination of hand movement and voice, for example. In the case of an operation in which hand movement and voice are combined, for example, the device 2 is controlled by pointing to the device 2 and uttering specific operation contents by voice.

画像処理装置8は、画像撮影部4から画像情報Dを取得する画像取得部11を備える。画像取得部11は、画像認識の対象物としての手を撮像する画像撮影部4から、対象物が写り込んだ画像を表す画像情報Dを取得する。本例の場合、画像取得部11は、画像撮影部4からユーザの手が映った画像情報Dを取得する。   The image processing apparatus 8 includes an image acquisition unit 11 that acquires image information D from the image capturing unit 4. The image acquisition unit 11 acquires image information D representing an image in which the object is reflected from the image photographing unit 4 that captures a hand as an object for image recognition. In the case of this example, the image acquisition unit 11 acquires image information D showing the user's hand from the image capturing unit 4.

画像処理装置8は、画像取得部11が取得した画像情報Dを画像認識処理する画像認識部12を備える。画像認識部12は、画像情報Dにおいて対象物が写り込んだ領域Rである手画像R’を認識する画像認識処理を、画像取得部11で取得した画像情報Dに対して実行する。本例の場合、画像認識部12は、画像認識処理を通じて、画像上に映るユーザの手画像R’を認識し、この手画像R’から、手の指先と握り込み部分とを抽出する。   The image processing apparatus 8 includes an image recognition unit 12 that performs image recognition processing on the image information D acquired by the image acquisition unit 11. The image recognition unit 12 performs image recognition processing for recognizing the hand image R ′, which is the region R in which the object is captured, in the image information D on the image information D acquired by the image acquisition unit 11. In the case of this example, the image recognition unit 12 recognizes the user's hand image R ′ shown on the image through image recognition processing, and extracts the fingertip and the grip portion of the hand from the hand image R ′.

画像処理装置8は、画像認識部12が認識した画像に映る手の指の形状を精度よく検出可能な指差し画像検出機能を備える。ところで、ユーザが指差しして(一本指を立てて)ジェスチャ操作を行う場合、このときの指の形状を画像認識する必要がある。しかし、例えば指を広げた手の画像を撮影したとき、この手を側方から撮影すると、指が重なった状態となってしまい、これを指差し状態として検出してしまう可能性が生じる。本例は、これに対処する技術である。   The image processing apparatus 8 includes a pointing image detection function that can accurately detect the shape of the finger of the hand shown in the image recognized by the image recognition unit 12. By the way, when the user performs a gesture operation by pointing (with one finger up), it is necessary to recognize an image of the shape of the finger at this time. However, for example, when an image of a hand with a finger spread out is taken, if the hand is taken from the side, the fingers are overlapped, and this may be detected as a pointing state. This example is a technique for coping with this.

画像処理装置8は、画像認識部12が認識した手画像R’において手の指の形状を判定する指形状判定部13を備える。本例の指形状判定部13は、画像認識部12が認識した手画像R’が映る画像座標系の少なくとも奥行き方向の距離を基に、手の指の形状を判定する。本例の場合、指形状判定部13は、画像座標系における指先及び握り込み部分の間の距離Lから、手の指の形状を判定する。   The image processing apparatus 8 includes a finger shape determination unit 13 that determines the shape of the finger of the hand in the hand image R ′ recognized by the image recognition unit 12. The finger shape determination unit 13 in this example determines the shape of the finger of the hand based on at least the distance in the depth direction of the image coordinate system in which the hand image R ′ recognized by the image recognition unit 12 is reflected. In the case of this example, the finger shape determination unit 13 determines the shape of the finger of the hand from the distance L between the fingertip and the grip portion in the image coordinate system.

画像処理装置8は、画像認識を用いたジェスチャ操作の作動を制御するジェスチャ制御部14を備える。ジェスチャ制御部14は、指形状判定部13によって指の形状が特定された手画像R’を基にジェスチャ操作を判定し、その判定結果を基に機器2を制御する。ジェスチャ制御部14は、認識したジェスチャ操作に応じた制御指令SrをボディECU15に出力し、ボディECU15を通じて機器2を制御する。   The image processing apparatus 8 includes a gesture control unit 14 that controls the operation of a gesture operation using image recognition. The gesture control unit 14 determines a gesture operation based on the hand image R ′ whose finger shape is specified by the finger shape determination unit 13 and controls the device 2 based on the determination result. The gesture control unit 14 outputs a control command Sr corresponding to the recognized gesture operation to the body ECU 15 and controls the device 2 through the body ECU 15.

次に、図2〜図6を用いて、本発明の実施例であるジェスチャ認識システム3(画像処理装置8)の作用及び効果を説明する。
図2に示すように、画像撮影部4は、例えば車両1が電源オン(例えばACCオンやIGオン)に操作されると、画像撮影を開始する。図2は、人体の手や腕部を下方から画像撮影部4で撮影する例である。この場合、画像撮影部4は、例えばセンターコンソール等に設置されたタッチパッド付近に配置されるとよい。ユーザは、ジェスチャ操作によって機器2を制御する場合、運転者であれば、運転席から前方に手を伸ばし、人差し指を所定態様に沿って動かす。
Next, operations and effects of the gesture recognition system 3 (image processing apparatus 8) according to the embodiment of the present invention will be described with reference to FIGS.
As shown in FIG. 2, the image capturing unit 4 starts image capturing when the vehicle 1 is operated to power on (for example, ACC on or IG on), for example. FIG. 2 is an example in which the image photographing unit 4 photographs a human hand or arm from below. In this case, the image photographing unit 4 is preferably arranged in the vicinity of a touch pad installed on a center console or the like, for example. When the user controls the device 2 by a gesture operation, if the user is a driver, the user reaches forward from the driver's seat and moves the index finger along a predetermined mode.

画像撮影部4は、取得した3次元距離情報Daを含む画像情報Dを画像処理装置8に出力する。画像処理装置8は、画像撮影部4から出力された画像情報Dを画像取得部11で取得する。   The image capturing unit 4 outputs image information D including the acquired three-dimensional distance information Da to the image processing device 8. The image processing device 8 acquires the image information D output from the image capturing unit 4 by the image acquisition unit 11.

図3及び図4に示すように、画像認識部12は、3次元距離情報Daを含む画像情報Dを画像認識処理して、画像上の物体を画像認識する。本例の場合、まず画像認識部12は、画像に映り込んだ人体らしい全ての領域(候補領域)Rを特定する処理、いわゆるラベル付けを実施する。候補領域Rの特定方法の一例として、以下の(I)〜(IV)が想定される。
(I)色が肌色の領域
(II)輝度が閾値を超える領域
(III)エッジ検出にてエッジで囲まれる領域のうち、面積が閾値以上の領域
(IV)画像撮影部4からの距離が同一と見なせる範囲内に被写体が存在する領域
画像認識部12は、抽出した領域(候補領域)Rに対し、ラベル付けをする。本例の場合、手の映り込んだ領域Rにラベルが付され、このラベルが人体の手であるか否かの判定を実行する。画像認識部12は、ラベルが手の形状であることの条件を満足すれば、このラベルを手画像R’の候補として認識する。
As shown in FIGS. 3 and 4, the image recognition unit 12 performs image recognition processing on the image information D including the three-dimensional distance information Da to recognize an object on the image. In the case of this example, first, the image recognition unit 12 performs a process of identifying all regions (candidate regions) R that are likely to be human bodies reflected in an image, so-called labeling. As an example of the method for specifying the candidate region R, the following (I) to (IV) are assumed.
(I) Skin color area (II) Brightness exceeds threshold value (III) Area surrounded by edges in edge detection (IV) Area having area equal to or greater than threshold value (IV) Distance from image capturing unit 4 is the same Region in which the subject exists within a range that can be regarded as an image The image recognition unit 12 labels the extracted region (candidate region) R. In the case of this example, a label is attached to the region R in which the hand is reflected, and it is determined whether or not the label is a human hand. The image recognition unit 12 recognizes the label as a candidate for the hand image R ′ if the condition that the label is a hand shape is satisfied.

なお、画像認識部12は、画像情報Dから3次元状の手画像R’の候補として抽出すると、その手画像R’においてエッジが立つ部位を指先候補(図3に示す丸印)として認識し、これらエッジが連なる一帯の画像領域を手の平候補(図3に示す四角印)として認識し、手の平の重心位置を手の重心候補(図3に示す三角印)として認識する。   Note that when the image recognition unit 12 extracts a candidate for the three-dimensional hand image R ′ from the image information D, the image recognition unit 12 recognizes a part where the edge is raised in the hand image R ′ as a fingertip candidate (circle shown in FIG. 3). Then, the image area of the area where these edges are connected is recognized as a palm candidate (square mark shown in FIG. 3), and the gravity center position of the palm is recognized as a hand gravity center candidate (triangle mark shown in FIG. 3).

図4に示すように、指形状判定部13は、画像認識部12により抽出された3次元状の手画像R’のうち、エッジが立つ部位を、「差し指の先端P1」として認識する。また、指形状判定部13は、3次元状の手画像R’のうち立体的な物体の集合部分20において、画像座標系の奥行き方向の距離が最も近い箇所を「指の握り込み部分P2」として認識する。指形状判定部13は、画像座標系の奥行き方向において、「差し指の先端P1」と「指の握り込み部分P2」との間の距離L(3次元距離)を算出し、この距離Lと閾値Lkとを比較する。   As shown in FIG. 4, the finger shape determination unit 13 recognizes a portion where an edge is raised in the three-dimensional hand image R ′ extracted by the image recognition unit 12 as “tip P1 of the pointing finger”. In addition, the finger shape determination unit 13 determines a location where the distance in the depth direction of the image coordinate system in the three-dimensional hand image R ′ is the closest in the depth direction of the image coordinate system as “finger gripping portion P2”. Recognize as The finger shape determination unit 13 calculates a distance L (three-dimensional distance) between the “tip finger tip P1” and the “finger gripping portion P2” in the depth direction of the image coordinate system. The threshold value Lk is compared.

図5(a)に示すように、3次元状の手画像R’が手の指差し操作の場合には、差し指の先端P1と指の握り込み部分P2との間の距離Lが大きくなる。このため、指形状判定部13は、差し指の先端P1と指の握り込み部分P2との間の距離Lが閾値Lk以上となることを確認するので、このときの手画像R’を「指差し画像」と認識する。   As shown in FIG. 5A, when the three-dimensional hand image R ′ is a hand pointing operation, the distance L between the tip P1 of the pointing finger and the finger gripping portion P2 becomes large. . Therefore, the finger shape determination unit 13 confirms that the distance L between the tip P1 of the index finger and the grip portion P2 of the finger is equal to or greater than the threshold Lk. Recognize as “Insertion image”.

一方、図5(b)に示すように、3次元状の手画像R’が手の指を開いた操作の場合には、差し指の先端P1と指の握り込み部分P2との間の距離Lが小さくなる。このため、指形状判定部13は、差し指の先端P1と指の握り込み部分P2との間の距離Lが閾値Lk未満であることを確認するので、このときの手画像R’を「偽の指差し画像」と認識する。すなわち、距離Lが閾値Lk未満の場合には、手画像R’を「指差し画像」と認識しない。   On the other hand, as shown in FIG. 5B, when the three-dimensional hand image R ′ is an operation in which the finger of the hand is opened, the distance between the tip P1 of the index finger and the grip portion P2 of the finger. L becomes smaller. For this reason, the finger shape determination unit 13 confirms that the distance L between the tip P1 of the index finger and the grip portion P2 of the finger is less than the threshold Lk. It is recognized as a "pointing image". That is, when the distance L is less than the threshold value Lk, the hand image R ′ is not recognized as a “pointing image”.

画像認識部12は、画像認識処理にて得た領域R、すなわち手画像R’が、認識対象として確かであるか否かを確認する。認識対象の確認方法としては、例えば認識対象を指とするのであれば、指の輪郭が、規定された条件を満たすか否かを判定する方法などが想定される。   The image recognizing unit 12 confirms whether or not the region R obtained by the image recognition process, that is, the hand image R ′ is certain as a recognition target. As a method for confirming the recognition target, for example, if the recognition target is a finger, a method for determining whether or not the contour of the finger satisfies a prescribed condition is assumed.

画像認識部12は、認識対象が確かであれば、領域Rが、指差しの手画像R’である判定結果を確定する。そして、画像認識部12は、以上の画像認識処理を所定サイクルで繰り返すことにより、画像上に映る指差しの手画像R’を認識する。ジェスチャ制御部14は、以上の画像認識処理によって検出された手(人差し指)の動きからジェスチャ操作を判定し、そのジェスチャ操作に応じた態様に車載機器5を制御する。   If the recognition target is certain, the image recognition unit 12 determines the determination result that the region R is the pointing hand image R ′. Then, the image recognition unit 12 recognizes the pointing hand image R ′ shown on the image by repeating the above image recognition processing in a predetermined cycle. The gesture control unit 14 determines a gesture operation from the movement of the hand (forefinger) detected by the above image recognition process, and controls the in-vehicle device 5 in a mode corresponding to the gesture operation.

図6に示すフローチャートに沿って、本例の画像処理装置8の動作のまとめを説明する。
ステップ101において、画像取得部11は、画像認識の対象物として人体の少なくとも一部分(本例は手)が映り込んだ画像情報D(3次元距離情報Da)を画像撮影部4から取得する。なお、ステップ101が第1ステップに相当する。
A summary of the operation of the image processing apparatus 8 of this example will be described with reference to the flowchart shown in FIG.
In step 101, the image acquisition unit 11 acquires, from the image capturing unit 4, image information D (three-dimensional distance information Da) in which at least a part of the human body (in this example, a hand) is reflected as an object for image recognition. Step 101 corresponds to the first step.

ステップ102において、画像認識部12は、画像情報Dにおいて対象物が写り込んだ領域Rである手画像R’を認識する画像認識処理を、画像取得部11で取得した画像情報Dに対して実行する。ここでは、例えば画像に映り込んだ人体らしい領域Rを抽出し、これにラベルを付け、手画像R’か否かを判定する。ラベル付けした画像が手画像R’の条件を満足すれば、この画像を手画像R’の候補として認識する。なお、ステップ102が第2ステップに相当する。   In step 102, the image recognition unit 12 executes image recognition processing for recognizing the hand image R ′, which is the region R in which the object is captured, in the image information D on the image information D acquired by the image acquisition unit 11. To do. Here, for example, a region R that is likely to be a human body reflected in an image is extracted, and a label is attached to it to determine whether or not it is a hand image R ′. If the labeled image satisfies the condition of the hand image R ′, the image is recognized as a candidate for the hand image R ′. Step 102 corresponds to the second step.

ステップ103において、指形状判定部13は、画像認識した手画像R’から、手の指の形状を判定する。本例の場合、指形状判定部13は、差し指の先端P1と指の握り込み部分P2との間の距離Lが閾値Lk以上であれば、画像上の手を「指差し画像」と認識する。なお、ステップ103が第3ステップに相当する。   In step 103, the finger shape determination unit 13 determines the shape of the finger of the hand from the image-recognized hand image R '. In this example, the finger shape determination unit 13 recognizes the hand on the image as a “pointing image” if the distance L between the tip P1 of the index finger and the grip portion P2 of the finger is equal to or greater than the threshold Lk. To do. Step 103 corresponds to the third step.

ステップ104において、画像認識部12は、ステップ103で特定した手画像R’が、認識対象として確かであるかを確認する。
ステップ105において、ジェスチャ制御部14は、認識画像が確かであれば、その画像を基にユーザのジェスチャ操作を判定し、その判定結果に応じた態様に機器2(車載機器5)を制御する。これにより、ユーザは、単なるハンドジェスチャを通じて、機器2を操作することが可能となる。よって、機器2の操作の利便性が向上する。
In step 104, the image recognition unit 12 confirms whether the hand image R ′ specified in step 103 is certain as a recognition target.
In step 105, if the recognized image is certain, the gesture control unit 14 determines the user's gesture operation based on the image, and controls the device 2 (the in-vehicle device 5) according to the determination result. Thereby, the user can operate the device 2 through a simple hand gesture. Therefore, the convenience of operation of the device 2 is improved.

さて、本例の場合、画像撮影部4が撮影した3次元距離情報Daを画像認識処理して画像上の手画像R’を認識し、その手画像R’において画像座標系の少なくとも奥行き方向(Z軸方向)の距離を基に、画像上に映る手の指の形状を判定する。このように、本例の場合、単に画像座標系の平面画像から指形状を認識するのではなく、画像座標系の奥行き方向の距離を用いて、手画像R’に映る指の形状を判定する。よって、画像上に映る手の指の形状を精度よく判定することができる。   In the present example, the 3D distance information Da captured by the image capturing unit 4 is subjected to image recognition processing to recognize the hand image R ′ on the image, and at least the depth direction ( Based on the distance in the Z-axis direction), the shape of the finger of the hand shown on the image is determined. As described above, in this example, the finger shape is not simply recognized from the planar image of the image coordinate system, but the finger shape shown in the hand image R ′ is determined using the distance in the depth direction of the image coordinate system. . Accordingly, the shape of the finger of the hand shown on the image can be accurately determined.

画像撮影部4は、物体との間の3次元距離情報を取得する測距式である。画像認識部12は、画像撮影部4から取得した3次元距離情報Daを基に、画像認識を実行する。本例の場合、3次元距離情報Daを画像認識処理して、画像上に映る手及び腕部を立体画像で取得する。よって、この種の3次元距離情報Daを用いて、画像上に映る指の形状を精度よく判定することができる。   The image capturing unit 4 is a distance measuring type that acquires three-dimensional distance information between the object and the object. The image recognition unit 12 performs image recognition based on the three-dimensional distance information Da acquired from the image photographing unit 4. In the case of this example, the 3D distance information Da is subjected to image recognition processing, and the hands and arms shown on the image are acquired as a stereoscopic image. Therefore, the shape of the finger shown on the image can be accurately determined using this type of three-dimensional distance information Da.

指形状判定部13は、手画像R’から立体的な物体の集合部分20(対象物の構成部分に相当)を抽出し、この集合部分20において画像座標系の奥行き方向(Z軸方向)の距離が最も近い部分と、手画像R’に映る指先との間の距離Lを求め、この距離Lから手の指の形状を判定する。よって、指差し操作したときにとる手の特有の形状特徴を利用して、指の形状を精度よく判定することができる。   The finger shape determination unit 13 extracts a three-dimensional object set part 20 (corresponding to a component part of the object) from the hand image R ′, and in this set part 20 in the depth direction (Z-axis direction) of the image coordinate system. The distance L between the closest part and the fingertip shown in the hand image R ′ is obtained, and the shape of the finger of the hand is determined from this distance L. Therefore, it is possible to accurately determine the shape of the finger using the shape characteristic unique to the hand taken when the pointing operation is performed.

(第2実施形態)
次に、第2実施形態を図7及び図8に従って説明する。なお、第2実施形態は、第1実施形態の指の形状の判定手法を変更した実施例である。よって、第1実施形態と同じ部分には同一符号を付して詳しい説明を省略し、異なる部分についてのみ詳述する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. In addition, 2nd Embodiment is an Example which changed the determination method of the finger | toe shape of 1st Embodiment. Therefore, the same parts as those in the first embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and only different parts are described in detail.

図7(a),(b)及び図8(a),(b)に示すように、指形状判定部13は、手画像R’における画像座標系の奥行き方向の距離を確認し、これら奥行き方向の距離の配列から手の指の形状を判定する。手画像R’の画像座標系における奥行き方向の距離の配列としては、例えば画像座標系における奥行き方向の距離の分布(図7(a),(b)参照)や、画像座標系における奥行き方向の距離変化の傾きΔLz(図8(a),(b)参照)などがある。   As shown in FIGS. 7A and 7B and FIGS. 8A and 8B, the finger shape determination unit 13 confirms the distance in the depth direction of the image coordinate system in the hand image R ′ and determines these depths. The shape of the finger of the hand is determined from the array of distances in the direction. Examples of the arrangement of distances in the depth direction in the image coordinate system of the hand image R ′ include, for example, the distribution of distances in the depth direction in the image coordinate system (see FIGS. 7A and 7B) and the depth direction in the image coordinate system. There is a gradient ΔLz of distance change (see FIGS. 8A and 8B).

図7(a),(b)の例の場合、指形状判定部13は、手画像R’における画像座標系の奥行き方向の距離において、その距離分布を確認する。このとき、指形状判定部13は、奥行き方向の距離が急に大きくなるとともにその距離が広く存在する距離分布を認識すると、手画像R’を「指差し画像」と認識する(図7(a)参照)。一方、そのような距離分布をとらない手画像R’は、「指差し画像」ではないと認識する(図7(b)参照)。   In the example of FIGS. 7A and 7B, the finger shape determination unit 13 confirms the distance distribution in the distance in the depth direction of the image coordinate system in the hand image R ′. At this time, if the finger shape determination unit 13 recognizes a distance distribution in which the distance in the depth direction suddenly increases and the distance is wide, the hand image R ′ is recognized as a “pointing image” (FIG. 7A). )reference). On the other hand, the hand image R ′ that does not take such a distance distribution is recognized as not a “pointing image” (see FIG. 7B).

図8(a),(b)の例の場合、指形状判定部13は、手画像R’における画像座標系の奥行き方向の距離において、その距離変化の傾きΔLzを確認する。このとき、指形状判定部13は、奥行き方向の距離変化の傾きΔLzが閾値未満の場合、手画像R’を「指差し画像」と認識する(図8(a)参照)。このような傾きΔLzをとるのは、指差しした手の特徴として、手の握り込み部分が指先のかなり手前に存在するからである。一方、指形状判定部13は、奥行き方向の距離変化の傾きΔLzが閾値以上の場合、手画像R’を「指差し画像」ではないと認識する。(図8(b)参照)。   In the case of the example of FIGS. 8A and 8B, the finger shape determination unit 13 confirms the slope ΔLz of the distance change in the distance in the depth direction of the image coordinate system in the hand image R ′. At this time, the finger shape determination unit 13 recognizes the hand image R ′ as a “pointing image” when the gradient ΔLz of the distance change in the depth direction is less than the threshold (see FIG. 8A). The reason why such an inclination ΔLz is taken is that the gripping part of the hand exists in front of the fingertip as a characteristic of the pointing hand. On the other hand, the finger shape determination unit 13 recognizes that the hand image R ′ is not a “pointing image” when the gradient ΔLz of the distance change in the depth direction is equal to or greater than the threshold value. (See FIG. 8 (b)).

さて、本例の場合、指形状判定部13は、手画像R’における画像座標系の奥行き方向の距離を確認し、これら奥行き方向の距離の配列(本例は、距離の分布や距離変化の傾きΔLz)から手の指の形状を判定する。よって、手画像R’が映る画像座標系の奥行き方向の距離について、その配列を確認するという簡素な処理によっても、画像上に映る手の指の形状を判定することができる。   In the case of this example, the finger shape determination unit 13 confirms the distance in the depth direction of the image coordinate system in the hand image R ′, and an array of these distances in the depth direction (in this example, the distribution of distance and the change in distance). The shape of the finger of the hand is determined from the inclination ΔLz). Therefore, the finger shape of the hand shown on the image can also be determined by a simple process of confirming the arrangement of the distances in the depth direction of the image coordinate system in which the hand image R ′ is shown.

なお、実施形態はこれまでに述べた構造に限らず、以下の態様に変更してもよい。
・各実施形態において、差し指の先端P1及び指の握り込み部分P2の間の距離Lは、3次元画像上の奥行き方向の距離であればよい。すなわち、画像座標系の奥行き方向は、画像座標系のZ軸に沿う方向に限定されず、Z軸に対して所定量から向く方向としてもよい。要は、画像座標系の奥行き方向は、画像平面(X−Y平面)に対して交差する線に沿う方向であればよい。
The embodiment is not limited to the structure described so far, and may be modified as follows.
In each embodiment, the distance L between the tip P1 of the index finger and the grip portion P2 of the finger may be a distance in the depth direction on the three-dimensional image. That is, the depth direction of the image coordinate system is not limited to the direction along the Z axis of the image coordinate system, and may be a direction facing a predetermined amount with respect to the Z axis. In short, the depth direction of the image coordinate system may be a direction along a line intersecting the image plane (XY plane).

・各実施形態において、画像撮影部4の取り付け位置は、例えばインストルメントパネルなど、他の位置に変更可能である。
・各実施形態において、画像撮影部4は、1つに限定されず、複数設けられてもよい。
-In each embodiment, the attachment position of the image pick-up part 4 can be changed into other positions, such as an instrument panel, for example.
In each embodiment, the image capturing unit 4 is not limited to one, and a plurality of image capturing units 4 may be provided.

・各実施形態において、画像撮影部4は、TOFカメラ(TOFセンサ)に限定されず、種々の距離画像カメラが使用可能である。
・各実施形態において、画像情報Dは、使用する画像撮影部4の種類に応じて、適宜変更してもよい。
In each embodiment, the image capturing unit 4 is not limited to a TOF camera (TOF sensor), and various range image cameras can be used.
In each embodiment, the image information D may be changed as appropriate according to the type of the image capturing unit 4 to be used.

・各実施形態において、画像情報Dは、距離情報付きの3次元情報であれば、種々の情報に変更してもよい。
・各実施形態において、画像認識処理は、例えば画像処理、画像処理アルゴリズム、パターンマッチング、画像特徴抽出など、種々の手法が採用可能である。画像処理は、例えば画像に処理加工を施して情報を取り出す処理である。画像処理アルゴリズムは、例えば画像に対してコンピュータによる数学的な処理変換をかけて形状を特定する処理である。パターンマッチングは、例えば取得画像をテンプレートと比較して画像を認識する処理である。画像特徴抽出は、画像から特徴を抽出して形状を特定する処理である。
In each embodiment, the image information D may be changed to various information as long as it is three-dimensional information with distance information.
In each embodiment, various methods such as image processing, image processing algorithm, pattern matching, and image feature extraction can be adopted as the image recognition processing. The image processing is processing for extracting information by performing processing on an image, for example. The image processing algorithm is processing for specifying a shape by performing mathematical processing conversion on a computer, for example. Pattern matching is a process for recognizing an image by comparing an acquired image with a template, for example. Image feature extraction is processing for extracting features from an image and specifying a shape.

・各実施形態において、判定対象の指形状は、指差し形状に限定されず、例えば二本指を突き出した指形状など、他の形状に変更可能である。
・各実施形態において、指形状の判定方法は、指先と指の握り込み部分との間の距離差を確認する手法や、画像座標系における奥行き方向の距離の配列を確認する手法に限定されず、他の手法に適宜変更できる。
In each embodiment, the finger shape to be determined is not limited to the pointing shape, and can be changed to other shapes such as a finger shape protruding two fingers.
In each embodiment, the finger shape determination method is not limited to a method for confirming the distance difference between the fingertip and the gripping portion of the finger or a method for confirming the array of distances in the depth direction in the image coordinate system. The method can be appropriately changed to other methods.

・各実施形態において、ジェスチャ操作は、例えばパワースライドドアの開閉操作や、車両1の自動駐車するときに使用される操作としてもよい。
・各実施形態において、ジェスチャ認識システム3及び画像処理装置8は、車両1に適用されることに限定されず、他の機器や装置に使用してもよい。
In each embodiment, the gesture operation may be, for example, an operation for opening / closing a power slide door or an operation used when the vehicle 1 is parked automatically.
In each embodiment, the gesture recognition system 3 and the image processing device 8 are not limited to being applied to the vehicle 1, and may be used for other devices and apparatuses.

1…車両、2…機器、3…ジェスチャ認識システム、4…画像撮影部、5…車載機器、8…画像処理装置、11…画像取得部、12…画像認識部、13…指形状判定部、14…ジェスチャ制御部、20…集合部分、D…画像情報、Da…3次元画像情報、R…領域、R’…手画像、L…距離、Lk…閾値、P1…差し指の先端、P2…指の握り部分。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Apparatus, 3 ... Gesture recognition system, 4 ... Image pick-up part, 5 ... In-vehicle apparatus, 8 ... Image processing apparatus, 11 ... Image acquisition part, 12 ... Image recognition part, 13 ... Finger shape determination part, 14: Gesture control unit, 20: Collective part, D: Image information, Da ... Three-dimensional image information, R ... Area, R '... Hand image, L ... Distance, Lk ... Threshold, P1 ... Tip of index finger, P2 ... Finger grip part.

Claims (7)

画像認識の対象物としての手を撮像する画像撮影部から、前記対象物が写り込んだ画像を表す画像情報を取得する画像取得部と、
前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記画像取得部で取得した前記画像情報に対して実行する画像認識部と、
前記画像認識部が認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する指形状判定部と
を備えた画像処理装置。
An image acquisition unit that acquires image information representing an image in which the object is captured, from an image capturing unit that captures a hand as an object of image recognition;
An image recognition unit that executes an image recognition process for recognizing a hand image that is an area in which the object is reflected in the image information, with respect to the image information acquired by the image acquisition unit;
An image processing apparatus comprising: a finger shape determination unit that determines a finger shape of the hand based on at least a distance in a depth direction of an image coordinate system in which the hand image recognized by the image recognition unit is reflected.
前記画像撮影部は、画素ごとに物体との間の距離を表す3次元距離情報を含む前記画像情報を取得し、
前記画像認識部は、画像撮影部から取得した前記画像情報に含まれる前記3次元距離情報を基に、前記画像認識を実行する
請求項1に記載の画像処理装置。
The image photographing unit obtains the image information including three-dimensional distance information representing a distance between the object for each pixel,
The image processing apparatus according to claim 1, wherein the image recognition unit performs the image recognition based on the three-dimensional distance information included in the image information acquired from an image capturing unit.
前記指形状判定部は、前記手画像における対象物の構成部分において画像座標系の奥行き方向の距離が最も近い部分と、前記手画像に映る指先との間の距離を求め、当該距離から前記手の指の形状を判定する
請求項1又は2に記載の画像処理装置。
The finger shape determination unit obtains a distance between a portion of the object image in the hand image where the distance in the depth direction of the image coordinate system is closest and a fingertip reflected in the hand image, and the hand shape is determined from the distance. The image processing apparatus according to claim 1, wherein the shape of the finger is determined.
前記指形状判定部は、前記手画像における画像座標系の奥行き方向の距離の配列から前記手の指の形状を判定する
請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the finger shape determination unit determines a shape of the finger of the hand from an array of distances in a depth direction of an image coordinate system in the hand image.
前記指形状判定部は、前記手画像における画像座標系の奥行き方向の距離において、当該距離の分布又は距離変化の傾きを基に、前記手の指の形状を判定する
請求項4に記載の画像処理装置。
The image according to claim 4, wherein the finger shape determination unit determines the shape of the finger of the hand based on a distribution of the distance or an inclination of a change in the distance in the depth direction of the image coordinate system in the hand image. Processing equipment.
画像認識の対象物としての手を撮像する画像撮影部から、前記対象物が写り込んだ画像を表す画像情報を取得する第1ステップと、
前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記第1ステップで取得した前記画像情報に対して実行する第2ステップと、
前記第2ステップで認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する第3ステップと
をコンピュータに実行させる画像処理プログラム。
A first step of acquiring image information representing an image in which the object is captured from an image capturing unit that captures a hand as an object of image recognition;
A second step of executing image recognition processing for recognizing a hand image that is an area in which the object is reflected in the image information, with respect to the image information acquired in the first step;
An image processing program for causing a computer to execute a third step of determining a shape of a finger of the hand based on at least a distance in a depth direction of an image coordinate system in which the hand image recognized in the second step is reflected.
画像認識の対象物としての手を撮像する画像撮影部と、
前記対象物が写り込んだ画像を表す画像情報を前記画像撮影部から取得する画像取得部と、
前記画像情報において前記対象物が写り込んだ領域である手画像を認識する画像認識処理を、前記画像取得部で取得した前記画像情報に対して実行する画像認識部と、
前記画像認識部が認識した前記手画像が映る画像座標系の少なくとも奥行き方向の距離を基に、前記手の指の形状を判定する指形状判定部と、
前記指形状判定部によって特定された画像上の手の指の動きを基に、ユーザの手の指を用いたジェスチャ操作を判定し、その判定結果を基に機器を制御するジェスチャ制御部と
を備えたジェスチャ認識システム。
An image capturing unit that captures a hand as an object of image recognition;
An image acquisition unit for acquiring image information representing an image in which the object is reflected from the image capturing unit;
An image recognition unit that executes an image recognition process for recognizing a hand image that is an area in which the object is reflected in the image information, with respect to the image information acquired by the image acquisition unit;
A finger shape determination unit that determines a finger shape of the hand based on at least a distance in a depth direction of an image coordinate system in which the hand image recognized by the image recognition unit is reflected;
A gesture control unit that determines a gesture operation using the finger of the user's hand based on the movement of the finger of the hand on the image specified by the finger shape determination unit, and controls the device based on the determination result; Gesture recognition system provided.
JP2017098029A 2017-05-17 2017-05-17 Image processing apparatus, image processing program, and gesture recognition system Pending JP2018195053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098029A JP2018195053A (en) 2017-05-17 2017-05-17 Image processing apparatus, image processing program, and gesture recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098029A JP2018195053A (en) 2017-05-17 2017-05-17 Image processing apparatus, image processing program, and gesture recognition system

Publications (1)

Publication Number Publication Date
JP2018195053A true JP2018195053A (en) 2018-12-06

Family

ID=64571152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098029A Pending JP2018195053A (en) 2017-05-17 2017-05-17 Image processing apparatus, image processing program, and gesture recognition system

Country Status (1)

Country Link
JP (1) JP2018195053A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012684A (en) * 2019-06-28 2021-02-04 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド Detection of finger press from live video stream

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012684A (en) * 2019-06-28 2021-02-04 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド Detection of finger press from live video stream
JP7378354B2 (en) 2019-06-28 2023-11-13 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド Detecting finger presses from live video streams

Similar Documents

Publication Publication Date Title
KR102292028B1 (en) Gesture recognition method, device, electronic device, and storage medium
US11294470B2 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
JP4625074B2 (en) Sign-based human-machine interaction
US9235269B2 (en) System and method for manipulating user interface in vehicle using finger valleys
US20120163723A1 (en) Classification of posture states
JP5261554B2 (en) Human-machine interface for vehicles based on fingertip pointing and gestures
US8970696B2 (en) Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
CN104937635B (en) Model-based multi-hypothesis target tracker
CN108845668B (en) Man-machine interaction system and method
US9171223B2 (en) System and method for effective section detecting of hand gesture
KR101360149B1 (en) Method for tracking finger motion based on sensorless and apparatus thereof
CN104583904B (en) For inputting the method to the control command of automotive component
EP2980728A1 (en) Procedure for identifying a hand gesture
JP2018195052A (en) Image processing apparatus, image processing program, and gesture recognition system
JP6141108B2 (en) Information processing apparatus and method
US10261593B2 (en) User interface, means of movement, and methods for recognizing a user's hand
US11535268B2 (en) Vehicle and control method thereof
KR20130051319A (en) Apparatus for signal input and method thereof
JP7163649B2 (en) GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM
JP2018195053A (en) Image processing apparatus, image processing program, and gesture recognition system
JP2014182662A (en) Operation apparatus and operation method
KR101386655B1 (en) 3D spatial touch system and method
Kim et al. Pointing gesture-based unknown object extraction for learning objects with robot
Mandava et al. ARDUINO BASED CAR BOT CONTROL VIA HAND GESTURE IMAGE RECOGNITION
HK1171543B (en) Classification of posture states

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170614