JP2006163662A - Device and method for recognizing number of fingers - Google Patents
Device and method for recognizing number of fingers Download PDFInfo
- Publication number
- JP2006163662A JP2006163662A JP2004352213A JP2004352213A JP2006163662A JP 2006163662 A JP2006163662 A JP 2006163662A JP 2004352213 A JP2004352213 A JP 2004352213A JP 2004352213 A JP2004352213 A JP 2004352213A JP 2006163662 A JP2006163662 A JP 2006163662A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- finger
- edge line
- image
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000000605 extraction Methods 0.000 claims description 24
- 238000003384 imaging method Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 9
- 210000000707 wrist Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、手の指を何本伸ばしているのかを認識する指本数認識装置および方法に関する。 The present invention relates to a finger number recognition apparatus and method for recognizing how many fingers of a hand are stretched.
カメラ等で撮像した画像から、手の形状を認識するためのシステムが下記特許文献1に記載されている。
このシステムでは、まず、カラー画像の肌色情報に基づいて撮像した画像を2値化し、ノイズを除去し、手領域を抽出する。次に、抽出された手領域を細線画像化し、細線化画像から手の方向を検出する。次に、検出された手の方向に対して垂直方向に走査し、前記手領域上にかかるラン長を計測する。次に、計測したラン長の頻度の分布を求め、頻度が最大となるラン長を指の幅の閾値として設定する。次に、手の方向に対して垂直に走査し、前記ラン長が前記指の幅の閾値以下であれば指領域として抽出し、前記細線化画像と前記指領域との論理積から、指に対応する指領域を抽出する。なお、前記2値化画像のノイズ除去の際に、2値化画像の平滑化された輪郭線を抽出し、輪郭線の形状からも指本数を推定する。この推定値を利用して、前記指に対応する線として抽出した線のうち、ノイズに対応する線を除去する。以上の結果、最終的に指に対応する線が抽出される、というものである。
A system for recognizing the shape of a hand from an image captured by a camera or the like is described in Patent Document 1 below.
In this system, first, an image captured based on skin color information of a color image is binarized, noise is removed, and a hand region is extracted. Next, the extracted hand region is converted into a thin line image, and the direction of the hand is detected from the thin line image. Next, scanning is performed in a direction perpendicular to the detected hand direction, and the run length over the hand region is measured. Next, the frequency distribution of the measured run length is obtained, and the run length at which the frequency is maximum is set as a finger width threshold value. Next, scanning is performed perpendicular to the direction of the hand, and if the run length is equal to or less than the finger width threshold, it is extracted as a finger region, and from the logical product of the thinned image and the finger region Extract the corresponding finger area. When removing noise from the binarized image, a smoothed contour line of the binarized image is extracted, and the number of fingers is estimated from the shape of the contour line. Using this estimated value, the line corresponding to noise is removed from the lines extracted as the line corresponding to the finger. As a result, a line corresponding to the finger is finally extracted.
上記従来のシステムでは、撮像した原画像の輝度値と固定された閾値とに基づき、2値化によって手領域を抽出し、抽出された手領域について、ラン長、輪郭形状、および細線化画像を求め、これらを用いて指領域を抽出するという構成になっているため、手の輝度値が想定する閾値範囲から外れた場合、例えば可視画像における光学的な外乱や赤外線画像における手の温度の変化等が発生する場合に対応できずに正確な手領域を抽出することができず、誤認識し得るという問題がある。
本発明の目的は、このような誤認識を抑制し、指の本数を正確に認識することができる指本数認識装置および方法を提供することにある。
In the above conventional system, a hand region is extracted by binarization based on the luminance value of the captured original image and a fixed threshold value, and the run length, contour shape, and thinned image are extracted for the extracted hand region. Since the finger area is extracted using these, if the luminance value of the hand falls outside the assumed threshold range, for example, optical disturbance in the visible image or change in the temperature of the hand in the infrared image In such a case, it is not possible to cope with the occurrence of an error or the like, so that an accurate hand region cannot be extracted, and it may be erroneously recognized.
An object of the present invention is to provide a finger number recognition apparatus and method capable of suppressing such erroneous recognition and accurately recognizing the number of fingers.
上記課題を解決するために、本発明は、手の画像を撮像する撮像手段と、撮像した画像において、手の向きに対応するエッジ基準方向を設定するエッジ基準方向設定手段と、撮像した画像において、前記エッジ基準方向設定手段により設定したエッジ基準方向に対して垂直方向に走査してエッジラインを抽出し、エッジライン画像を取得するエッジライン画像取得手段と、撮像した画像中での、指太さ基準値を設定する指太さ基準値設定手段と、設定したエッジ基準方向に対して垂直方向に走査し、抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、前記正のエッジラインと前記負のエッジラインとの間隔を計測し、計測した間隔と設定した指太さ基準値との差分を求め、この差分に基づいて、前記2本のラインの間に対応する領域を指領域として抽出する指領域抽出手段と、前記指領域の数をカウントする指領域数カウント手段とを有するという構成になっている。 In order to solve the above-described problems, the present invention provides an imaging unit that captures an image of a hand, an edge reference direction setting unit that sets an edge reference direction corresponding to the orientation of the hand in the captured image, and a captured image. , Edge line image acquiring means for extracting edge lines by scanning in a direction perpendicular to the edge reference direction set by the edge reference direction setting means, and acquiring a finger line in the captured image Finger thickness reference value setting means for setting the thickness reference value, and scanning in a direction perpendicular to the set edge reference direction, the edge strength in the extracted edge line intersects with a positive edge line having a positive value, When the next edge line that appears on the same scanning line is a negative edge line having a negative edge strength, the positive edge line and the negative edge line A finger region extracting means for measuring an interval, obtaining a difference between the measured interval and a set finger thickness reference value, and extracting a corresponding region between the two lines as a finger region based on the difference; And a finger area number counting means for counting the number of the finger areas.
本発明によれば、誤認識を抑制し、指の本数を正確に認識することができる指本数認識装置および方法を提供することができる。 According to the present invention, it is possible to provide a finger number recognition apparatus and method capable of suppressing erroneous recognition and accurately recognizing the number of fingers.
以下、図面を用いて本発明の実施の形態について詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
《指本数認識装置の構成》
図2は、本発明の実施の形態の指本数認識装置の構成を示す図である。
図2において、1は画像撮像装置、2は演算装置、3はメモリ、4は指本数に基づく処理装置である。画像撮像装置1は、指本数認識装置の使用者がかざした手の画像を撮像する。例えば電子式カメラである。演算装置2は、画像撮像装置1により撮像された画像を処理し、使用者がかざした手において伸ばしている指の本数を認識する。メモリ3は、演算装置2における認識処理の実行時に必要な情報を蓄える。演算装置2において認識された指の本数の情報は、指本数に基づく処理装置4に引き渡す。指本数に基づく処理装置4では、使用者が伸ばした指の本数の情報を入力とする、任意の処理を行う。例えば手の形状(指の本数)をコンピュータの入力情報として、それに基づいて各種の処理を実行する。なお、本実施の形態における処理が可能であれば、構成は別の形態で置き換えても構わないことは言うまでもない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
《Configuration of finger number recognition device》
FIG. 2 is a diagram showing the configuration of the finger number recognition apparatus according to the embodiment of the present invention.
In FIG. 2, 1 is an image pickup device, 2 is a computing device, 3 is a memory, and 4 is a processing device based on the number of fingers. The image capturing apparatus 1 captures an image of a hand held by a user of the finger number recognition apparatus. For example, an electronic camera. The
《処理フロー》
図1は、本実施の形態の指本数認識装置および方法の処理フローの概要を示す図である。以下、図1に基づいて指本数認識の処理の概要について述べる。
まず、S101において、画像撮像装置(図2参照)により使用者がかざした手の画像を取得する。
次に、S102において、S101で取得した画像に対し、演算装置2により指の本数の認識に利用するエッジを抽出するエッジ基準方向、すなわち、画像中での手の向きを設定する。
次に、S103において、S101で取得した画像に対し、S102で設定したエッジ基準方向に対して垂直方向に走査(サーチ)し、エッジ基準方向に基づいたエッジラインを抽出し、エッジライン画像を作成する。
次に、S104において、S103で作成したエッジライン画像を用いて、画像中における指の太さ(幅)の基準値(以下、指太さ基準値と記す)を設定する。
次に、S105において、S102で設定したエッジ基準方向に対して垂直方向に走査し、S103で抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、正のエッジラインと負のエッジラインとの間隔を計測する。そして、計測した間隔とS104で設定した指太さ基準値との差分を求める。そして、この差分が小さければ、2本のエッジラインの間を指に対応する領域であるとして指領域を抽出抽出した指領域抽出画像を作成する。
次に、S106において、S105で作成した指領域抽出画像中における指領域の数をカウントする。
最後に、S107において、S106でカウントした指領域の数は、指の本数に対応するとして、指の本数に基づいた任意の処理を行う。
<Processing flow>
FIG. 1 is a diagram showing an outline of the processing flow of the finger number recognition apparatus and method according to the present embodiment. The outline of the finger number recognition process will be described below with reference to FIG.
First, in S101, an image of a hand held by the user is acquired by the image pickup apparatus (see FIG. 2).
Next, in S102, an edge reference direction for extracting an edge used for recognition of the number of fingers by the
Next, in S103, the image acquired in S101 is scanned (searched) in a direction perpendicular to the edge reference direction set in S102, and an edge line based on the edge reference direction is extracted to create an edge line image. To do.
Next, in S104, a reference value (hereinafter referred to as a finger thickness reference value) of the thickness (width) of the finger in the image is set using the edge line image created in S103.
Next, in S105, scanning is performed in a direction perpendicular to the edge reference direction set in S102, the edge intensity in the edge line extracted in S103 intersects with a positive edge line having a positive value, and is on the same scanning line. When the edge line that appears next is a negative edge line having a negative edge strength, the interval between the positive edge line and the negative edge line is measured. Then, the difference between the measured interval and the finger thickness reference value set in S104 is obtained. If this difference is small, a finger area extraction image is created by extracting and extracting the finger area as an area corresponding to the finger between the two edge lines.
Next, in S106, the number of finger areas in the finger area extraction image created in S105 is counted.
Finally, in S107, an arbitrary process is performed based on the number of fingers, assuming that the number of finger areas counted in S106 corresponds to the number of fingers.
以下、図1に示す処理フローにおける、各処理段階での処理内容について述べる。
〈画像の取得〉
S101では、図2の画像撮像装置1で示したような任意の撮像系を利用して、使用者がかざした手の画像を取得し、処理対象画像として演算部2に引き渡す。演算部2は、必要に応じて、引き渡された画像に対して任意のノイズ除去処理を行ってもよい。演算部2に引き渡さらた時点での処理対象画像を、I(n)とする。ここで、n=1,…,Nであり、処理対象画像の画素は全部でN画素であるとし、nは処理対象画像の各画素に対応しているとする。
Hereinafter, processing contents at each processing stage in the processing flow shown in FIG. 1 will be described.
<Acquiring images>
In S101, an image of the hand held by the user is acquired using an arbitrary imaging system as shown in the image imaging device 1 of FIG. 2, and is delivered to the
〈エッジ基準方向の設定〉
S102では、S101で取得した画像に対し、S103以降の処理でエッジラインを抽出するためのエッジ基準方向を設定する。図3は、S102のエッジ基準方向の設定における処理フローを示す図である。
本実施の形態では、エッジ基準方向は、画像の縦方向あるいは横方向のいずれかであるとする。
まず、S301およびS302において、縦方向および横方向のエッジの頻度を算出する。
S301では、縦方向のエッジの頻度を取得する。S101で取得した処理対象画像I(n)に対し、縦エッジライン画像Ev(n)=Sv(I(n))を取得する。Sv(・)は、Sobelフィルタ等の任意の縦エッジ抽出フィルタである。このとき、|Ev(n)|>θeなる画素数を縦方向のエッジ頻度Hvであるとする。θeは任意の閾値である。
S302では、横方向のエッジの頻度を取得する。S101で取得した処理対象画像I(n)に対し、横エッジライン画像Eh(n)=Sh(I(n))を取得する。Sh(・)は、Sobelフィルタ等の任意の横エッジ抽出フィルタである。このとき、|Eh(n)|>θeなる画素数を横方向のエッジ頻度Hhであるとする。θeは任意の閾値である。
<Setting the edge reference direction>
In S102, an edge reference direction for extracting an edge line is set for the image acquired in S101 in the processes after S103. FIG. 3 is a diagram showing a processing flow in setting the edge reference direction in S102.
In the present embodiment, it is assumed that the edge reference direction is either the vertical direction or the horizontal direction of the image.
First, in S301 and S302, the frequency of vertical and horizontal edges is calculated.
In S301, the frequency of vertical edges is acquired. A vertical edge line image Ev (n) = Sv (I (n)) is acquired for the processing target image I (n) acquired in S101. Sv (•) is an arbitrary vertical edge extraction filter such as a Sobel filter. At this time, the number of pixels of | Ev (n) |> θe is assumed to be the edge frequency Hv in the vertical direction. θe is an arbitrary threshold value.
In S302, the frequency of horizontal edges is acquired. A horizontal edge line image Eh (n) = Sh (I (n)) is acquired for the processing target image I (n) acquired in S101. Sh (•) is an arbitrary horizontal edge extraction filter such as a Sobel filter. At this time, it is assumed that the number of pixels | Eh (n) |> θe is the horizontal edge frequency Hh. θe is an arbitrary threshold value.
次に、S303において、縦方向のエッジの頻度Hvと横方向のエッジの頻度Hhとを比較する。Hv>Hhを満たせばS304に進み、満たさなければ、S305に進む。
S304ではエッジ基準方向を縦方向であるとし、エッジ基準方向を識別する変数MD=90とする。
S305ではエッジ基準方向を横方向であるとし、エッジ基準方向を識別する変数MD=0とする。
ここで、エッジ基準方向を識別する変数MDは、処理対象画像の水平方向を0°とした場合の角度に対応しており、ここでは横方向、すなわち、0°か、縦方向、すなわち、90°かのいずれかであることから、横方向、すなわち、x方向であれば、エッジをMD=0に置き、縦方向、すなわち、y方向であれば、MD=90と置いた。
なお、エッジが主にどちらの方向を向いているのかさえ分かれば、ここで示した処理以外の方法を用いても構わない。また、縦と横以外の任意の方向をエッジ基準方向としても構わない。さらに、エッジ基準方向、すなわち、画面中での手の向きが既知である場合には、その方向をメモリ3に記憶して参照することでMD値を設定しても構わない。
In step S303, the vertical edge frequency Hv is compared with the horizontal edge frequency Hh. If Hv> Hh is satisfied, the process proceeds to S304. Otherwise, the process proceeds to S305.
In S304, the edge reference direction is the vertical direction, and the variable MD for identifying the edge reference direction is set to 90.
In S305, the edge reference direction is the horizontal direction, and the variable MD for identifying the edge reference direction is set to zero.
Here, the variable MD for identifying the edge reference direction corresponds to an angle when the horizontal direction of the processing target image is 0 °. Here, the horizontal direction, that is, 0 °, or the vertical direction, ie, 90 °. Therefore, in the horizontal direction, that is, in the x direction, the edge is set at MD = 0, and in the vertical direction, that is, in the y direction, MD = 90 is set.
It should be noted that a method other than the processing shown here may be used as long as it is known which direction the edge is mainly directed. Further, any direction other than the vertical and horizontal directions may be used as the edge reference direction. Furthermore, when the edge reference direction, that is, the direction of the hand on the screen is known, the MD value may be set by storing the direction in the memory 3 and referring to it.
〈エッジライン画像の取得〉
S103において、S101で取得した画像に対し、S102で設定したエッジ基準方向に基づいたエッジラインを抽出し、エッジライン画像を作成する。
S103における処理の内容を、図4〜図6を用いて説明する。図4はS103のエッジラインの抽出における処理フローを示す図、図5(a)〜(b)はエッジラインの抽出について説明する図、図6は、エッジラインの補正について説明する図である。
まず、S401において、S101で取得した処理対象画像I(n)に対し、S102で求めたエッジ基準方向MDと、エッジ基準方向MDの±45°方向の3方向についての、エッジライン画像G(n)=S(I(n))を取得する。S(・)はエッジ取得のためのフィルタであり、Sobelフィルタ等の任意の手法を用いる。
次に、S402では、S401で作成したエッジライン画像G(n)に対し、正の閾値以上のエッジ強度を持つ画素に1のラベルを付加(ラベリング)し、負の閾値以下の強度を持つ画素に2のラベルを付加し、それ以外の画素に0のラベルを付加し、3値化画像T(n)を得る。すなわち、G(n)>θpであれば、T(n)=1、G(n)<θmであれば、T(n)=2、それ以外を、T(n)=0とする。ここで、θpおよびθmは任意の閾値とする。
次に、S403では、S402で3値化した画像T(n)に対し、ノイズ除去を行う。ノイズ除去した画像をT‘(n)=M(T(n))とする。ここで、M(・)は任意のノイズ除去フィルタであり、膨張縮退フィルタなどの任意の手法を用いて構わない。
<Acquisition of edge line image>
In S103, an edge line based on the edge reference direction set in S102 is extracted from the image acquired in S101 to create an edge line image.
The contents of the process in S103 will be described with reference to FIGS. FIG. 4 is a diagram illustrating a processing flow in edge line extraction in S103, FIGS. 5A to 5B are diagrams illustrating edge line extraction, and FIG. 6 is a diagram illustrating edge line correction.
First, in S401, the edge line image G (n) in the three directions of the edge reference direction MD obtained in S102 and the ± 45 ° direction of the edge reference direction MD with respect to the processing target image I (n) acquired in S101. ) = S (I (n)). S (•) is a filter for edge acquisition, and an arbitrary method such as a Sobel filter is used.
Next, in S402, for the edge line image G (n) created in S401, a label of 1 is added (labeled) to a pixel having an edge intensity equal to or greater than a positive threshold value, and a pixel having an intensity equal to or less than a negative threshold value. A label of 2 is added to the other pixels, and a label of 0 is added to the other pixels to obtain a ternary image T (n). That is, T (n) = 1 if G (n)> θp, T (n) = 2 if G (n) <θm, and T (n) = 0 otherwise. Here, θp and θm are arbitrary threshold values.
Next, in S403, noise removal is performed on the image T (n) ternarized in S402. An image from which noise has been removed is assumed to be T ′ (n) = M (T (n)). Here, M (•) is an arbitrary noise removal filter, and an arbitrary method such as an expansion / reduction filter may be used.
S401からS403の過程を、図5(a)〜(d)を用いて説明する。ここでは、エッジ基準方向は縦方向であるとする。図5(a)は入力画像の一部を示す。図5(a)における被撮像物501は指を2本伸ばした手であり、画像にノイズが多く存在していたとする。このとき、任意の手法でS401でのエッジライン画像を取得し、S402での3値化、およびS403でのノイズ除去を行うと、その結果、図5(b)に示すエッジ領域が得られる。図5(b)において、502、504は正のエッジ領域であり、この領域に属する画素をnpとすると、G(np)>θpであり、T(np)=1である。また、503、505は負のエッジ領域であり、この領域に属する画素をnmとすると、G(nm)<θmであり、T(nm)=2である。それ以外の領域に属する画素をnoとすると、T(no)=0である。
The process from S401 to S403 will be described with reference to FIGS. Here, it is assumed that the edge reference direction is the vertical direction. FIG. 5A shows a part of the input image. The imaged
S404以降では、S403でノイズ除去した3値化画像T‘(n)に対し、細線化処理を行う。T‘(n)=1,2であるエッジに対応する個々の領域について、領域毎に一本も枝分かれしていない滑らかな曲線を得る。そのための手法として、本実施の形態ではS404からS405の手順を取る。ここでは、引き続き、エッジ基準方向が縦である場合について説明する。
S404では、正のエッジに対応するT‘(n)=1である画素が連結している個所をそれぞれ一つの領域として、また、負のエッジに対応するT‘(n)=2である画素が連結している個所をそれぞれ一つの領域として、ラベルを付加した画像K(n)を得る(クラスタリング)。K(n)はラベルが付加された各領域に対応するそれぞれの画素について、ラベル値を付加した、ラベル画像である。正エッジの領域に対応する画素は、K(np)=1,2…,Kpの値を持つ。ここで、Kpは、正エッジの領域数である。同様に、負エッジの領域に対応する画素は、K(nm)=−1,−2,…,−Kmの値を持つ。ここで、Kmは、負のエッジの領域数である。なお、ラベルを付加した結果、あるラベルに所属する画素数が任意の閾値以下であれば、ノイズによる領域であるとしてその画素のラベルを0に置換することで、ノイズ除去も可能である。
In S404 and later, thinning processing is performed on the ternary image T ′ (n) from which noise has been removed in S403. For each region corresponding to the edge where T ′ (n) = 1, 2, a smooth curve with no branching is obtained for each region. As a technique for this, in the present embodiment, steps S404 to S405 are taken. Here, the case where the edge reference direction is vertical will be described.
In S404, each pixel is connected to a portion where T ′ (n) = 1 corresponding to the positive edge is connected, and another pixel is T ′ (n) = 2 corresponding to the negative edge. An image K (n) to which a label is added is obtained by using each of the connected areas as one region (clustering). K (n) is a label image in which a label value is added to each pixel corresponding to each region to which a label is added. Pixels corresponding to the positive edge region have values of K (n p ) = 1, 2,..., Kp. Here, Kp is the number of positive edge regions. Similarly, pixels corresponding to the negative edge region have values of K (n m ) = − 1, −2,..., −Km. Here, Km is the number of negative edge regions. As a result of adding a label, if the number of pixels belonging to a certain label is equal to or less than an arbitrary threshold, it is possible to remove noise by substituting the label of that pixel with 0, assuming that the region is caused by noise.
図5を用いて説明すると、図5(b)における各領域に上記のようにラベルを付加し、ラベル画像を作成する。図5(c)にラベル画像が示される。図5(b)においては、エッジ領域502と504、503と505とは、それぞれ同じ値を持っていたが、図5(c)においては、エッジ領域502、504、503、505は、それぞれ別のラベル値が割り当てられており、それぞれ別の領域として認識することが可能である。
Referring to FIG. 5, a label image is created by adding a label to each region in FIG. 5B as described above. A label image is shown in FIG. In FIG. 5B, the
S405では、エッジラインを設定する。まず、S404でラベリングした各領域について、エッジ基準方向に対して垂直方向に走査し、エッジ基準方向にある1画素毎に、エッジ基準方向に対する垂直方向(すなわち、ここでは水平方向、x方向)の中点をエッジラインのノードとして仮設定する。例として、エッジ基準方向が縦方向の場合について、図6を用いて説明する。
S404でラベルを付加した領域における、あるクラスタラベルがkである図6に示すエッジ領域601について、エッジラインを設定することを考える。y方向の最小座標ysから最大座標yeまで、各y座標について、エッジ基準方向と垂直方向、すなわち、x方向に走査する。このとき、あるy座標値において、K(n)=kである画素のうち、x座標の最大値xr(y)と、最小値xl(y)との中間xm(y)=(xr(y)+xl(y))/2を、座標yにおけるエッジラインのノード602として仮設定する。この時点では、図6(a)に示すように、x座標値の増減が激しいノード群が得られる。続いて、各ノードのxm(y)(ys<y<ye)が滑らかになるように補正を行う。補正方法は任意の手法を用いて構わないが、例えば、上下の近傍数ノードのx座標値を参照し、その平均として新しいx座標値を得る。このようにして、図6(b)に示すような滑らかなノード603のノード群に修正し、これらのノード603を繋いだラインを最終的なエッジラインとする。最終的に得られたエッジライン上の画素値を、S404でのラベル番号1または2に置き換え、それ以外の領域については0に置き換え、エッジライン画像L(n)とする。すなわち、エッジライン画像L(n)=1,2,…,Kp,0,−1,−2,…,−Kmを得る。
In S405, an edge line is set. First, each region labeled in S404 is scanned in the direction perpendicular to the edge reference direction, and for each pixel in the edge reference direction, in the direction perpendicular to the edge reference direction (that is, in this case, the horizontal direction and the x direction). Temporarily set the midpoint as an edge line node. As an example, the case where the edge reference direction is the vertical direction will be described with reference to FIG.
Consider setting an edge line for the
図5(c)におけるエッジ領域506、507、508、509は、ノイズやエッジのボケの影響で、ノイズの多い形状で得られる。そのため、単純にエッジ領域506〜509の中心座標を繋いだラインをエッジラインとした場合には、ノイズの影響で、本来の指の形状から外れたエッジラインが得られてしまう。そこで、S405では、単純にエッジ領域506〜509の中心座標を繋いだラインを仮ラインとして抽出した後、そのラインのノイズを除去することで、本来の指の形状に沿った、滑らかなラインを抽出する。結果として、図5(d)に示すようなエッジライン510、511、512、513が得られる。なお、エッジライン抽出の結果、ラインの長さが任意の閾値範囲外であれば、そのラインに所属する画素値を0とすることで消去し、ノイズ除去することも可能である。
なお、一つのエッジ領域に対し、エッジのピーク付近を通り、かつ、枝分かれしていない、一本の滑らかなエッジラインを得ることができれば、本実施の形態での細線化手法以外の手法を用いても構わない。
The
If one smooth edge line that passes through the vicinity of the edge peak and is not branched for one edge region can be obtained, a method other than the thinning method in this embodiment is used. It doesn't matter.
〈指太さ基準値の設定〉
S104において、S103で作成したエッジライン画像を用いて、画像中における指太さ基準値を設定する。
ここでも、エッジ基準方向は縦の場合について説明する。エッジ基準方向が横の場合には、縦横の関係を入れ替えればよい。
図7および図8を用いて説明する。図7は、掌の幅の抽出について説明する図、図8は、指太さ基準値の設定の根拠について説明する図である。
まず、画像中における掌の幅Wmaxを求める。
図7(a)に示すような入力画像であった場合、図7(b)に示すようなエッジライン画像が得られる。図7(b)のエッジライン画像に対し、エッジ基準方向に対して垂直方向に左上から走査する。各y座標での走査線上で、正のラベルのエッジラインと交差してから次に交差するラインが負のエッジラインである場合に、正のラベルのエッジラインとの交点と負のラベルのエッジラインとの交点との距離を計測する。全画面について走査した結果、最大の距離Wmaxを、掌の幅であるとして記録する。図7(b)では、701に示す距離がWmaxに相当する。
<Setting the finger thickness reference value>
In S104, a finger thickness reference value in the image is set using the edge line image created in S103.
Here, the case where the edge reference direction is vertical will be described. When the edge reference direction is horizontal, the vertical / horizontal relationship may be switched.
This will be described with reference to FIGS. FIG. 7 is a diagram for explaining extraction of the palm width, and FIG. 8 is a diagram for explaining the basis for setting the finger thickness reference value.
First, the palm width Wmax in the image is obtained.
When the input image is as shown in FIG. 7A, an edge line image as shown in FIG. 7B is obtained. The edge line image in FIG. 7B is scanned from the upper left in the direction perpendicular to the edge reference direction. On the scan line at each y coordinate, the intersection of the positive label edge line and the negative label edge if the line that intersects the positive label edge line and then intersects is a negative edge line Measure the distance to the intersection with the line. As a result of scanning the entire screen, the maximum distance Wmax is recorded as the palm width. In FIG. 7B, the distance indicated by 701 corresponds to Wmax.
次に、指太さ(幅)基準値Wfinを求める。Wfin=α×Wmaxとする。αは任意の閾値であり、一般には0.25前後が適当である。この根拠について図8を用いて説明する。
一般に、掌の幅と指の幅との相対値は一定である。このことを用いると、画像中における手の大きさが異なった場合であっても、画像中における掌の幅さえ分かれば、画像中における指の幅も求まる。画像中における手の大きさの変化の要因としては、(1)カメラと手との距離が変化する、(2)手の大きさに個体差がある、といったことが挙げられる。
Next, a finger thickness (width) reference value Wfin is obtained. Let Wfin = α × Wmax. α is an arbitrary threshold value, and generally around 0.25 is appropriate. The basis for this will be described with reference to FIG.
In general, the relative value between the palm width and the finger width is constant. If this is used, even if the size of the hand in the image is different, the width of the finger in the image can be obtained as long as the width of the palm in the image is known. Factors that cause changes in the size of the hand in the image include (1) the distance between the camera and the hand changes, and (2) there are individual differences in the size of the hand.
〈指領域の抽出〉
S105において、S102で設定したエッジ基準方向に対して垂直方向に走査し、走査線上に現れた正のエッジライン上の点と、同じ走査線上に次に現れる負のエッジラインとの間隔を計測し、計測した間隔とS104で設定した指太さ基準値との差分を求め、差分が小さければ、その正負2点のエッジラインの間は指に対応する指領域であるとして抽出した、指領域抽出画像を作成する。
S105での指領域の抽出の処理内容について図9を用いて説明する。図9は、指領域の抽出について説明する図である。エッジ基準方向が縦、すなわち、MD=90であるとする。
最終的な指領域抽出画像をF(n)とする。まず、F(n)を、全画素についてF(n)=0に初期化する。
S104での処理結果として、図9(a)に示すエッジライン画像が得られたとする。このエッジライン画像に対し、エッジ基準方向に対して垂直方向に左上から走査し、各y座標での走査線上で、正のラベルのエッジラインと交差してから次に交差するラインが負のエッジラインである場合に、正のラベルのエッジラインとの交点と負のラベルのエッジラインとの交点との距離(間隔)を計測する。この距離をWpとする。ここで、添字pは、1、2、…、Pの値とし、Pは正のエッジラインと負のエッジラインに挟まれる箇所の総数である。計測された距離Wpと指太さ基準値Wfinとを比較し、|Wp−Wfin|<θfinであれば、正のエッジラインと負のエッジラインとに挟まれたp番目の直線上の画素はF(n)=1に置換する。θfinは任意の閾値である。
<Finger area extraction>
In S105, scanning is performed in a direction perpendicular to the edge reference direction set in S102, and the interval between a point on the positive edge line appearing on the scanning line and the next negative edge line appearing on the same scanning line is measured. Then, a difference between the measured interval and the finger thickness reference value set in S104 is obtained, and if the difference is small, the area between the two positive and negative edge lines is extracted as a finger area corresponding to the finger. Create an image.
The content of the finger area extraction process in S105 will be described with reference to FIG. FIG. 9 is a diagram for explaining extraction of a finger region. Assume that the edge reference direction is vertical, that is, MD = 90.
Let F (n) be the final finger region extraction image. First, F (n) is initialized to F (n) = 0 for all pixels.
Assume that an edge line image shown in FIG. 9A is obtained as a processing result in S104. This edge line image is scanned from the upper left in the direction perpendicular to the edge reference direction, and the line that intersects with the edge line of the positive label on the scanning line at each y coordinate is the negative edge. If it is a line, the distance (interval) between the intersection of the edge line of the positive label and the intersection of the edge line of the negative label is measured. Let this distance be Wp. Here, the subscript p is a value of 1, 2,..., P, and P is the total number of places between the positive edge line and the negative edge line. The measured distance Wp is compared with the finger thickness reference value Wfin, and if | Wp−Wfin | <θfin, the pixels on the pth straight line sandwiched between the positive edge line and the negative edge line are Replace with F (n) = 1. θfin is an arbitrary threshold value.
指以外の領域、すなわち、掌や手首、腕について得られたラインは、正のエッジラインと負のエッジラインとに挟まれた距離Wpと指太さ基準値Wfinとの差分が閾値以上であるため、これらのラインに挟まれた領域については、F(n)=0のままである。 In the areas other than the fingers, that is, the lines obtained for the palm, wrist, and arm, the difference between the distance Wp sandwiched between the positive edge line and the negative edge line and the finger thickness reference value Wfin is equal to or greater than the threshold value. Therefore, F (n) = 0 remains in the region sandwiched between these lines.
以上を図9を用いて説明すると、図9(a)における距離901、902は、指太さ基準値Wfinとの差分が小さい。そのため、距離901、902上の画素は1となる。一方、距離903は指太さ基準値Wfinと比較して差分が大きい。そのため、距離903上の画素は0となる。
以上の作業により、指領域抽出画像F(n)は、指領域に対応する画素においてF(n)=1の値を、それ以外の画素においては、F(n)=0の値をとる。図9(b)において、904、905は指領域である。
The above will be described with reference to FIG. 9. The
As a result of the above operation, the finger region extraction image F (n) takes a value of F (n) = 1 in the pixels corresponding to the finger region, and takes a value of F (n) = 0 in the other pixels. In FIG. 9B,
〈指領域のカウント〉
S106において、S105において作成した指領域抽出画像F(n)における指領域の数Fin_Numをカウントする。カウント方法はラベリング等の任意の手法を用いればよい。
<Counting finger area>
In S106, the number of finger areas Fin_Num in the finger area extraction image F (n) created in S105 is counted. The counting method may be any method such as labeling.
〈指本数に基づく処理手段〉
S107において、S106でカウントした指領域の数は指の本数に対応するとして、指の本数に基づいた任意の処理を行う。例えば手の形状(指の本数)をコンピュータの入力情報として、それに基づいて各種の処理を実行する。
<Processing means based on the number of fingers>
In S107, an arbitrary process based on the number of fingers is performed assuming that the number of finger areas counted in S106 corresponds to the number of fingers. For example, the shape of the hand (number of fingers) is used as computer input information, and various processes are executed based on the input information.
以上説明したように、本実施の形態の指本数認識装置は、手の指を何本伸ばしているのかを認識する指本数認識装置であって、手の画像を撮像する画像撮像装置1と、画像撮像装置1により撮像した画像において、手の向きに対応するエッジ基準方向を設定するエッジ基準方向設定手段と、画像撮像装置1により撮像した画像において、前記エッジ基準方向設定手段により設定したエッジ基準方向に対して垂直方向に走査してエッジラインを抽出し、エッジライン画像を取得するエッジライン画像取得手段と、画像撮像装置1により撮像した画像中での、指太さ基準値を設定する指太さ基準値設定手段と、前記エッジ基準方向設定手段により設定したエッジ基準方向に対して垂直方向に走査し、前記エッジライン画像取得手段により抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、前記正のエッジラインと前記負のエッジラインとの間隔を計測し、計測した間隔と前記指太さ基準値設定手段により設定した指太さ基準値との差分を求め、この差分に基づいて、前記2本のラインの間に対応する領域を指領域として抽出する指領域抽出手段と、前記指領域の数をカウントする指領域数カウント手段とを有するという構成になっている。 As described above, the finger number recognition device according to the present embodiment is a finger number recognition device that recognizes how many fingers of a hand are stretched, and includes an image pickup device 1 that picks up an image of a hand, Edge reference direction setting means for setting an edge reference direction corresponding to the direction of the hand in the image picked up by the image pickup apparatus 1 and edge reference set by the edge reference direction setting means in the image picked up by the image pickup apparatus 1 An edge line image acquiring means for acquiring an edge line image by scanning in a direction perpendicular to the direction, and a finger for setting a finger thickness reference value in the image captured by the image capturing apparatus 1 The thickness reference value setting means and the edge reference direction set by the edge reference direction setting means are scanned in a direction perpendicular to the edge reference direction and extracted by the edge line image acquisition means A positive edge if the edge strength at the edge of the wedge line intersects a positive edge line having a positive value and the next edge line appearing on the same scan line is a negative edge line having a negative edge strength. The distance between the line and the negative edge line is measured, and a difference between the measured interval and the finger thickness reference value set by the finger thickness reference value setting means is obtained. Based on this difference, the two It is configured to include a finger area extracting unit that extracts a corresponding area between lines as a finger area, and a finger area number counting unit that counts the number of the finger areas.
また、本実施の形態の指本数認識方法は、手の指を何本伸ばしているのかを認識する指本数認識方法であって、手の画像を撮像する撮像工程と、前記撮像工程において撮像した画像中で、手の向きに対応するエッジ基準方向を設定するエッジ基準方向設定工程と、前記撮像工程において撮像した画像中で、前記エッジ基準方向設定工程において設定したエッジ基準方向に対して垂直方向に走査してエッジラインを抽出し、エッジライン画像を取得するエッジライン画像取得工程と、前記撮像工程において撮像した画像中での、指太さ基準値を設定する指太さ基準値設定工程と、前記エッジ基準方向設定工程において設定したエッジ基準方向に対して垂直方向に走査し、前記エッジライン画像取得工程において抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、前記正のエッジラインと前記負のエッジラインとの間隔を計測し、計測した間隔と前記指太さ基準値設定工程において設定した指太さ基準値との差分を求め、この差分に基づいて、前記2本のラインの間に対応する領域を指領域として抽出する指領域抽出工程と、前記指領域の数をカウントする指領域数カウント工程とを有するという構成になっている。 Further, the finger number recognition method of the present embodiment is a finger number recognition method for recognizing how many fingers of a hand are stretched, and an imaging process for capturing an image of a hand, and imaging in the imaging process. In the image, an edge reference direction setting step for setting an edge reference direction corresponding to the orientation of the hand, and a direction perpendicular to the edge reference direction set in the edge reference direction setting step in the image captured in the imaging step Edge line image acquisition step of acquiring an edge line image by scanning the edge line, and a finger thickness reference value setting step of setting a finger thickness reference value in the image captured in the imaging step; Scanning in a direction perpendicular to the edge reference direction set in the edge reference direction setting step, and the edge line extracted in the edge line image acquisition step If the edge strength intersects with a positive edge line having a positive value and the next edge line appearing on the same scan line is a negative edge line having a negative edge strength, the positive edge line The interval between the negative edge line is measured, and a difference between the measured interval and the finger thickness reference value set in the finger thickness reference value setting step is obtained. Based on this difference, the two lines It is configured to include a finger region extracting step for extracting a corresponding region as a finger region, and a finger region number counting step for counting the number of finger regions.
上記従来のシステムでは、撮像した原画像の輝度値と固定された閾値とに基づき、2値化によって手領域を抽出し、抽出された手領域について、ラン長、輪郭形状、および細線化画像を求め、これらを用いて指領域を抽出するという構成になっているため、手の輝度値が想定する閾値範囲から外れた場合、例えば可視画像における光学的な外乱や赤外線画像における手の温度の変化等が発生する場合に対応できずに正確な手領域を抽出することができず、誤認識し得るという問題がある。また、指の幅の閾値を設定する際に、ラン長の頻度を計測し、頻度最大となるラン長を指の幅の閾値とし、その閾値以下の幅のラン長を持つ手領域を指領域として抽出するという構成になっているため、頻度最大となるラン長が指の幅に対応しない場合、すなわち、指以外の掌や手首のラン長の頻度が指のラン長の頻度よりも多い場合、例えば手領域として手首も含めて広範囲に抽出される場合や、掌に対して指が短い、指本数が少ない等の場合において誤認識し得るという問題がある。さらに、原画像の輝度値に基づき、固定された閾値を元に2値化することによって手領域を抽出し、抽出された手領域について細線化画像を求め、細線化された線の方向ベクトルから手の方向を検出し、検出された手の方向に対して垂直方向に走査することで、ラン長の頻度を求め、頻度最大となるラン長を指の幅の閾値として設定するという構成になっているため、画像にノイズが多い場合には、2値化によって得られる手領域の形状にもノイズが多くなってしまい、その結果、細線化画像のラインも手の形状に沿った方向を向かないことがあり得る。そのような場合において、手の方向を正しく獲得することができず、ラン長に基づく指領域の閾値が正確に得られず、誤った指領域を抽出し得るため、結果として誤認識し得るという問題がある。
本実施の形態によれば、認識に用いる情報は、エッジの情報、すなわち、画像の空間微分に基づく値であり、画像の輝度値そのものの大きさを用いない構成なので、手の輝度情報に依存せずに認識ができる、すなわち、上記従来技術のような可視画像における光学的な外乱や、赤外線画像における手の温度変化等に基づき手領域の輝度変化が発生する場合でも、指本数を認識することができる。
In the above conventional system, a hand region is extracted by binarization based on the luminance value of the captured original image and a fixed threshold value, and the run length, contour shape, and thinned image are extracted for the extracted hand region. Since the finger area is extracted using these, if the luminance value of the hand falls outside the assumed threshold range, for example, optical disturbance in the visible image or change in the temperature of the hand in the infrared image In such a case, it is not possible to cope with the occurrence of an error or the like, so that an accurate hand region cannot be extracted, and it may be erroneously recognized. Also, when setting the threshold of the finger width, the frequency of the run length is measured, the run length with the maximum frequency is set as the threshold of the finger width, and the hand region having the run length of the width less than the threshold is set as the finger region. If the run length with the maximum frequency does not correspond to the width of the finger, that is, the frequency of the palm or wrist run length other than the finger is greater than the frequency of the finger run length. For example, there is a problem that misrecognition may occur when the hand region is extracted over a wide range including the wrist, or when the finger is short relative to the palm or the number of fingers is small. Further, based on the luminance value of the original image, a hand region is extracted by binarization based on a fixed threshold value, a thinned image is obtained for the extracted hand region, and the thinned line direction vector is obtained. By detecting the direction of the hand, scanning in the direction perpendicular to the detected direction of the hand, the frequency of the run length is obtained, and the run length having the maximum frequency is set as the threshold value of the finger width. Therefore, if there is a lot of noise in the image, the noise in the shape of the hand area obtained by binarization also increases, and as a result, the line of the thinned image also points in the direction along the shape of the hand. It can happen. In such a case, the direction of the hand cannot be obtained correctly, the threshold value of the finger area based on the run length cannot be obtained accurately, and an erroneous finger area can be extracted, resulting in erroneous recognition. There's a problem.
According to the present embodiment, the information used for recognition is edge information, that is, a value based on the spatial differentiation of the image, and does not use the size of the luminance value of the image itself. The number of fingers can be recognized even when the brightness of the hand region changes based on optical disturbances in the visible image as in the above-described prior art or temperature changes in the hand in the infrared image. be able to.
また、前記指太さ基準値設定手段は、前記指領域抽出手段により計測した前記正のエッジラインと負のエッジラインとの間隔のうち、最大となる間隔を掌の幅の値として設定し、設定した掌の幅の値を基準として、前記指太さ基準値を設定するようになっている。このように正の強度を持つエッジラインと負の強度を持つエッジラインとが隣接しており、かつ、両者の間隔が最大となる距離を掌の幅の値として設定し、掌の幅を基準として正規化することで指の太さ基準値を設定するという構成にすることにより、手領域として手首も含めて広範囲に抽出される場合や、掌に対して指が短い、指本数が少ない、等の場合においても、指太さの基準値は誤設定されることが無いため、結果として安定して指本数の認識ができる。また、それとともに、掌を基準に正規化されているため、手の大きさの個体差や、撮像系と被写体である手との距離の変化に伴う画像中での手の大きさの変化等が生じた場合であっても、指太さの基準値は誤設定されることが無いため、結果として安定して指本数を認識することができる。
また、前記エッジ基準方向設定手段は、画像撮像装置1により撮像した画像における、複数の方向のエッジ頻度をそれぞれ算出し、算出したそれぞれのエッジ頻度を比較し、最も頻度が高い方向を前記エッジ基準方向とするようになっている。このように走査方向の決定は、取得した画像における、任意の複数の方向についてその方向のエッジ頻度をそれぞれ算出し、算出されたそれぞれのエッジ頻度を比較し、最も頻度が高い方向を手の基準方向とするという構成にすることにより、ノイズが多い画像であってもノイズの影響を受けにくく、安定した認識を行うことができる。
また、前記エッジライン画像取得手段は、前記エッジ基準方向設定手段によって設定されたエッジ基準方向およびその±45°の3方向について前記エッジライン画像を作成し、作成した前記エッジライン画像の各エッジ領域の中心付近を滑らかに通るエッジラインを抽出するようになっている。このようにエッジラインの作成方法として、エッジの基準方向およびその±45°の3方向についてエッジを算出したエッジライン画像を作成し、エッジライン画像における各エッジ領域の中心を滑らかに通るラインを抽出するという構成にすることにより、画像にノイズが多い場合や、画像のコントラストが弱く、輪郭が鮮鋭でない場合、すなわち、エッジライン画像のエッジ領域の形状にノイズが多い場合であっても、安定したエッジラインを抽出することができ、結果として安定した指本数認識ができる。
In addition, the finger thickness reference value setting unit sets the maximum interval among the intervals between the positive edge line and the negative edge line measured by the finger region extraction unit as a palm width value, The finger thickness reference value is set on the basis of the set palm width value. In this way, the edge line with the positive strength and the edge line with the negative strength are adjacent to each other, and the distance at which the distance between the two is the maximum is set as the palm width value. By setting the finger thickness reference value by normalizing as, it is possible to extract a wide range including the wrist as a hand area, or the fingers are short relative to the palm, the number of fingers is small, In such a case, the finger thickness reference value is not erroneously set, and as a result, the number of fingers can be recognized stably. At the same time, because it is normalized based on the palm, individual differences in hand size, changes in hand size in the image due to changes in the distance between the imaging system and the subject hand, etc. Even if this occurs, the finger thickness reference value is not set incorrectly, and as a result, the number of fingers can be recognized stably.
The edge reference direction setting means calculates edge frequencies in a plurality of directions in the image captured by the image capturing apparatus 1, compares the calculated edge frequencies, and selects the direction with the highest frequency as the edge reference. It is supposed to be a direction. In this way, the scanning direction is determined by calculating the edge frequency of each direction in the acquired image, comparing the calculated edge frequencies, and determining the direction with the highest frequency as the hand reference. By adopting a configuration in which the direction is set, even a noisy image is hardly affected by noise and stable recognition can be performed.
Further, the edge line image acquisition means creates the edge line image for the edge reference direction set by the edge reference direction setting means and three directions of ± 45 °, and each edge region of the created edge line image Edge lines that pass smoothly around the center of the are extracted. In this way, as an edge line creation method, an edge line image in which edges are calculated in the reference direction of the edge and its three directions ± 45 ° is created, and a line that smoothly passes through the center of each edge region in the edge line image is extracted. With this configuration, even when there is a lot of noise in the image, or when the contrast of the image is weak and the contour is not sharp, that is, even when the shape of the edge area of the edge line image is noisy, it is stable. Edge lines can be extracted, and as a result, a stable number of fingers can be recognized.
なお、以上説明した実施の形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
また、特許請求の範囲における各構成要素と、発明の実施の形態における各構成要素との対応について説明すると、実施の形態の画像撮像装置1、図1のS101が特許請求の範囲の撮像手段に、演算装置2およびS102がエッジ基準方向設定手段に、演算装置2およびS103がエッジライン画像取得手段に、演算装置2およびS104が指太さ基準値設定手段に、演算装置2およびS105が指領域抽出手段に、演算装置2およびS106が指領域数カウント手段にそれぞれ対応する。また、S101が撮像工程に、S102がエッジ基準方向設定工程に、S103がエッジライン画像取得工程に、S104が指太さ基準値設定工程に、S105が指領域抽出工程に、S106が指領域数カウント工程にそれぞれ対応する。
The embodiment described above is described in order to facilitate understanding of the present invention, and is not described in order to limit the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.
Further, the correspondence between each component in the claims and each component in the embodiment of the invention will be described. The image pickup apparatus 1 of the embodiment and S101 of FIG. The
1…画像撮像装置 2…演算装置
3…メモリ 4…指本数に基づく処理装置
501…被撮像物 502、504…正のエッジ領域
503、505…負のエッジ領域
506、507、508、509…エッジ領域
510、511、512、513…エッジライン
601…エッジ領域 602、603…ノード
701、801、802、803、804、901、902、903…距離
904、905…指領域
DESCRIPTION OF SYMBOLS 1 ... Image pick-up
Claims (5)
手の画像を撮像する撮像手段と、
前記撮像手段により撮像した画像において、手の向きに対応するエッジ基準方向を設定するエッジ基準方向設定手段と、
前記撮像手段により撮像した画像において、前記エッジ基準方向設定手段により設定したエッジ基準方向に対して垂直方向に走査してエッジラインを抽出し、エッジライン画像を取得するエッジライン画像取得手段と、
前記撮像手段により撮像した画像中での、指太さ基準値を設定する指太さ基準値設定手段と、
前記エッジ基準方向設定手段により設定したエッジ基準方向に対して垂直方向に走査し、
前記エッジライン画像取得手段により抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、前記正のエッジラインと前記負のエッジラインとの間隔を計測し、
計測した間隔と前記指太さ基準値設定手段により設定した指太さ基準値との差分を求め、この差分に基づいて、前記2本のラインの間に対応する領域を指領域として抽出する指領域抽出手段と、
前記指領域の数をカウントする指領域数カウント手段と、
を有することを特徴とする指本数認識装置。 A finger number recognition device that recognizes how many fingers of a hand are stretched,
An imaging means for capturing an image of a hand;
Edge reference direction setting means for setting an edge reference direction corresponding to the orientation of the hand in the image captured by the imaging means;
In the image captured by the imaging means, edge line image acquisition means for extracting an edge line by scanning in a direction perpendicular to the edge reference direction set by the edge reference direction setting means, and acquiring an edge line image;
Finger thickness reference value setting means for setting a finger thickness reference value in the image captured by the imaging means;
Scan in a direction perpendicular to the edge reference direction set by the edge reference direction setting means,
A negative edge line in which the edge line in the edge line extracted by the edge line image acquisition means intersects with a positive edge line having a positive value, and the next edge line appearing on the same scanning line has a negative edge intensity. If it is, measure the interval between the positive edge line and the negative edge line,
The difference between the measured interval and the finger thickness reference value set by the finger thickness reference value setting means is obtained, and based on this difference, a region corresponding to the area between the two lines is extracted as a finger region. Region extraction means;
Finger area number counting means for counting the number of finger areas;
A finger number recognition apparatus characterized by comprising:
前記指領域抽出手段により計測した前記正のエッジラインと負のエッジラインとの間隔のうち、最大となる間隔を掌の幅の値として設定し、
設定した掌の幅の値を基準として、前記指太さ基準値を設定することを特徴とする請求項1記載の指本数認識装置。 The finger thickness reference value setting means includes:
Of the intervals between the positive edge line and the negative edge line measured by the finger region extraction means, the maximum interval is set as the palm width value,
2. The finger number recognition apparatus according to claim 1, wherein the finger thickness reference value is set on the basis of the set palm width value.
前記撮像手段により撮像した画像における、複数の方向のエッジ頻度をそれぞれ算出し、
算出したそれぞれのエッジ頻度を比較し、最も頻度が高い方向を前記エッジ基準方向とすることを特徴とする請求項1記載の指本数認識装置。 The edge reference direction setting means includes
In each of the images picked up by the image pickup means, the edge frequencies in a plurality of directions are calculated,
2. The finger number recognition apparatus according to claim 1, wherein the calculated edge frequencies are compared, and the direction with the highest frequency is set as the edge reference direction.
前記エッジ基準方向設定手段によって設定されたエッジ基準方向およびその±45°の3方向について前記エッジライン画像を作成し、
作成した前記エッジライン画像の各エッジ領域の中心付近を滑らかに通るエッジラインを抽出することを特徴とする請求項3記載の指本数認識装置。 The edge line image acquisition means includes
Creating the edge line image for the edge reference direction set by the edge reference direction setting means and the three directions of ± 45 °;
4. The finger number recognition apparatus according to claim 3, wherein an edge line that smoothly passes near the center of each edge region of the created edge line image is extracted.
手の画像を撮像する撮像工程と、
前記撮像工程において撮像した画像中で、手の向きに対応するエッジ基準方向を設定するエッジ基準方向設定工程と、
前記撮像工程において撮像した画像中で、前記エッジ基準方向設定工程において設定したエッジ基準方向に対して垂直方向に走査してエッジラインを抽出し、エッジライン画像を取得するエッジライン画像取得工程と、
前記撮像工程において撮像した画像中での、指太さ基準値を設定する指太さ基準値設定工程と、
前記エッジ基準方向設定工程において設定したエッジ基準方向に対して垂直方向に走査し、
前記エッジライン画像取得工程において抽出したエッジラインにおけるエッジ強度が正の値を持つ正のエッジラインと交差し、かつ、同じ走査線上に次に現れるエッジラインが負のエッジ強度を持つ負のエッジラインである場合には、前記正のエッジラインと前記負のエッジラインとの間隔を計測し、
計測した間隔と前記指太さ基準値設定工程において設定した指太さ基準値との差分を求め、この差分に基づいて、前記2本のラインの間に対応する領域を指領域として抽出する指領域抽出工程と、
前記指領域の数をカウントする指領域数カウント工程と、
を有することを特徴とする指本数認識方法。 A finger number recognition method for recognizing how many fingers of a hand are stretched,
An imaging process for capturing an image of the hand;
An edge reference direction setting step for setting an edge reference direction corresponding to the orientation of the hand in the image captured in the imaging step;
In the image captured in the imaging step, an edge line image acquisition step of extracting an edge line by scanning in a direction perpendicular to the edge reference direction set in the edge reference direction setting step, and acquiring an edge line image;
A finger thickness reference value setting step for setting a finger thickness reference value in the image captured in the imaging step;
Scan in a direction perpendicular to the edge reference direction set in the edge reference direction setting step,
A negative edge line in which the edge line in the edge line extracted in the edge line image acquisition step intersects with a positive edge line having a positive value, and the next edge line appearing on the same scanning line has a negative edge intensity. If it is, measure the interval between the positive edge line and the negative edge line,
The difference between the measured interval and the finger thickness reference value set in the finger thickness reference value setting step is obtained, and a region corresponding to the area between the two lines is extracted as a finger region based on the difference. Region extraction process;
A finger area number counting step for counting the number of finger areas;
A finger number recognition method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004352213A JP2006163662A (en) | 2004-12-06 | 2004-12-06 | Device and method for recognizing number of fingers |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004352213A JP2006163662A (en) | 2004-12-06 | 2004-12-06 | Device and method for recognizing number of fingers |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006163662A true JP2006163662A (en) | 2006-06-22 |
Family
ID=36665628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004352213A Pending JP2006163662A (en) | 2004-12-06 | 2004-12-06 | Device and method for recognizing number of fingers |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006163662A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009003606A (en) * | 2007-06-20 | 2009-01-08 | Univ Kinki | Device control method based on image recognition Content creation method and apparatus using the same |
WO2013035388A1 (en) * | 2011-09-06 | 2013-03-14 | シャープ株式会社 | Image capture device |
JP2013061771A (en) * | 2011-09-13 | 2013-04-04 | Glory Ltd | Image feature extraction method and image feature extraction device and image collation method and image collation device using the same |
JP5264007B1 (en) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | controller |
KR20160097512A (en) * | 2015-02-09 | 2016-08-18 | 선문대학교 산학협력단 | Paired-edge based hand detection method using depth image |
JP2017068317A (en) * | 2015-09-28 | 2017-04-06 | 富士通株式会社 | Generation method, determination method, program, and information processing apparatus |
US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195127A (en) * | 1998-01-06 | 1999-07-21 | Suzuki Motor Corp | Method for recognizing white line and device therefor |
JP2002350127A (en) * | 2001-05-29 | 2002-12-04 | Seiko Instruments Inc | Method and system for measuring pattern with use of display microscope image |
JP2003346162A (en) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | Input system by hand image recognition |
-
2004
- 2004-12-06 JP JP2004352213A patent/JP2006163662A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195127A (en) * | 1998-01-06 | 1999-07-21 | Suzuki Motor Corp | Method for recognizing white line and device therefor |
JP2002350127A (en) * | 2001-05-29 | 2002-12-04 | Seiko Instruments Inc | Method and system for measuring pattern with use of display microscope image |
JP2003346162A (en) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | Input system by hand image recognition |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009003606A (en) * | 2007-06-20 | 2009-01-08 | Univ Kinki | Device control method based on image recognition Content creation method and apparatus using the same |
WO2013035388A1 (en) * | 2011-09-06 | 2013-03-14 | シャープ株式会社 | Image capture device |
JP2013061771A (en) * | 2011-09-13 | 2013-04-04 | Glory Ltd | Image feature extraction method and image feature extraction device and image collation method and image collation device using the same |
JP5264007B1 (en) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | controller |
WO2014054313A1 (en) * | 2012-10-01 | 2014-04-10 | Mizuno Yoshiro | Controller |
US9448639B2 (en) | 2012-10-01 | 2016-09-20 | Yoshiro Mizuno | Controller |
US9870059B2 (en) | 2014-02-14 | 2018-01-16 | Fujitsu Limited | Hand detection device and hand detection method |
KR20160097512A (en) * | 2015-02-09 | 2016-08-18 | 선문대학교 산학협력단 | Paired-edge based hand detection method using depth image |
KR101683189B1 (en) * | 2015-02-09 | 2016-12-06 | 선문대학교산학협력단 | Paired-edge based hand detection method using depth image |
JP2017068317A (en) * | 2015-09-28 | 2017-04-06 | 富士通株式会社 | Generation method, determination method, program, and information processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5699788B2 (en) | Screen area detection method and system | |
CN107085850B (en) | Marker body for shielding foreign matter in captured image, method for identifying foreign matter marker body in image, and book scanning method | |
JP5542889B2 (en) | Image processing device | |
JP6557943B2 (en) | Image collation device, image sensor, processing system, and image collation method | |
CN110458858A (en) | A detection method, system and storage medium of a cross target | |
CN110288040B (en) | Image similarity judging method and device based on topology verification | |
JP3695899B2 (en) | Fingerprint verification device | |
JP5769559B2 (en) | Image processing apparatus, image processing program, robot apparatus, and image processing method | |
JP2019036030A (en) | Object detection apparatus, object detection method, and object detection program | |
WO2007125981A1 (en) | Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium | |
JP2006163662A (en) | Device and method for recognizing number of fingers | |
JP2007188407A (en) | Image processing device and image processing program | |
WO2025108393A1 (en) | Palm vein image binarization method, identification method, apparatus, device, and medium | |
JP3598878B2 (en) | Defect inspection method and defect inspection device | |
CN112926516B (en) | Robust finger vein image region-of-interest extraction method | |
CN116703803A (en) | Method, device and system for detecting burrs on the edges of battery pole pieces | |
JP5346304B2 (en) | Appearance inspection apparatus, appearance inspection system, and appearance inspection method | |
JP2018109824A (en) | Electronic control device, electronic control system, and electronic control method | |
JP4203648B2 (en) | Image processing device | |
JP4172236B2 (en) | Facial image processing apparatus and program | |
JP3627249B2 (en) | Image processing device | |
JP3230509B2 (en) | Moving image processing device | |
JPH04137014A (en) | Traveling path terminal detector for mobile vehicle | |
JP2010243209A (en) | Defect inspection method and defect detection apparatus | |
CN115331193A (en) | A parking space identification method, identification system, electronic device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101111 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101221 |