JP2010015294A - Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program - Google Patents
Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program Download PDFInfo
- Publication number
- JP2010015294A JP2010015294A JP2008173376A JP2008173376A JP2010015294A JP 2010015294 A JP2010015294 A JP 2010015294A JP 2008173376 A JP2008173376 A JP 2008173376A JP 2008173376 A JP2008173376 A JP 2008173376A JP 2010015294 A JP2010015294 A JP 2010015294A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- region
- color
- detection target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】経時的変化のない背景の下で撮像した画像から対象物領域を抽出する。
【解決手段】撮影装置C1.C2にて手指を撮像した画像データが対象領域抽出装置に入力されている。撮影装置C1は、色合いを含まずかつ経時的に変化しない背景の下に手指を撮像している。対象領域抽出装置は、撮影装置の撮影画像から代表的個体肌色情報を取得する(S01)。また、対象領域抽出装置は、代表的個体肌色情報をもとに撮像装置C2の撮像画像を肌色領域および未定領域を含む画像に変換する(S02)。この変換画像中の未定領域に領域拡張処理を施した領域拡張画像を取得する(S03)。この領域拡張画像の肌色領域にラベリング処理を施して手指領域を抽出する(S04)。
【選択図】図5An object region is extracted from an image taken under a background that does not change with time.
An imaging apparatus C1. Image data obtained by imaging a finger at C2 is input to the target area extraction apparatus. The imaging device C1 images a finger under a background that does not include color and does not change over time. The target area extracting apparatus acquires representative individual skin color information from the captured image of the imaging apparatus (S01). Further, the target region extraction device converts the captured image of the imaging device C2 into an image including a skin color region and an undetermined region based on the representative individual skin color information (S02). An area expanded image obtained by performing area expansion processing on an undetermined area in the converted image is acquired (S03). A labeling process is performed on the skin color area of the area expanded image to extract a finger area (S04).
[Selection] Figure 5
Description
本発明は、特定の単色をもつ任意の物体形状を画像から認識する技術に関し、例えば撮像装置で撮影した画像から手の動作を認識する技術に関する。 The present invention relates to a technique for recognizing an arbitrary object shape having a specific single color from an image, for example, a technique for recognizing a hand movement from an image taken by an imaging device.
現在、人とコンピュータ間のマンマシンインタフェースのために様々な方法や装置が提案されている。例えば、AV機器やパーソナルコンピュータなどを、リモコンやマウスおよびキーボードなどを用いて操作するのではなく、カメラで撮像された素手によるジェスチャーなどの画像から手指の動きを認識して得られる動作情報に基づき操作する、といったコンセプトが提唱されてきている。これによれば機器に接触せずに操作が可能であるため、衛生の観点から、医療および食品の現場におけるインタフェースにも好適である。 Currently, various methods and apparatuses have been proposed for man-machine interface between a person and a computer. For example, instead of operating an AV device or personal computer using a remote control, a mouse, a keyboard, or the like, based on motion information obtained by recognizing the movement of a finger from an image such as a gesture with a bare hand imaged by a camera. The concept of operation has been proposed. According to this, since the operation can be performed without touching the device, it is suitable for an interface in the field of medical and food from the viewpoint of hygiene.
このコンセプトの実現に必要となる、画像中にある手指の認識技術としては、例えば特許文献1の「手形状認識方法」が公知となっている。この方法は、必要となる手指領域の抽出を、予め撮像して取得しておいた背景画像と手指を撮像した画像との差分により行っている。
しかしながら、特許文献1のような背景差分手法の単純な適用では、背景が変化するケースには原理的に対応できず、また手指以外の運動物体がある場合には、フレーム間差分手法を用いたとしても原理的に対応できないおそれがある。 However, the simple application of the background difference method as in Patent Document 1 cannot handle the case where the background changes in principle, and when there is a moving object other than a finger, the interframe difference method is used. However, it may not be possible in principle.
本発明は、このような従来の問題点に鑑みなされたもので、背景が変化するケースのもとで撮像した画像から検出対象領域を抽出することを解決課題としている。 The present invention has been made in view of such a conventional problem, and an object of the present invention is to extract a detection target region from an image captured under a case where the background changes.
本発明は、前記課題を解決するため創作された技術的思想であって、請求項1記載の発明は、複数の撮影装置をもって検出対象を撮像した画像から、該検出対象の領域を抽出する対象領域抽出装置であって、前記検出対象を、色合いを含まずかつ経時的に変化しない背景の下に撮像した画像から前記検出対象の特徴を取得する手段と、該取得した特徴をもとに、前記検出対象を撮像した他の画像から前記検出対象の領域を抽出する手段と、を有することを特徴としている。 The present invention is a technical idea created to solve the above-described problem, and the invention according to claim 1 is an object for extracting a detection target region from an image obtained by capturing the detection target with a plurality of imaging devices. In the region extraction device, based on the acquired feature, the detection target, the means for acquiring the feature of the detection target from an image captured under a background that does not include color and does not change over time, Means for extracting a region of the detection target from another image obtained by imaging the detection target.
請求項2記載の発明は、前記検出対象の特徴は、前記画像中に含まれる検出対象領域の色を輝度および色合いに分解したときの輝度ごとに定められた代表的色合いを集合させた個体色情報であることを特徴としている。
The invention according to
請求項3記載の発明は、前記個体色情報をもとに前記他の画像を色領域と未定領域を含む画像に変換する手段と、前記変換画像中、色領域に隣接する未定領域の色合いが前記個体色情報の色合いに近似しているときに色領域に未定領域を含めた拡張色領域画像を取得する手段と、前記拡張色領域画像中の色領域にラベリング処理を施して、前記検出対象の領域を抽出する手段と、を有することを特徴としている。 According to a third aspect of the present invention, there is provided means for converting the other image into an image including a color region and an undetermined region based on the individual color information, and a hue of the undetermined region adjacent to the color region in the converted image. Means for acquiring an extended color area image including an undetermined area in a color area when approximating the hue of the individual color information, and performing a labeling process on the color area in the extended color area image to detect the detection target Means for extracting the region.
請求項4記載の発明は、複数の撮影装置をもって検出対象を撮像した画像から、画像処理手段が前記検出対象の領域を抽出する対象領域抽出方法であって、前記画像処理手段が、前記検出対象を色合いを含まずかつ経時的に変化しない背景の下に撮像した画像から前記検出対象の特徴を取得する第1ステップと、前記画像処理手段が、前記取得した特徴をもとに前記検出対象を撮像した他の画像から前記検出対象の領域を抽出する第2ステップと、を有することを特徴としている。
The invention according to
請求項5記載の発明は、前記第1ステップは、前記画像に含まれる検出対象領域の色を輝度および色合いに分解したときの輝度ごとに定められた代表的色合いを集合させた個体色情報を取得することを特徴としている。 According to a fifth aspect of the present invention, in the first step, individual color information obtained by collecting representative colors determined for each luminance when the color of the detection target area included in the image is decomposed into luminance and hue is collected. It is characterized by acquisition.
請求項6記載の発明は、前記第2ステップは、前記個体色情報をもとに前記他の画像を色領域と未定領域を含む画像に変換するステップと、前記変換画像中、色領域に隣接する未定領域の色合いが前記個体色情報の色合いに近似しているときに色領域に未定領域を含めた拡張色領域画像を取得するステップと、前記拡張色領域画像中の色領域にラベリング処理を施して、前記検出対象の領域を抽出するステップと、を有することを特徴としている。 According to a sixth aspect of the present invention, the second step is a step of converting the other image into an image including a color region and an undetermined region based on the individual color information, and adjacent to the color region in the converted image. Obtaining an extended color area image including the undetermined area in the color area when the hue of the undetermined area approximates the hue of the individual color information; and labeling the color area in the extended color area image And extracting the region to be detected.
請求項7記載の発明は、請求項1〜3のいずれか1項に記載の対象領域抽出装置の各手段としてコンピュータを機能させることを特徴とする対象領域抽出プログラムに関する。 A seventh aspect of the present invention relates to a target region extraction program that causes a computer to function as each unit of the target region extraction device according to any one of the first to third aspects.
請求項8記載の発明は、請求項7記載の対象領域抽出プログラムを記録したコンピュータの読み取り可能な記録媒体に関する。
The invention described in claim 8 relates to a computer-readable recording medium in which the target area extracting program described in
請求項1〜8記載の発明によれば、経時的変化のない背景の下でも画像から対象物領域を抽出することができ、また検出対象が手指以外の運動物体であっても対応することができる。 According to the first to eighth aspects of the present invention, it is possible to extract a target area from an image even under a background that does not change over time, and it is possible to handle even if the detection target is a moving object other than a finger. it can.
図1は、本発明の実施形態に係る対象領域抽出装置を示している。この対象領域抽出装置1には、二台の撮影装置C1,C2をもって撮像された画像データ群が時系列に入力されている。 FIG. 1 shows a target area extraction apparatus according to an embodiment of the present invention. A group of image data picked up by the two photographing devices C1 and C2 is input to the target area extracting device 1 in time series.
前記対象領域抽出装置1は、コンピュータから構成され、前記両撮影装置C1.C2から画像データをネットワーク経由で入力するデータ通信手段2と、入力された画像データを処理する画像処理手段4と、処理データなどを一時記憶するメモリ(RAM)などの記憶手段3と、処理データを保存するハードディスクドライブ装置などの保存手段5と、処理データを表示可能なモニタなどの表示手段6と、キーボード,マウスなどの入力手段7とを備えている。 The target area extracting apparatus 1 is composed of a computer, and the two photographing apparatuses C1. Data communication means 2 for inputting image data from C2 via the network, image processing means 4 for processing the inputted image data, storage means 3 such as a memory (RAM) for temporarily storing the processing data, and the processing data Storage means 5 such as a hard disk drive device for storing data, display means 6 such as a monitor capable of displaying processing data, and input means 7 such as a keyboard and a mouse.
具体的には、前記画像処理手段4は、プロセッサ(CPU:Central Processor Unitなど)とソフトウェアとの協働の結果、図2に示すように、前記撮影装置C1の撮像画像データから検出対象の特徴を抽出する手段8と、該抽出された特徴をもとに前記撮影装置C2の撮像画像データから検出対象の領域を抽出する手段9として機能している。 Specifically, as a result of cooperation between a processor (CPU: Central Processor Unit, etc.) and software, the image processing means 4 is a feature of a detection target from the captured image data of the imaging device C1, as shown in FIG. And a means 9 for extracting a detection target region from the captured image data of the photographing apparatus C2 based on the extracted features.
前記撮影装置C1,C2には、一例としてデジタルビデオカメラが使用されているものとする。ここで前記撮影装置C1は、図3および図4に示すように、テーブルの天板を略鉛直下方に向かって撮像可能な位置、即ち天井に据付けられ、撮像背景となるテーブル面は、肌色を含まず、かつ経時的変化をしないブルーバックと看做せるものとする。このとき撮像背景を、肌色成分を含まず、かつ経時的変化をしないようにするために、図4に示すように、ブルーバックと看做せる天板をテーブル上に載置してもよい。 As an example, a digital video camera is used for the photographing devices C1 and C2. Here, as shown in FIG. 3 and FIG. 4, the photographing apparatus C1 is installed on a ceiling where a table top can be imaged substantially vertically downward, that is, on the ceiling, and the table surface as an imaging background has a skin color. It can be regarded as a blue back that does not contain and does not change over time. At this time, in order to prevent the imaging background from containing a skin color component and not to change over time, a top plate that can be regarded as a blue background may be placed on the table as shown in FIG.
一方、前記撮影装置C2の撮像背景は、肌色成分を含まず、かつ経時的変化があるものとする。ここでは一例として前記撮影装置C1,C2は、検出対象として操作者の手指を撮像しているものとする。以下、図5に基づき前記撮影装置C1,C2で撮像された入力画像データに前記画像処理手段4が施す対象領域抽出方法を説明する。
On the other hand, the imaging background of the imaging device C2 does not include a skin color component and changes with time. Here, as an example, it is assumed that the imaging devices C1 and C2 are imaging an operator's finger as a detection target. Hereinafter, a target area extraction method performed by the
S01:まず、前記撮影装置C1で撮像された入力画像データから、検出対象(操作者の手指)の特徴として代表的個体肌色情報(個体色情報)を取得する。 S01: First, representative individual skin color information (individual color information) is acquired from the input image data captured by the photographing apparatus C1 as a feature of a detection target (operator's finger).
すなわち、前記撮影装置C1は、肌色を含まず、かつ経時的変化のない背景の下に手指を撮像しているので、図6に示す入力画像データから背景差分手法を用いて手指領域が抽出できる。ここでは抽出された手指領域の境界付近の画素は肌色成分と背景色の成分とが混合された色合いとなる可能性があるため、この抽出された手指領域を図7に示す暫定手指領域とし、この暫定手指領域に侵食処理を施した領域を図8に示す純粋手指領域とする。 That is, since the photographing apparatus C1 images a finger under a background that does not include skin color and does not change over time, a finger region can be extracted from the input image data shown in FIG. 6 using a background difference method. . Here, since the pixels near the boundary of the extracted finger region may have a color mixture of the skin color component and the background color component, this extracted finger region is set as a provisional finger region shown in FIG. A region obtained by performing erosion processing on the provisional finger region is defined as a pure finger region shown in FIG.
この得られた純粋手指領域データに含まれる全画素に対して、図9に示す輝度(Y)および色合い(U,V)の頻度分布を求める。本実施例では、輝度(Y)は「0」〜「63」の64階調、色合い(U,V)は「0」〜「255」の256階調とした。なお、図9は、輝度(Y)および色合い(U,V)の頻度分布を模式的に表現した図であり、実際には、輝度(Y)ごとの色合い(U,V)の頻度分布は図10に示すようなかたちとなる。この図10中、「F」は頻度(frequency)を示している。 The frequency distribution of luminance (Y) and hue (U, V) shown in FIG. 9 is obtained for all pixels included in the obtained pure finger region data. In this embodiment, the luminance (Y) is 64 gradations from “0” to “63”, and the hue (U, V) is 256 gradations from “0” to “255”. FIG. 9 is a diagram schematically representing the frequency distribution of luminance (Y) and hue (U, V). In practice, the frequency distribution of hue (U, V) for each luminance (Y) is The shape is as shown in FIG. In FIG. 10, “F” indicates a frequency.
そして、図9に示す輝度(Y)および色合い(U,V)の頻度分布から、輝度(Y)ごとに分布の最頻値となる色合い(U,V)値を求め、これをもって図11に示す代表的個体肌色情報として記憶手段3に記憶しておく。その際、図10に示す輝度(Y)ごとの分布に対して、予めガウシアンカーネルなどで、たたみ込み処理を施してもよい。 Then, from the frequency distribution of luminance (Y) and hue (U, V) shown in FIG. 9, a hue (U, V) value that is the mode of the distribution is obtained for each luminance (Y), and this is shown in FIG. It is stored in the storage means 3 as representative individual skin color information to be shown. At that time, the distribution for each luminance (Y) shown in FIG. 10 may be preliminarily subjected to convolution processing using a Gaussian kernel or the like.
ここで得られた図11に示す代表的個体肌色情報は、黒点Bの位置において「1」となり、それ以外の点では「0」となる輝度(Y)および色合い(U,V)を変数とする3変数関数と看做すことができる。この関数を式(1)に示す代表的個体肌色関数とする。 The typical individual skin color information shown in FIG. 11 obtained here is “1” at the position of the black point B and “0” at other points, and the luminance (Y) and hue (U, V) are variables. Can be considered as a three-variable function. This function is a representative individual skin color function shown in Expression (1).
S02:つぎに、前記撮影装置C2にて撮像された入力画像データと前記代表的個体肌色情報とから、肌色領域および未定領域を取得する。ここでは、図12に示す前記撮影装置C2で撮像された入力画像データ、および前記代表的個体肌色関数から、式(2)に従い、図13に示す変換画像を得る。 S02: Next, a skin color area and an undetermined area are acquired from the input image data captured by the photographing apparatus C2 and the representative individual skin color information. Here, the converted image shown in FIG. 13 is obtained from the input image data imaged by the photographing apparatus C2 shown in FIG. 12 and the representative individual skin color function according to the equation (2).
ただし、「I」は、図13に示す変換画像データの各画素の値であり、「0」もしくは「1」に限られる。また、「IY」、「IU」、「IV」は、図12に示す撮影装置C2で撮像された入力画像データの各画素の輝度および色合いの値である。なお、図13の変換画像データは、記憶手段3に記憶してもよく、また保存手段5に保存しておいてもよい。
However, “I” is the value of each pixel of the converted image data shown in FIG. 13, and is limited to “0” or “1”. Further, “I Y ”, “I U ”, and “I V ” are values of luminance and hue of each pixel of the input image data imaged by the imaging device C2 shown in FIG. The converted image data of FIG. 13 may be stored in the
S03:図13の変換画像データに含まれる肌色領域および未定領域に図17に示す領域拡張処理を施す。すなわち、図13の変換画像データに対して、値「1」をとる画素を肌色領域、値「0」をとる画素を未定領域として、図14に示す領域拡張画像データを得る。 S03: The area expansion process shown in FIG. 17 is applied to the skin color area and the undetermined area included in the converted image data of FIG. That is, for the converted image data shown in FIG. 13, the area-extended image data shown in FIG.
ここでは前記代表的個体肌色関数は輝度(Y)および色合い(U,V)を変数とする3変数関数であるが、輝度(Y)ごとに色合い(U,V)を変数とする2変数関数が層をなしたものと看做すことができる。この層を輝度レイヤーと称することとする。また、図16に示すように、前記代表的個体肌色情報の黒点Bの位置に対応する色合い(U,V)を当該輝度レイヤーの主たる色合いとするとともに、要素の個数が1個ではあるが、当該輝度レイヤーの色合い分布とする。以下、前記領域拡張処理のアルゴリズムを図17に基づき詳細に説明する。 Here, the representative individual skin color function is a three-variable function with luminance (Y) and hue (U, V) as variables, but a two-variable function with hue (U, V) as a variable for each luminance (Y). Can be regarded as layered. This layer will be referred to as a luminance layer. Further, as shown in FIG. 16, the hue (U, V) corresponding to the position of the black point B of the representative individual skin color information is the main hue of the luminance layer, and the number of elements is one. Let it be the hue distribution of the luminance layer. Hereinafter, the algorithm of the area expansion process will be described in detail with reference to FIG.
まず、図13に示す変換画像データについて、いずれかの肌色領域画素の8近傍に未定領域画素があるか否かを確認する(S11)。未定領域画素がある場合には、当該未定領域画素の輝度値に対応する輝度レイヤーにおいて、既存の主たる色合いと当該未定領域画素の色合いとの差(ΔU、ΔV)を算出する(S12)。 First, with respect to the converted image data shown in FIG. 13, it is confirmed whether or not there is an undetermined region pixel in the vicinity of 8 of any skin color region pixel (S11). If there is an undetermined area pixel, the difference (ΔU, ΔV) between the existing main color and the color of the undetermined area pixel is calculated in the luminance layer corresponding to the luminance value of the undetermined area pixel (S12).
つぎに、S12で算出された差のノルムと所定の基準値との比較に基づき、当該輝度レイヤーの色合い分布に統合するか否かを判定する(S13)。この基準値はプログラムに閾値として記述されているものとする。 Next, based on the comparison between the norm of the difference calculated in S12 and a predetermined reference value, it is determined whether or not to integrate the hue distribution of the luminance layer (S13). This reference value is described as a threshold value in the program.
このときS12で算出された差のノルムが所定の基準値より小さければ統合することとし、当該輝度レイヤーの色合い分布に当該未定領域画素の色合いを追加し新たな色合い分布とし、この新たな色合い分布の重心を新たな主たる色合いとし、肌色領域画素として記憶手段3に記憶する(S14)。 At this time, if the norm of the difference calculated in S12 is smaller than a predetermined reference value, the difference is integrated, and the hue of the undetermined region pixels is added to the hue distribution of the luminance layer to obtain a new hue distribution, and this new hue distribution Is stored in the storage means 3 as a skin color region pixel (S14).
一方、S12で算出された差のノルムが所定の基準値より大きい場合には統合しないこととし、当該未定領域画素を非肌色領域画素として記憶手段3に記憶する(S15)。どの肌色領域画素の8近傍にも未定領域画素がない場合に領域拡張処理を終了する。 On the other hand, if the norm of the difference calculated in S12 is larger than the predetermined reference value, the undecided area pixels are not integrated and stored in the storage means 3 as non-skin color area pixels (S15). If there is no undetermined area pixel in the vicinity of 8 of any skin color area pixel, the area expansion process is terminated.
S04:S03の処理によって得られた図14に示す領域拡張画像データ中の肌色領域に含まれる各画素にラベル属性を付加するラベリング処理を施して、図15に示す手指領域のデータを取得する。これにより経時的変化のある背景の下でも画像から手指領域を取得することができ、この点で指認証などに使用する画像の範囲が拡大する。 S04: A labeling process for adding a label attribute to each pixel included in the skin color area in the area expanded image data shown in FIG. 14 obtained by the process of S03 is performed to obtain the finger area data shown in FIG. As a result, it is possible to acquire a finger region from an image even under a background that changes with time, and in this respect, the range of an image used for finger authentication or the like is expanded.
このとき手指領域の選択については、例えば、面積最大の領域とすればよく、もしくは、予め用意されている、様々なスケールにおける様々な姿勢の手指のシルエットテンプレートとの相関が最も高い領域をもってしてもよい。ここで取得した手指領域のデータは保存手段5などに保存してもよい。なお、S01〜S04の処理はモニタなどの表示手段6に表示させながら行ってもよい。
At this time, for the finger region selection, for example, the region having the largest area may be selected, or the region having the highest correlation with the finger silhouette templates of various postures in various scales prepared in advance is used. Also good. The finger region data acquired here may be stored in the
以下、S01の他例を説明する。ここでは肌色を含まずかつ経時的変化のない背景の下に撮像された手指の画像データから、背景差分の手法によらずに、手指領域を抽出している。 Hereinafter, another example of S01 will be described. Here, a finger region is extracted from image data of a finger captured under a background that does not include a skin color and does not change with time, regardless of the background difference method.
まず、撮像装置C1にて、図18の背景画像を撮像する。この撮像画像の入力データに対して、図19に示す輝度(Y)および色合い(U,V)の頻度分布を求める。求められた分布頻度に対して、分布頻度が「1」以上の場合に分布頻度を「0」とし、分布頻度が「0」の場合に分布頻度を「1」とする。 First, the background image of FIG. 18 is imaged by the imaging device C1. A frequency distribution of luminance (Y) and hue (U, V) shown in FIG. 19 is obtained for the input data of the captured image. With respect to the obtained distribution frequency, the distribution frequency is “0” when the distribution frequency is “1” or more, and the distribution frequency is “1” when the distribution frequency is “0”.
つぎに、分布頻度が「0」の領域および「1」の領域を、それぞれ、マスク領域および非マスク領域とし、輝度レイヤーごとに非マスク領域に対して侵食処理を施して得られる侵食非マスク領域から、背景マスク関数を得る。この背景マスク関数fは、式(3)(4)を用いて取得することができる。 Next, an area having a distribution frequency of “0” and an area of “1” are set as a mask area and a non-mask area, respectively, and an erosion non-mask area obtained by performing an erosion process on the non-mask area for each luminance layer. To get the background mask function. This background mask function f can be obtained using equations (3) and (4).
そして、図6に示す手指を撮像した入力画像データ、および前記背景マスク関数から、式(5)に従い、図7に示す暫定手指領域画像データを得る。 Then, provisional finger region image data shown in FIG. 7 is obtained from the input image data obtained by imaging the finger shown in FIG. 6 and the background mask function according to the equation (5).
ここでは、「IP」は図7に示す暫定手指領域画像データの各画素の値であり、「0」もしくは「1」に限られ、「IY」、「IU」、「IV」は図6に示す手指を撮像した入力画像データの各画素の輝度(Y)および色合い(U,V)の値である。このとき図7に示す暫定手指領域画像データにおいて、画素の値が「1」である領域を暫定手指領域とする。この暫定手指領域から図8に示す純粋手指領域を抽出し、ここから図11の代表的肌色情報を求め、S02〜S04の処理を行う。 Here, “I P ” is the value of each pixel of the provisional finger region image data shown in FIG. 7, and is limited to “0” or “1”. “I Y ”, “I U ”, “I V ” Are values of luminance (Y) and hue (U, V) of each pixel of the input image data obtained by imaging the finger shown in FIG. At this time, in the provisional finger region image data shown in FIG. 7, a region having a pixel value “1” is set as a provisional finger region. The pure finger region shown in FIG. 8 is extracted from the provisional finger region, the representative skin color information of FIG. 11 is obtained from this, and the processes of S02 to S04 are performed.
なお、本発明は、上記実施形態に限定されるものではなく、例えば前記対象領域抽出装置の画像処理手段4としてコンピュータを機能させるプログラムとして構築することもできる。このプログラムは、S01〜S04の全ての処理をコンピュータに実行させるものでもよく、あるいはS11〜S15の領域拡張処理のみをコンピュータに実行させるものであってもよい。 In addition, this invention is not limited to the said embodiment, For example, it can also construct | assemble as a program which functions a computer as the image processing means 4 of the said target area extraction apparatus. This program may cause the computer to execute all the processes of S01 to S04, or may cause the computer to execute only the area expansion process of S11 to S15.
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供できる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。 This program can be provided to a computer by downloading from a website or the like. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, Blu-ray Disk (registered trademark). It may be provided to a computer. Since the program code itself read from the recording medium realizes the processing of the above embodiment, the recording medium also constitutes the present invention.
1…対象領域抽出装置
2…データ通信手段
3…記憶手段
4…画像処理手段
5…保存手段
6…表示手段
7…入力手段
8…対象物の特徴を抽出する手段
9…対象物の領域を抽出する手段
C1.C2…撮影装置
DESCRIPTION OF SYMBOLS 1 ... Object
Claims (8)
前記検出対象を、色合いを含まずかつ経時的に変化しない背景の下に撮像した画像から前記検出対象の特徴を取得する手段と、
該取得した特徴をもとに、前記検出対象を撮像した他の画像から前記検出対象の領域を抽出する手段と、
を有することを特徴とする対象領域抽出装置。 A target region extraction device that extracts a detection target region from an image obtained by capturing a detection target with a plurality of photographing devices,
Means for acquiring the characteristics of the detection target from an image captured under a background that does not include hue and does not change over time;
Means for extracting an area of the detection target from another image obtained by imaging the detection target based on the acquired feature;
A target area extracting apparatus characterized by comprising:
輝度ごとに定められた代表的色合いを集合させた個体色情報であることを特徴とする請求項1記載の対象領域抽出装置。 The feature of the detection target is individual color information obtained by collecting representative hues determined for each luminance when the color of the detection target region included in the image is decomposed into luminance and hue. The target area extracting apparatus according to claim 1.
前記変換画像中、色領域に隣接する未定領域の色合いが前記個体色情報の色合いに近似しているときに色領域に未定領域を含めた拡張色領域画像を取得する手段と、
前記拡張色領域画像中の色領域にラベリング処理を施して、前記検出対象の領域を抽出する手段と、
を有することを特徴とする請求項2記載の対象領域抽出装置。 Means for converting the other image into an image including a color area and an undetermined area based on the individual color information;
Means for obtaining an extended color area image including an undetermined area in the color area when the hue of the undetermined area adjacent to the color area approximates the hue of the individual color information in the converted image;
Means for performing a labeling process on a color region in the extended color region image and extracting the region to be detected;
The target area extracting apparatus according to claim 2, further comprising:
前記画像処理手段が、前記検出対象を色合いを含まずかつ経時的に変化しない背景の下に撮像した画像から前記検出対象の特徴を取得する第1ステップと、
前記画像処理手段が、前記取得した特徴をもとに前記検出対象を撮像した他の画像から前記検出対象の領域を抽出する第2ステップと、
を有することを特徴とする対象領域抽出方法。 A target area extraction method in which an image processing means extracts a detection target area from an image obtained by imaging a detection target with a plurality of imaging devices,
A first step in which the image processing means acquires the feature of the detection target from an image obtained by capturing the detection target under a background that does not include a hue and does not change over time;
A second step in which the image processing means extracts a region of the detection target from another image obtained by imaging the detection target based on the acquired feature;
A target region extraction method characterized by comprising:
輝度ごとに定められた代表的色合いを集合させた個体色情報を取得することを特徴とする請求項4記載の対象領域抽出方法。 The first step is to acquire individual color information obtained by collecting representative hues determined for each luminance when the color of a detection target area included in the image is decomposed into luminance and hue. Item 4. The target region extraction method according to Item 4.
前記変換画像中、色領域に隣接する未定領域の色合いが前記個体色情報の色合いに近似しているときに色領域に未定領域を含めた拡張色領域画像を取得するステップと、
前記拡張色領域画像中の色領域にラベリング処理を施して、前記検出対象の領域を抽出するステップと、
を有することを特徴とする請求項5記載の対象領域抽出方法。 Converting the other image into an image including a color area and an undetermined area based on the individual color information; and
Obtaining an extended color area image including the undetermined area in the color area when the hue of the undetermined area adjacent to the color area approximates the hue of the individual color information in the converted image;
Applying a labeling process to a color region in the extended color region image to extract the region to be detected;
The target region extracting method according to claim 5, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008173376A JP2010015294A (en) | 2008-07-02 | 2008-07-02 | Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008173376A JP2010015294A (en) | 2008-07-02 | 2008-07-02 | Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010015294A true JP2010015294A (en) | 2010-01-21 |
Family
ID=41701372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008173376A Pending JP2010015294A (en) | 2008-07-02 | 2008-07-02 | Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010015294A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218905A (en) * | 2015-05-25 | 2016-12-22 | キヤノン株式会社 | Information processing device, information processing method and program |
-
2008
- 2008-07-02 JP JP2008173376A patent/JP2010015294A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218905A (en) * | 2015-05-25 | 2016-12-22 | キヤノン株式会社 | Information processing device, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8254630B2 (en) | Subject extracting method and device by eliminating a background region using binary masks | |
US11580775B2 (en) | Differentiating between live and spoof fingers in fingerprint analysis by machine learning | |
JP2021517330A (en) | A method for identifying an object in an image and a mobile device for carrying out the method. | |
JP5701181B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2012528506A (en) | Method and apparatus for separating the top of the foreground from the background | |
JP2004246593A (en) | Face image correction method and device and face image correction program | |
JP6326847B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20170026552A1 (en) | Image processing device, image processing method and recording medium | |
JP5887264B2 (en) | Object recognition apparatus, method, program, and computer-readable medium storing the software | |
CN110858277A (en) | Method and device for obtaining attitude classification model | |
CN107368838A (en) | Image processing apparatus, image processing method, searcher and searching method | |
JP2013186838A (en) | Generation device, generation program, and generation method | |
US10515287B2 (en) | Image retrieval apparatus, computer readable medium, and method for specifying an image group and extracting a representative image | |
JP2010286959A (en) | Face image high resolution method, face image high resolution device, and program thereof | |
US9286513B2 (en) | Image processing apparatus, method, and storage medium | |
KR101281461B1 (en) | Multi-touch input method and system using image analysis | |
JP4227238B2 (en) | Image display method, image processing apparatus, and recording medium | |
JP2018082766A (en) | Diagnostic system, diagnostic method and program | |
JP2007052609A (en) | Hand area detection device, hand area detection method and program | |
JP2010015294A (en) | Object domain extracting apparatus, object domain extracting method, object domain extracting program, and recording medium which record the same program | |
JP2010079651A (en) | Movement recognition device, method and program | |
JP2010237976A (en) | Light source information acquisition device, shadow detection device, shadow removal device, method and program thereof | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
US20200092484A1 (en) | Image display control apparatus, image display control method, program, and recording medium | |
KR100910754B1 (en) | Skin region detection method using grid based approach in real time input image including human body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100604 |