[go: up one dir, main page]

JPS6135673A - Area extracting method - Google Patents

Area extracting method

Info

Publication number
JPS6135673A
JPS6135673A JP15789484A JP15789484A JPS6135673A JP S6135673 A JPS6135673 A JP S6135673A JP 15789484 A JP15789484 A JP 15789484A JP 15789484 A JP15789484 A JP 15789484A JP S6135673 A JPS6135673 A JP S6135673A
Authority
JP
Japan
Prior art keywords
block
blocks
picture
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP15789484A
Other languages
Japanese (ja)
Other versions
JPH0418749B2 (en
Inventor
Masahiko Matsunawa
松縄 正彦
Yasufumi Emori
江森 康文
Yoshizumi Yasuda
安田 嘉純
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP15789484A priority Critical patent/JPS6135673A/en
Priority to US06/757,653 priority patent/US4741046A/en
Publication of JPS6135673A publication Critical patent/JPS6135673A/en
Publication of JPH0418749B2 publication Critical patent/JPH0418749B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Character Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To extract the picture area of the same kind by dividing a picture into plural blocks, using binary-coded picture data, classifying each block into a predetermined pattern and checking the connection between the blocks. CONSTITUTION:A picture element window is provided on a picture area to decide a background level in a short time, a density histogram is generated based on the picture data in the said window to decide the background level. Then the picture is divided into plural blocks. Then the picture element in each block is binary-coded by a threshold value obtained based on the background level, texture analysis of each block is applied from the binary-coded picture data and each block is classified into a predetermined pattern. Then the picture region of the same kind is extracted by checking the connection between the blocks. Further, the order of the decision of background level and the blocking of the picture is replaced.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、画像から同種の画像領域を抽出する領域抽出
方法に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a region extraction method for extracting similar image regions from an image.

(従来の技術) この種の領域抽出方法として、第12回画像工学コンフ
ァレンス7−2“ファクシミリ文書の矩形フィールドと
手書き識別番号の認識”が知られている。この方法では
、まず画像を小領域に分割した後2m化し、ロジックプ
レートを用いて、全画面を複数の大矩形領域にまとめる
処理を行い、次に各大矩形領域をウィンドウ領域に分割
し、黒画素の発生確率と、黒画素のウィンドウ内での局
所的な偏りを求める。又、周辺分布としてデータを座標
軸(X、Y)へ面積投影した量を求める。
(Prior Art) As this type of region extraction method, the 12th Image Engineering Conference 7-2 "Recognition of Rectangular Fields and Handwritten Identification Numbers in Facsimile Documents" is known. In this method, the image is first divided into small areas, then 2m wide, a logic plate is used to combine the entire screen into multiple large rectangular areas, and then each large rectangular area is divided into window areas. Find the pixel occurrence probability and the local bias within the black pixel window. Furthermore, the area projection of the data onto the coordinate axes (X, Y) is determined as the marginal distribution.

そして、黒画素の発生確率とウィンドウ内での局所的な
偏りより、「写真J、「図」、「文章」の属性を見、周
)0分布の周期性を調べ、「文章]と「図」の判定を行
い領域抽出を行う。
Then, based on the probability of occurrence of black pixels and the local bias within the window, we looked at the attributes of ``photo J,''``diagram,'' and ``text,'' and examined the periodicity of the zero distribution. ” and performs region extraction.

(発明が解決したようとする問題点) ところで、この方法は、最初に人事形領域にまとめるた
めに任意形状の領域にλ=1 する対応性に乏しく、且
つ周期性のない文字単位に対しては領域抽出が困難であ
るという問題があった。従って、任意形状且つ任意画像
に対する適応性のある手法が望まれていた。
(Problem that the invention purports to solve) By the way, this method first has a poor correspondence of λ = 1 in an arbitrary shape region in order to group it into a human figure region, and also for character units without periodicity. The problem is that region extraction is difficult. Therefore, a method that is adaptable to arbitrary shapes and arbitrary images has been desired.

本発明は、上記問題に鑑みてなされたもので、その目的
は、任意形状の画像領域の抽出が可能な領域抽出方法を
提供でることにある。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a region extraction method capable of extracting an image region of an arbitrary shape.

(問題点を解決づるための手段) 上記問題点を解決覆る本発明は、画像を複数のブロック
に分割すると共に2値化画像データを用いて各ブロック
を予め定めたパターンに分類し、該パターンにより各ブ
ロック間の接続を調べ同種の画像領域を抽出することを
特徴とするものである。
(Means for Solving the Problems) The present invention, which solves the above problems, divides an image into a plurality of blocks, classifies each block into a predetermined pattern using binarized image data, and This method is characterized by examining the connection between each block and extracting image regions of the same type.

(実施例) 以下、図面を用いて本発明方法を具体的に説明する。第
1図は本発明方法の一具体例における手順を示すフ【]
−チャートで、この例では、まず背景レベル(mlt度
レベル)を決定し、次に画像のブロック化を行い、背景
レベルに暑づぎ求めたPI値で各ブロック内の画素を2
値化し、該2値化画像データから各ブロックのテクスチ
ュア解析を行って各ブロックを予め定めたパターンに分
類し、該パターンにより各ブロック間の接続を調べ、同
種の画像領域を抽出している。尚、背景レベルの決定と
画像のブロック化の順序は、入れ替えてもよい。
(Example) Hereinafter, the method of the present invention will be specifically explained using the drawings. FIG. 1 is a diagram showing the steps in a specific example of the method of the present invention.
- In this example, the background level (mlt degree level) is first determined, then the image is divided into blocks, and the pixels in each block are divided by 2 using the PI value determined based on the background level.
Each block is digitized and texture analyzed from the binarized image data, each block is classified into a predetermined pattern, connections between each block are investigated using the pattern, and similar image areas are extracted. Note that the order of determining the background level and dividing the image into blocks may be reversed.

次に、上記手順を段階別に詳細に説明する。Next, the above procedure will be explained in detail step by step.

(I>背景レベルの決定 短時間に背景レベルを決定するために、画像エリア上に
第2図に示1如(n+xm(例えば32X32)画素の
ウィンドウ(window)を設け、該ウィンドウ内の
画像データに基づき第3図の如き11111 LCEヒ
ストグラムを作成し、背景レベルを決定する。第4図は
この背景レベルの決定手順を示170−チt・−トで、
まずウィンドウの決定(位W決定)を行い、該ウィンド
ウに蓼づきm度ヒストグラムを作成し平均値Mと標準偏
差Sを算出づ°る。次に標準偏差Sが所定の閾値Tより
小さければ、背景レベルBを M−38≦B≦M + 38 の範囲内の値として選ぶ。通常は、B = M +38
とする。一方、1M準偏差Sが1ltlT以上であれば
、ウィンドウの位置を第2図の横方向若しくは縦方向に
移動して新たなウィンドウを決定し、再度濃度ヒストグ
ラムを作成する。これは、S≧Tの場合、地肌を良好に
とらえる位置にウィンドウが存在していないからである
。尚、1lliITの大きさは、地肌をとらえ得る範囲
の大きさであればどのような値であってしよいが、ウィ
ンドウの決定が最小回数で湾むような大きさであること
が好ましい。
(I> Determination of background level In order to determine the background level in a short time, a window of (n+xm (for example, 32x32) pixels) as shown in Figure 2 is provided on the image area, and the image data within the window is Based on this, a 11111 LCE histogram as shown in Fig. 3 is created and the background level is determined. Fig. 4 shows the procedure for determining this background level.
First, a window is determined (position W is determined), an m-degree histogram is created based on the window, and the average value M and standard deviation S are calculated. Next, if the standard deviation S is smaller than a predetermined threshold T, the background level B is selected as a value within the range of M-38≦B≦M + 38. Usually, B = M + 38
shall be. On the other hand, if the 1M standard deviation S is 1ltlT or more, the window position is moved in the horizontal or vertical direction in FIG. 2, a new window is determined, and the density histogram is created again. This is because when S≧T, the window does not exist at a position where the background can be captured well. The size of 1lliIT may be any value as long as it can capture the background, but it is preferably such a size that the window can be determined a minimum number of times.

(II)画像のブロック化 画像を複数ブロックに分割する。例えば画像が第5図の
ようにNxM=2000x2500画素(10dot 
/ll1m)であるとき、各ブロックのサイズをn x
n =32X32にとる。
(II) Blocking the image Divide the image into a plurality of blocks. For example, if the image is NxM=2000x2500 pixels (10dots) as shown in Figure 5,
/ll1m), the size of each block is n x
Take n = 32x32.

勿論、16X16や64X64等に選ぶこともできる。Of course, you can also choose 16X16, 64X64, etc.

(I)各ブロックのテクスチュア解析 次に前記背景レベルBを閾値として画像データを2値化
し、これにより得た2値化画像データを用いて各ブロッ
クを予め定めたパターンに分類する。予め用意しておく
パターンとしては、例えば第6図に示す如き16個(0
〜G)を用いる。このパターンはOからGに変化するに
つれて、即ち(0,1)→(2〜5)→(6,7)→(
8〜B)→(C・・・F)→Qに変化りる旬に白黒変化
の多いパターンになっている。各ブ[コックの上記パタ
ーンへの分類を、例えば第7図に示すように、2値化m
像データを2次元方向(XYh向)に射影して黒画素(
“1°°)の積算数を求め、これらXYh向の2つの積
算数分布から該当パターンを求めるという方法を用いて
行えば、コンピュータ等を用いて容易にパターン分類を
行える。第7図の例では、ブロックの右下に黒画素が集
中しているため、X方向については右側の積算数が大き
く且つY方向については下側の積算数が大きくなり、又
、パターン8も2次元方向に射影すると同一の傾向を示
すことから、該ブロックはパターン8に該当するという
結論になる。
(I) Texture analysis of each block Next, the image data is binarized using the background level B as a threshold, and each block is classified into a predetermined pattern using the binarized image data obtained thereby. As for the patterns prepared in advance, for example, 16 patterns (0
~G) is used. This pattern changes as it changes from O to G, i.e. (0,1) → (2~5) → (6,7) → (
The pattern has many black and white changes during the transition from 8 to B) → (C...F) → Q. For example, as shown in FIG. 7, the classification of each block into the above patterns is
Black pixels (
Pattern classification can be easily performed using a computer, etc. by calculating the cumulative number of "1°°) and finding the corresponding pattern from the distribution of these two cumulative numbers in the XYh direction.The example in Figure 7 In this case, since the black pixels are concentrated at the bottom right of the block, the cumulative number on the right side is large in the X direction, and the cumulative number on the bottom side is large in the Y direction, and pattern 8 is also projected in the two-dimensional direction. Then, since they show the same tendency, it is concluded that the block corresponds to pattern 8.

(rV)画像領域の抽出 各ブロック間の接続は該ブロック単位で調べてもよいし
、各ブロックを例えば縦横にそれぞれ2分割(全体で4
分割)して調べてもよい。第8図は後者の方法を示すた
めの単純化した説明図で、第8図(イ)は画像をブロッ
ク化し、そこに2値化画像を重ねた図(斜線部分が黒画
素領域)、第8図(ロ)は各ブロック内に第6図のパタ
ーン番号を付した図、第8図(ハ)が上述の如く各ブロ
ックを4分割(例えば、ブロックα→小ブロックα1゜
α2.α3.α4)し、得られた各小ブロックに第6図
のパターン番号を付した図である。
(rV) Image region extraction Connections between each block may be examined on a block-by-block basis, or each block may be divided, for example, into two vertically and horizontally (total of 4
You can also examine it by dividing it into sections. FIG. 8 is a simplified explanatory diagram to show the latter method. FIG. FIG. 8(b) is a diagram in which the pattern numbers of FIG. 6 are attached to each block, and FIG. 8(c) is a diagram in which each block is divided into four as described above (for example, block α→small block α1°α2.α3. α4) and each obtained small block is given the pattern number in FIG. 6.

第6図の各パターンを4分割した場合、各パターンがど
のパターンに分解されるか予め知り得るので、第8図(
ロ)から第8図(ハ)を得ることは極めて容易である。
If each pattern in Figure 6 is divided into four, it is possible to know in advance which patterns each pattern will be decomposed into, so as shown in Figure 8 (
It is extremely easy to obtain Figure 8 (c) from (b).

尚、第6図の各パターンを4分割した場合、正確に第6
図のパターンに分解されるように第6図の各パターンを
選んでもよいが、近似的に第6図のパターンに分解され
る程度であっても十分である。次に、小ブロツク間の接
続を調べるのであるが、接続関係ありと判断するには、
例えば隣接する小ブロックのパターン同士の接合近に少
なくとも一部分だけでも黒色部分が両者共あること等を
判断基準にしてもよいし、パターンの全体形状を加味し
て接続関係の有無を判断してもよい。何れにせよ、パタ
ーンの接合の組合せは限られているので、各パターンが
どのような位置関係で隣接した場合に小ブロックの接続
関係が有るかを決めておけば、小ブロックの接続の有無
の判断は極めて単純である。第8図(ニ)はパターンの
接合近に白色部分のみしかない場合は小ブロックの接続
関係がないとして求めた画像領域を示す図で、図中の同
一番句が付され1=領域は同種の画像領域である。勿論
、該4分割を行わずにブロック間の接続を上記方法で調
べてもよい。但し、この場合は領域の境界が粗くなる。
In addition, if each pattern in Figure 6 is divided into four, it will be exactly
Each pattern in FIG. 6 may be selected so that it can be decomposed into the patterns shown in the figure, but it is sufficient that the patterns can be approximately decomposed into the patterns in FIG. Next, we examine the connections between small blocks, but in order to determine that there is a connection relationship,
For example, the judgment criterion may be based on the presence of at least a black part in both adjacent small block patterns near their joints, or the presence or absence of a connection may be judged by taking into consideration the overall shape of the patterns. good. In any case, the combinations of pattern connections are limited, so if you decide in what positional relationship each pattern should be adjacent to have a small block connection relationship, you can determine whether small blocks are connected or not. The decision is quite simple. Figure 8 (D) is a diagram showing the image area obtained by assuming that there is no connection relationship between small blocks when there is only a white part near the pattern junction. This is the image area of Of course, the connections between blocks may be checked using the above method without performing the four-division process. However, in this case, the boundaries of the regions become rough.

この相さの問題を解消するためにブロックの大きさを最
初から小さくすることも考えられるが、このようにする
と前記デクスチュア解析に多大な時間を要することにな
る。
In order to solve this problem of compatibility, it is possible to reduce the size of the block from the beginning, but if this is done, the above-mentioned texture analysis will take a lot of time.

上記の結果、画像領域が抽出されたことになる。As a result of the above, the image area has been extracted.

尚、階調画2文字画、s;i画における各パターンの出
現度合(頻度)は第9図で示すことができる。
Incidentally, the degree of appearance (frequency) of each pattern in the gradation drawing, the two character drawings, and the s; i drawing can be shown in FIG.

従って、各画像領域内のパターン分布を知ることにより
、各画像領域がどのような画像であるかを判断すること
も可能である。
Therefore, by knowing the pattern distribution within each image area, it is also possible to determine what kind of image each image area is.

第10図乃至第12図は領域抽出のより具体的な説明図
で、第10図はオリジナル画像を示1図、第11図はパ
ターン分類画像を示す図、第12図は領域抽出画像を示
す図である。尚、第10図中の1及び2で示した領域は
文字で埋められており、3及び4で示した領域は連続階
調画となっている。
Figures 10 to 12 are more specific explanatory diagrams of area extraction, with Figure 10 showing the original image, Figure 11 showing the pattern classification image, and Figure 12 showing the area extraction image. It is a diagram. Note that the areas indicated by 1 and 2 in FIG. 10 are filled with characters, and the areas indicated by 3 and 4 are continuous tone images.

第12図に示される如く、画像抽出は良好になされるが
、第11図にはオリジナル画像の汚れ等により孤立類1
4(ブロック)が生じ、これが第12図中に独自の画像
領域を形成している。このノイズを防ぐためには、孤立
ブロックは周囲のブロックと同一の画像領域とみなす処
理を施せばよい。
As shown in Fig. 12, image extraction is performed well, but in Fig. 11, isolated type 1
4 (block), which forms its own image area in FIG. In order to prevent this noise, an isolated block may be treated as being in the same image area as surrounding blocks.

(発明の効果) 以上説明したように、本発明方法によれば、どのような
形状の画像領域であっても抽出できる。
(Effects of the Invention) As explained above, according to the method of the present invention, image regions of any shape can be extracted.

従って、本発明方法を必要な部位のみを抽出して記録し
たりファイリングする場合等に用いると大きな効果が得
られる。
Therefore, great effects can be obtained when the method of the present invention is used when extracting only necessary parts and recording or filing them.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明方法の一興体例における手順を示す70
−チt?−ト、第2図はウィンドウの説明図、第3図は
l麿ヒストグラムの説明図、第4図は背景レベルの決定
手順を示すフローチャート、第5図は画像のブロック化
の説明図、第6図はブロックのパターンの説明図、第7
図はパターン分類の説明図、第8図は画像領域抽出の説
明図、第9図はパターン頻度の説明図、第10図はオリ
ジナル画像を示1図、第11図はパターン分類画像を示
す図、第12図は領域抽出画像を示す図である。 α・・・ブロック α1.α2.α3.α4・・・小ブ【]ツク1.2・・
・文字画領域 3.4・・・連続階調画領域特許出願人
 小西六写真工業株式会社 代  理  人 し弁理士  井  島  藤  治外
1名 鷺2図 括4因 尾5図
FIG. 1 shows a procedure 70 in one example of the method of the present invention.
-T? - Fig. 2 is an explanatory diagram of the window, Fig. 3 is an explanatory diagram of the l-maro histogram, Fig. 4 is a flowchart showing the procedure for determining the background level, Fig. 5 is an explanatory diagram of dividing the image into blocks, and Fig. 6 is an explanatory diagram of the window. The figure is an explanatory diagram of the block pattern, No. 7
Figure 8 is an illustration of pattern classification, Figure 8 is an illustration of image area extraction, Figure 9 is an illustration of pattern frequency, Figure 10 is an original image, Figure 1, and Figure 11 is a diagram of a pattern classified image. , FIG. 12 is a diagram showing a region extracted image. α...Block α1. α2. α3. α4...Small []Tsuku1.2...
・Character drawing area 3.4...Continuous tone drawing area Patent applicant: Roku Konishi Photo Industry Co., Ltd. Agent: Fuji Ijima, Jigai: 1 name, Heron: 2 illustrations, 4 illustrations: 4 Ino 5 illustrations

Claims (5)

【特許請求の範囲】[Claims] (1)画像を複数のブロックに分割すると共に2値化画
像データを用いて各ブロックを予め定めたパターンに分
類し、該パターンにより各ブロック間の接続を調べ同種
の画像領域を抽出することを特徴とする領域抽出方法。
(1) Divide an image into multiple blocks, classify each block into a predetermined pattern using binarized image data, and use the pattern to check connections between each block and extract similar image regions. Featured region extraction method.
(2)前記2値化画像データを得る際の2値化閾値は画
像の背景情報を基準にして決定することを特徴とする特
許請求の範囲第1項記載の領域抽出方法。
(2) The area extraction method according to claim 1, wherein the binarization threshold value when obtaining the binarized image data is determined based on background information of the image.
(3)前記ブロックをパターンに分類するに際し、各ブ
ロックの2値化画像データを2次元的に射影して得たデ
ータを用いることを特徴とする特許請求の範囲第1項又
は第2項記載の領域抽出方法。
(3) When classifying the blocks into patterns, data obtained by two-dimensionally projecting the binarized image data of each block is used. area extraction method.
(4)前記ブロック間の接続を調べるに際しては、前記
各ブロックを縦横にそれぞれ2分割し該分割した小ブロ
ックとその周囲の小ブロックとの接続を調べることを特
徴とする特許請求の範囲第1項、第2項又は第3項記載
の領域抽出方法。
(4) When checking the connections between the blocks, each of the blocks is divided into two vertically and horizontally, and the connections between the divided small blocks and the surrounding small blocks are checked. 3. The area extraction method according to item 2, item 3, or item 3.
(5)孤立ブロックは周囲のブロックと同一の画像領域
とみなすことを特徴とする特許請求の範囲第1項乃至第
4項の何れかに記載の領域抽出方法。
(5) The area extraction method according to any one of claims 1 to 4, characterized in that an isolated block is regarded as the same image area as surrounding blocks.
JP15789484A 1984-07-27 1984-07-27 Area extracting method Granted JPS6135673A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15789484A JPS6135673A (en) 1984-07-27 1984-07-27 Area extracting method
US06/757,653 US4741046A (en) 1984-07-27 1985-07-22 Method of discriminating pictures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15789484A JPS6135673A (en) 1984-07-27 1984-07-27 Area extracting method

Publications (2)

Publication Number Publication Date
JPS6135673A true JPS6135673A (en) 1986-02-20
JPH0418749B2 JPH0418749B2 (en) 1992-03-27

Family

ID=15659739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15789484A Granted JPS6135673A (en) 1984-07-27 1984-07-27 Area extracting method

Country Status (1)

Country Link
JP (1) JPS6135673A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63316566A (en) * 1987-06-19 1988-12-23 Hitachi Ltd Image input device
JPH0426272A (en) * 1990-05-21 1992-01-29 Casio Comput Co Ltd Data reader
JPH09233322A (en) * 1996-02-28 1997-09-05 Canon Inc Method and device for image processing
WO2008120376A1 (en) * 2007-03-29 2008-10-09 Pioneer Corporation Image processing device and method, and optical character identification device and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63316566A (en) * 1987-06-19 1988-12-23 Hitachi Ltd Image input device
JPH0426272A (en) * 1990-05-21 1992-01-29 Casio Comput Co Ltd Data reader
JPH09233322A (en) * 1996-02-28 1997-09-05 Canon Inc Method and device for image processing
WO2008120376A1 (en) * 2007-03-29 2008-10-09 Pioneer Corporation Image processing device and method, and optical character identification device and method
JPWO2008120376A1 (en) * 2007-03-29 2010-07-15 パイオニア株式会社 Image processing apparatus and method, and optical character identification apparatus and method

Also Published As

Publication number Publication date
JPH0418749B2 (en) 1992-03-27

Similar Documents

Publication Publication Date Title
US4741046A (en) Method of discriminating pictures
Kaseko et al. A neural network-based methodology for pavement crack detection and classification
US6839466B2 (en) Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding
JP4017489B2 (en) Segmentation method
JP3950777B2 (en) Image processing method, image processing apparatus, and image processing program
JP2002024836A (en) How to extract titles from digital images
Clark et al. Finding text regions using localised measures
CN101971190A (en) Real-time body segmentation system
EP1081648B1 (en) Method for processing a digital image
JP2001060247A (en) Image processing apparatus and image processing method
JPH09319870A (en) Texture video classifier
Chaabane et al. Color image segmentation using automatic thresholding and the fuzzy C-means techniques
Melzer et al. Stroke detection of brush strokes in portrait miniatures using a semi-parametric and a model based approach
US7440636B2 (en) Method and apparatus for image processing
JPS6135673A (en) Area extracting method
US7231086B2 (en) Knowledge-based hierarchical method for detecting regions of interest
CN114255344A (en) Security inspection image segmentation method, device, electronic device and computer readable medium
JP2003216953A (en) Method and apparatus for extracting an object from an image
JP2924693B2 (en) Extraction method of texture area in image
Tran 3D Contour Closing: A local operator based on Chamfer distance transformation
JPH04105186A (en) Automatic document input device
JP2001501750A (en) Eye localization filter
JPH05342412A (en) Extracting system for gradient vector and feature extracting system for character recognition
Zheng et al. Segmentation of beef joint images using histogram thresholding
JPH0446500B2 (en)