JPH0418749B2 - - Google Patents
Info
- Publication number
- JPH0418749B2 JPH0418749B2 JP59157894A JP15789484A JPH0418749B2 JP H0418749 B2 JPH0418749 B2 JP H0418749B2 JP 59157894 A JP59157894 A JP 59157894A JP 15789484 A JP15789484 A JP 15789484A JP H0418749 B2 JPH0418749 B2 JP H0418749B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- blocks
- pattern
- extraction method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000605 extraction Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 17
- 238000009826 distribution Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Landscapes
- Character Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、画像から同種の画像領域を抽出する
領域抽出方法に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a region extraction method for extracting similar image regions from an image.
(従来の技術)
この種の領域抽出方法として、第12回画像工学
コンフアレンス7−2“フアクシミリ文書の矩形
フイールドと手書き識別番号の認識”が知られて
いる。この方法では、まず画像を小領域に分割し
た後2値化し、ロジツクプレートを用いて、全画
面を複数の大矩形領域にまとめる処理を行い、次
に各大矩形領域をウインドウ領域に分割し、黒画
素の発生確率と、黒画素のウインドウ内での局所
的な偏りを求める。又、周辺分布としてデータを
座標軸(X,Y)へ面積投影した量を求める。そ
して、黒画素の発生確率とウインドウ内での局所
的な偏りより、「写真」,「図」,「文章」の属性を
見、周辺分布の周期性を調べ、「文章」と「図」
の判定を行い領域抽出を行う。(Prior Art) As this type of region extraction method, the 12th Image Engineering Conference 7-2 "Recognition of Rectangular Fields and Handwritten Identification Numbers in Facsimile Documents" is known. In this method, the image is first divided into small areas, then binarized, the entire screen is combined into multiple large rectangular areas using a logic plate, and each large rectangular area is then divided into window areas. , the probability of occurrence of black pixels and the local bias within the window of black pixels are determined. Furthermore, the area projection of the data onto the coordinate axes (X, Y) is determined as the marginal distribution. Then, based on the probability of black pixel occurrence and the local bias within the window, we looked at the attributes of "photo", "diagram", and "text", examined the periodicity of the peripheral distribution, and determined that "text" and "diagram"
The area is extracted based on the judgment.
(発明が解決したようとする問題点)
ところで、この方法は、最初に大矩形領域にま
とめるために任意形状の領域に対する対応性に乏
しく、且つ周期性のない文字単位に対しては領域
抽出が困難であるという問題点があつた。従つ
て、任意形状且つ任意画像に対する適応性のある
手法が望まれていた。(Problems that the invention purports to solve) By the way, this method has poor compatibility with arbitrarily shaped regions because it is first grouped into large rectangular regions, and region extraction is difficult for non-periodic character units. The problem was that it was difficult. Therefore, a method that is adaptable to arbitrary shapes and arbitrary images has been desired.
本発明は、上記問題に鑑みてなされたもので、
その目的は、任意形状の画像領域の抽出が可能な
領域抽出方法を提供することにある。 The present invention was made in view of the above problems, and
The purpose is to provide a region extraction method that can extract image regions of arbitrary shapes.
(問題点を解決するための手段)
上記問題点を解決する本発明は、画像を複数の
ブロツクに分割すると共に2値化画像データを用
いて各ブロツクを予め定めたパターンに分類し、
該パターンにより各ブロツク間の接続を調べ同種
の画像領域を抽出することを特徴とするものであ
る。(Means for Solving the Problems) The present invention, which solves the above problems, divides an image into a plurality of blocks and classifies each block into a predetermined pattern using binarized image data.
This method is characterized in that the connection between each block is checked using the pattern and similar image areas are extracted.
(実施例)
以下、図面を用いて本発明方法を具体的に説明
する。第1図は本発明方法の一具体例における手
順を示すフローチヤートで、この例では、まず背
景レベル(濃縮レベル)を決定し、次に画像のブ
ロツク化を行い、背景レベルに基づき求めた閾値
で各ブロツク内の画素を2値化し、該2値化画像
データから各ブロツクのテクスチユア解析を行つ
て各ブロツクを予め定めたパターンに分類し、該
パターンにより各ブロツク間の接続を調べ、同種
の画像領域を抽出している。尚、背景レベルの決
定と画像のブロツク化の順序は、入れ替えてもよ
い。(Example) Hereinafter, the method of the present invention will be specifically explained using the drawings. FIG. 1 is a flowchart showing the steps in a specific example of the method of the present invention. In this example, the background level (concentration level) is first determined, the image is then blocked, and the threshold value determined based on the background level is The pixels in each block are binarized using the binarized image data, the texture of each block is analyzed, each block is classified into a predetermined pattern, the connection between each block is investigated using the pattern, and the Extracting image area. Note that the order of background level determination and image blocking may be reversed.
次に、上記手順を段階別に詳細に説明する。 Next, the above procedure will be explained in detail step by step.
() 背景レベルの決定
短時間で背景レベルを決定するために、画像
エリア上に第2図に示す如くm×m(例えば32
×32)画素のウインドウ(window)を設け、
該ウインドウ内の画像データに基づき第3図の
如き濃度ヒストグラムを作成し、背景レベルを
決定する。第4図はこの背景レベルの決定手順
を示すフローチヤートで、まずウインドウの決
定(位置決定)を行い、該ウインドウに基づき
濃度ヒストグラムを作成し平均値Mと標準偏差
Sを算出する。次に標準偏差Sが所定の閾値T
より小さければ、背景レベルBを
M−3S≦B≦M+3S
の範囲内の値として選ぶ。通常は、B=M+
3Sとする。一方、標準偏差Sが閾値T以上で
あれば、ウインドウの位置を第2図の横方向若
しくは縦方向に移動して新たなウインドウを決
定し、再度濃度ヒストグラムを作成する。これ
は、S≧Tの場合、地肌を良好にとらえる位置
にウインドウが存在していないからである。
尚、閾値Tの大きさは、地肌をとらえ得る範囲
の大きさであればどのような値であつてもよい
が、ウインドウの決定が最小回数で済むような
大きさであることが好ましい。() Determination of background level In order to determine the background level in a short time, as shown in Figure 2, m x m (for example, 32
×32) Create a pixel window,
A density histogram as shown in FIG. 3 is created based on the image data in the window, and the background level is determined. FIG. 4 is a flowchart showing the procedure for determining the background level. First, a window is determined (position determined), a density histogram is created based on the window, and the average value M and standard deviation S are calculated. Next, the standard deviation S is set to a predetermined threshold T
If it is smaller, the background level B is selected as a value within the range of M-3S≦B≦M+3S. Usually, B=M+
3S. On the other hand, if the standard deviation S is equal to or greater than the threshold value T, the window position is moved in the horizontal or vertical direction in FIG. 2 to determine a new window, and the density histogram is created again. This is because when S≧T, the window does not exist at a position where the background can be captured well.
Note that the size of the threshold T may be any value as long as it is within a range that can capture the background, but it is preferably a size that allows the window to be determined a minimum number of times.
() 画像のブロツク化
画像を複数ブロツクに分割する。例えば画像
が第5図のようにN×M=2000×2500画素
(10dot/mm)であるとき、各ブロツクのサイズ
をn×n=32×32となる。勿論、16×16や64×
64等に選ぶこともできる。() Blocking an image Divide an image into multiple blocks. For example, when the image is N×M=2000×2500 pixels (10 dots/mm) as shown in FIG. 5, the size of each block is n×n=32×32. Of course, 16×16 or 64×
You can also choose 64 etc.
() 各ブロツクのテクスチユア解析
次に前記背景レベルBを閾値として画像デー
タを2値化し、これにより得た2値化画像デー
タを用いて各ブロツクを予め定めたパターンに
分類する。予め用意しておくパターンとして
は、例えば第6図に示す如き16個(0〜G)を
用いる。このパターンは0からGに変化するに
つれて、即ち(0、1)→(2〜5)→(6、
7)→(8〜B)→(C〜F)→Gに変化する
毎に白黒変化の多いパターンになつている。各
ブロツクの上記パターンへの分類を、例えば第
7図に示すように、2値化画像データを2次元
方向(XY方向)に射影して黒画素(“1”)の
積算通を求め、これらXY方向の2つの積算数
分布から該当パターンを求めるいう方法を用い
て行えば、コンピユータ等を用いて容易にパタ
ーン分類を行える。第7図の例では、ブロツク
の右下に黒画素が集中しているため、X方向に
ついては右側の積算数が大きく且つY方向につ
いては下側の積算数が大きくなり、又、パター
ン8も2次元方向に射影すると同一の傾向を示
すことから、該ブロツクはパターン8に該当す
るという結論になる。() Texture analysis of each block Next, the image data is binarized using the background level B as a threshold, and each block is classified into a predetermined pattern using the binarized image data obtained thereby. As the patterns prepared in advance, for example, 16 patterns (0 to G) as shown in FIG. 6 are used. This pattern changes as it changes from 0 to G, i.e. (0, 1) → (2~5) → (6,
The pattern has many black and white changes each time it changes from 7) to (8 to B) to (C to F) to G. To classify each block into the above patterns, for example, as shown in FIG. Pattern classification can be easily performed using a computer or the like by using a method of finding a corresponding pattern from two cumulative number distributions in the X and Y directions. In the example of FIG. 7, black pixels are concentrated at the bottom right of the block, so the cumulative number on the right side is large in the X direction, and the cumulative number on the bottom side is large in the Y direction. Since the same tendency is shown when projected in a two-dimensional direction, it is concluded that the block corresponds to pattern 8.
() 画像領域の抽出
各ブロツク間の接続は該ブロツク単位で調べ
てもよいし、各ブロツクを例えば縦横にそれぞ
れ2分割(全体で4分割)して調べてもよい。
第8図は後者の方法を示すための単純化した説
明図で、第8図イは画像をブロツク化し、そこ
に2値化画像を重ねた図(斜線部分が黒画素領
域)、第8図ロは各ブロツク内に第6図のパタ
ーン番号を付した図、第8図ハが上述の如く各
ブロツクを4分割(例えば、ブロツクα→小ブ
ロツクα1,α2,α3,α4)し、得られた各小ブロ
ツクに第6図のパターン番号を付した図であ
る。第6図の各パターンを4分割した場合、各
パターンがどのパターンに分解されるか予め知
り得るので、第8図ロから第8図ハを得ること
は極めて容易である。尚、第6図の各パターン
を4分割した場合、正確に第6図のパターンに
分解されるように第6図の各パターンを選んで
もよいが、近似的に第6図のパターンに分解さ
れる程度であつても十分である。次に、小ブロ
ツク間の接続を調べるのであるが、接続関係あ
りと判断するには、例えば隣接する小ブロツク
のパターン同士の接合辺に少なくとも一部分だ
けでも黒色部分が両者共にあること等を判断基
準にしてもよいし、パターンの全体形状を加味
して接続関係の有無を判断してもよい。何れに
せよ、パターンの接合の組合せは限られている
ので、各パターンがどのような位置関係で隣接
した場合に小ブロツクの接続関係が有るかを決
めておけば、小ブロツクの接続の有無の判断は
極めて単純である。第8図ニはパターンの接合
辺に白色部分のみしかない場合は小ブロツクの
接続関係がないとして求めた画像領域を示す図
で、図中の同一番号が付された領域は同種の画
像領域である。勿論、該4分割を行わずにブロ
ツク間の接続を上記方法で調べてもよい。但
し、この場合は領域の境界が粗くなる。この粗
さの問題を解消するためにブロツクの大きさを
最初から小さくすることも考えられるが、この
ようにすると前記テクスチユア解析に多大な時
間を要することになる。() Extraction of image region The connection between each block may be examined in units of blocks, or each block may be divided into two vertically and horizontally (four divisions in total) and examined.
Figure 8 is a simplified explanatory diagram to show the latter method. Figure 8A is a diagram in which the image is made into a block and a binarized image is superimposed on it (the shaded area is the black pixel area). B is a diagram in which the pattern numbers of FIG . 6 are attached to each block, and FIG . FIG. 6 is a diagram in which the pattern numbers in FIG. 6 are assigned to each obtained small block. When each pattern in FIG. 6 is divided into four, it is possible to know in advance which patterns each pattern will be decomposed into, so it is extremely easy to obtain FIG. 8(b) to FIG. 8(c). Note that when each pattern in Figure 6 is divided into four, each pattern in Figure 6 may be selected so that it is accurately decomposed into the patterns in Figure 6, but it is possible to select each pattern in Figure 6 so that it is decomposed into the patterns in Figure 6 approximately. It is sufficient even if the Next, the connection between the small blocks is examined, and in order to determine that there is a connection relationship, for example, there is a criterion for determining whether there is a connection relationship between the patterns of adjacent small blocks, such as if there is at least a black part on both sides of the joint. Alternatively, the presence or absence of a connection relationship may be determined by taking into consideration the overall shape of the pattern. In any case, since the combinations of pattern connections are limited, it is possible to determine whether or not small blocks are connected by determining in what positional relationship each pattern should be adjacent to each other to determine if small blocks are connected. The decision is quite simple. Figure 8 D is a diagram showing an image area obtained by assuming that there is no connection relationship between small blocks when there is only a white part on the joint side of the pattern, and areas with the same number in the figure are image areas of the same type. be. Of course, the connections between blocks may be checked using the above method without performing the four-division process. However, in this case, the boundaries of the regions become rough. In order to solve this problem of roughness, it is conceivable to reduce the size of the block from the beginning, but doing so would require a considerable amount of time for the texture analysis.
上記の結果、画像領域が抽出されたことにな
る。尚、階調画、文字画、線画における各パター
ンの出現度合(頻度)は第9図で示すことができ
る。従つて、各画像領域内のパターン分布を知る
ことにより、各画像領域がどのような画像である
かを判断することも可能である。 As a result of the above, the image area has been extracted. Incidentally, the degree of appearance (frequency) of each pattern in gradation drawings, character drawings, and line drawings can be shown in FIG. Therefore, by knowing the pattern distribution within each image area, it is also possible to determine what kind of image each image area is.
第10図乃至第12図は領域抽出のより具体的
な説明図で、第10図はオリジナル画像を示す
図、第11図はパターン分類画像を示す図、第1
2図は領域抽出画像を示す図である。尚、第10
図中の1及び2で示した領域は文字で埋められて
おり、3及び4で示した領域は連続階調画となつ
ている。第12図に示される如く、画像抽出は良
好になされるが、第11図にはオリジナル画像の
汚れ等により孤立領域(ブロツク)が生じ、これ
が第12図中に独自の画像領域を形成している。
このノイズを防ぐためには、孤立ブロツクは周囲
のブロツクと同一の画像領域とみなす処理を施せ
ばよい。 Figures 10 to 12 are more specific illustrations of region extraction, with Figure 10 showing the original image, Figure 11 showing the pattern classification image, and Figure 1
FIG. 2 is a diagram showing a region extracted image. Furthermore, the 10th
The areas indicated by 1 and 2 in the figure are filled with characters, and the areas indicated by 3 and 4 are continuous tone images. As shown in FIG. 12, the image extraction is successful, but in FIG. 11, isolated areas (blocks) occur due to dirt etc. in the original image, and these create unique image areas in FIG. 12. There is.
In order to prevent this noise, an isolated block may be treated as being in the same image area as surrounding blocks.
(発明の効果)
以上説明したように、本発明方法によれば、ど
のような形状の画像領域であつても抽出できる。
従つて、本発明方法を必要な部位のみを抽出して
記録したりフアイリングする場合等に用いると大
きな効果が得られる。(Effects of the Invention) As explained above, according to the method of the present invention, image regions of any shape can be extracted.
Therefore, great effects can be obtained when the method of the present invention is used when extracting and recording only necessary parts, or when filing or the like.
第1図は本発明方法の一具体例における手順を
示すフローチヤート、第2図はウインドウの説明
図、第3図は濃度ヒストグラムの説明図、第4図
は背景レベルの決定手順を示すフローチヤート、
第5図は画像ブロツク化の説明図、第6図はブロ
ツクのパターンの説明図、第7図はパターン分類
の説明図、第8図は画像領域抽出の説明図、第9
図はパターン頻度の説明図、第10図はオリジナ
ル画像を示す図、第11図はパターン分類画像を
示す図、第12図は領域抽出画像を示す図であ
る。
α……ブロツク、α1,α2,α3,α4……小ブロツ
ク、1,2……文字画領域、3,4……連続階調
画領域。
FIG. 1 is a flowchart showing the procedure in a specific example of the method of the present invention, FIG. 2 is an explanatory diagram of the window, FIG. 3 is an explanatory diagram of the density histogram, and FIG. 4 is a flowchart showing the procedure for determining the background level. ,
Fig. 5 is an explanatory diagram of image blocking, Fig. 6 is an explanatory diagram of block patterns, Fig. 7 is an explanatory diagram of pattern classification, Fig. 8 is an explanatory diagram of image area extraction, and Fig. 9 is an explanatory diagram of image area extraction.
FIG. 10 is an explanatory diagram of pattern frequency, FIG. 10 is a diagram showing an original image, FIG. 11 is a diagram showing a pattern classification image, and FIG. 12 is a diagram showing a region extraction image. α...Block, α1 , α2 , α3 , α4 ...Small block, 1, 2...Character image area, 3, 4...Continuous tone image area.
Claims (1)
化画像データを用いて各ブロツクを予め定めたパ
ターンに分類し、該パターンにより各ブロツク間
の接続を調べ同種の画像領域を抽出することを特
徴とする領域抽出方法。 2 前記2値化画像データを得る際の2値化閾値
は画像の背景情報を基準にして決定することを特
徴とする特許請求の範囲第1項記載の領域抽出方
法。 3 前記ブロツクをパターンに分類するに際し、
各ブロツクの2値化画像データを2次元的に射影
して得たデータを用いることを特徴とする特許請
求の範囲第1項又は第2項記載の領域抽出方法。 4 前記ブロツク間の接続を調べるに際しては、
前記各ブロツクを縦横にそれぞれ2分割し該分割
した小ブロツクとその周囲の小ブロツクとの接続
を調べることを特徴とする特許請求の範囲第1
項、第2項又は第3項記載の領域抽出方法。 5 孤立ブロツクは周囲のブロツクと同一の画像
領域とみなすことを特徴とする特許請求の範囲第
1項乃至第4項の何れかに記載の領域抽出方法。[Claims] 1. An image is divided into a plurality of blocks, each block is classified into a predetermined pattern using binarized image data, and the connection between each block is checked using the pattern to identify similar image areas. A region extraction method characterized by extraction. 2. The area extraction method according to claim 1, wherein the binarization threshold value when obtaining the binarized image data is determined based on background information of the image. 3 When classifying the blocks into patterns,
3. The area extraction method according to claim 1, wherein data obtained by two-dimensionally projecting the binarized image data of each block is used. 4. When checking the connections between the blocks,
Claim 1, characterized in that each of the blocks is divided into two in the vertical and horizontal directions, and connections between the divided small blocks and the surrounding small blocks are examined.
3. The area extraction method according to item 2, item 3, or item 3. 5. The area extraction method according to any one of claims 1 to 4, characterized in that an isolated block is regarded as the same image area as surrounding blocks.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15789484A JPS6135673A (en) | 1984-07-27 | 1984-07-27 | Area extracting method |
US06/757,653 US4741046A (en) | 1984-07-27 | 1985-07-22 | Method of discriminating pictures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15789484A JPS6135673A (en) | 1984-07-27 | 1984-07-27 | Area extracting method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6135673A JPS6135673A (en) | 1986-02-20 |
JPH0418749B2 true JPH0418749B2 (en) | 1992-03-27 |
Family
ID=15659739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15789484A Granted JPS6135673A (en) | 1984-07-27 | 1984-07-27 | Area extracting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6135673A (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2702928B2 (en) * | 1987-06-19 | 1998-01-26 | 株式会社日立製作所 | Image input device |
JPH0426272A (en) * | 1990-05-21 | 1992-01-29 | Casio Comput Co Ltd | Data reader |
JP3624045B2 (en) * | 1996-02-28 | 2005-02-23 | キヤノン株式会社 | Image processing method and apparatus |
JP4943501B2 (en) * | 2007-03-29 | 2012-05-30 | パイオニア株式会社 | Image processing apparatus and method, and optical character identification apparatus and method |
-
1984
- 1984-07-27 JP JP15789484A patent/JPS6135673A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS6135673A (en) | 1986-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4741046A (en) | Method of discriminating pictures | |
US6839466B2 (en) | Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding | |
US6738154B1 (en) | Locating the position and orientation of multiple objects with a smart platen | |
US6731788B1 (en) | Symbol Classification with shape features applied to neural network | |
CN109255350B (en) | New energy license plate detection method based on video monitoring | |
JP2002024836A (en) | How to extract titles from digital images | |
CN110197153A (en) | Wall automatic identifying method in a kind of floor plan | |
EP0843275A2 (en) | Pattern extraction apparatus and method for extracting patterns | |
CN101453575A (en) | Video subtitle information extracting method | |
JP2002133426A (en) | Ruled line extraction device for extracting ruled lines from multi-valued images | |
CN101122953A (en) | A method for image text segmentation | |
EP1081648B1 (en) | Method for processing a digital image | |
CN109858484B (en) | Multi-class transformation license plate correction method based on deflection evaluation | |
JP2000207489A (en) | Character extraction method, apparatus and recording medium | |
JPH0418749B2 (en) | ||
US20040114830A1 (en) | Method and apparatus for image processing | |
JPH03126181A (en) | How to divide document images into regions | |
JPH06195511A (en) | Binarization threshold value determining device | |
JPH0446500B2 (en) | ||
JP3658468B2 (en) | Architectural drawing recognition method and recognition device | |
JPH04105186A (en) | Automatic document input device | |
Lin et al. | Text extraction from name cards using neural network | |
Okudaira et al. | Image Enhancement of Handwritten Drawings and Their Recognition Followed by Interactive Processing | |
JPH07141465A (en) | Method for detecting inclination of document image | |
JPH02253383A (en) | Picture processor |