JPS6135680A - Picture identification method - Google Patents
Picture identification methodInfo
- Publication number
- JPS6135680A JPS6135680A JP15789584A JP15789584A JPS6135680A JP S6135680 A JPS6135680 A JP S6135680A JP 15789584 A JP15789584 A JP 15789584A JP 15789584 A JP15789584 A JP 15789584A JP S6135680 A JPS6135680 A JP S6135680A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- black
- identification unit
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000010586 diagram Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 8
- 230000000903 blocking effect Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、画像を線画、網点階調画及び連続階調画の各
領域に分類識別する画像識別方法に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an image identification method for classifying and identifying an image into each area of a line drawing, a halftone image, and a continuous tone image.
(従来の技術)・
従来の画像識別方法として、例えば以下の文献に示す方
法が知られている。(Prior Art) As a conventional image identification method, for example, the method shown in the following document is known.
■村尽充洋、坂井利文゛文書画像における構造情報の抽
出゛′昭昭和5坏
全国大会7 H−1
■黒瀬守澄,江尻公ー9桜j1彰゛文書画像中の中間調
画像の実時間識別″昭和56年,情報処理学会第23回
全国大会6 C−6
■牧野寛,赤1■社久゛濃淡領域を含む文書画像の2値
再生”昭和57年3月,信学論(D)J65−D.3.
IIEl.307〜314■高橋健−1太田正光゛圧縮
符号化のための計算機による画像分類″昭和57年8月
,信学論(D)J65−D.8.111)、1 01
8〜102■特開昭56ー132061号゛′網点画像
信丹検出方式”
■上野裕,瀬政孝義“新聞網版における調子再現″印刷
雑誌,昭和58年(Vol. 66) 1 、 01)
。■Mitsuhiro Muratsumi, Toshifumi Sakai, “Extraction of structural information in document images” Showa 5th National Conference 7 H-1 ■Morisumi Kurose, Akira Ejiri-9 Sakura j1 “Real time of halftone images in document images” Identification" 1981, Information Processing Society of Japan 23rd National Conference 6 C-6 ■Hiroshi Makino, Red 1■Shaku" Binary Reproduction of Document Images Containing Dark and Light Areas, March 1980, Theory of IEICE (D ) J65-D. 3.
IIEl. 307-314 ■Ken Takahashi-1 Masamitsu Ota “Computer-based image classification for compression coding” August 1980, IEICE Theory (D) J65-D.8.111), 101
8-102 ■ JP-A No. 56-132061 ``Halt image Shintan detection method'' ■ Yutaka Ueno, Takayoshi Semasa "Tone reproduction in newspaper halftones" Print magazine, 1982 (Vol. 66) 1, 01 )
.
15〜23
■特開昭56ー1 49674号゛画像特性の識別方法
”
(発明が解決しようとする問題点)
これらの従来方法は、線画か連続階調画かの識別、又は
線画か網点階調画かの識別が主体であった。ところで、
現実には線画,網点階調画,連続階調画が混在した画像
がほとんどであり、上記3種類を識別する方法も必要で
ある。本発明者はこのような観点から、゛画像識別方法
の検討″昭和58年,電子通信学会総合全国大会116
ηにて上記3種類を識別する方法を提案した。しかし、
この方法は濃度変化の急激な連続階調画に対して誤識別
し易いという問題点をもっていた。15-23 ■ JP-A-56-1 No. 49674 ``Method for identifying image characteristics'' (Problems to be solved by the invention) These conventional methods are used to identify line drawings and continuous tone drawings, or to distinguish between line drawings and halftone dots. The main focus was on identifying whether it was a gradation painting or not.By the way,
In reality, most images are a mixture of line drawings, halftone gradation drawings, and continuous gradation drawings, and a method for identifying the above three types is also required. From this point of view, the present inventor presented the 116th National Conference of the Institute of Electronics and Communication Engineers in 1988, ``Study of Image Identification Methods.''
We proposed a method to distinguish the above three types using η. but,
This method has the problem that it is easy to misidentify continuous tone images with rapid density changes.
本発明は、この問題に鑑みてなされたもので、その目的
は、濃度変化の急激な連続階調画であろうとなかろうと
連続階調画と判別できる画像識別方法を提供することに
ある。The present invention has been made in view of this problem, and its purpose is to provide an image identification method that can distinguish a continuous tone image from a continuous tone image regardless of whether the image has a rapid change in density or not.
(問題点を解決づ°るための手段)
上記問題点を解決する本発明は、画像を2値化して識別
単位域内の黒画素領域を構成する黒画素数のばらつき若
しくは前記黒画素領域の領域相互間の距離のばらつきの
少なくとも何れか一方のばらつきを求め、該ばらつきか
ら・・前記識別単位域が網点階調画か否かの判別を行う
と共に、背景の割合から前記識別単仲域が線画か否かの
判別を行うことを特徴とづ”るものである。(Means for Solving the Problems) The present invention solves the above problems by binarizing an image and detecting variations in the number of black pixels constituting the black pixel area within the identification unit area or the area of the black pixel area. At least one of the variations in the distance between them is determined, and based on the variation, it is determined whether or not the identified unit area is a halftone gradation image, and the identified unit area is determined from the proportion of the background. It is characterized by determining whether it is a line drawing or not.
(実施例)
以下、図面を用いて本発明方法の一例を具体的に説明す
る。 ゛
ここで述べる方法では、まず画像を複数の識別単位域(
線画,網点階調画,連続lit!il1画の何れである
かを判別する最小単位)に分割する。例えば、画像が第
1図のようにNxM=2000x2500画素( 1
0dot /+u)であるとき、識別単位域のサイズを
k xk =32X32画素にとる。次に画像を2伯化
し、各識別単位域について、画素単位に黒画素領域を求
める。ここで、1つの黒画素領域とは、例えば、上下左
右の4方向の少なくとも何れか1方向において隣接する
ような黒画素の集合であり、1つの黒画素に対してそれ
に隣接する黒画素がない場合は単一の黒画素が1つの黒
画素領域を形成する。尚、ここで言う黒画素とは、白黒
反転画像では白画素を指すものとする。第2図(イ)、
(口)はそれぞれ網点1liliI画,連続階調画を2
値化した場合の一例を示している(図中の並列縦線(一
対)が黒画素を示している)。網点階調画の場合、各黒
画素領域を構成する黒画素数のばらつき及び黒画素領域
間の距離のばらつきが小さいが、連続階調画の場合それ
らのばらつきが大きいことがわかる。図示しないが、線
画の場合もばらつきが大きい。この点に注目し、本発明
方法では各識別単位域毎辷各黒画素領域を構成する黒画
素数のばらつき(標準偏差等)と黒画素領域間の距離の
ばらつき(標準偏差等)を求めて、網点階調画か否かの
判別を行っている。尚、第3図は黒画素領域A1.A2
間の距離を求める場合の測距位置の一例を示すもので、
各黒画素領域間1、A2の重心間の距離を測定すること
を示している。第4図はこのようにして求めた黒画素領
域内の黒画素数の標準偏差と黒画素領域内の距離の標準
偏差を前者を縦軸にとり後者を横軸にとって示したもの
である。図中、黒丸は網点階調画の識別単位域のいくつ
かについて求めたもの、照角はその他の識別単位域のい
くつかについて求めたものである。網点111i1i画
の場合、黒画素数及び黒画素領域間距離の何れの標準偏
差も他のものより小さいことがわかるが、この傾向は多
くのサンプルを用いても同様である。そこで、本発明方
法では、この標準偏差の双方又は一方(特に黒画素数の
標準偏差)が所定の値より小さいかどうかで該当識別単
位域が網点階調画か否かを判別している。例えば、黒画
素数の標準偏差が1.0画素以内に入っていれば網点階
調画であると判別する。(Example) Hereinafter, an example of the method of the present invention will be specifically explained using the drawings.゛In the method described here, first, an image is divided into multiple identification unit areas (
Line drawing, halftone gradation drawing, continuous lit! (minimum unit for determining which one is one). For example, if the image is NxM=2000x2500 pixels (1
0 dot /+u), the size of the identification unit area is set to k x k = 32×32 pixels. Next, the image is divided into two numbers, and a black pixel area is determined for each pixel for each identification unit area. Here, one black pixel area is, for example, a set of black pixels that are adjacent to each other in at least one of the four directions (up, down, left, and right), and there is no black pixel adjacent to one black pixel. In this case, a single black pixel forms one black pixel area. Note that the black pixel referred to here refers to a white pixel in a black-and-white inverted image. Figure 2 (a),
(mouth) has 1 halftone image and 2 continuous tone images, respectively.
An example of a value conversion case is shown (parallel vertical lines (pair) in the figure indicate black pixels). It can be seen that in the case of a halftone image, the variation in the number of black pixels constituting each black pixel area and the variation in the distance between black pixel areas is small, but in the case of a continuous gradation image, these variations are large. Although not shown, there are large variations in line drawings as well. Focusing on this point, the method of the present invention calculates the variation (standard deviation, etc.) in the number of black pixels constituting each black pixel area and the variation (standard deviation, etc.) in the distance between black pixel areas for each identification unit area. , it is determined whether the image is a halftone gradation image or not. Incidentally, FIG. 3 shows the black pixel area A1. A2
This shows an example of the distance measurement position when calculating the distance between
It shows that the distance between each black pixel area 1 and the center of gravity of A2 is measured. FIG. 4 shows the standard deviation of the number of black pixels within the black pixel area and the standard deviation of the distance within the black pixel area obtained in this way, with the former taken as the vertical axis and the latter as the horizontal axis. In the figure, the black circles are those obtained for some of the discrimination unit areas of the halftone gradation image, and the viewing angles are those obtained for some of the other discrimination unit areas. In the case of the halftone dot 111i1i image, it can be seen that both the standard deviations of the number of black pixels and the distance between black pixel areas are smaller than the others, and this tendency remains the same even when many samples are used. Therefore, in the method of the present invention, whether or not the corresponding identification unit area is a halftone gradation image is determined based on whether both or one of these standard deviations (especially the standard deviation of the number of black pixels) is smaller than a predetermined value. . For example, if the standard deviation of the number of black pixels is within 1.0 pixels, it is determined that the image is a halftone gradation image.
次に本発明方法では背頌の割合を調べる。この割合は、
識別単位域の大きさが決まっていることから識別単位域
内の白画素数に比例するので、識別単位域内の白画素の
総数若しくは黒画素の総数を求めることにより容易に算
出できる。しかし、現実に算出せずに、白画素の総数若
しくは黒画素の総数を背景画素の割合を示すデータどし
で用いてもよい。第5図はこの背景の割合を示すもので
、横軸は識別中位域の各サンプルを示すものである。Next, in the method of the present invention, the proportion of dorsals is examined. This percentage is
Since the size of the identification unit area is fixed, it is proportional to the number of white pixels within the identification unit area, so it can be easily calculated by finding the total number of white pixels or the total number of black pixels within the identification unit area. However, without actually calculating it, the total number of white pixels or the total number of black pixels may be used as data indicating the ratio of background pixels. FIG. 5 shows the proportion of this background, and the horizontal axis shows each sample in the medium discrimination range.
図中、黒丸は連続階調画の識別単位域の場合であり、照
角は線画の場合である。線画の場合、背景の割合が多い
ため、連続階調画と比べるとその差異は大きい。従って
、網点階調画を除いて画像に対し、それが線画か否かを
判別することは容易である。In the figure, the black circles are for identification unit areas of continuous tone drawings, and the viewing angles are for line drawings. In the case of line drawings, since the proportion of the background is large, the difference is large compared to continuous tone drawings. Therefore, it is easy to determine whether an image other than a halftone gradation image is a line drawing or not.
以上の方法により、線画、網点階調画、連続階調画の識
別が行えたことになる。By the above method, line drawings, halftone gradation drawings, and continuous gradation drawings can be identified.
ところで、上記説明は画像の全領域にわたって判別を行
った場合のものであるが、画像領域が抽出されている場
合には、各画像領域について上記方法を適用すればよい
。このようにすれば識別すべき領域範囲が狭くなるから
、効率的な識別を行える。By the way, the above explanation is for the case where the discrimination is performed over the entire area of the image, but if the image area is extracted, the above method may be applied to each image area. In this way, the area range to be identified becomes narrower, so that efficient identification can be performed.
そこで、画像領域を抽出する方法の一例を次に説明する
。第6図はこの抽出方法の一員体例におt−する手順を
示すフローチャートで、この例では、まず背景レベル(
濃度レベル)を決定し、次に画像のブロック化を行い、
背景レベルに基づき求めた同値で各ブロック内の画素を
2値化し、該2値化画像データから各ブロックのテクス
チュア解析を行って各ブロックを予め定めたパターンに
分類し、該パターンにより各ブロック間の接続を調べ、
同種の画像領域を抽出している。尚、背景レベルの決定
と画像のブロック化の順序は、入れ替、えてもよい。Therefore, an example of a method for extracting an image area will be described below. FIG. 6 is a flowchart showing the procedure for t- to a member example of this extraction method. In this example, first, the background level (
density level), then block the image,
The pixels in each block are binarized using the same value determined based on the background level, and the texture analysis of each block is performed from the binarized image data to classify each block into a predetermined pattern. Check the connection of
Similar image regions are extracted. Note that the order of background level determination and image blocking may be interchanged or changed.
次に、上記手順を段階別に詳細に説明゛する。Next, the above procedure will be explained in detail step by step.
(1)背景レベルの決定
短時間に背懐レベルを決定するために、画像エリア上に
第7図に示づ如(mxm(例えば32X32)画素のウ
ィンドウ(window)を設け、該ウィンドウ内の画
像データに基づき第8図の如き濃度ヒストグラムを作成
し、背景レベルを決定づる。第9図はこの背景レベルの
決定手順を示すフローチャートで、まずウィンドウの決
定(位置決定)を行い、該ウィンドウに基づきIIaヒ
ストグラムを作成し平均値Mと標準偏差Sを算出づる。(1) Determination of the background level In order to determine the background level in a short time, a window of mxm (for example, 32x32) pixels as shown in FIG. 7 is provided on the image area, and the image within the window is Based on the data, a density histogram as shown in Fig. 8 is created and the background level is determined. Fig. 9 is a flowchart showing the procedure for determining the background level. First, a window is determined (position determined), and based on the window Create a IIa histogram and calculate the average value M and standard deviation S.
次に標準偏差Sが所定の閾値Tより小さければ、背景レ
ベルBを
M−38≦B≦M+38
の範囲内の値として選ぶ。通常は、B=M−1−38と
する。一方、標準偏差Sが閾値下以上であれば、ウィン
ドウの位置を第7図の横方向若しくは縦方向に移動して
新たなウィンドウを決定し、再度濃度ヒストグラムを作
成する。これは、S≧王の場合、地肌を良好にとらえる
位置にウィンドウが存在していないからである。尚、閾
値下の大きさは、地肌をとらえ得る範囲の大きさであれ
ばどのような値であってもよいが、ウィンドウの決定が
最小回数で済むような大きさであることが好ましい。Next, if the standard deviation S is smaller than a predetermined threshold T, the background level B is selected as a value within the range of M-38≦B≦M+38. Usually, B=M-1-38. On the other hand, if the standard deviation S is below the threshold value or more, the window position is moved in the horizontal or vertical direction in FIG. 7, a new window is determined, and the density histogram is created again. This is because in the case of S≧King, there is no window in a position where the background can be captured well. Note that the size below the threshold may be any value as long as it is within a range that can capture the background, but it is preferably a size that allows the window to be determined a minimum number of times.
(Ir)画像のブロック化
画像を複数ブロックに分割する。例えば画像が第10図
のようにNXM=2000X2500画素(10dot
/mm)であるとき、各ブロックのサイズをn xn
=32X32にとる。勿論、16X16や64X64
等に選ぶこともできる。(Ir) Blocking the image Divide the image into multiple blocks. For example, if the image is NXM = 2000 x 2500 pixels (10 dots) as shown in Figure 10,
/mm), then the size of each block is n x n
Take =32X32. Of course, 16X16 or 64X64
You can also choose.
(I[[)各ブロックのテクスチュア解析次に前配曹相
レベルBを閾値として画像データを2値化し、これによ
り得!、=2値化画像データを用いて各ブLJツクを予
め定めたパターンに分類する3、予め用意してお・くパ
ターンとしては、例えば第11図に示tIlIlき1f
:5個(0〜G)を用いる。このパターンはOからGに
変化するにつれて、即ら(0,1)−十(2〜5)→(
6,・7)→(8〜B)→(C〜F)→Gに変化する旬
に白黒変化の多いパターンになっている。各ブロックの
、L、記パターンへの分類を、例えば第12図に示すよ
うに、2値化画像データを2次元方向(XY方向)に射
影して黒画素(” 1 ” )の積算数を求め、これら
XY方向の2つの積算数分布から該当パターンを求める
という方法を用いて行えば、コンピュータ等を用いて容
易にパターン分類を行える。第12図の例では、ブロッ
クの右下に黒画素が集中()ているため、X方向につい
ては右側の積算数が大きく且つY方向については下側の
積算数が大きくなり、又、パターン8も2次元方向に射
影すると同一の傾向を示すことから、該ブロックはパタ
ーン8に該当づるという結論になる。(I [[) Texture analysis of each block Next, the image data is binarized using the pre-coating phase level B as a threshold, and this results in a gain! , = Classify each block into a predetermined pattern using binarized image data 3. As a pattern to be prepared in advance, for example, tIlIl and 1f shown in FIG.
: Use 5 pieces (0 to G). This pattern changes from O to G, i.e. (0,1)-10(2-5)→(
6,・7) → (8~B) → (C~F) → G The pattern has many black and white changes in the season. The classification of each block into L patterns is determined by projecting the binarized image data in two-dimensional directions (XY directions) and calculating the cumulative number of black pixels ("1"), as shown in FIG. 12, for example. Pattern classification can be easily performed using a computer or the like by using a method of determining the corresponding pattern from the two integrated number distributions in the X and Y directions. In the example shown in FIG. 12, black pixels are concentrated at the bottom right of the block (), so the cumulative number on the right side is large in the X direction, and the cumulative number on the bottom side is large in the Y direction, and pattern 8 Since the same tendency is shown when projected in two-dimensional direction, it is concluded that the block corresponds to pattern 8.
(TV >画像領域の抽出
各ブロック間の接続は該ブロック単位で調べてもよいし
、各ブロックを例えば縦横にそれぞれ2分割(全体で4
分割)して調べてもよい、1第13図は後者の方法を示
すための単純化した説明図で、第13図(イ)は画像を
ブロック化し、ぞこに2値化画像を重ねた図(斜線部分
が黒画素領域)、第13図(ロ)は各ブロック内に第1
1図のパターン番号を付した図、第13図(ハ)が上述
の如く各ブ[1ツクを4分割(例えば、ブロックα→小
ブロックα通、α2.α3.α4)し、得られIζ各小
ブロックに第11図のパターン番号を付した図である。(TV > Image area extraction Connections between each block may be examined on a block-by-block basis, or each block may be divided, for example, into two vertically and horizontally (a total of 4
Figure 13 is a simplified explanatory diagram to show the latter method, and Figure 13 (a) shows the image divided into blocks and a binarized image superimposed on it. (The shaded area is the black pixel area), and Figure 13 (b) shows the first pixel area in each block.
Figure 13 (c), which is a diagram with pattern numbers in Figure 1, shows the result obtained by dividing each block into four (for example, block α→small block α, α2.α3.α4) as described above. 12 is a diagram in which each small block is given the pattern number of FIG. 11. FIG.
第11図の各パターンを4分割し1.:場合、各パター
ンがどのパターンに分解されるか予め知り得るので、第
13図(ロ)から第13図(ハ)を得ることは極めて容
易である。尚、第11図の各パターンを4分割した場合
、正確に第11図のパターンに分解されるように第11
図の各パターンを選んでもよいが、近似的に第11図の
パターンに分解される程度であっても十分である。Divide each pattern in Figure 11 into four.1. :, it is possible to know in advance which patterns each pattern is decomposed into, so it is extremely easy to obtain FIG. 13(c) from FIG. 13(b). Furthermore, when each pattern in Fig. 11 is divided into four, the 11th
Although each pattern shown in the figure may be selected, it is sufficient that the pattern can be approximately decomposed into the patterns shown in FIG.
次に、小ブロツク間の接続を調べるのであるが、接続関
係ありと判断するには、例えば隣接する小ブロックのパ
ターン同士の接合辺に少なくとも一部分だけでも黒色部
分が両者共あること等を判断基準にしてもよいし、パタ
ーンの全体形状を加味して接続関係の有無を判断しても
よい。何れにせよ、パターンの接合の組合せは限られて
いるので、各パターンがどのような位置関係で隣接した
場合に小ブロックの接続関係が有るかを決めておけば、
小ブロックの接続の有無の判断は極めて単純である。第
13図(ニ)はパターンの接合辺に白色部分のみしかな
い場合は小ブロックの接続関係がないとして求めた画像
領域を示す図で、図中の同一番号が付された領域は同種
の画4&領域である。勿論、該4分割を行わずにブロッ
ク間の接続を上記方法で調べてもよい。但し、この場合
は領域の境界が粗くなる。Next, the connection between the small blocks is examined, and in order to judge that there is a connection relationship, for example, the criteria for determining whether there is a connection relationship is that there is at least a black part on the joining edge of patterns of adjacent small blocks. Alternatively, the presence or absence of a connection relationship may be determined by taking into consideration the overall shape of the pattern. In any case, the combinations of joining patterns are limited, so if you decide in what positional relationship each pattern will be adjacent to each other, there will be a connection relationship between small blocks.
Determining whether or not small blocks are connected is extremely simple. Figure 13 (d) is a diagram showing an image area obtained by assuming that there is no connection relationship between small blocks when there is only a white part on the joint side of the pattern. 4 & area. Of course, the connections between blocks may be checked using the above method without performing the four-division process. However, in this case, the boundaries of the regions become rough.
この粗さの問題を解消するためにブロックの大きさを最
初から小さくすることも考えられるが、このようにする
と前記テクスチュア解析に多大な時間を要、することに
なる。In order to solve this problem of roughness, it is conceivable to reduce the size of the block from the beginning, but doing so would require a large amount of time for the texture analysis.
上記の結果、画像領域が抽出されたことになる。As a result of the above, the image area has been extracted.
第14図乃至第16図は領域抽出のより具体的な説明図
で、第14図はオリジナル画像を示す図、第15図はパ
ターン分類画像を示す図、第16図は領域抽出画像を示
す図である。尚、第14図中の1及び2で示した領域は
文字で埋められており、3及び4で示した領域は連続階
調画となっている。Figures 14 to 16 are more specific illustrations of region extraction, with Figure 14 showing the original image, Figure 15 showing the pattern classification image, and Figure 16 showing the region extraction image. It is. Note that the areas indicated by 1 and 2 in FIG. 14 are filled with characters, and the areas indicated by 3 and 4 are continuous tone images.
第15図に示される如く、画像抽出は良好になされるが
、第15図にはオリジナル画像の汚れ等により孤立領域
(ブロック)が生じ、これが第16図中に独自の画像領
域を形成している。このノイズを防ぐためには、孤立ブ
ロックは周囲のブロックと同一のIli條領域とみなす
処理を施せばよい。As shown in Fig. 15, the image extraction is successful, but in Fig. 15, isolated areas (blocks) occur due to dirt etc. in the original image, and these form unique image areas in Fig. 16. There is. In order to prevent this noise, an isolated block may be treated as having the same Ili condition as surrounding blocks.
上述の如くして画像領域を抽出後に、各抽出画像領域に
前記識別方法を適用すれば、効率の良い画像識別を行え
る。After extracting image regions as described above, by applying the above-described identification method to each extracted image region, efficient image identification can be performed.
(発明の効果)
以上説明したように、本発明方法では黒画素数のばらつ
き等に基づき網点階調画を判別し、背景の割合により線
画を判別し、残りを連続階調画と判別するので、濃度変
化の急激な連続階調画を誤識別することはない。(Effects of the Invention) As explained above, in the method of the present invention, halftone gradation images are determined based on variations in the number of black pixels, line drawings are determined based on the proportion of the background, and the remaining gradation images are determined as continuous gradation images. Therefore, continuous tone images with rapid density changes will not be erroneously identified.
第1図は識別単位域の一例を示す説明図、第2図は2値
化画像の説明図、第3図は黒画素領域間の測距の説明図
、第4図は黒画素領域間の距離の標準偏差と黒画素領域
を構成する黒画素数の標準偏差との関係を示す図、第5
図は背景の割合を示す図、第6図は領域抽出方法の一興
体例におGJる手順を示すフローチャート、第7図はウ
ィンドウの説明図、第8図は濃度ヒス[・ダラムの説明
図、第9図は背景レベルの決定手順を示すフローヂャー
ト、第10図は画像のブロック化の説明図、第11図は
ブロックのパターンの説明図、第12図はパターン分類
の説明図、第13図は画像領域抽出の説明図、第14図
はオリジナル画像を示す図、第15図はパターン分類画
像を示す図、第16図は領域抽出画像を示す図である。
α・・・ブロック
α1.α2.α3.α4・・・小ブロック1.2・・・
文字画領域 3.4・・・連続階調画領域特許出願人
小西六写真工業株式会社
代 理 人 弁理士 井 島 藤 治外
1名
鳥1図
鳥3図
隼4図
yIh画素領域Wf)NU)85414差CI)ixe
l)馬7図
馬8図
凹 濃度レベル
Jv19図
為1o図Fig. 1 is an explanatory diagram showing an example of a discrimination unit area, Fig. 2 is an explanatory diagram of a binarized image, Fig. 3 is an explanatory diagram of distance measurement between black pixel areas, and Fig. 4 is an explanatory diagram of a distance measurement between black pixel areas. Figure 5 showing the relationship between the standard deviation of distance and the standard deviation of the number of black pixels constituting a black pixel area.
The figure shows the ratio of the background, Figure 6 is a flowchart showing the procedure for implementing an example of the area extraction method, Figure 7 is an explanatory diagram of a window, and Figure 8 is an explanatory diagram of density hiss [Durham]. Fig. 9 is a flowchart showing the background level determination procedure, Fig. 10 is an explanatory diagram of image blocking, Fig. 11 is an explanatory diagram of block patterns, Fig. 12 is an explanatory diagram of pattern classification, and Fig. 13 is an explanatory diagram of the block pattern. FIG. 14 is a diagram showing an original image, FIG. 15 is a diagram showing a pattern classification image, and FIG. 16 is a diagram showing a region extraction image. α...Block α1. α2. α3. α4...Small block 1.2...
Character drawing area 3.4... Continuous tone drawing area Patent applicant
Roku Konishi Photo Industry Co., Ltd. Representative Patent Attorney Fuji Ijima 1 name bird 1 figure bird 3 figure falcon 4 figure yIh pixel area Wf) NU) 85414 difference CI) ixe
l) Horse 7 figure Horse 8 figure concave Concentration level Jv19 figure 1o figure
Claims (5)
成する黒画素数のばらつき若しくは前記黒画素領域の領
域相互間の距離のばらつきの少なくとも何れか一方のば
らつきを求め、該ばらつきから前記識別単位域が網点階
調画か否かの判別を行うと共に、背景の割合から前記識
別単位域が線画か否かの判別を行う画像識別方法。(1) Binarize the image to find the variation in at least one of the variations in the number of black pixels constituting the black pixel area in the identification unit area or the variation in the distance between the black pixel areas, and from the variation An image identification method that determines whether or not the identification unit area is a halftone gradation image, and also determines whether or not the identification unit area is a line drawing based on the proportion of the background.
のを用いることを特徴とする特許請求の範囲第1項記載
の画像識別方法。(2) The image identification method according to claim 1, wherein an image divided into a plurality of parts is used as the identification unit area.
像データを用いて各ブロックを予め定めたパターンに分
類し、該パターンにより各ブロック間の接続を調べ画像
領域を抽出し、該抽出画像領域を前記識別単位域として
用いることを特徴とする特許請求の範囲第1項記載の画
像識別方法。(3) Divide the image into multiple blocks, classify each block into a predetermined pattern using binarized image data, check the connection between each block using the pattern, extract the image area, and extract the extracted image. 2. The image identification method according to claim 1, wherein an area is used as the identification unit area.
ロックの2値化画像データを2次元的に射影し得たデー
タを用いることを特徴とする特許請求の範囲第3項記載
の画像識別方法。(4) The image identification method according to claim 3, characterized in that when classifying the blocks into patterns, data obtained by two-dimensionally projecting the binarized image data of each block is used.
各ブロックを縦横にそれぞれ2分割し該分割した小ブロ
ックとその周囲の小ブロックとの接続を調べることを特
徴とする特許請求の範囲第3項又は第4項記載の画像識
別方法。(5) When checking the connections between the blocks, each of the blocks is divided into two vertically and horizontally, and the connections between the divided small blocks and the surrounding small blocks are checked. The image identification method described in item 1 or 4.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15789584A JPS6135680A (en) | 1984-07-27 | 1984-07-27 | Picture identification method |
US06/757,653 US4741046A (en) | 1984-07-27 | 1985-07-22 | Method of discriminating pictures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15789584A JPS6135680A (en) | 1984-07-27 | 1984-07-27 | Picture identification method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6135680A true JPS6135680A (en) | 1986-02-20 |
JPH0446500B2 JPH0446500B2 (en) | 1992-07-30 |
Family
ID=15659761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15789584A Granted JPS6135680A (en) | 1984-07-27 | 1984-07-27 | Picture identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6135680A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008104139A (en) * | 2006-09-19 | 2008-05-01 | Sharp Corp | Image processing unit, image formation device, ten thousand lines area specifying method, document class discriminating method, computer program and recording medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS56161776A (en) * | 1980-05-19 | 1981-12-12 | Fujitsu Ltd | Identifying system for network point video signal |
JPS576964A (en) * | 1980-06-13 | 1982-01-13 | Ricoh Co Ltd | Picture extracting method |
-
1984
- 1984-07-27 JP JP15789584A patent/JPS6135680A/en active Granted
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS56161776A (en) * | 1980-05-19 | 1981-12-12 | Fujitsu Ltd | Identifying system for network point video signal |
JPS576964A (en) * | 1980-06-13 | 1982-01-13 | Ricoh Co Ltd | Picture extracting method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008104139A (en) * | 2006-09-19 | 2008-05-01 | Sharp Corp | Image processing unit, image formation device, ten thousand lines area specifying method, document class discriminating method, computer program and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JPH0446500B2 (en) | 1992-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4741046A (en) | Method of discriminating pictures | |
JP3307335B2 (en) | Vehicle region detection device and vehicle region verification method | |
US4656665A (en) | Thresholding technique for graphics images using histogram analysis | |
EP1675066A1 (en) | Face image candidate area search method, face image candidate area search system, and face image candidate area search program | |
CN112330593A (en) | Building surface crack detection method based on deep learning network | |
JPH03160349A (en) | Device for detecting crack | |
EP0563897A1 (en) | Defect inspection system | |
JPH05280960A (en) | Defect inspection device | |
JP2019102031A (en) | Method, device and system for identifying crack direction on concrete surface, and program | |
JP4186117B2 (en) | Crack detection method and apparatus | |
JPS6135680A (en) | Picture identification method | |
CN117975360A (en) | Deep learning-based stacked object distinguishing method and system | |
JPH10253522A (en) | Image processing method | |
Kaushik et al. | Pothole Detection System: A Real-Time Solution for Detecting Potholes | |
Rezaeian et al. | Automatic classification of collapsed buildings using object and image space features | |
Puan et al. | Automated Pavement Imaging Program (APIP) for pavement cracks classification and quantification | |
JPS6135673A (en) | Area extracting method | |
JPH0624014B2 (en) | Gray image processing method | |
Lemy et al. | A digital face mapping case study in an underground hard rock mine | |
JP2673629B2 (en) | Linear tissue quantification image processing device | |
Schofield et al. | A RAM based neural network approach to people counting | |
JPH06195511A (en) | Binarization threshold value determining device | |
JPH07280792A (en) | Water turbidity measuring method and turbidity measuring device | |
KR102648784B1 (en) | A system for providing cleaning image of ship and a method for providing cleaning image using the same | |
JP2647458B2 (en) | Halftone dot area separation device |