[go: up one dir, main page]

JPH0728935A - Document image processor - Google Patents

Document image processor

Info

Publication number
JPH0728935A
JPH0728935A JP5192746A JP19274693A JPH0728935A JP H0728935 A JPH0728935 A JP H0728935A JP 5192746 A JP5192746 A JP 5192746A JP 19274693 A JP19274693 A JP 19274693A JP H0728935 A JPH0728935 A JP H0728935A
Authority
JP
Japan
Prior art keywords
area
layout information
extraction
document image
layout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5192746A
Other languages
Japanese (ja)
Inventor
Naohiro Amamoto
直弘 天本
Sadamasa Hirogaki
節正 広垣
Yoshitaka Hamaguchi
佳孝 濱口
Makoto Torigoe
真 鳥越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP5192746A priority Critical patent/JPH0728935A/en
Publication of JPH0728935A publication Critical patent/JPH0728935A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To provide a document image processor which can accurately extract the areas based on the previously prepared layout information. CONSTITUTION:An area extracting part 2 extracts each area on a pertinent document image out of the document image acquired by a reading part 1. A layout identifying part 4 compares the area extracting result of the part 2 with a singular or plural layout information stored previously in a layout information storing part 3. Then the area extracting result of the part 2 is corrected based on the coincident layout information, and a character area is extracted. The characters of the extracted character area are recognized by a character recognition part 6, and this recognition result is stored in a recognizing result storing part 7. The areas other than the character areas are stored in an image data storing part 5 as the image data. Meanwhile the area extracting result is stored in the part 3 when there is no coincident layout information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字認識装置(OC
R)やファクシミリ等に使用される文書画像処理装置に
関するものである。
BACKGROUND OF THE INVENTION The present invention relates to a character recognition device (OC).
The present invention relates to a document image processing device used for R), facsimile, and the like.

【0002】[0002]

【従来の技術】文字のほかに絵や写真等を含む文書中の
文字を認識する場合、文書画像中から文字の部分だけを
取り出さなければならない。このような文書画像の処理
を行なう装置が文書画像処理装置である。図2及び図3
は、従来の文書画像処理の一例の説明図である。図2
(a)及び図3(a)に示す読取対象となる帳票11、
21から、図2(b)及び図3(b)に示す直線イメー
ジを検出する。そして、これらの直線群からフレーム構
造を抽出し、予め格納されているフレーム構造情報との
マッチングにより読取フィールドを決定し、このフィー
ルド内の文字を認識する(特開平2−217977号公
報参照)。
2. Description of the Related Art When recognizing characters in a document including pictures, photographs, etc. in addition to characters, it is necessary to extract only the character portion from the document image. A device for processing such a document image is a document image processing device. 2 and 3
FIG. 7 is an explanatory diagram of an example of conventional document image processing. Figure 2
(A) and the form 11 to be read shown in FIG.
From 21, the straight line image shown in FIG. 2 (b) and FIG. 3 (b) is detected. Then, the frame structure is extracted from these straight line groups, the reading field is determined by matching with the frame structure information stored in advance, and the characters in this field are recognized (see Japanese Patent Laid-Open No. 2-217977).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の技術には、次のような問題があった。即ち、上
述した従来の技術では、図2(b)及び図3(b)に示
すような直線イメージが存在する帳票のみが処理対象で
あり、一般文書のように必ずしも直線イメージが存在し
ないような文書は処理ができなかった。例えば、図4に
示すように、文字領域に書かれた文書が複数の欄に亘っ
ているような場合は、処理することができないという問
題があった。本発明は、以上の点に着目してなされたも
ので、上述のような直線イメージがない場合にも、文字
認識対象とする領域を決定でき、領域抽出及び文字認識
を正確に行なえるようにした文書画像処理装置を提供す
ることを目的とするものである。
However, the above-mentioned conventional technique has the following problems. That is, in the above-described conventional technique, only the form having the straight line image as shown in FIG. 2B and FIG. 3B is the processing target, and the straight line image does not always exist like the general document. The document could not be processed. For example, as shown in FIG. 4, when the document written in the character area spans a plurality of columns, there is a problem that the document cannot be processed. The present invention has been made by paying attention to the above points, and even when there is no such a linear image as described above, it is possible to determine the area to be the character recognition target, so that the area extraction and the character recognition can be performed accurately. It is an object of the present invention to provide a document image processing apparatus which has been described above.

【0004】[0004]

【課題を解決するための手段】本発明の文書画像処理装
置は、文書画像の各領域を抽出する領域抽出部と、文書
画像上に配置された各領域の属性を示すレイアウト情報
を複数又は単数格納するレイアウト情報格納部と、当該
レイアウト情報格納部に格納されたレイアウト情報のう
ち、前記領域抽出部による領域抽出結果に最も一致する
ものを取り出し、一致するレイアウト情報が存在しない
場合は前記領域抽出結果を新たなレイアウト情報として
前記レイアウト情報格納部に格納し、一致するレイアウ
ト情報が存在する場合は当該レイアウト情報に従って前
記領域抽出結果を修正するレイアウト識別部とから成る
ことを特徴とするものである。
A document image processing apparatus according to the present invention includes a plurality of or a single piece of layout information indicating the attributes of each area arranged on a document image and an area extraction unit for extracting each area of the document image. Of the layout information storage section to be stored and the layout information stored in the layout information storage section, the one that most closely matches the area extraction result by the area extraction section is extracted, and if there is no matching layout information, the area extraction is performed. The layout storage unit stores the result as new layout information in the layout information storage unit, and if there is matching layout information, the layout identification unit corrects the area extraction result according to the layout information. .

【0005】[0005]

【作用】本発明の文書画像処理装置においては、読取部
により得られた文書画像から、領域抽出部により当該文
書画像上の各領域を抽出する。次に、レイアウト識別部
によりこの領域抽出結果とレイアウト情報格納部に予め
格納されている複数又は単数のレイアウト情報とを比較
する。そして、一致したレイアウト情報に従って、領域
抽出部の領域抽出結果を修正し、文字領域を抽出する。
この文字領域については、文字認識部で文字認識を行な
い、その結果を認識結果格納部に格納する。また、文字
以外の領域については画像データとして画像データ格納
部に格納する。
In the document image processing apparatus of the present invention, the area extracting section extracts each area on the document image from the document image obtained by the reading section. Next, the layout identification unit compares the area extraction result with a plurality of or a single piece of layout information stored in advance in the layout information storage unit. Then, the area extraction result of the area extracting unit is corrected according to the matched layout information, and the character area is extracted.
With respect to this character area, the character recognition unit performs character recognition, and the result is stored in the recognition result storage unit. Areas other than characters are stored in the image data storage unit as image data.

【0006】[0006]

【実施例】以下、本発明の実施例を図面を参照して詳細
に説明する。図1は、本発明の文書画像処理装置の一実
施例のブロック図である。図示の装置は、読取部1、文
書画像処理装置10、画像データ格納部5、文字認識部
6、認識結果格納部7から成る。読取部1は、CCDラ
インセンサ等から成り、処理対象となる文書を主走査方
向には電気的に走査し、副走査方向には機械的に走査し
て読み取る。この読取部1には、例えば、周知のシート
フィーダ(図示省略)が設けられている。文書画像処理
装置10は、領域抽出部2、レイアウト情報格納部3、
レイアウト識別部4から成る。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the document image processing apparatus of the present invention. The illustrated apparatus includes a reading unit 1, a document image processing device 10, an image data storage unit 5, a character recognition unit 6, and a recognition result storage unit 7. The reading unit 1 is composed of a CCD line sensor or the like, and electrically scans a document to be processed in the main scanning direction and mechanically scans it in the sub scanning direction to read it. The reading unit 1 is provided with, for example, a known sheet feeder (not shown). The document image processing apparatus 10 includes an area extraction unit 2, a layout information storage unit 3,
It comprises a layout identification section 4.

【0007】領域抽出部2は、読取部1で読み取った画
像について領域の抽出処理を行なう。この処理は、例え
ば、以下のようにして行なう。図4に示すように、2値
化された画像データから文字、図形等の領域を自動的に
抽出する。このため、この画像データから、図5
(a)、(b)に示すように、予め定められた閾値以上
の長さと幅を持つ空白領域を追跡して領域を検出し、図
5(c)に示すように、これらの領域を矩形の組み合わ
せとして格納する。レイアウト情報格納部3は、フロッ
ピディスク等から成り、複数のレイアウト情報を予め格
納している。尚、レイアウト情報は、単数でもよく、ま
た、初期状態において空になっていてもよい。
The area extracting unit 2 extracts an area of the image read by the reading unit 1. This process is performed as follows, for example. As shown in FIG. 4, areas such as characters and figures are automatically extracted from the binarized image data. Therefore, from this image data, as shown in FIG.
As shown in (a) and (b), a blank area having a length and width equal to or larger than a predetermined threshold value is traced to detect the area, and as shown in FIG. It is stored as a combination of. The layout information storage unit 3 is composed of a floppy disk or the like, and stores a plurality of layout information in advance. The layout information may be singular or may be empty in the initial state.

【0008】図6は、文書画像の各領域を示し、図7
は、図6の文書画像に対応するレイアウト情報の一例を
示す。例えば、図7に示す表の第1行では、図6の領域
61を、xs=100,ys=300,xe=160
0,ye=1000の各直線で区画される領域として特
定する。そして、その領域の属性がflagにより文字(横
書き)であることが示される。属性は、例えば6ビット
のデータから成り、“1”のビットは文字(横書き)示
し、“2”のビットは文字(縦書き)を示し、“4”の
ビットは図形を示す。また、“8”のビットは写真を示
し、“16”のビットは罫線を示し、“32”のビット
は表を示す。
FIG. 6 shows each area of the document image, and FIG.
Shows an example of layout information corresponding to the document image of FIG. For example, in the first row of the table shown in FIG. 7, the region 61 of FIG. 6 is defined as xs = 100, ys = 300, xe = 160.
It is specified as a region divided by each straight line of 0 and ye = 1000. Then, the attribute of the area is indicated by flag to be a character (horizontal writing). The attribute is composed of, for example, 6-bit data, a bit of "1" indicates a character (horizontal writing), a bit of "2" indicates a character (vertical writing), and a bit of "4" indicates a figure. Also, the "8" bit indicates a photograph, the "16" bit indicates a ruled line, and the "32" bit indicates a table.

【0009】従って、図7に示す表の第2行は、図6の
領域62が、xs=1650,ys=300,xe=3
300,ye=1500の各直線で区画される領域であ
り、その属性はflagにより図形であることが示される。
また、図7に示す表の第3行は、図6の領域63が、x
s=100,ys=1200,xe=1600,ye=
3000の各直線で区画される領域であり、その属性は
flagにより写真であることが示される。図7に示す表の
第4行は、図6の領域が、xs=1650,ys=17
00,xe=3300,ye=4600の各直線で区画
される領域であり、その属性はflagにより文字(横書
き)であることが示される。図7に示す表の第5行は、
図6の領域が、xs=100,ys=3100,xe=
1600,ye=4600の各直線で区画される領域で
あり、その属性はflagにより文字(横書き)であること
が示される。
Therefore, in the second row of the table shown in FIG. 7, the region 62 of FIG. 6 has xs = 1650, ys = 300, and xe = 3.
It is a region partitioned by each straight line of 300 and ye = 1500, and its attribute is indicated by flag as a figure.
Also, in the third row of the table shown in FIG. 7, the area 63 in FIG.
s = 100, ys = 1200, xe = 1600, ye =
It is an area divided by 3000 straight lines, and its attributes are
The flag indicates that it is a photo. In the fourth row of the table shown in FIG. 7, the area of FIG. 6 is xs = 1650, ys = 17.
The area is defined by each straight line of 00, xe = 3300, and ye = 4600, and its attribute is indicated by a flag as a character (horizontal writing). The fifth row of the table shown in FIG. 7 is
The area of FIG. 6 is xs = 100, ys = 3100, xe =
The area is defined by each straight line of 1600 and ye = 4600, and its attribute is indicated by a flag as a character (horizontal writing).

【0010】尚、図7に示すレイアウト情報に文字領域
の読取順序等の項目を含めるようにしてもよい。例え
ば、図6の領域61、65、64の順に文章が書かれて
いる場合は、この順序を示しておくことにより、この順
序に従って、自動的に文字認識を行なうことができる。
The layout information shown in FIG. 7 may include items such as the reading order of character areas. For example, when the sentences are written in the order of regions 61, 65, and 64 in FIG. 6, by indicating this order, the character recognition can be automatically performed according to this order.

【0011】レイアウト識別部4は、レイアウト情報格
納部3に予め格納されている複数のレイアウト情報と、
領域抽出部2で得られた領域抽出結果とを比較する。そ
して、一致するレイアウト情報を識別した結果、領域抽
出結果を修正する必要があればレイアウト情報に従って
修正し、文字以外の領域は画像データとして画像データ
格納部5に格納する。一方、文字領域は文字認識部6で
文字認識した後、テキストデータとして認識結果格納部
7に格納する。また、レイアウト識別部4でのレイアウ
ト情報と領域抽出結果との比較により各レイアウト情報
について類似度を求める。そして、類似度が最大である
レイアウト情報を一致レイアウトとする。このレイアウ
ト情報に従って領域抽出結果を修正する。
The layout identification section 4 stores a plurality of layout information stored in advance in the layout information storage section 3,
The region extraction result obtained by the region extraction unit 2 is compared. As a result of identifying the matching layout information, if it is necessary to correct the area extraction result, the area extraction result is corrected according to the layout information, and areas other than characters are stored in the image data storage unit 5 as image data. On the other hand, the character area is stored in the recognition result storage unit 7 as text data after the character recognition by the character recognition unit 6. Further, the similarity is obtained for each layout information by comparing the layout information in the layout identification unit 4 with the area extraction result. Then, the layout information having the highest degree of similarity is set as the matching layout. The area extraction result is corrected according to this layout information.

【0012】まず、レイアウト情報に格納されているあ
る領域を既知領域とし、この既知領域の中心点の座標を
次式により求める。 {(xs+xe)/2,(ys+ye)/2} 一方、領域抽出の結果得られた領域(抽出領域)のう
ち、既知領域と同じ属性を持つすべての抽出領域につい
て、上記式により中心点を求める。その後、既知領域の
中心点と、これらのすべての抽出領域の中心点との距離
を求める。そして、この距離が最小となる抽出領域を既
知領域に対応する領域とする。尚、図8(a)に示す抽
出領域71、75のように、図8(b)に示すいずれの
既知領域にも対応しない抽出領域もある。以上の処理を
すべての既知領域について行なう。
First, a certain area stored in the layout information is set as a known area, and the coordinates of the center point of this known area are obtained by the following equation. {(Xs + xe) / 2, (ys + ye) / 2} On the other hand, among the regions (extracted regions) obtained as a result of region extraction, the center point is calculated by the above formula for all the extracted regions having the same attributes as the known region. . Then, the distances between the center points of the known areas and the center points of all these extraction areas are obtained. Then, the extraction region having the smallest distance is set as the region corresponding to the known region. Note that there are extraction regions that do not correspond to any known regions shown in FIG. 8B, such as the extraction regions 71 and 75 shown in FIG. 8A. The above processing is performed for all known areas.

【0013】これらの処理において、以下の2つの場合
は、領域抽出結果とレイアウト情報との類似度を“0”
(不一致)とし、以降の処理は行なわない。 (1)既知領域と同じ属性を持つ抽出領域が存在しない
場合、即ち、既知領域に対応する抽出領域が存在しない
場合は、不一致とする。 (2)ある抽出領域が複数の既知領域に対応している場
合は、後述する類似度の計算の都合上、不一致とする。
In these processes, the similarity between the area extraction result and the layout information is "0" in the following two cases.
(No match), and the subsequent processing is not performed. (1) When there is no extraction region having the same attribute as the known region, that is, when there is no extraction region corresponding to the known region, it is determined that they do not match. (2) When a certain extraction area corresponds to a plurality of known areas, they are not matched for the sake of similarity calculation described later.

【0014】上述した(1)、(2)の2つの場合以外
の場合は、次のようにして領域抽出結果とレイアウト情
報との類似度を求める。まず、既知領域とそれに対応す
る抽出領域との重複部分の面積を求める。この面積は、
双方の領域の座標から容易に求められる。そして、次式
により類似度を求める。 類似度=(重複部分の面積の和)/(全既知領域の面積
の和)×100 以上の処理をレイアウト情報格納部3に格納されている
すべてのレイアウト情報について行なう。そして、最も
類似度の大きいレイアウトを一致レイアウトとする。た
だし、その一致レイアウトの類似度がある一定値(TH
L)以下の場合は、一致レイアウトなしとして領域抽出
結果を新しいレイアウト情報としてレイアウト情報格納
部3に格納する。この場合は、領域抽出結果をそのまま
使用するので、以下の修正処理は行なわない。
In cases other than the above two cases (1) and (2), the degree of similarity between the area extraction result and the layout information is obtained as follows. First, the area of the overlapping portion of the known area and the corresponding extraction area is obtained. This area is
It can be easily obtained from the coordinates of both areas. Then, the degree of similarity is calculated by the following equation. Similarity = (sum of areas of overlapping portions) / (sum of areas of all known regions) × 100 The above processing is performed for all the layout information stored in the layout information storage unit 3. Then, the layout having the highest degree of similarity is set as the matching layout. However, the similarity of the matching layout has a certain value (TH
L) In the following cases, the area extraction result is stored in the layout information storage unit 3 as new layout information without matching layout. In this case, since the area extraction result is used as it is, the following correction processing is not performed.

【0015】最後に、上記処理で一致レイアウトと判定
されたレイアウト情報に従って領域抽出結果を修正す
る。図8は、修正処理の一例の説明図である。一致レイ
アウト情報の左上及び右下の文字領域は、領域抽出結果
ではそれぞれ2つの領域に分かれている。従って、それ
らの2つの領域を統合する必要がある。この場合、既知
領域に対応する抽出領域とそれ以外の領域を類似度が1
00%に最も近づく組み合わせで統合を行なう。ここ
で、既知領域に対応しない領域とは、既知領域との重複
部分を持たない領域である。このような領域を既知領域
に対応する抽出領域と統合する必要がある。ただし、既
知領域と抽出領域の対応が1対1ではなくなるような組
み合わせでの統合は行なわない。修正の結果得られた領
域のうち、文字以外の領域は画像データとして画像デー
タ格納部5に格納される。
Finally, the area extraction result is corrected according to the layout information determined to be the matching layout in the above processing. FIG. 8 is an explanatory diagram of an example of the correction process. The upper left and lower right character areas of the matching layout information are each divided into two areas in the area extraction result. Therefore, there is a need to integrate those two areas. In this case, the similarity between the extraction area corresponding to the known area and the other areas is 1
Integration is performed with the combination that is closest to 00%. Here, the area that does not correspond to the known area is an area that does not have an overlapping portion with the known area. It is necessary to integrate such a region with the extraction region corresponding to the known region. However, integration is not performed in such a combination that the known area and the extracted area do not have a one-to-one correspondence. Of the areas obtained as a result of the correction, the areas other than the characters are stored in the image data storage unit 5 as image data.

【0016】一方、レイアウト識別部4で得られた修正
された領域抽出結果のうち、文字の領域に関しては、文
字認識部6で文字を1文字単位に切り出し、文字認識を
行なった後、その認識の結果得られる文字コードを認識
結果格納部7に格納する。図9に、上述したレイアウト
識別部の処理手順の概要を示す。
On the other hand, of the corrected area extraction results obtained by the layout identifying section 4, for the character area, the character recognizing section 6 cuts out the characters one by one, recognizes the character, and then recognizes the character. The character code obtained as a result is stored in the recognition result storage unit 7. FIG. 9 shows an outline of the processing procedure of the layout identification unit described above.

【0017】まず、ステップS1では、レイアウト情報
の既知領域に対応する文書画像の抽出領域を求める。こ
の対応関係を求めた後、ステップS2で、レイアウト情
報と文書画像の類似度を求める。この類似度はすべての
レイアウト情報について求める。ステップS3では、ス
テップS2で求めた最大の類似度が一定値以下か否かを
判別し、一定値以下のときは、一致するレイアウト情報
がないものとして、ステップS5で領域抽出結果を新た
なレイアウト情報とする。一方、ステップS2で求めた
最大の類似度が一定値以下でないときは、そのレイアウ
ト情報を領域抽出結果に一致するレイアウト情報とし、
ステップS4でそのレイアウト情報に従って領域抽出結
果を修正する。
First, in step S1, an extraction area of a document image corresponding to a known area of layout information is obtained. After obtaining this correspondence, in step S2, the degree of similarity between the layout information and the document image is obtained. This similarity is obtained for all layout information. In step S3, it is determined whether or not the maximum similarity calculated in step S2 is less than or equal to a certain value. Information. On the other hand, if the maximum similarity calculated in step S2 is not less than a certain value, the layout information is set as layout information that matches the area extraction result,
In step S4, the area extraction result is corrected according to the layout information.

【0018】次に、上述した装置の動作を説明する。ま
ず、読取部1で文書画像が読み取られる。領域抽出部2
では、この文書画像から公知の方法により図8(a)に
示すように各領域が抽出される。レイアウト情報格納部
3には、図8(b)に示すようなレイアウト情報が格納
されている。レイアウト識別部4は、図9のフローチャ
ートに従って処理を行なう。図8(a)と図8(b)と
を比較すると、抽出領域71の中心点に最も近い中心点
を持つのは既知領域81である。従って、抽出領域72
に対応するのは、既知領域81である。同様に、抽出領
域73に対応するのは、既知領域82であり、抽出領域
74に対応するのは、既知領域83である。また、抽出
領域75に対応するのは、既知領域84であり、抽出領
域76に対応するのは、既知領域84である。更に、抽
出領域77に対応するのは、既知領域85である。
Next, the operation of the above-mentioned device will be described. First, the reading unit 1 reads a document image. Area extraction unit 2
Then, each area is extracted from this document image by a known method as shown in FIG. The layout information storage unit 3 stores layout information as shown in FIG. The layout identification unit 4 performs processing according to the flowchart of FIG. Comparing FIG. 8A and FIG. 8B, it is the known region 81 that has the center point closest to the center point of the extraction region 71. Therefore, the extraction area 72
The known area 81 corresponds to. Similarly, a known area 82 corresponds to the extraction area 73, and a known area 83 corresponds to the extraction area 74. Further, the known region 84 corresponds to the extraction region 75, and the known region 84 corresponds to the extraction region 76. Further, a known area 85 corresponds to the extraction area 77.

【0019】次に、図8(a)の領域抽出結果と、図8
(b)のレイアウト情報の類似度を求める。このため、
まず、抽出領域71、72と、既知領域81の各重複部
分の面積を求める。同様に、抽出領域73、74と、既
知領域82、83の各重複部分の面積を求める。また、
抽出領域75、76と、既知領域84の各重複部分の面
積を求める。更に、抽出領域77と、既知領域85の重
複部分の面積を求める。そして、これらの重複部分の面
積の和を求める。一方、既知領域81、82、83、8
4、85の各面積を求め、それらの和を求める。この既
知領域の面積の和は、予め求めておいて、レイアウト情
報中に含めておくようにしてもよい。
Next, the area extraction result of FIG.
The similarity of the layout information of (b) is calculated. For this reason,
First, the area of each overlapping portion of the extraction regions 71 and 72 and the known region 81 is obtained. Similarly, the areas of the respective overlapping portions of the extraction regions 73 and 74 and the known regions 82 and 83 are obtained. Also,
The area of each overlapping portion of the extraction regions 75 and 76 and the known region 84 is obtained. Further, the area of the overlapping portion of the extraction region 77 and the known region 85 is obtained. Then, the sum of the areas of these overlapping portions is obtained. On the other hand, known areas 81, 82, 83, 8
The areas of 4, 85 are calculated, and the sum of them is calculated. The sum of the areas of the known regions may be obtained in advance and included in the layout information.

【0020】そして、既知領域と抽出領域の重複部分の
面積の和を、既知領域の面積の和で割ることによって類
似度を求める。この類似度が100%であれば、領域抽
出結果のレイアウトは、既知のレイアウトと完全に一致
することになる。しかし、完全に一致しなくても類似度
がある程度の大きさであれば、領域抽出の誤差の範囲に
含まれ、レイアウト情報のレイアウトと一致すると見な
すことができる。図8のような場合は、レイアウトが一
致すると見なす。
Then, the degree of similarity is obtained by dividing the sum of the areas of the overlapping portions of the known area and the extraction area by the sum of the areas of the known areas. If the degree of similarity is 100%, the layout of the area extraction result completely matches the known layout. However, even if they do not completely match, if the degree of similarity is large to some extent, it can be considered that they are included in the error range of region extraction and match the layout of the layout information. In the case of FIG. 8, it is considered that the layouts match.

【0021】従って、図8(b)に従い、図8(a)の
領域抽出結果を修正する。即ち、図8(a)の複数の抽
出領域のうち、図8(b)の1つの既知領域と対応する
ものを統合する。例えば、抽出領域71は、抽出領域7
2と統合して図8(c)に示す1つの抽出領域91とす
る。一方、抽出領域75は、抽出領域73と抽出領域7
6のいずれかと統合することになるが、抽出領域75の
属性が文字であり、抽出領域73の属性が図形で、抽出
領域76の属性が文字であるので、抽出領域76と統合
する。尚、図8(a)に示す場合と異なり、抽出領域7
3の属性も文字であるときも、抽出領域76と統合した
場合の類似度が抽出領域73と統合した場合の類似度よ
り大きくなるので、抽出領域76と統合する。そして、
図8(c)に示す1つの抽出領域94とする。
Therefore, the area extraction result of FIG. 8A is corrected according to FIG. 8B. That is, of the plurality of extraction areas in FIG. 8A, one corresponding to one known area in FIG. 8B is integrated. For example, the extraction area 71 is the extraction area 7
2 is integrated into one extraction area 91 shown in FIG. On the other hand, the extraction area 75 includes the extraction area 73 and the extraction area 7.
Although the attribute of the extraction area 75 is a character, the attribute of the extraction area 73 is a graphic, and the attribute of the extraction area 76 is a character, it is integrated with the extraction area 76. Unlike the case shown in FIG. 8A, the extraction area 7
Even when the attribute of 3 is also a character, the degree of similarity when integrated with the extraction area 76 is higher than the degree of similarity when integrated with the extraction area 73, so it is integrated with the extraction area 76. And
One extraction area 94 shown in FIG. 8C is used.

【0022】この結果、図8(b)のレイアウト情報の
属性を参照し、既知領域81に対応する抽出領域91、
既知領域84に対応する抽出領域94、既知領域85に
対応する抽出領域95をそれぞれ文字領域として取り出
し、これらの領域から各文字を切り出して文字認識を行
なうことができる。従って、領域抽出の結果得られた各
抽出領域のすべてについて属性を調べる必要がなく、迅
速な文書画像処理を行なうことができる。また、図8
(c)に示す抽出領域92、93を誤って文字領域とし
て文字認識してしまうことを防止することができる。
As a result, referring to the attribute of the layout information of FIG. 8B, the extraction area 91 corresponding to the known area 81,
The extraction area 94 corresponding to the known area 84 and the extraction area 95 corresponding to the known area 85 are respectively taken out as character areas, and characters can be cut out from these areas for character recognition. Therefore, it is not necessary to check the attributes of all the extracted areas obtained as a result of area extraction, and rapid document image processing can be performed. Also, FIG.
It is possible to prevent the extraction areas 92 and 93 shown in (c) from being erroneously recognized as character areas.

【0023】尚、本発明は、上述した実施例に限定され
るものではなく、請求の範囲に記載された事項の範囲内
で種々の変形が可能であることはいうまでもない。例え
ば、領域抽出結果とレイアウト情報の比較において、抽
出領域の中心点と既知領域の中心点の距離を比較するよ
うにしたが、これに限らず、抽出領域の特定の頂点と既
知領域の特定の頂点の距離を比較するようにしてもよ
い。
It is needless to say that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the matters described in the claims. For example, in the comparison between the area extraction result and the layout information, the distance between the center point of the extraction area and the center point of the known area is compared. However, the present invention is not limited to this. You may make it compare the distance of a vertex.

【0024】[0024]

【発明の効果】以上説明したように、本発明の文書画像
処理装置によれば、予め用意されたレイアウト情報の中
から領域抽出結果に最も一致するものを自動的に選び出
し、これに従って領域抽出結果を修正して画像処理を行
なうようにしたので、レイアウトが未知の文書として画
像処理を行なう場合と比較して迅速かつ確実な画像処理
を行なうことができる。この結果、いかなる文書画像に
ついても文字認識の精度を向上させることができる。ま
た、レイアウト情報と領域抽出結果を比較する際、既知
領域と抽出領域の中心点間の距離により対応関係を求め
て対応する領域の重複部分の面積からレイアウト情報と
領域抽出結果の類似度を計算するようにすることによ
り、正確な類似度を計算でき、適切な画像処理を行なう
ことができる。
As described above, according to the document image processing apparatus of the present invention, the best match of the area extraction result is automatically selected from the prepared layout information, and the area extraction result is selected accordingly. Since the image processing is modified so that the image processing is performed, the image processing can be performed quickly and surely as compared with the case where the image processing is performed as a document whose layout is unknown. As a result, the accuracy of character recognition can be improved for any document image. When comparing the layout information and the area extraction result, the correspondence relationship is obtained from the distance between the center points of the known area and the extraction area, and the similarity between the layout information and the area extraction result is calculated from the area of the overlapping area of the corresponding areas. By doing so, an accurate similarity can be calculated and appropriate image processing can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の文書画像処理装置の一実施例のブロッ
ク図である。
FIG. 1 is a block diagram of an embodiment of a document image processing apparatus of the present invention.

【図2】従来の文書画像処理の一例(その1)の説明図
である。
FIG. 2 is an explanatory diagram of an example (No. 1) of conventional document image processing.

【図3】従来の文書画像処理の一例(その2)の説明図
である。
FIG. 3 is an explanatory diagram of an example (No. 2) of conventional document image processing.

【図4】領域抽出処理の一例(その1)の説明図であ
る。
FIG. 4 is an explanatory diagram of an example (part 1) of region extraction processing.

【図5】領域抽出処理の一例(その2)の説明図であ
る。
FIG. 5 is an explanatory diagram of an example (No. 2) of region extraction processing.

【図6】文書画像の各領域の説明図である。FIG. 6 is an explanatory diagram of each area of a document image.

【図7】レイアウト情報の一例の説明図である。FIG. 7 is an explanatory diagram of an example of layout information.

【図8】修正処理の一例の説明図である。FIG. 8 is an explanatory diagram of an example of a correction process.

【図9】レイアウト識別部の処理手順の概要を示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating an outline of a processing procedure of a layout identification unit.

【符号の説明】[Explanation of symbols]

1 読取部 2 領域抽出部 3 レイアウト情報格納部 4 レイアウト識別部 5 画像データ格納部 6 文字認識部 7 認識結果格納部 10 文書画像処理装置 1 Reading Section 2 Area Extraction Section 3 Layout Information Storage Section 4 Layout Identification Section 5 Image Data Storage Section 6 Character Recognition Section 7 Recognition Result Storage Section 10 Document Image Processing Device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鳥越 真 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Makoto Torikoshi 1-7-12 Toranomon, Minato-ku, Tokyo Oki Electric Industry Co., Ltd.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 文書画像の各領域を抽出する領域抽出部
と、 文書画像上に配置された各領域の属性を示すレイアウト
情報を複数又は単数格納するレイアウト情報格納部と、 当該レイアウト情報格納部に格納されたレイアウト情報
のうち、前記領域抽出部による領域抽出結果に最も一致
するものを取り出し、一致するレイアウト情報が存在し
ない場合は前記領域抽出結果を新たなレイアウト情報と
して前記レイアウト情報格納部に格納し、一致するレイ
アウト情報が存在する場合は当該レイアウト情報に従っ
て前記領域抽出結果を修正するレイアウト識別部とから
成ることを特徴とする文書画像処理装置。
1. A region extraction unit for extracting each region of a document image, a layout information storage unit for storing a plurality or a single piece of layout information indicating attributes of each region arranged on the document image, and the layout information storage unit. Of the layout information stored in, the one that most closely matches the area extraction result by the area extraction unit is extracted, and if there is no matching layout information, the area extraction result is stored as new layout information in the layout information storage unit. A document image processing apparatus, comprising: a layout identifying unit that stores the layout information and corrects the area extraction result in accordance with the layout information when the corresponding layout information exists.
【請求項2】 前記レイアウト識別部は、前記レイアウ
ト情報と前記領域抽出結果とを比較する際、双方に含ま
れる各領域の中心点の座標を求め、前記レイアウト情報
の領域と前記領域抽出結果の領域とでそれらの中心点の
距離が最も小さいものを対応する領域とし、これらの対
応する領域の重複部分の面積により類似度を求め、当該
類似度が最大のレイアウト情報を前記領域抽出結果に一
致するレイアウト情報とすることを特徴とする文書画像
処理装置。
2. The layout identification unit, when comparing the layout information and the area extraction result, obtains coordinates of a center point of each area included in both, and determines the area of the layout information and the area extraction result. The area with the smallest distance between their center points is set as the corresponding area, the similarity is obtained from the area of the overlapping portion of these corresponding areas, and the layout information with the maximum similarity matches the area extraction result. A document image processing apparatus, which is characterized by setting layout information.
JP5192746A 1993-07-07 1993-07-07 Document image processor Pending JPH0728935A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5192746A JPH0728935A (en) 1993-07-07 1993-07-07 Document image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5192746A JPH0728935A (en) 1993-07-07 1993-07-07 Document image processor

Publications (1)

Publication Number Publication Date
JPH0728935A true JPH0728935A (en) 1995-01-31

Family

ID=16296369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5192746A Pending JPH0728935A (en) 1993-07-07 1993-07-07 Document image processor

Country Status (1)

Country Link
JP (1) JPH0728935A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141447A (en) * 2001-11-06 2003-05-16 Canon Inc Form search system
US7969598B2 (en) 2005-11-24 2011-06-28 Canon Kabushiki Kaisha Information processing apparatus, system and control method thereof, program, and storage medium for document management
JP2013114678A (en) * 2011-11-30 2013-06-10 Sharp Corp Image determination device and program
JP2019134364A (en) * 2018-02-01 2019-08-08 キヤノン株式会社 Device, method and program for setting information about scan image data
JP2021022764A (en) * 2019-07-24 2021-02-18 京セラドキュメントソリューションズ株式会社 Image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141447A (en) * 2001-11-06 2003-05-16 Canon Inc Form search system
US7969598B2 (en) 2005-11-24 2011-06-28 Canon Kabushiki Kaisha Information processing apparatus, system and control method thereof, program, and storage medium for document management
JP2013114678A (en) * 2011-11-30 2013-06-10 Sharp Corp Image determination device and program
JP2019134364A (en) * 2018-02-01 2019-08-08 キヤノン株式会社 Device, method and program for setting information about scan image data
JP2021022764A (en) * 2019-07-24 2021-02-18 京セラドキュメントソリューションズ株式会社 Image processing device

Similar Documents

Publication Publication Date Title
US5410611A (en) Method for identifying word bounding boxes in text
JP3343864B2 (en) How to separate words
US5907631A (en) Document image processing method and system having function of determining body text region reading order
JP3278471B2 (en) Area division method
US6944344B2 (en) Document search and retrieval apparatus, recording medium and program
JPH07200745A (en) How to compare at least two image sections
JP2002203207A (en) Character recognition method, program and recording medium
JPH0728935A (en) Document image processor
JPH07230525A (en) Ruled line recognition method and table processing method
US11710331B2 (en) Systems and methods for separating ligature characters in digitized document images
JPH0991385A (en) Character recognition dictionary adding method and terminal ocr device using same
JPH06180771A (en) English letter recognizing device
JPH09288714A (en) Table recognition method and device
JP4810853B2 (en) Character image cutting device, character image cutting method and program
JPH06348911A (en) English character recognition device
JP2963474B2 (en) Similar character identification method
JPH0728934A (en) Document image processor
JP3276554B2 (en) Format recognition device and character reader
JPH04241074A (en) Automatic document clean copying device
JPH01292586A (en) Back-up device for recognition of character
JPH01171080A (en) Recognizing device for error automatically correcting character
JPH09269970A (en) Character recognition method and device
JP3071479B2 (en) Line spacing detection method
JP2977244B2 (en) Character recognition method and character recognition device
JP2004013188A (en) Business form reading device, business form reading method and program therefor