JP3021928B2 - Document image processing method - Google Patents
Document image processing methodInfo
- Publication number
- JP3021928B2 JP3021928B2 JP4052238A JP5223892A JP3021928B2 JP 3021928 B2 JP3021928 B2 JP 3021928B2 JP 4052238 A JP4052238 A JP 4052238A JP 5223892 A JP5223892 A JP 5223892A JP 3021928 B2 JP3021928 B2 JP 3021928B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- document
- unit
- input
- shading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 17
- 238000003708 edge detection Methods 0.000 claims description 12
- 230000008719 thickening Effects 0.000 claims description 5
- 239000002131 composite material Substances 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 13
- 238000007906 compression Methods 0.000 description 13
- 230000012447 hatching Effects 0.000 description 13
- 238000000605 extraction Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000012015 optical character recognition Methods 0.000 description 5
- 230000002265 prevention Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 3
- 238000003706 image smoothing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 102100032723 Structural maintenance of chromosomes protein 3 Human genes 0.000 description 1
- 101710117918 Structural maintenance of chromosomes protein 3 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Editing Of Facsimile Originals (AREA)
- Controls And Circuits For Display Device (AREA)
- Character Input (AREA)
- Image Processing (AREA)
- Document Processing Apparatus (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、伝票など網掛けの存在
する文書の画像を大量に蓄積、伝送、認識する文書画像
処理システム及び文書画像処理方法に係る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document image processing system and a document image processing method for storing, transmitting, and recognizing a large amount of images of a document such as a voucher, which is shaded.
【0002】[0002]
【従来の技術】現在実用化されている文書ファイリング
システムにおいては、スキャナで入力された画像を閾値
処理、或いはディザ化の手法を用いて2値化し、MH
法、MMR法などにより圧縮して光ディスクなどの記憶
媒体に蓄積する。2. Description of the Related Art In a document filing system currently in practical use, an image input by a scanner is binarized using a threshold value processing or a dithering method, and MH is converted.
Compressed by a method such as the MMR method or the like, and stored in a storage medium such as an optical disk.
【0003】また、現在実用化されている光学的文字認
識装置においては、スキャナで入力された画像を閾値処
理し、得られたパターンを文字認識する。現在実用化さ
れている文字認識装置は網掛けのパターンに重なってい
る文字パターンを認識することはできない。このため、
現在の光学的文字認識装置で網掛け上に記入された文字
を認識するためには、網掛けの色を特定の色(ドロップ
アウトカラー)に限定し、ドロップアウトカラーのみを
光学的に脱落させる方式を用いている(例えば、特開昭
56−2073号公報参照)。Further, in an optical character recognition apparatus which is currently in practical use, an image input by a scanner is subjected to threshold processing, and the obtained pattern is subjected to character recognition. The character recognition device currently in practical use cannot recognize a character pattern overlapping a hatched pattern. For this reason,
In order to recognize the characters written on the hatch with the current optical character recognition device, the color of the hatch is limited to a specific color (dropout color), and only the dropout color is optically dropped. (For example, see Japanese Patent Application Laid-Open No. 56-2073).
【0004】[0004]
【発明が解決しようとする課題】本発明が解決しようと
する第1の課題は、網掛けのある文書画像の圧縮効率の
向上である。現在ファクシミリや文書ファイリングシス
テムで用いられている2値画像の圧縮方式はMH法、M
MR法などであるが、これらは画像の画素のラン長の系
列を符号化し圧縮する方式である。網掛けのある文書を
スキャナで入力し、単純な閾値処理或いはディザにより
2値化した画像は、白点、黒点が頻繁に交代するために
画像の圧縮効率が低い。また、多値画像の圧縮に用いら
れる離散的コサイン変換法(「画像工学」コロナ社(南
敏、中村 納 著)p144〜175参照)も網掛けの
ように空間周波数の高いパターンの多い画像の圧縮効率
は低い。このため、文書ファイリングシステムにおける
文書格納や、ファクシミリにおける画像伝送の経費の増
大をもたらす。A first object of the present invention is to improve the compression efficiency of a shaded document image. Currently, binary image compression methods used in facsimile and document filing systems are MH method, M
These are methods such as the MR method, which encode and compress a sequence of run lengths of pixels of an image. An image obtained by inputting a shaded document by a scanner and binarizing the image by simple threshold processing or dithering has a low image compression efficiency because white points and black points frequently change. Also, a discrete cosine transform method used for compression of a multi-valued image (see “Image Engineering”, Corona Co., Ltd. (Satoshi Minami, Noboru Nakamura), pp. 144-175) is also used for images with many patterns having high spatial frequencies such as shading. Compression efficiency is low. For this reason, costs for storing a document in the document filing system and for transmitting an image in a facsimile are increased.
【0005】本発明が解決しようとする第2の課題は、
網掛けに重ねて記入された文字の認識である。現在の文
字認識装置はドロップアウトカラー以外の色の網掛けの
パターンに重なっている文字パターンを認識することは
できない。このため、網掛けを記録する必要のある文書
ファイリングシステムと光学的文字認識装置で別個のス
キャナを用いる必要があり、統合的な文書システムを構
築する上での問題点となっている。A second problem to be solved by the present invention is that
Recognition of characters written over the shaded area. Current character recognition devices cannot recognize character patterns that overlap a shaded pattern of a color other than the dropout color. Therefore, it is necessary to use separate scanners for the document filing system which needs to record the hatching and the optical character recognition device, which is a problem in constructing an integrated document system.
【0006】[0006]
【課題を解決するための手段】本発明では文書中の網掛
けのパターンを除去して出力する手段を設けることによ
り、高い圧縮率を得る。また、網掛けに関する情報(網
掛け領域等)を抽出する手段を設けることにより、表示
や印刷の際には、効果的に網掛けを再生できるようにす
る。According to the present invention, a high compression ratio is obtained by providing a means for removing and outputting a hatched pattern in a document. In addition, by providing means for extracting information relating to shading (shaded area and the like), shading can be effectively reproduced at the time of display or printing.
【0007】また、網掛けのパターンを除去することに
より、網掛け上に記入、印刷された文字を認識できるよ
うなシステムを提供する。Another object of the present invention is to provide a system capable of recognizing characters written and printed on the hatching by removing the hatching pattern.
【0008】[0008]
【作用】網掛けのある文書の2値画像より網掛けを除去
すると画像のランの数が減少する。このため、MH法、
MMR法等による画像の圧縮効率を高めることができ
る。多値画像においても網掛けを除去すると高い周波数
成分の領域が減少するため、離散的コサイン変換法によ
る画像の圧縮の圧縮効率を高めることができる。When the hatching is removed from the binary image of the shaded document, the number of runs of the image is reduced. For this reason, the MH method,
The compression efficiency of the image by the MMR method or the like can be improved. Even in a multi-valued image, when shading is removed, the region of high frequency components is reduced, so that the compression efficiency of image compression by the discrete cosine transform method can be increased.
【0009】ドロップアウトカラー以外の色の網掛けの
存在する文書を入力し、得られた画像より網掛けのパタ
ーンを除去することにより、従来のドロップアウトカラ
ーにより網掛けを除去した場合と同様の画像を得ること
ができる。この画像を文字認識装置の入力とすることに
より、網掛けに重なっている文字パターンを認識するこ
とができる。By inputting a document having a shade other than the dropout color and removing the shaded pattern from the obtained image, the same processing as in the case where the shade is removed by the conventional dropout color is performed. Images can be obtained. By using this image as an input to the character recognition device, it is possible to recognize a character pattern that is superimposed on the hatching.
【0010】[0010]
【実施例】以下、本発明の実施例を図面に基いて詳細に
説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0011】図1は本発明の第1の実施例の構成を示
す。本実施例は、網掛けの存在する定形文書の画像を効
率よく保存(蓄積)、検索、出力する総合的な、文書画
像処理システム(例えば、文書ファイリングシステム)
である。FIG. 1 shows the configuration of a first embodiment of the present invention. The present embodiment is a comprehensive document image processing system (for example, a document filing system) for efficiently storing (accumulating), retrieving, and outputting an image of a fixed-form document having shading.
It is.
【0012】まず、文書を読み取り2値画像を出力す
る、イメージスキャナ等の画像入力装置である基準画像
入力部101により基準文書の基準画像を入力する。基準
画像は書き込みのされていない、例えば金融機関、公共
機関、一般企業等で使われる伝票などの定形文書の画像
である。文書書式特徴抽出部105は基準画像から枠線な
どの定形文書の書式を認識するための特徴を自動的に抽
出する。文書書式特徴記憶部106は文書書式特徴抽出部1
05において抽出された文書の特徴を記憶する。基準画像
記憶部107は基準画像を記憶する。First, a reference image of a reference document is input by a reference image input unit 101 which is an image input device such as an image scanner which reads a document and outputs a binary image. The reference image is an image of a non-written fixed form document such as a slip used in a financial institution, a public institution, a general company, or the like. The document format feature extraction unit 105 automatically extracts features for recognizing the format of a fixed document such as a frame line from the reference image. The document format feature storage unit 106 is a document format feature extraction unit 1
The features of the document extracted in 05 are stored. The reference image storage unit 107 stores a reference image.
【0013】登録すべき文書の画像即ち登録画像は、イ
メージスキャナ等の画像入力装置である登録画像入力部
102により2値画像として入力する。登録画像は、上記
基準文書に手で書き込み等が施された定形文書の画像で
ある。文書書式認識部108は文書書式特徴記憶部106の内
容を参照し、登録画像を解析して登録文書の書式を認識
する。文書書式特徴記憶部109は文書書式認識部108によ
り認識された文書の書式の認識結果を記憶する。網掛け
除去処理部110は登録画像より網掛けを除去した2値画
像、即ち網掛け除去画像を出力する。この際、文書書式
認識部108の認識結果に対応する基準画像を基準画像記
憶部107より検索し、検索された基準画像中の網掛けの
濃度、線数を参照することにより効果的に網掛けを除去
する。網掛け除去画像記憶部111は網掛け除去画像を符
号化し記憶する。網掛け除去画像は、文書の枠線や文字
などのみからなり、ランの数が大幅に減少している。こ
のため、MH法やMMR法で符号化する際の圧縮効率が
高く、網掛けを除去しない場合に比べ多数の文書を格納
できるようになる。An image of a document to be registered, that is, a registered image is registered image input unit which is an image input device such as an image scanner.
According to 102, a binary image is input. The registered image is an image of a standard document in which the reference document is manually written or the like. The document format recognition unit 108 refers to the contents of the document format feature storage unit 106, analyzes the registered image, and recognizes the format of the registered document. The document format feature storage unit 109 stores the recognition result of the document format recognized by the document format recognition unit 108. The shading removal processing unit 110 outputs a binary image obtained by removing shading from the registered image, that is, a hatched image. At this time, the reference image corresponding to the recognition result of the document format recognition unit 108 is retrieved from the reference image storage unit 107, and the density is effectively shaded by referring to the density and the number of lines in the retrieved reference image. Is removed. The shaded image storage unit 111 encodes and stores the shaded image. The shading-removed image is composed of only the frame lines and characters of the document, and the number of runs is greatly reduced. For this reason, the compression efficiency at the time of encoding by the MH method or the MMR method is high, and a larger number of documents can be stored as compared with a case where shading is not removed.
【0014】登録された画像を検索する際には、キーボ
ード等の入力手段である画像検索条件入力部103により
文書画像の検索条件を入力する。基準画像検索部112は
入力された検索条件に合致する文書の文書書式を文書書
式特徴記憶部109より検索し、検索された文書書式に対
応する2値画像を基準画像記憶部107より検索し出力す
る。網掛け除去画像検索部113は入力された検索条件に
合致する文書の網掛け除去画像を網掛け除去画像記憶部
111中から検索し出力する。綱掛け合成画像処理部114は
基準画像検索部112の出力および網掛け除去画像検索部1
13の出力を論理和を取ることにより合成し出力する。基
準画像と網掛け除去画像を合成して出力することによ
り、登録画像から除去された網掛けを再現した画像を表
示、印刷等に用いることができる。115は2値画像を記
憶する磁気ディスク、光(光磁気)ディスク等の綱掛け合
成画像記憶部、116は2値画像を伝送するファクシミリ
等の綱掛け合成画像伝送部、117は2値画像を印刷する
プリンタ等の綱掛け合成画像印刷部、118は2値画像を
表示するCRT等の綱掛け合成画像表示部である。When retrieving a registered image, a retrieval condition of a document image is inputted by an image retrieval condition input unit 103 which is an input means such as a keyboard. The reference image search unit 112 searches the document format feature storage unit 109 for a document format of a document that matches the input search condition, and searches and outputs a binary image corresponding to the searched document format from the reference image storage unit 107. I do. The shaded image search unit 113 stores the shaded image of the document that matches the input search condition in the shaded image storage unit.
Search and output from 111. The strapping composite image processing unit 114 is the output of the reference image searching unit 112 and the shading removal image searching unit 1
Thirteen outputs are combined and output by ORing. By combining and outputting the reference image and the shading-removed image, an image reproducing the shading removed from the registered image can be used for display, printing, and the like. Numeral 115 denotes a magnetic disk or optical (magneto-optical) disk for storing a binary image, and a trapping composite image storage unit such as a facsimile for transmitting a binary image. Reference numeral 117 denotes a binary image. A strapping composite image printing unit such as a printer for printing, and a strapping composite image display unit 118 such as a CRT for displaying a binary image.
【0015】図2は網掛け除去処理の処理過程を説明す
る画像例である。201は画像入力装置である基準画像入
力部101に入力される基準画像を模式的に表す(図2
(a))。基準画像201は予め印刷された文字、枠線、網掛
けなどを含むものからなる。202は画像入力装置である
登録画像入力部102に入力される登録画像を模式的に表
す(図2(b))。登録画像202は基準文書に書き込み等が
施された定形文書の画像である。203は網掛け除去処理
部110の出力である網掛け除去画像を模式的に表す(図
2(c)) 。網掛け除去画像203は文書の枠線や文字など
のみからなる。204は登録画像202より網掛けの領域の画
素を1、それ以外の領域の画素の値を0とした画像、すな
わち網掛け領域画像を模式的に表す(図2(d))。FIG. 2 illustrates the process of the shading removal process .
That is an image example. Reference numeral 201 schematically represents a reference image input to the reference image input unit 101, which is an image input device (FIG. 2).
(a)). The reference image 201 includes characters, frame lines, hatching, and the like, which are printed in advance. Reference numeral 202 schematically represents a registered image input to the registered image input unit 102, which is an image input device (FIG. 2B). The registered image 202 is an image of a standard document in which a reference document is written or the like. Reference numeral 203 schematically represents a hatched image which is an output of the hatched removal processing unit 110 (FIG. 2C). The shading-removed image 203 is composed of only the document frame lines and characters. Reference numeral 204 denotes an image in which the value of the pixel in the shaded area is 1 and the value of the pixel in the other area is 0 from the registered image 202, that is, the shaded area image is schematically shown ( FIG. 2D ).
【0016】図3は本発明における綱掛け除去処理部11
0の構成の一例を示す。313は図1の文書書式認識部108の
出力に応じた基準画像を基準画像記憶部107より検索す
る基準画像検索部である。314は検索された基準画像よ
り、網掛け除去処理を施す領域のフィルタのマトリック
ス(図4にて説明する)、閾値等のパラメータを決定し出
力する処理パラメータ決定部である。パラメータは書式
毎に予め決定し、記憶していたものを出力してもよい。
301はディザ化された2値画像である画像(図2(b)で示し
た202)を入力する画像入力部である。綱掛けの印刷され
た文書画像を通常の閾値処理により2値化すると、綱掛
け部分はつぶれてしまい、綱掛け上に印刷された文字は
判読不能になる。組織的ディザを用いると文字のパター
ンがぼけてしまう。誤差拡散によるディザ画像を用いる
と人間の目に判読可能な文字パターンが得られる。しか
し誤差拡散による画像の画素のパターンは綱掛けの綱点
ではなく画像の平均的な濃度に依存し、テンプレートや
フーリエ測度を用いたテクスチュア解析による綱掛け領
域の分離は困難になる。ここで説明する方式は特にこう
した誤差拡散画像の特徴に対応した処理である。ぼかし
処理部302、縦エッジ検出処理部304、横エッジ検出処理
部306は2値画像に対し線形空間フィルタ処理を行い多
値の画像を出力するフィルタ処理を行なう。ぼかし処理
部302はディザ画像より近似的に元の多値データを復元
するのと同等の効果をもたらす。縦エッジ検出処理部30
4、横エッジ検出処理部306の各処理部は、ディザ画像よ
り近似的に元の多値データを復元し微分を行うのと同等
の効果をもたらす。ぼかし処理部302、縦エッジ検出処
理部304、横エッジ検出処理部306の各処理結果を閾値処
理部303、305、307、により閾値処理する。論理和処理
部308、309は、閾値処理部303、305、307の出力の論理
和を出力する。太め処理部310は論理和処理部309の出力
である2値画像の8近傍太め処理を行う。311は太め処理
部310の出力と原画像論理積をとる論理積処理部、312は
2値画像を出力する画像出力部である。尚、綱掛け除去
処理部はLSI化すると処理が高速化されて、ハードウ
ェア規模の削減等にもつながり好都合である。FIG. 3 is a diagram showing a trapping removal processing unit 11 according to the present invention.
An example of the configuration of 0 is shown. A reference image search unit 313 searches the reference image storage unit 107 for a reference image according to the output of the document format recognition unit 108 in FIG. A processing parameter determination unit 314 determines and outputs parameters such as a matrix of a filter (described in FIG. 4) and a threshold value of a region to be subjected to shading removal processing from the retrieved reference image. The parameter may be determined in advance for each format, and the stored one may be output.
301 is an image input unit for inputting an image (202 shown in FIG. 2 (b)) is a binary image which has been dithered. If the document image on which the string is printed is binarized by the normal threshold processing, the string portion is crushed, and the characters printed on the string become unreadable. Using organized dither blurs character patterns. When a dither image based on error diffusion is used, a character pattern readable by human eyes can be obtained. However, the pixel pattern of the image due to error diffusion depends on the average density of the image, not on the rope point of the rope, and it becomes difficult to separate the rope area by texture analysis using a template or a Fourier measure. The method described here is a process particularly corresponding to the characteristics of such an error diffusion image. A blur processing unit 302, a vertical edge detection processing unit 304, and a horizontal edge detection processing unit 306 perform a linear spatial filtering process on a binary image and perform a filtering process for outputting a multi-valued image. The blur processing unit 302 has the same effect as approximately restoring the original multi-valued data from the dither image. Vertical edge detection processing unit 30
4. Each processing unit of the horizontal edge detection processing unit 306 has an effect equivalent to approximately restoring the original multi-valued data from the dither image and performing differentiation. Each processing result of the blur processing unit 302, the vertical edge detection processing unit 304, and the horizontal edge detection processing unit 306 is subjected to threshold processing by threshold processing units 303, 305, and 307. The OR processing units 308 and 309 output the OR of the outputs of the threshold processing units 303, 305 and 307. The thickening unit 310 performs an 8-neighbor thickening process on the binary image output from the OR processing unit 309. Reference numeral 311 denotes a logical product processing unit that calculates the logical product of the output of the thickening processing unit 310 and the original image, and reference numeral 312 denotes an image output unit that outputs a binary image. It is to be noted that the processing of the tether removal processing unit by using an LSI is accelerated, which leads to a reduction in hardware scale and the like, which is convenient.
【0017】図4は網掛け除去処理に用いられるフィル
タのマトリックスを示す。上記ぼかし処理部302におい
ては図4(a)に示すようなマトリックスを用いたフィル
タ処理を行う。この処理より文字、枠線など黒画素の集
中している領域を抽出できる。縦エッジ検出処理部304
および横エッジ検出処理部306では各々403および402に
示すようなマトリックスを用いたフィルタ処理を行う。
この処理により文字や枠線の縁など黒画素の密度が急激
に変化している領域を抽出できる。402は横方向の黒画
素の密度の変化を検出するためのマトリックス、403は
縦方向の黒画素の密度の変化を検出するためのマトリッ
クスである。FIG. 4 shows a matrix of filters used in the shading removal processing. The blur processing unit 302 performs a filter process using a matrix as shown in FIG. Through this processing, an area where black pixels are concentrated, such as characters and frame lines, can be extracted. Vertical edge detection processing unit 304
The horizontal edge detection processing unit 306 performs filter processing using matrices such as 403 and 402.
By this processing, it is possible to extract a region where the density of black pixels is rapidly changing, such as the edge of a character or a frame line. 402 is a matrix for detecting changes in the density of black pixels in the horizontal direction, and 403 is
9 is a matrix for detecting a change in the density of black pixels in the vertical direction.
【0018】図5は本発明における網掛け除去処理の手
順の一例を示す。ステップ501において入力された登録
画像1のぼかし処理が実行され2濃度の復元がなされ、多
値画像2が出力される。ステップ502において画像2の閾
値処理が実行され、2値画像3が出力される。ステップ5
03において入力画像1の横方向エッジ検出処理が実行さ
れ、多値画像4が出力される。ステップ504において画像
4の閾値処理が実行され、2値画像5が出力される。ステ
ップ505において入力画像1の縦方向エッジ検出処理が実
行され、多値画像6が出力される。ステップ506において
画像4の閾値処理が実行され、2値画像7が出力される。
ステップ507において画像5と画像7の論理和処理が実行
され、2値画像8が出力される。ステップ508において画
像8と画像3の論理和処理が実行され、2値画像9が出力
される。ステップ509において画像9の太め処理が実行さ
れ、2値画像10が出力される。ステップ510において画
像1と画像10の論理積処理が実行され、2値画像11が出
力される。画像11が、画像1より網掛けを除去した画像
である。FIG. 5 shows an example of the procedure of the shading removal processing in the present invention. In step 501, the blurring process of the input registered image 1 is executed to restore 2 densities, and the multi-valued image 2 is output. In step 502, threshold processing of image 2 is performed, and a binary image 3 is output. Step 5
At 03, the horizontal edge detection processing of the input image 1 is executed, and the multi-value image 4 is output. Image in step 504
4 is performed, and a binary image 5 is output. In step 505, the vertical edge detection processing of the input image 1 is performed, and the multivalued image 6 is output. In step 506, threshold processing of the image 4 is performed, and the binary image 7 is output.
In step 507, the logical sum processing of the image 5 and the image 7 is executed, and the binary image 8 is output. In step 508, the logical sum processing of the image 8 and the image 3 is executed, and the binary image 9 is output. In step 509, the thickening process of the image 9 is executed, and the binary image 10 is output. In step 510, the logical product of the image 1 and the image 10 is executed, and the binary image 11 is output. Image 11 is an image obtained by removing shading from image 1.
【0019】綱掛け除去処理は、図4に示すようなフィ
ルタを用いる例で説明したが、他に(1)フーリエ測度を
用いる方式(R.Bajcsy,“ComputerIdentificationofVisu
alSurface",ComputerGraphicsandImageProcessing,Vol.
2,1973,pp118〜130等参照),(2)2次測度を用いる方式(R
obertM.Haralicketal“TexturalFeaturesforImageClass
ification",IEEETRANSACTIONSONSYSTEMS,MAN,ANDCYBERN
ETICS,VOL.SMC-3,No,6NOVEMBER1973,pp610〜621等参
照)、など種々な方式の利用が可能である。Although the trapping removal processing has been described using an example using a filter as shown in FIG. 4, (1) a method using a Fourier measure (R. Bajcsy, “ComputerIdentificationofVisu
alSurface ", ComputerGraphicsandImageProcessing, Vol.
2,1973, pp118-130 etc.), (2) Method using secondary measure (R
obertM.Haralicketal “TexturalFeaturesforImageClass
ification ", IEEETRANSACTIONSONSYSTEMS, MAN, ANDCYBERN
ETICS, VOL. SMC-3, No., 6NOVEMBER1973, pp. 610 to 621, etc.) can be used.
【0020】図6は、本発明における第2の実施例の構
成を示す。本実施例は、例えば一種類の基準画像と登録
画像とを入力して綱掛けを除去して合成する比較的小規
模な文書ファイリングシステムの例である。尚、第2の
実施例として示した文書ファイリングシステムとは文書
の蓄積を主な目的とするシステムをいう。FIG. 6 shows the configuration of a second embodiment of the present invention. The present embodiment is an example of a relatively small-scale document filing system in which, for example, one type of reference image and a registered image are inputted, and the stitches are removed and combined. The document filing system shown as the second embodiment refers to a system whose main purpose is to store documents.
【0021】601は基準となる文書を読み取り2値画像
を出力する、イメージスキャナ等の画像入力装置である
基準画像入力部、602は基準となる2値画像を記憶する
基準画像記憶部、603は基準となる文書に書き込み等が
施された登録画像を読み取り、2値画像を出力するイメ
ージスキャナ等の画像入力装置である登録画像入力部、
604は登録画像より網掛けを除去する網掛け除去処理
部、605は綱掛け除去された2値画像を記憶する綱掛け
除去画像記憶部、606は入力された2つの2値画像を合
成する綱掛け合成画像合成部、607は綱掛け合成した2
値画像を出力する綱掛け合成画像出力部である。Reference numeral 601 denotes a reference image input unit which is an image input device such as an image scanner for reading a reference document and outputting a binary image. Reference numeral 602 denotes a reference image storage unit for storing a reference binary image. A registered image input unit that is an image input device such as an image scanner that reads a registered image in which a reference document is written or the like and outputs a binary image;
Reference numeral 604 denotes a hatching removal processing unit that removes hatching from a registered image; 605, a hatching removal image storage unit that stores a binary image from which hatching has been removed; and 606, a rope that combines two input binary images. Multiplied composite image synthesizing unit, 607: Tapped composite 2
This is a clockwork composite image output unit that outputs a value image.
【0022】尚、第2の実施例は、第1の実施例と比較
して基準画像が明確に定まっているため、基準画像の文
書の書式の特徴を抽出し記憶する文書書式特徴抽出部10
5、文書書式特徴記憶部106を有していない。また、登録
画像に対しても文書書式認識部108、文書書式特徴記憶
部109を有しておらず、登録画像に対して、直接網掛け
除去処理部604にて網掛け除去の処理を行なう。更に、
明確に定まっている定形文書などを扱うため、文書書式
を意識した登録画像の検索の必要はなく、第1の実施例
のような基準画像検索部112、網掛け除去画像検索部113
は有していない。出力に際しては、基準画像記憶部602
の基準画像と、網掛け除去画像記憶部605の網掛け除去
画像を直接網掛け合成画像処理部606にて合成すればよ
い。In the second embodiment, since the reference image is clearly defined as compared with the first embodiment, the document format feature extraction unit 10 extracts and stores the features of the document format of the reference image.
5. The document format feature storage unit 106 is not provided. Also, the registered image does not have the document format recognition unit 108 and the document format feature storage unit 109, and the shading removal processing is directly performed on the registered image by the shading removal processing unit 604. Furthermore,
There is no need to search for registered images in consideration of the document format, because a fixed-form document or the like that is clearly defined is handled. The reference image search unit 112 and the shading-removed image search unit 113 as in the first embodiment are used.
Do not have. Upon output, the reference image storage unit 602
The reference image and the shading-removed image stored in the shading-removed image storage unit 605 may be directly synthesized by the shading composite image processing unit 606.
【0023】網掛け合成画像出力部607は、第1の実施
例で示したように、プリンタ、ファクシミリ、CRTなど
の手段により綱掛け合成画像処理部606の処理結果を出
力する。本実施例によれば、基準画像が明確に定まって
いる定形文書から綱掛けを除去する場合、少ないハード
ウェアで効率よくファイリングできる。As shown in the first embodiment, the hatched composite image output unit 607 outputs the processing result of the hatched composite image processing unit 606 by means such as a printer, a facsimile, and a CRT. According to this embodiment, filing can be efficiently performed with a small amount of hardware when removing a ticking from a fixed document whose reference image is clearly defined.
【0024】図7は、本発明における第3の実施例の構
成を示す。本実施例は、文書の書式等の画像条件を入力
して、記憶されている種々の基準画像と合成する文書フ
ァイリングシステムの例である。FIG. 7 shows the configuration of a third embodiment of the present invention. This embodiment is an example of a document filing system in which image conditions such as a document format are input and combined with various stored reference images.
【0025】登録すべき文書の画像即ち登録画像は、2
値画像としてイメージスキャナ等の画像入力装置である
登録画像入力部701により入力する。網掛け除去処理部7
03は登録画像より網掛けを除去した2値画像即ち網掛け
除去画像を出力する。網掛け除去画像記憶部705は、上
記網掛け除去処理部703により網掛けの除去された画像
を、符号化し記憶する。登録された画像を検索する際に
は、キーボード等の入力手段である画像検索条件入力部
702により文書画像の検索条件を入力する。綱掛け除去
画像検索部704は入力された検索条件に合致する文書の
網掛け除去画像を網掛け除去画像記憶部705中から検索
し出力する。文書書式認識部706は予め記憶しておいた
文書書式特徴記憶部707の内容を参照し登録画像を解析
して登録文書の書式を認識する。基準画像検索部708は
入力された文書書式に対応する基準画像を予め記憶して
おいた基準画像記憶部709より検索し出力する。綱掛け
合成画像処理部710は基準画像検索部708の出力および画
像検索部704の出力を合成する。網掛け合成画像出力部7
11はプリンタ、ファクシミリ、CRTなどの手段により網
掛け合成画像処理部710の処理結果を出力する。The image of the document to be registered, that is, the registered image is 2
A value image is input by a registered image input unit 701 which is an image input device such as an image scanner. Shading removal processing unit 7
03 outputs a binary image in which shading has been removed from the registered image, that is, a hatched image. The shading-removed image storage unit 705 encodes and stores the image from which shading has been removed by the shading removal processing unit 703. When searching for registered images, an image search condition input unit, which is an input means such as a keyboard, is used.
A search condition of a document image is input by using a button 702. The tug-removed image search unit 704 searches the hatched-removed image storage unit 705 for a hatched-removed image of a document that matches the input search condition, and outputs it. The document format recognition unit 706 analyzes the registered image with reference to the contents of the document format feature storage unit 707 stored in advance, and recognizes the format of the registered document. The reference image search unit 708 searches for and outputs a reference image corresponding to the input document format from the reference image storage unit 709 that stores the reference image in advance. The clockwork composite image processing unit 710 combines the output of the reference image search unit 708 and the output of the image search unit 704. Shaded composite image output unit 7
Reference numeral 11 outputs the processing result of the shaded composite image processing unit 710 by means such as a printer, a facsimile, and a CRT.
【0026】尚、第3の実施例は、第1の実施例と比較
して、登録画像の検索を行なう際に文書の書式を認識し
て網掛け合成画像を出力する点に特徴がある。つまり、
第1の実施例では、いかなる登録画像が入力されるかシ
ステム構築時には特定せず、どんな定形文書に対しても
対応できるよう、まず文書書式特徴抽出部105、文書書
式特徴記憶部106にて基準画像の文書書式の特徴抽出及
び記憶を行なっておき、登録画像に対して、文書書式認
識部108、文書書式特徴記憶部109にて登録画像の文書書
式の特徴抽出及び記憶を行なった後、入力された検索条
件に合致する文書書式を基準画像検索部112にて検索す
る構成を採っている。これに対し、第3実施例では、登
録画像は1種類ではないものの、予め定められた何種類
かの定形文書であるという前提に基づいている。その何
種類かの定形文書の基準画像を基準画像記憶部709に記
憶しておき、網掛け除去画像検索部704に入力された検
索条件に合致する文書の網掛け除去画像を網掛け除去画
像記憶部705の中から検索した後、文書書式認識部706に
て予め記憶しておいた文書書式特徴記憶部707の内容を
参照して登録画像の書式を認識する。そして、基準画像
検索部708にて予め記憶しておいた基準画像記憶部709の
何種類かの定形文書の基準画像と合致するものを選択
し、網掛け合成画像処理部710にての所望の網掛け合成
画像を得ようとするものである。It should be noted that the third embodiment is characterized in that the format of a document is recognized and a shaded composite image is output when a registered image is searched, as compared with the first embodiment. That is,
In the first embodiment, first, the document format feature extraction unit 105 and the document format feature storage unit 106 determine the reference image to be input so that any registered image is not specified when the system is constructed. After extracting and storing the features of the document format of the image, and extracting and storing the features of the document format of the registered image in the document format recognition unit 108 and the document format feature storage unit 109 for the registered image, A configuration is employed in which the reference image search unit 112 searches for a document format that matches the search condition thus obtained. On the other hand, the third embodiment is based on the premise that although the registered image is not one type, it is some predetermined type of fixed-form document. The reference images of the several types of fixed-form documents are stored in the reference image storage unit 709, and the shading-removed images of the documents that match the search conditions input to the shading-removed image search unit 704 are stored. After searching from the section 705, the document format recognition section 706 recognizes the format of the registered image with reference to the contents of the document format feature storage section 707 stored in advance. Then, the reference image search unit 708 selects the images that match the reference images of several types of fixed-form documents stored in the reference image storage unit 709 in advance, and selects the desired images in the shaded composite image processing unit 710. This is to obtain a shaded composite image.
【0027】本実施例によれば、何種類もの基準画像を
予め記憶しておけば、基準画像を特定しなくとも、登録
画像より綱掛けを除去して合成できる。According to the present embodiment, if a number of types of reference images are stored in advance, it is possible to remove the tether from the registered image and combine them without specifying the reference image.
【0028】図8は、本発明における第4の実施例の構
成を示す。本実施例は、第1〜第3の実施例とは対象を
異にし、綱掛け除去した画像を伝送する文書画像伝送シ
ステム(例えば、ファクシミリ)の例である。FIG. 8 shows the configuration of a fourth embodiment of the present invention. This embodiment is an example of a document image transmission system (e.g., facsimile) that transmits an image from which a string has been removed, which is different from the first to third embodiments.
【0029】入力すべき文書の画像即ち入力画像は、2
値画像として画像入力装置である文書画像入力部801に
より入力する。網掛け除去処理部801は入力画像より網
掛けを除去した2値画像即ち網掛け除去画像を出力す
る。網掛け除去画像伝送部803は網掛け除去画像を伝送
する。網掛け領域抽出部804は、図2の204に示すよう
な、入力画像に網掛けの存在する領域は1、それ以外の
領域は0の値を持つ2値画像即ち網掛け領域画像を出力
する。網掛け領域画像伝送部805は網掛け領域画像を伝
送する。網掛け生成部806は網掛け領域画像伝送部805に
より伝送された網掛け領域画像を入力とし画素の値が1
の領域に網掛けを生成した画像即ち網掛け再生画像を出
力する。綱掛け合成画像処理部807は網掛け除去画像伝
送部803により伝送された網掛け除去画像および網掛け
再生画像を合成する。綱掛け合成画像出力部808は、第
1の実施例で示したようにプリンタ、CRTなどにより綱
掛け合成画像処理部807の処理結果を出力する。The image of the document to be input, that is, the input image is 2
A value image is input by a document image input unit 801 which is an image input device. The shading removal processing unit 801 outputs a binary image obtained by removing shading from the input image, that is, a shaded image. The shaded image transmission unit 803 transmits the shaded image. The shaded area extraction unit 804 outputs a binary image having a value of 1 in the shaded area of the input image and a value of 0 in other areas, that is, a shaded area image, as indicated by 204 in FIG. . A shaded area image transmission unit 805 transmits a shaded area image. The shaded area generating unit 806 receives the shaded area image transmitted by the shaded area image transmission unit 805 as an input and the pixel value is 1
And outputs a hatched image, that is, a hatched reproduced image. The hatching combined image processing unit 807 combines the hatched removal image and the hatched reproduction image transmitted by the hatched removal image transmission unit 803. The strapping composite image output unit 808 outputs the processing result of the strapping composite image processing unit 807 using a printer, a CRT, or the like as described in the first embodiment.
【0030】尚、第4の実施例において、文書画像入力
部801、網掛け除去処理部802、及び網掛け領域抽出部80
4を画像送信装置に、網掛け生成部806、網掛け合成画像
処理部807、及び網掛け合成画像処理部808を遠隔に置か
れた画像受信装置に設ける構成が考えられる。In the fourth embodiment, a document image input unit 801, a shade removal processing unit 802, and a shaded region extraction unit 80
4 may be provided in the image transmitting apparatus, and the shading generating section 806, the shading synthetic image processing section 807, and the shading synthetic image processing section 808 may be provided in the remotely located image receiving apparatus.
【0031】本実施例によれば、文書画像を入力する画
像入力装置が遠隔地にあっても、綱掛け除去画像を伝送
して、合成することにより、一括して処理することがで
き、例えば支店、本店間の文書伝送処理等に適用可能で
ある。According to the present embodiment, even if the image input device for inputting the document image is located at a remote place, the image can be collectively processed by transmitting and synthesizing the image from which the trapping-removed image is transmitted. The present invention is applicable to a document transmission process between a branch and a head office.
【0032】図9は、本発明における第5の実施例の構
成を示す。本実施例も文書画像伝送システム(例えば、
ファクシミリ)の一例である。図8に示した第4の実施
例は基準画像を持たず、網掛け領域を抽出したが、本実
施例は基準画像を予め記憶しておき、文書の書式も伝送
するものである。901は画像送信装置、902は上記画像送
信装置と遠隔に置かれた画像受信装置を示す。FIG. 9 shows the configuration of a fifth embodiment of the present invention. This embodiment is also a document image transmission system (for example,
Facsimile). Although the fourth embodiment shown in FIG. 8 does not have a reference image and extracts a shaded area, this embodiment stores a reference image in advance and transmits a document format. Reference numeral 901 denotes an image transmitting device, and 902 denotes an image receiving device placed remotely from the image transmitting device.
【0033】入力すべき文書の画像即ち入力画像は、2
値画像として画像入力装置である文書画像入力部903に
より入力する。文書書式認識部904は、文書書式特徴記
憶部905の内容を参照し文書の2値画像の特徴を解析す
ることにより、入力画像の書式を認識する。網掛け除去
処理部906は入力画像より網掛けを除去した2値画像即
ち網掛け除去画像を出力する。文書書式伝送部907は文
書書式認識部904の出力を画像送信装置901から画像受信
装置902へ伝送する。網掛け除去画像伝送部908は網掛け
除去画像を画像送信装置901から画像受信装置902へ伝送
する。基準画像記憶部909は2値画像である基準画像を
記憶する。基準画像検索部910は文書書式伝送部907によ
り伝送された文書書式に対応する2値画像を基準画像記
憶部909より検索し出力する。綱掛け合成画像処理部911
は基準画像検索部910の出力と網掛け除去画像伝送部908
により伝送された網掛け除去画像を合成する。綱掛け合
成画像出力部912はプリンタ、CRTなどにより綱掛け合成
画像処理部911の処理結果を出力する。The image of the document to be input, that is, the input image is 2
The value image is input by the document image input unit 903 which is an image input device. The document format recognition unit 904 recognizes the format of the input image by referring to the contents of the document format feature storage unit 905 and analyzing the features of the binary image of the document. The shading removal processing unit 906 outputs a binary image obtained by removing shading from the input image, that is, a hatched image. The document format transmission unit 907 transmits the output of the document format recognition unit 904 from the image transmitting device 901 to the image receiving device 902. The shaded image transmission unit 908 transmits the shaded image from the image transmitting device 901 to the image receiving device 902. The reference image storage unit 909 stores a reference image that is a binary image. The reference image search unit 910 searches the reference image storage unit 909 for a binary image corresponding to the document format transmitted by the document format transmission unit 907, and outputs the binary image. Tethered composite image processing unit 911
Is the output of the reference image search unit 910 and the shaded image transmission unit 908
Synthesizes the shaded image transmitted by the above. A strapping composite image output unit 912 outputs the processing result of the strapping composite image processing unit 911 by a printer, a CRT, or the like.
【0034】本実施例は、既に画像受信装置側で基準画
像が登録されているので単に文書の書式を伝送するだけ
でよく、伝送時間等が短くできるという効果がある。In this embodiment, since the reference image has already been registered on the image receiving apparatus side, it is only necessary to transmit the document format, and the transmission time and the like can be shortened.
【0035】図10は、本発明における第6の実施例の
構成を示す。本実施例は、綱掛け除去画像を文字認識に
用いる文書画像処理システム(例えば、OCR等)の例
である。FIG. 10 shows the configuration of a sixth embodiment of the present invention. The present embodiment is an example of a document image processing system (for example, OCR or the like) that uses a string-removed image for character recognition.
【0036】画像入力装置である文書画像入力部1001は
文書を読み取り2値画像を入力画像として出力する。読
み取る対象の文書は、定形の用紙に、書式ごとに指定さ
れた文字枠にに文字が追記してあるものである。この画
像入力装置である文書画像入力部1001は、文書ファイリ
ングシステム用のスキャナと同じく、網点をドロップア
ウトしないものでよい。文書書式認識部1002は文書書式
特徴記憶部1003の内容を参照し入力画像の枠線など特徴
を解析し入力された文書の書式を認識する。文字認識フ
ィールド情報記憶部1005には文書書式に対応した文字認
識の対象とする文字枠の座標が格納されている。網掛け
除去処理部1004は、上記文字認識フィールド情報記憶部
1005に格納されている文字枠座標の上記文書書式認識部
1002の出力の文書書式に対応したものを参照し、入力画
像より文字枠内の網掛けを網掛けを除去した2値画像即
ち網掛け除去画像を出力する。画像スムージング部1006
は網掛け除去画像から輪郭の凹凸や雑音を除去する。文
字認識部1007は、文字認識フィールド情報記憶部1005に
格納されている文字枠座標の文書書式認識部1002の出力
の文書書式に対応したものを参照し、画像スムージング
部1006の出力の画像中の文字を認識する。A document image input unit 1001 as an image input device reads a document and outputs a binary image as an input image. The document to be read is a document in which characters are additionally written in a character frame designated for each format on a fixed-size sheet. The document image input unit 1001, which is the image input device, may be a device that does not drop out halftone dots, similarly to a scanner for a document filing system. The document format recognition unit 1002 refers to the contents of the document format feature storage unit 1003, analyzes features such as the frame of the input image, and recognizes the format of the input document. The character recognition field information storage unit 1005 stores the coordinates of a character frame to be subjected to character recognition corresponding to the document format. The shading removal processing unit 1004 includes the character recognition field information storage unit described above.
The above document format recognition unit of the character frame coordinates stored in 1005
A binary image obtained by removing the shading in the character frame from the input image by referring to the document format corresponding to the output document format of 1002, that is, a hatched image is output. Image smoothing unit 1006
Removes contour unevenness and noise from the hatched image. The character recognition unit 1007 refers to the character frame coordinates stored in the character recognition field information storage unit 1005, which corresponds to the document format of the output of the document format recognition unit 1002, and outputs the image in the image of the image smoothing unit 1006. Recognize characters.
【0037】本実施例によれば、綱掛け除去した線画を
画像スムージングを施して、直接文字認識に利用できる
効果がある。According to the present embodiment, there is an effect that the line drawing from which the string has been removed can be subjected to image smoothing and used directly for character recognition.
【0038】図11は、本発明における第7の実施例を
示す。本実施例は、綱掛け領域を検出し、綱掛けを除去
せずに、綱掛けの影響を受けない2値画像を出力する画
像入力装置(例えば、イメージスキャナ等)に関するも
のである。FIG. 11 shows a seventh embodiment of the present invention. The present embodiment relates to an image input device (for example, an image scanner or the like) that detects a tether region and outputs a binary image that is not affected by the tether without removing the tether.
【0039】文書画像入力部1101は文書を読み取り多値
画像を入力画像として出力する。網掛け領域抽出部1102
は入力画像より網掛けの領域を抽出する。つぶれ防止処
理部1103は2値化の際に網掛けのつぶれが生じるのを防
ぐため、網掛け領域抽出部1102によって抽出された網掛
け領域に対しつぶれ防止処理を施す。つぶれ防止処理と
しては、画像全体の濃度を低くするガンマ補正などの濃
度変換を用いる。2値化処理部1104は上記つぶれ防止処
理部の出力の画像を2値化する。2値化した画像は2値
画像出力部1105より出力される。A document image input unit 1101 reads a document and outputs a multivalued image as an input image. Shaded area extraction unit 1102
Extracts a shaded area from the input image. The crushing prevention processing unit 1103 performs crushing prevention processing on the shaded area extracted by the shaded area extraction unit 1102 in order to prevent shading of the shaded area during binarization. As the crush prevention processing, density conversion such as gamma correction for reducing the density of the entire image is used. The binarization processing unit 1104 binarizes the image output from the crush prevention processing unit. The binarized image is output from the binary image output unit 1105.
【0040】本実施例によれば、綱掛け文書を綱掛け除
去しなくても、網掛け領域につぶれ防止処理及び2値化
処理を行ない、2値画像に変換できるので、通常の2値
画像処理の手法をそのまま適用できるなどの効果があ
る。よって、本実施例をイメージスキャナ等の画像入力
装置に適用すれば、OCR、文書ファイリングシステム
等の文書画像処理システムの画像入力装置としてそのま
ま用いることができる。According to the present embodiment, the shading prevention processing and the binarization processing can be performed on the shaded area and the image can be converted into a binary image without removing the stringing document from the ordinary binary image. There is an effect that the processing method can be applied as it is. Therefore, if this embodiment is applied to an image input device such as an image scanner, it can be used as it is as an image input device of a document image processing system such as an OCR and a document filing system.
【0041】図12は、本発明における第8の実施例を
示す。本実施例も綱掛け除去せずに、綱掛け領域を多値
画像として処理し綱掛け無し領域を2値画像として処理
して画像を合成する文書画像処理システム(例えば、カ
ラー画像を扱う文書ファイリングシステム)の一例であ
る。FIG. 12 shows an eighth embodiment of the present invention. Also in this embodiment, a document image processing system (for example, a document filing that handles a color image) that processes a tethered area as a multi-valued image and processes an untapped area as a binary image to synthesize an image without removing the System).
【0042】登録される文書は、イメージスキャナ等の
画像入力装置である文書画像入力部1201により多値で登
録画像として入力される。網掛け領域抽出部1202は登録
画像より網掛けの領域を抽出する。領域分割部1203は網
掛け領域抽出部1202の出力より、網掛けの領域および網
掛けの無い領域の座標を求める。2値化処理部1204は領
域分割部1203を参照し網掛けの無い領域を2値化する。
領域情報記憶部1205は領域情報即ち領域の種類および座
標を記憶する。多値画像符号化部1206は領域分割部1203
を参照し網掛けの領域を多値画像で符号化する。(多値
で符号化すれば、網掛け領域であっても、背景、網掛け
のパターン、文字パターンは輝度に差があるため、それ
ぞれ固有の値として符号化でき、特に網掛けを除去する
必要が無い。)多値画像記憶部1207は多値画像符号化部1
206の出力を記憶する。2値画像符号化部1208は2値化処
理部1204の出力である網掛けの無い領域の2値画像を符
号化する。2値画像記憶部1209は2値画像符号化部1208
の出力を記憶する。A document to be registered is input as a multi-valued registered image by a document image input unit 1201 which is an image input device such as an image scanner. A shaded area extraction unit 1202 extracts a shaded area from the registered image. The area dividing unit 1203 obtains the coordinates of the shaded area and the unshaded area from the output of the shaded area extraction unit 1202. The binarization processing unit 1204 binarizes an unshaded area with reference to the area division unit 1203.
The area information storage unit 1205 stores area information, that is, area types and coordinates. The multi-level image encoding unit 1206 is divided into a region dividing unit 1203
And encode the shaded area with the multi-valued image. (If multi-valued encoding is used, even in the shaded area, the background, shaded pattern, and character pattern have differences in luminance, so they can be encoded as unique values. The multi-valued image storage unit 1207 stores the multi-valued image encoding unit 1
Store the output of 206. A binary image encoding unit 1208 encodes a binary image in an unshaded area, which is an output of the binarization processing unit 1204. The binary image storage unit 1209 is a binary image encoding unit 1208
The output of is stored.
【0043】登録された画像を検索する際には、キーボ
ード等の入力手段である検索条件入力部1210により文書
画像の検索条件を入力する。領域情報検索部1211は入力
された検索条件に合致する文書の領域情報を領域情報記
憶部1205より検索し出力する。多値画像検索部1212は入
力された検索条件に合致する文書の符号化された多値画
像を多値画像記憶部1207より検索し出力する。2値画像
検索部1213は入力された検索条件に合致する文書の符号
化された2値画像を2値画像記憶部1207より検索し出力
する。多値画像復号部1214は多値画像検索部1212の出力
を多値画像に復号する。2値画像復号部1215は2値画像
検索部1213の出力を2値画像に復号する。画像合成処理
部1216は領域情報検索部1211の出力である領域情報を参
照し、多値画像復号部1214の出力と2値画像復号部1215
の出力を合成して多値画像を出力する。1217は多値画像
を出力する多値画像出力部であり、プリンタ、ファクシ
ミリ、CRTなどにより合成画像処理部1216の処理結果を
出力する。When retrieving a registered image, a retrieval condition of a document image is inputted by a retrieval condition input unit 1210 which is an input means such as a keyboard. The area information search unit 1211 searches the area information storage unit 1205 for area information of a document that matches the input search condition, and outputs it. The multi-value image search unit 1212 searches the multi-value image storage unit 1207 for a coded multi-value image of a document that matches the input search condition, and outputs the coded multi-value image. The binary image search unit 1213 searches the binary image storage unit 1207 for an encoded binary image of a document that matches the input search condition, and outputs it. The multi-level image decoding unit 1214 decodes the output of the multi-level image search unit 1212 into a multi-level image. The binary image decoding unit 1215 decodes the output of the binary image search unit 1213 into a binary image. The image synthesis processing unit 1216 refers to the area information output from the area information search unit 1211 and outputs the output of the multi-value image decoding unit 1214 and the binary image decoding unit 1215.
Are combined to output a multi-valued image. A multi-value image output unit 1217 outputs a multi-value image, and outputs a processing result of the combined image processing unit 1216 by a printer, a facsimile, a CRT, or the like.
【0044】尚、本実施例では、網掛け領域を抽出し、
その領域のみを多値で符号化したが、全ての領域を多値
で符号化しても網掛けが施された文書を処理できるのは
言うまでもない。In this embodiment, a shaded area is extracted,
Although only the area is coded with multi-values, it is needless to say that a shaded document can be processed even if all the areas are coded with multi-values.
【0045】本実施例によれば、網掛け領域を多値で符
号化するため、綱掛けの濃い、薄いにかかわらず鮮明な
画像として処理できる。According to the present embodiment, since the shaded area is coded with multi-values, it is possible to process a clear image regardless of whether the shade is dark or light.
【0046】図13は、本発明における第9の実施例を
示す。本実施例は、綱掛け除去を行なうにあたり、条件
に応じて行なう文書画像処理システム(例えば、文書フ
ァイリングシステム)の例である。尚、本実施例の考え
方は、対象は異なっても先に説明した網掛け除去を行な
う実施例(第1〜第6の実施例)に適用できる。FIG. 13 shows a ninth embodiment of the present invention. The present embodiment is an example of a document image processing system (for example, a document filing system) that performs the removal of a trap according to conditions. The concept of the present embodiment can be applied to the above-described embodiments (first to sixth embodiments) in which shading is removed even if the object is different.
【0047】1301は文書を読み取り、2値画像を出力す
るイメージスキャナ等の画像入力装置である文書画像入
力部である。網掛け除去処理条件入力部1302は網掛け処
理を実行するか否かの条件を入力する。この条件とは、
書式の種類とか、画像濃度等であり、システム側でもオ
ペレータ側でも入力できる。網掛け除去処理領域判定部
1305は、網掛け除去処理条件入力部1302より入力された
画像の特定の領域(例えば、網掛け領域、網掛け領域の
うち一部等)が条件を満たすか否か判定する。(勿論、特
定の領域に限らず、文書の全領域に網掛けがある場合に
は全領域を対象にしてもよい。)領域分割部1306は、網
掛け除去処理領域判定部1305の出力に応じて文書画像入
力部1301からの入力画像を領域分割し、領域に応じて網
掛け除去を施す場合には、網掛け除去処理部1303に、そ
れ以外の領域は直接を画像合成処理部1307に2値画像を
出力する。網掛け除去処理部1303は網掛け除去処理条件
入力部1302に対し条件を満たしている特定の領域の文書
の網掛けを除去する。画像合成処理部1307は、特定の領
域に対し網掛け除去を施した網掛け除去処理部1303から
の2値画像と、それ以外の領域の2値画像との論理和を取
り画像を合成する。綱掛け除去画像出力部1304は、画像
合成処理部1307にて合成された2値画像を出力する2値
画像出力手段であり、プリンタ、ファクシミリ、CRTな
どにより出力する。 Reference numeral 1301 denotes a document image input unit which is an image input device such as an image scanner which reads a document and outputs a binary image. The shading removal processing condition input unit 1302 inputs a condition as to whether or not to execute shading processing. This condition is
Information such as the type of format and the image density can be input by either the system or the operator. Shading removal processing area judgment unit
A step 1305 determines whether or not a specific area (for example, a shaded area, a part of the shaded area, etc.) of the image input from the shade removal processing condition input unit 1302 satisfies the condition. (Of course, not only the specific area, but also the entire area of the document if the area is shaded.) The area dividing unit 1306 may determine the shaded area according to the output of the shaded area determination unit 1305. When the input image from the document image input unit 1301 is divided into regions and shading removal is performed according to the regions, the shading removal processing unit 1303 sends the other regions directly to the image synthesis processing unit 1307. Output a value image. The shading removal processing unit 1303 removes shading of a document in a specific area that satisfies the condition from the shading removal processing condition input unit 1302. The image synthesis processing unit 1307 obtains a logical sum of the binary image from the hatching removal processing unit 1303 that has performed shading removal on the specific area and the binary image of the other area to synthesize the image. Rope hanging removed image output unit 1304 is a binary image output means for outputting the binary image synthesized by the image synthesis processing unit 1307, you output printer, a facsimile, and the like CRT.
【0048】本実施例によれば、綱掛け除去の条件を変
えられるので種々なアプリケーションに対応できる効果
がある。According to the present embodiment, the conditions for removing the tether can be changed, so that there is an effect that various applications can be handled.
【0049】図14は本発明により綱掛けが除去された
画像を視覚的な違和感の無いものに修正する方式を説明
する図である。1501は綱掛け除去処理の施される前の画
像を示す。1502は綱掛け除去処理の施された後の画像を
示す。1503は綱掛けを除去した部分に人工的な綱掛けを
書き込んだ結果の画像を示す。書き込まれた人工的な綱
掛けは横縞のようにMH法等における符号化による圧縮効
果の高いパターンとする。この処理により、視覚的には
綱掛けを除去する前の画像と同様で符号化による圧縮効
果の高い画像が得られる。FIG. 14 is a diagram for explaining a method of correcting an image from which a leash has been removed according to the present invention so that the image does not have a visually unnatural feeling. Reference numeral 1501 denotes an image before the trapping removal processing is performed. Reference numeral 1502 denotes an image after the trapping removal processing has been performed. Reference numeral 1503 denotes an image obtained as a result of writing an artificial strap on a portion where the strap is removed. The written artificial rope is a pattern having a high compression effect by encoding in the MH method or the like, such as a horizontal stripe. By this processing, an image having a high compression effect by encoding is obtained, which is visually similar to the image before removing the tackle.
【0050】以上の実施例で説明してきた文書画像処理
システム(文書ファイリングシステムを含む)などにおけ
るの綱掛け除去、網掛け領域の抽出等の処理は、綱掛け
を用いた図面の画像データを削減すること、あるいは、
スクリーン印刷された写真中の文字を認識することなど
種々なアプリケーションに応用できる。In the document image processing system (including the document filing system) described in the above-described embodiments, the processing such as the removal of the trapping and the extraction of the shaded area reduces the image data of the drawing using the trapping. To do, or
It can be applied to various applications such as recognizing characters in screen-printed photographs.
【0051】また、綱掛け除去処理部を有するCCDセン
サ、イメージスキャナ等の画像入力装置としても、綱掛
け除去した画像を出力できるため通常の画像処理をその
まま適用できる。従って、綱掛け除去処理部をLSI等で
構成すれば、画像入力装置としても一層有効なものとな
る。Also, as an image input device such as a CCD sensor or an image scanner having a trapping removal processing section, an image from which trapping has been removed can be output, so that ordinary image processing can be applied as it is. Therefore, if the leash removal processing unit is constituted by an LSI or the like, it becomes more effective as an image input device.
【0052】[0052]
【発明の効果】本発明により、網掛けのある文書の画像
を高い圧縮率で圧縮し、記憶、伝送などに用いることが
できる。表示や印刷の際には網掛けを再生し、元の文書
を忠実に再現できる。According to the present invention, an image of a shaded document can be compressed at a high compression rate and used for storage and transmission. Shading is reproduced during display and printing, and the original document can be faithfully reproduced.
【0053】従来困難であった非ドロップアウトカラー
の網掛け上に記入、印刷された文字の認識が可能とな
る。Characters written and printed on non-dropout color shading, which were conventionally difficult, can be recognized.
【図1】本発明の一実施例の文書画像処理システムの構
成図である。FIG. 1 is a configuration diagram of a document image processing system according to an embodiment of the present invention.
【図2】網掛け除去処理の効果を示す図である。FIG. 2 is a diagram illustrating an effect of a shading removal process.
【図3】網掛け除去処理部の構成図である。FIG. 3 is a configuration diagram of a hatching removal processing unit.
【図4】網掛け除去処理の手順を示す図である。FIG. 4 is a diagram illustrating a procedure of shading removal processing.
【図5】網掛け除去処理に用いるフィルタのマトリック
スを示す図である。FIG. 5 is a diagram illustrating a matrix of filters used in a shading removal process.
【図6】本発明の一実施例の文書ファイリングシステム
の構成図である。FIG. 6 is a configuration diagram of a document filing system according to an embodiment of the present invention.
【図7】本発明の一実施例の文書ファイリングシステム
の構成図である。FIG. 7 is a configuration diagram of a document filing system according to an embodiment of the present invention.
【図8】本発明の一実施例の文書画像伝送システムの構
成図である。FIG. 8 is a configuration diagram of a document image transmission system according to an embodiment of the present invention.
【図9】本発明の一実施例の文書画像伝送システムの構
成図である。FIG. 9 is a configuration diagram of a document image transmission system according to an embodiment of the present invention.
【図10】本発明の一実施例の文字認識装置としての文
書画像処理システムの構成図である。FIG. 10 is a configuration diagram of a document image processing system as a character recognition device according to an embodiment of the present invention.
【図11】本発明の一実施例の文書画像処理システムの
構成図である。FIG. 11 is a configuration diagram of a document image processing system according to an embodiment of the present invention.
【図12】本発明の一実施例の文書ファイリングシステ
ムの構成図である。FIG. 12 is a configuration diagram of a document filing system according to an embodiment of the present invention.
【図13】本発明の一実施例の文書画像処理システムの
構成図である。FIG. 13 is a configuration diagram of a document image processing system according to an embodiment of the present invention.
【図14】綱掛け除去処理された画像を修正するための
説明図である。FIG. 14 is an explanatory diagram for correcting an image that has been subjected to a trapping removal process.
102…登録画像入力部、108…文書書式認識部、1
10…網掛け除去処理部、103…画像検索条件入力
部、114…綱掛け合成画像処理部、803…綱掛け除
去画像伝送部、1007…文字認識部。102: registered image input unit, 108: document format recognition unit, 1
10: Shading removal processing unit; 103: Image search condition input unit; 114: Twill composite image processing unit; 803: Twig removal image transmission unit; 1007: Character recognition unit.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤縄 雅章 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 藤澤 浩道 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 酒匂 裕 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 ▲高▼橋 次男 神奈川県小田原市国府津2880番地 株式 会社日立製作所小田原工場内 (72)発明者 木下 和憲 神奈川県小田原市国府津2880番地 株式 会社日立製作所小田原工場内 (72)発明者 栗野 清道 神奈川県小田原市国府津2880番地 株式 会社日立製作所小田原工場内 (72)発明者 増崎 秀文 神奈川県小田原市国府津2880番地 株式 会社日立製作所小田原工場内 (56)参考文献 特開 平2−252082(JP,A) 特開 平2−293976(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00,5/20 G06K 9/36,9/40 G06F 17/30 H04N 1/387 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masaaki Fujinawa 1-280 Higashi-Koikekubo, Kokubunji-shi, Tokyo Inside the Hitachi, Ltd. Central Research Laboratory (72) Inventor Hiromichi Fujisawa 1-280 Higashi-Koikekubo, Kokubunji-shi, Tokyo Hitachi, Ltd. Central Research Laboratory (72) Inventor Hiroshi Samori 1-280 Higashi Koikekubo, Kokubunji-shi, Tokyo Inside Hitachi, Ltd. Central Research Laboratory (72) Inventor ▲ Taka ▼ Hashio 2880 Kozu, Kokuzu, Odawara-shi, Kanagawa Prefecture Hitachi Odawara Plant, Ltd. (72) Inventor Kazunori Kinoshita 2880 Kokuzu, Odawara City, Kanagawa Prefecture Inside the Odawara Plant, Hitachi, Ltd. (72) Inventor Kiyomichi Kurino 2880 Kokuzu, Kodawara City, Kanagawa Prefecture, Japan Inside the Odawara Plant, Hitachi, Ltd. 2880 Kozu, Odawara City, Kanagawa Prefecture (56) References JP-A-2-252082 (JP, A) JP-A-2-293976 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1 / 00,5 / 20 G06K 9 / 36,9 / 40 G06F 17/30 H04N 1/387
Claims (1)
ることにより濃度を復元して多値画像を出力し、 (b)上記多値画像を閾値処理を行うことにより第1の2
値画像として出力し、 (c)上記多値画像の横方向及び縦方向のエッジ検出処理
を行い、 (d)エッジ検出処理されたそれぞれの多値画像を閾値処
理を行うことにより第2及び第3の2値画像として出力
し、 (e)上記第2及び第3の2値画像の論理和をとり第4の
2値画像を出力し、 (f)上記第1及び第4の2値画像の論理和をとり第5の
2値画像を出力し、 (g)上記第5の2値画像に対し、太め処理を行うことに
より第6の2値画像を出力し、 (h)上記(a)に入力された2値画像と第6の2値画像の論
理積をとり、網掛け除去した画像を出力することを特徴
とする文書画像処理方法。 1. A multi-valued image is output from a shaded document image by restoring the density by performing a blur process on a binary image of the input image, b) By performing threshold processing on the multi-valued image, the first 2
(C) performing horizontal and vertical edge detection processing of the multi-valued image, and (d) performing threshold processing on each of the multi-valued images subjected to the edge detection processing. (E) ORing the second and third binary images to output a fourth binary image, and (f) outputting the first and fourth binary images. (G) performing a thickening process on the fifth binary image to output a sixth binary image, and (h) performing the above (a). A) ANDing the binary image and the sixth binary image input in step (d), and outputting a shaded image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4052238A JP3021928B2 (en) | 1991-03-12 | 1992-03-11 | Document image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3-46409 | 1991-03-12 | ||
JP4640991 | 1991-03-12 | ||
JP4052238A JP3021928B2 (en) | 1991-03-12 | 1992-03-11 | Document image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05135203A JPH05135203A (en) | 1993-06-01 |
JP3021928B2 true JP3021928B2 (en) | 2000-03-15 |
Family
ID=26386524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4052238A Expired - Fee Related JP3021928B2 (en) | 1991-03-12 | 1992-03-11 | Document image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3021928B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5967623B2 (en) | 2014-05-08 | 2016-08-10 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Apparatus and method for generating a filter |
-
1992
- 1992-03-11 JP JP4052238A patent/JP3021928B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH05135203A (en) | 1993-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5754697A (en) | Selective document image data compression technique | |
JPH07200720A (en) | Compression of missing form document image | |
CA2044400A1 (en) | Image processing system for documentary data | |
US5388167A (en) | Document image processing system and document image processing method | |
US6671395B1 (en) | Document image processing with stroke preservation and background suppression | |
JP3048161B2 (en) | Color image transmission method | |
JP3021928B2 (en) | Document image processing method | |
JP2910000B2 (en) | Encoding method for binary natural image mixed still image | |
JP3045555B2 (en) | Binarization processing method for multi-tone image information | |
JPH08298589A (en) | Image processor of photograph/document mixed image | |
JP3030126B2 (en) | Image processing method | |
JP3015312B2 (en) | Color image transmission method | |
JP3005200B2 (en) | Color image transmission method | |
Sulaiman et al. | Detection and localization of splicing forgery in digital videos using convolutional auto-encoder and goturn algorithm | |
US7567725B2 (en) | Edge smoothing filter for character recognition | |
JP2505402B2 (en) | Image processing device | |
JPH08307666A (en) | Data processing unit for multi-gradation image with document and photograph in existence in mixture | |
JPH04236574A (en) | Picture coding system | |
JPS60136476A (en) | Picture processor | |
JP2505401B2 (en) | Image processing device | |
JP2509448B2 (en) | How to reduce the amount of image information | |
JP2853140B2 (en) | Image area identification device | |
JPH0879514A (en) | Image processing device | |
JP3471925B2 (en) | Copying apparatus and image processing method | |
JPH09200533A (en) | Coding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080114 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080114 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090114 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |