[go: up one dir, main page]

JPH09297765A - Document image processing method - Google Patents

Document image processing method

Info

Publication number
JPH09297765A
JPH09297765A JP8110808A JP11080896A JPH09297765A JP H09297765 A JPH09297765 A JP H09297765A JP 8110808 A JP8110808 A JP 8110808A JP 11080896 A JP11080896 A JP 11080896A JP H09297765 A JPH09297765 A JP H09297765A
Authority
JP
Japan
Prior art keywords
document image
area
processing method
document
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8110808A
Other languages
Japanese (ja)
Inventor
Takashi Saito
高志 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8110808A priority Critical patent/JPH09297765A/en
Publication of JPH09297765A publication Critical patent/JPH09297765A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically extract the section effective for grasping contents out of a document image by extracting and area, of which respectively divided elements directly express the contents of the document image, based on the features on the layout of these elements. SOLUTION: The document image is provided by an image input means 101. Next, an area dividing means 102 divides the inputted document image into a character area and the elements such as drawing, table or ruled lines. A line extracting means 103 extracts lines out of the extracted character area. Then, when the area is divided and line information is extracted, a key area discriminating means 104 discriminates a key area. In this case, the key area is the section effective for grasping the contents of a document. Generally, such a section is emphasized by some kind of method. For example, large characters or the fonts of an emphasis system are used or processing such as making that section independent of the other sections or surrounding it with a frame is performed. While utilizing such a feature on the layout expression of the document, the key area is discriminated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、文書画像中から内
容把握に役立つ領域を自動的に抽出する文書画像処理方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document image processing method for automatically extracting a region useful for grasping the content from a document image.

【0002】[0002]

【従来の技術】近年、計算機、デジタル機器の能力向上
やハードディスク等のデータ蓄積装置の能力向上によっ
て文書画像の流通機会が飛躍的に増大した。しかし文書
画像はデータ量が多く、このため処理速度が要求される
場合やネットワークを通じて画像データを交換する場合
などにネックとなってきた。
2. Description of the Related Art In recent years, the opportunities for distributing document images have increased dramatically due to improvements in the capabilities of computers and digital devices and the capabilities of data storage devices such as hard disks. However, since the document image has a large amount of data, it has become a bottleneck when processing speed is required or when image data is exchanged through a network.

【0003】一般に、大量に蓄積された文書画像を閲覧
する場合には、その全ての画像について、蓄積された高
画質な画像状態で見る必要はなく、取敢えず内容の確認
が可能であれば十分な場合が多い。もちろん、キーワー
ド検索等が行える方が画像を扱うより、はるかに高速に
処理できる。しかし適切なキーワードを入力することは
難しい。蓄積された画像内容を一度も見たことがないよ
うな場合は、より一層困難である。
Generally, when a large amount of document images are browsed, it is not necessary to see all the images in the accumulated high-quality image state, and the contents can be checked for the time being. Often enough. Of course, it is much faster to perform a keyword search or the like than to handle an image. However, it is difficult to enter the appropriate keyword. It is even more difficult when the contents of the stored image have never been seen.

【0004】そこで、光ファイリング装置等において
は、縮小した画像をインデックス画像として原画像とは
別に保持し、まずそのインデックス画像を利用者に提示
することによって、処理するデータ量の軽減化を図って
いる。しかし、単に画像全体を縮小した場合には、全体
の感じはつかめても画像中の文字を読むことは難しく、
特に、似たようなレイアウトの文書が多い場合には、所
望の文書を選択することは難しい。
Therefore, in an optical filing apparatus or the like, the reduced image is held as an index image separately from the original image, and the index image is first presented to the user to reduce the amount of data to be processed. There is. However, if the entire image is simply reduced, it is difficult to read the characters in the image even if you can get a feel for the whole image.
In particular, when there are many documents having similar layouts, it is difficult to select a desired document.

【0005】このような問題を解決するものとして、特
開平5−342326号公報に記載された文書処理装置
がある。この装置では、文書画像を領域分割し、分割さ
れた要素に対して、論理モデルに従って論理識別子を付
与し、必要とする論理要素だけを識別子をキーにして抽
出し、それを見やすく再配置する。また、部分的にOC
Rを使用することによって、抽出した情報のソ−ティン
グなども行う。
As a solution to such a problem, there is a document processing apparatus described in Japanese Patent Laid-Open No. 5-342326. In this apparatus, a document image is divided into areas, logical identifiers are given to the divided elements in accordance with a logical model, only required logical elements are extracted using the identifier as a key, and they are rearranged so that they can be seen easily. Also partially OC
By using R, sorting of the extracted information is also performed.

【0006】[0006]

【発明が解決しようとする課題】しかし、上記した文書
処理方法では、予め入力される文書画像のレイアウト構
成および論理構成を把握して、該当するモデルを作成す
る必要がある。モデルに従って文書が構成されていて、
領域分割部が完璧であれば精度よく処理できるが、実際
にはそうでない場合が多く、モデルの適用範囲が限定さ
れてしまう。また、論理モデルの作成には相当の熟達が
必要であることから、上記した処理方法では、新規文書
群の内容把握のために部分画像(キー領域)の抽出を行
うことが非常に難しい。
However, in the above-described document processing method, it is necessary to grasp the layout configuration and logical configuration of the document image input in advance and create the corresponding model. Documents are organized according to the model,
If the area dividing unit is perfect, accurate processing can be performed, but in many cases this is not the case, and the applicable range of the model is limited. Further, since the creation of a logical model requires considerable proficiency, it is very difficult to extract a partial image (key area) in order to grasp the contents of a new document group by the above processing method.

【0007】本発明は上記した事情を考慮してなされた
もので、本発明の目的は、文書画像中から内容把握に役
立つ部分(キー領域)を自動的に抽出することができる
文書画像処理方法を提供することにある。
The present invention has been made in consideration of the above circumstances, and an object of the present invention is to provide a document image processing method capable of automatically extracting a portion (key area) useful for grasping the content from a document image. To provide.

【0008】[0008]

【課題を解決するための手段】前記目的を達成するため
に、請求項1記載の発明では、文書画像を複数の要素に
分割し、分割された各要素のレイアウト上の特徴を基に
該要素が前記文書画像の内容を端的に表わす領域である
か否かを判定し、該領域を部分画像として抽出すること
を特徴としている。
In order to achieve the above object, according to the invention of claim 1, a document image is divided into a plurality of elements, and the elements are based on layout characteristics of the respective divided elements. Is determined to be a region that directly represents the contents of the document image, and the region is extracted as a partial image.

【0009】請求項2記載の発明では、前記レイアウト
上の特徴として、前記文書画像の本文と異なる強調処理
された部分を用いることを特徴としている。
According to the second aspect of the invention, as the layout feature, an emphasized portion different from the text of the document image is used.

【0010】請求項3記載の発明では、前記強調処理さ
れた部分は、頁全体の基本文字サイズと異なる文字サイ
ズであることを特徴としている。
According to the third aspect of the invention, the emphasized portion has a character size different from the basic character size of the entire page.

【0011】請求項4記載の発明では、前記強調処理さ
れた部分は、頁全体のフォント特徴と異なるフォント特
徴であることを特徴としている。
According to a fourth aspect of the invention, the emphasized portion has a font feature different from the font feature of the entire page.

【0012】請求項5記載の発明では、前記強調処理さ
れた部分は、タイトル相当位置であることを特徴として
いる。
According to a fifth aspect of the invention, the emphasized portion is a position corresponding to a title.

【0013】請求項6記載の発明では、前記強調処理さ
れた部分は、小見出し相当位置であることを特徴として
いる。
According to a sixth aspect of the invention, the emphasized portion is a position corresponding to a subheading.

【0014】請求項7記載の発明では、前記強調処理さ
れた部分は、頁上下の書誌事項であることを特徴として
いる。
The invention according to claim 7 is characterized in that the emphasized portion is a bibliographic item at the top and bottom of a page.

【0015】請求項8記載の発明では、前記強調処理さ
れた部分は、囲み枠内文字列であることを特徴としてい
る。
The invention according to claim 8 is characterized in that the emphasized portion is a character string in a surrounding frame.

【0016】[0016]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。図1は、本発明の実施例の構
成を示す。図において、101は画像の入力手段、10
2は文書画像を要素に分割する領域分割手段、103は
各文字領域において行を抽出する行抽出手段、104は
領域分割手段102および行抽出手段103で抽出した
情報からキー領域を判別するキー領域判別手段、105
は入力された画像や処理中の各種情報を蓄積するデータ
記憶部、106は全体を制御する制御部、107はデー
タ通信路である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. FIG. 1 shows the configuration of an embodiment of the present invention. In the figure, 101 is an image input means, 10
Reference numeral 2 is an area dividing means for dividing the document image into elements, 103 is a line extracting means for extracting a line in each character area, 104 is a key area for discriminating the key area from the information extracted by the area dividing means 102 and the line extracting means 103. Discrimination means, 105
Is a data storage unit that stores an input image and various kinds of information being processed, 106 is a control unit that controls the whole, and 107 is a data communication path.

【0017】図2は、本発明の処理フローチャートを示
す。以下、図2に従って本発明を説明する。まず、画像
入力手段101によって文書画像を得る(ステップ20
1)。この画像入力手段は、スキャナやファックスであ
り、あるいはネットワーク経由で別の機器から画像を得
る手段でもよい。
FIG. 2 shows a processing flowchart of the present invention. Hereinafter, the present invention will be described with reference to FIG. First, a document image is obtained by the image input means 101 (step 20).
1). The image input means may be a scanner or a facsimile, or may be a means for obtaining an image from another device via a network.

【0018】次に、領域分割手段102は、入力された
文書画像を文字領域と、図や表や罫線等の要素に分割す
る(ステップ202)。このような領域分割方法として
は、例えば特開平6−20092号公報に記載された公
知技術を用いればよい。抽出した領域は、属性として要
素の種類(文字領域、表など)と、その位置(領域の外
接矩形)などを持つ。
Next, the area dividing means 102 divides the input document image into character areas and elements such as figures, tables and ruled lines (step 202). As such a region division method, for example, a publicly known technique described in JP-A-6-20092 may be used. The extracted area has, as attributes, the element type (character area, table, etc.) and its position (circumscribing rectangle of the area).

【0019】行抽出手段103は、抽出した文字領域か
ら行を抽出する(ステップ203)。この行抽出方法と
しては、例えば、電子通信学会論文「周辺分布、綿密
度、外接矩形特徴を利用した文書画像の領域分割」(秋
山他、1986年8月、Vol.J69−DNo.8)
に記載された技術を用いればよい。
The line extracting means 103 extracts lines from the extracted character area (step 203). Examples of this line extraction method include, for example, a paper of the Institute of Electronics and Communication Engineers of Japan, "Regional Segmentation of Document Image Using Marginal Distribution, Cotton Density, and Circumscribed Rectangle Feature" (Akiyama et al., August 1986, Vol. J69-DNo. 8).
The technique described in 1. may be used.

【0020】領域が分割され、行情報が抽出されると、
キー領域判別手段104はキー領域の判定を行う(ステ
ップ204)。ここで、キー領域とは文書の内容を把握
するのに役立つ部分である。一般的に、そのような部分
は何らかの方法で強調が施されている。例えば、大きな
文字や強調系のフォントを使用したり、あるいは他の部
分とは独立させたり、枠で囲むなどの処理が施されてい
る。本発明ではこのような文書のレイアウト表現上の特
徴を利用してキー領域を判別する。
When the area is divided and the row information is extracted,
The key area determination means 104 determines the key area (step 204). Here, the key area is a portion useful for grasping the content of the document. Generally, such portions are emphasized in some way. For example, processing such as using a large character or an emphasis font, making it independent of other parts, or enclosing it in a frame is performed. In the present invention, the key area is discriminated by utilizing such a feature in the layout expression of the document.

【0021】図3は、キー領域判別処理の詳細な処理フ
ローチャートである。まず、各行の文字サイズ特徴を検
出する(ステップ301)。図4は、ステップ301
(文字サイズ特徴検出処理)の詳細フローチャートであ
る。最初に頁全体の基本文字サイズを検出する(ステッ
プ401)。これは、抽出した行内の矩形高さのヒスト
グラムを用いて、その最頻度を基本文字サイズとする。
このとき、各行内の文字の最大文字サイズを当該行の文
字サイズとする(ステップ402)。図8は、行文字サ
イズの例を示す。
FIG. 3 is a detailed processing flowchart of the key area discrimination processing. First, the character size feature of each line is detected (step 301). FIG. 4 shows step 301
It is a detailed flowchart of (character size feature detection processing). First, the basic character size of the entire page is detected (step 401). This uses a histogram of the heights of the rectangles in the extracted line and sets the most frequent frequency as the basic character size.
At this time, the maximum character size of the character in each line is set as the character size of the line (step 402). FIG. 8 shows an example of line character size.

【0022】そして、その行文字サイズを基本文字サイ
ズと比較し、「大文字行」、「中文字行」、「普通文字
行」の何れかに分類する。この分類には閾値を利用す
る。すなわち、基本文字サイズよりTh1(例えば1.
8)倍以上大きい文字サイズの行を「大文字行」とし
(ステップ405でYes)、ステップ405でNoと
なった文字列がTh2(例えば1.3)倍より大きいサ
イズの行を「中文字行」とする(ステップ406でYe
s)。ステップ406でNoとなるものを「普通文字
行」とする。
Then, the line character size is compared with the basic character size and classified into any of "capital line", "medium character line" and "normal character line". A threshold is used for this classification. That is, Th1 (for example, 1.
8) A line with a character size that is at least twice as large is designated as an “uppercase line” (Yes in step 405), and a line with a character string that is No in step 405 is Th2 (for example, 1.3) times larger is designated as a “middle character line” (Yes in step 406)
s). The one that is No in step 406 is defined as a “normal character line”.

【0023】図3に戻り、次いでフォント特徴を調べる
(ステップ302)。この特徴としては、黒画素密度や
ランレングスの分布などを使用すればよい。あるいは、
特開平6−208649号公報に記載された方法を使用
してもよい。求めたフォント特徴から各行のフォントを
推定する。ここでフォントを正確に識別することは一般
的に難しい。そこで基本系/強調系の判別をするだけで
もよい。
Returning to FIG. 3, the font features are then examined (step 302). For this feature, a black pixel density or a run length distribution may be used. Alternatively,
You may use the method described in Unexamined-Japanese-Patent No. 6-208649. The font of each line is estimated from the obtained font characteristics. Accurate identification of fonts here is generally difficult. Therefore, only the basic system / emphasized system may be determined.

【0024】次に、タイトル部の検出を行う(ステップ
303)。基本的にはタイトル部は基本文字サイズより
も大きな文字部である。また本文とは文字サイズや行ピ
ッチが異なり、また位置も離れているので通常は独立し
た領域として切り分けられる。そこで、図5に示すよう
に、各領域に対して一定行数(Th3)未満で(ステッ
プ503)、大文字行である場合(ステップ504)に
タイトル領域であると判定する。
Next, the title part is detected (step 303). Basically, the title part is a character part larger than the basic character size. In addition, since the character size and line pitch are different from the text and the positions are far apart, they are usually separated as independent areas. Therefore, as shown in FIG. 5, when it is less than a certain number of lines (Th3) for each region (step 503) and it is a capital line (step 504), it is determined to be a title region.

【0025】続いて、小見出し部を検出する(ステップ
304)。小見出しは、本文と文字サイズがあまり違わ
ない場合も多く、また本文に近接するため本文と同一領
域になることも多い。図6は、小見出し部検出処理の詳
細の処理フローチャートである。
Then, the subheading portion is detected (step 304). In many cases, the subheadings are not so different in text size from the text, and are often in the same area as the text because they are close to the text. FIG. 6 is a detailed processing flowchart of the subheading portion detection processing.

【0026】そこで、まず独立した領域になる場合を検
出し、次に本文と同一領域となる場合に行単位で切り分
けを行う。行数がTh4未満の領域において(ステップ
603)、領域内の行が中文字行である場合に(ステッ
プ604)、この領域内の行を小見出し行とする。また
該当しない領域においては、領域内小見出し検出(ステ
ップ605)を行う。
Therefore, first, the case where the area becomes an independent area is detected, and when the area becomes the same area as the body, the line is divided. In a region where the number of lines is less than Th4 (step 603), when the line in the region is a medium character line (step 604), the line in this region is set as a subheading line. In the area that does not correspond, the subheading in the area is detected (step 605).

【0027】領域内の小見出し検出は次のように行う。
すなわち、領域の先頭行のサイズまたはフォントが、領
域の中ほどにある行のサイズまたはフォントと異なる場
合には、先頭行を小見出し行と検出する。このとき、先
頭行から続くいくつかの行についても同様に小見出し判
定を行ってもよい。図9は、小見出し検出を説明する図
である。
The subheading in the area is detected as follows.
That is, if the size or font of the first line of the area is different from the size or font of the line in the middle of the area, the first line is detected as the subheading line. At this time, the subheading determination may be similarly performed for some lines following the first line. FIG. 9 is a diagram illustrating subheading detection.

【0028】次に、書誌事項検出処理(ステップ30
5)を行う。書誌事項は、通常、頁の上部および脚部に
存在する。また、本文と異なり行数は少ない。そこで、
頁の上下にある孤立した書誌事項領域を検出する。図7
を例に説明すると、701は文字領域の存在する範囲、
702および703は書誌事項の存在する範囲、70
4,705,706は抽出した文字領域である。
Next, a bibliographic item detection process (step 30)
Perform 5). Bibliographical material typically exists at the top and legs of the page. Also, unlike the text, the number of lines is small. Therefore,
Detects isolated bibliographical areas above and below the page. Figure 7
For example, 701 is a range in which a character area exists,
702 and 703 are ranges in which bibliographic items exist, 70
4, 705 and 706 are extracted character areas.

【0029】いま、文字領域704および705は、そ
れぞれ上下の書誌事項存在範囲702、703に入って
いるので書誌事項領域として抽出される。文字領域70
6は下部の存在範囲703に一部入っているものの、そ
こに含まれてはいないので書誌事項領域として抽出しな
い。
Since the character areas 704 and 705 are in the upper and lower bibliographic item existence ranges 702 and 703, respectively, they are extracted as bibliographic item areas. Character area 70
Although 6 is partially included in the lower existence range 703, it is not included therein and therefore is not extracted as a bibliographic item area.

【0030】最後に、囲み枠が存在する場合の処理を行
う(ステップ306)。頁内に本文とは別に囲み枠が存
在する場合には、囲み枠内の文章は別記事である場合が
多い。従って、この部分の内容を示す部分領域を抽出す
ることは内容把握に役立つ。そこで、囲み枠内を、図6
のステップ605と同様の処理を行う。ただし、囲み枠
内の記事は、明確なサイズやフォントの差異を持つ小見
出しがない場合がある。そこで、枠内の行を先頭から一
律数行抽出することによって、小見出しの代わりとする
ことも可能である。
Finally, the processing when the surrounding frame exists is performed (step 306). When a box exists in addition to the text in a page, the text in the box is often a separate article. Therefore, extracting a partial area showing the contents of this portion is useful for understanding the contents. Therefore, the inside of the box is shown in FIG.
Processing similar to that of step 605 is performed. However, the articles in the box may not have subheadings with clear size and font differences. Therefore, it is possible to substitute a subheading by extracting a uniform number of lines from the beginning in the frame.

【0031】以上の処理によって求められた「タイトル
領域」、「小見出し領域および行」、「書誌事項」、
「囲み枠先頭行」をキー領域とする。
"Title area", "Subheading area and line", "Bibliographic information", obtained by the above processing
The "first line of the surrounding frame" is the key area.

【0032】なお、本発明は上記した実施例に限定され
るものではなく、ステップ301および302で求める
頁全体の文字サイズ情報やフォント特徴は、領域分割や
行抽出の段階で求めるようにしてもよい。従って、それ
らの情報はステップ203までに求めるような構成に変
更してもよい。すなわち、領域分割手段102および行
抽出手段103が、上記した情報を抽出するように構成
される。また、画像入力手段101〜キー領域判別手段
104および制御部106を一つのプロセッサ上のソフ
トウェアで処理を実現してもよい。
The present invention is not limited to the above-described embodiment, and the character size information and font characteristics of the entire page obtained in steps 301 and 302 may be obtained at the stage of area division and line extraction. Good. Therefore, those pieces of information may be changed to the configuration obtained by step 203. That is, the area dividing unit 102 and the line extracting unit 103 are configured to extract the above information. Further, the image input unit 101 to the key area discrimination unit 104 and the control unit 106 may be realized by software on one processor.

【0033】[0033]

【発明の効果】以上、説明したように、請求項1記載の
発明によれば、文書画像の内容把握に役立つ領域を、特
別なモデルを必要とすることなく得ることができる。
As described above, according to the invention described in claim 1, it is possible to obtain a region useful for grasping the content of a document image without requiring a special model.

【0034】請求項2記載の発明によれば、文書画像の
内容把握に役立つ領域を、簡単な処理によって抽出する
ことができる。
According to the second aspect of the invention, the area useful for grasping the content of the document image can be extracted by a simple process.

【0035】請求項3記載の発明によれば、文書間の文
字サイズの変動に左右されずに、様々な文書において精
度よく必要とする部分領域を抽出することができる。
According to the third aspect of the present invention, it is possible to accurately extract a necessary partial area in various documents without being affected by the variation in character size between documents.

【0036】請求項4記載の発明によれば、使用される
フォントは文書毎に変動が激しいが、本発明では頁内の
基本フォントと強調系フォントを識別しているので、フ
ォントの変動があっても精度よく必要とする部分領域を
抽出することができる。
According to the invention described in claim 4, the fonts used vary greatly from document to document. However, since the present invention distinguishes between basic fonts and emphasized fonts within a page, there is font variation. However, it is possible to accurately extract the required partial area.

【0037】請求項5〜8記載の発明によれば、抽出さ
れる領域が通常の文書において内容把握に役立つ領域で
あり、加えて、これらの領域が通常レイアウトに頻繁に
現われるものであるので、精度よく必要とする部分領域
を抽出することができる。
According to the fifth to eighth aspects of the invention, the extracted area is an area useful for grasping the content in a normal document, and in addition, these areas frequently appear in the normal layout. It is possible to accurately extract a required partial area.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の構成を示す。FIG. 1 shows a configuration of an embodiment of the present invention.

【図2】本発明の処理フローチャートを示す。FIG. 2 shows a processing flowchart of the present invention.

【図3】キー領域判別処理の詳細な処理フローチャート
である。
FIG. 3 is a detailed processing flowchart of key area determination processing.

【図4】ステップ301(文字サイズ特徴検出処理)の
詳細フローチャートである。
FIG. 4 is a detailed flowchart of step 301 (character size feature detection processing).

【図5】ステップ303(タイトル部検出処理)の詳細
フローチャートである。
FIG. 5 is a detailed flowchart of step 303 (title portion detection processing).

【図6】ステップ304(小見出し部検出処理)の詳細
の処理フローチャートである。
FIG. 6 is a detailed processing flowchart of step 304 (subheading portion detection processing).

【図7】書誌事項検出処理を説明する図である。FIG. 7 is a diagram illustrating a bibliographic item detection process.

【図8】行文字サイズの例を示す。FIG. 8 shows an example of line character size.

【図9】小見出し検出を説明する図である。FIG. 9 is a diagram illustrating subheading detection.

【符号の説明】[Explanation of symbols]

101 画像入力手段 102 領域分割手段 103 行抽出手段 104 キー領域判別手段 105 データ記憶部 106 制御部 107 データ通信路 101 Image Input Means 102 Area Dividing Means 103 Row Extracting Means 104 Key Area Discriminating Means 105 Data Storage Units 106 Control Units 107 Data Communication Channels

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 文書画像を複数の要素に分割し、分割さ
れた各要素のレイアウト上の特徴を基に該要素が前記文
書画像の内容を端的に表わす領域であるか否かを判定
し、該領域を部分画像として抽出することを特徴とする
文書画像処理方法。
1. A document image is divided into a plurality of elements, and it is determined based on the layout characteristics of each of the divided elements whether or not the element is a region that directly represents the contents of the document image. A document image processing method characterized by extracting the region as a partial image.
【請求項2】 前記レイアウト上の特徴として、前記文
書画像の本文と異なる強調処理された部分を用いること
を特徴とする請求項1記載の文書画像処理方法。
2. The document image processing method according to claim 1, wherein a highlighted portion different from the text of the document image is used as the layout feature.
【請求項3】 前記強調処理された部分は、頁全体の基
本文字サイズと異なる文字サイズであることを特徴とす
る請求項2記載の文書画像処理方法。
3. The document image processing method according to claim 2, wherein the emphasized portion has a character size different from the basic character size of the entire page.
【請求項4】 前記強調処理された部分は、頁全体のフ
ォント特徴と異なるフォント特徴であることを特徴とす
る請求項2記載の文書画像処理方法。
4. The document image processing method according to claim 2, wherein the emphasized portion has a font feature different from the font feature of the entire page.
【請求項5】 前記強調処理された部分は、タイトル相
当位置であることを特徴とする請求項2記載の文書画像
処理方法。
5. The document image processing method according to claim 2, wherein the emphasized portion is a position corresponding to a title.
【請求項6】 前記強調処理された部分は、小見出し相
当位置であることを特徴とする請求項2記載の文書画像
処理方法。
6. The document image processing method according to claim 2, wherein the emphasized portion is a position corresponding to a subheading.
【請求項7】 前記強調処理された部分は、頁上下の書
誌事項であることを特徴とする請求項2記載の文書画像
処理方法。
7. The document image processing method according to claim 2, wherein the emphasized portion is a bibliographic item at the top and bottom of the page.
【請求項8】 前記強調処理された部分は、囲み枠内文
字列であることを特徴とする請求項2記載の文書画像処
理方法。
8. The document image processing method according to claim 2, wherein the emphasized portion is a character string in a surrounding frame.
JP8110808A 1996-05-01 1996-05-01 Document image processing method Pending JPH09297765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8110808A JPH09297765A (en) 1996-05-01 1996-05-01 Document image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8110808A JPH09297765A (en) 1996-05-01 1996-05-01 Document image processing method

Publications (1)

Publication Number Publication Date
JPH09297765A true JPH09297765A (en) 1997-11-18

Family

ID=14545191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8110808A Pending JPH09297765A (en) 1996-05-01 1996-05-01 Document image processing method

Country Status (1)

Country Link
JP (1) JPH09297765A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137728A (en) * 1998-11-02 2000-05-16 Fujitsu Ltd Document analysis device and program recording medium
JP2003058556A (en) * 2001-08-16 2003-02-28 Ricoh Co Ltd Method, device, and program for extracting title of document picture
JP2009145963A (en) * 2007-12-11 2009-07-02 Konica Minolta Business Technologies Inc Document processor and document processing method
JP2010231637A (en) * 2009-03-27 2010-10-14 Konica Minolta Business Technologies Inc Apparatus, method and program for processing document image
JP2019016350A (en) * 2017-06-30 2019-01-31 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド Identification of emphasized text in electronic documents

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57199066A (en) * 1981-06-02 1982-12-06 Toshiyuki Sakai File forming system for cutting of newspaper and magazine
JPS6446873A (en) * 1987-08-18 1989-02-21 Fuji Photo Film Co Ltd Method and device for recording/retrieving image information
JPH0233686A (en) * 1988-07-25 1990-02-02 Fuji Electric Co Ltd Method for extracting character string
JPH02206873A (en) * 1989-02-07 1990-08-16 Ricoh Co Ltd Picture retrieving system
JPH05282487A (en) * 1992-04-01 1993-10-29 Matsushita Electric Ind Co Ltd Character recognizing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57199066A (en) * 1981-06-02 1982-12-06 Toshiyuki Sakai File forming system for cutting of newspaper and magazine
JPS6446873A (en) * 1987-08-18 1989-02-21 Fuji Photo Film Co Ltd Method and device for recording/retrieving image information
JPH0233686A (en) * 1988-07-25 1990-02-02 Fuji Electric Co Ltd Method for extracting character string
JPH02206873A (en) * 1989-02-07 1990-08-16 Ricoh Co Ltd Picture retrieving system
JPH05282487A (en) * 1992-04-01 1993-10-29 Matsushita Electric Ind Co Ltd Character recognizing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137728A (en) * 1998-11-02 2000-05-16 Fujitsu Ltd Document analysis device and program recording medium
JP2003058556A (en) * 2001-08-16 2003-02-28 Ricoh Co Ltd Method, device, and program for extracting title of document picture
JP2009145963A (en) * 2007-12-11 2009-07-02 Konica Minolta Business Technologies Inc Document processor and document processing method
JP2010231637A (en) * 2009-03-27 2010-10-14 Konica Minolta Business Technologies Inc Apparatus, method and program for processing document image
US8611666B2 (en) 2009-03-27 2013-12-17 Konica Minolta Business Technologies, Inc. Document image processing apparatus, document image processing method, and computer-readable recording medium having recorded document image processing program
JP2019016350A (en) * 2017-06-30 2019-01-31 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド Identification of emphasized text in electronic documents

Similar Documents

Publication Publication Date Title
EP0854433B1 (en) Caption and photo extraction from scanned document images
US5369742A (en) Image file and retrieving apparatus and method
EP1146478B1 (en) A method for extracting titles from digital images
JP3292388B2 (en) Method and apparatus for summarizing a document without decoding the document image
JP2973944B2 (en) Document processing apparatus and document processing method
US6351559B1 (en) User-enclosed region extraction from scanned document images
EP1124189A1 (en) Document sorting method, document sorter, and recorded medium on which document sorting program is recorded
US7627176B2 (en) Apparatus, method, and computer program for analyzing document layout
JP4408495B2 (en) Image processing method and image processing apparatus
Das et al. Heuristic based script identification from multilingual text documents
JPH09297765A (en) Document image processing method
JP3925003B2 (en) Document processing apparatus and document processing method
JPH09319747A (en) Structuralization method for document image
JP3912463B2 (en) Logical structure extraction device and logical structure extraction method
JP3544324B2 (en) CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD
JPH11203305A (en) Method for processing document picture and recording medium
Qin et al. Laba: Logical layout analysis of book page images in arabic using multiple support vector machines
EP1229497B1 (en) Run length based connected components and contour following for enhancing the performance of circled region extraction algorithm
JP4055976B2 (en) Document image processing method, document image processing apparatus, and recording medium
Ranka et al. Automatic table detection and retention from scanned document images via analysis of structural information
JP3091278B2 (en) Document recognition method
JP2005032280A (en) Key area extraction processing method
JPH0743718B2 (en) Multimedia document structuring method
JPH11203318A (en) Document classification method and apparatus, and recording medium recording document classification processing program
Chao Graphics extraction in a PDF document

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040907