[go: up one dir, main page]

JPH0521266B2 - - Google Patents

Info

Publication number
JPH0521266B2
JPH0521266B2 JP59148136A JP14813684A JPH0521266B2 JP H0521266 B2 JPH0521266 B2 JP H0521266B2 JP 59148136 A JP59148136 A JP 59148136A JP 14813684 A JP14813684 A JP 14813684A JP H0521266 B2 JPH0521266 B2 JP H0521266B2
Authority
JP
Japan
Prior art keywords
image
heading
black
document
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59148136A
Other languages
Japanese (ja)
Other versions
JPS6126149A (en
Inventor
Ryuichi Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP14813684A priority Critical patent/JPS6126149A/en
Publication of JPS6126149A publication Critical patent/JPS6126149A/en
Publication of JPH0521266B2 publication Critical patent/JPH0521266B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】[Detailed description of the invention]

(産業上の利用分野) 本発明は文書画像フアイル検索において画像を
用いた検索が行なえる文書画像フアイル登録検索
装置に関する。 (従来技術とその問題点) 近年、文書画像フアイル装置が実用化され、そ
の検索方式が種々検討されている。このうち、画
像自身をインデツクス(見出)として検索する方
法は、冗長性を持つ画像データを検索するうえで
非常に有効である。このとき、複数の画像を同時
に表示し、その中から希望する画像を選べること
が望ましいが、個々の見出画像が見やすいもので
あることが必要である。しかし、従来装置ではこ
れは不十分であつた。例えば、昭和56年11月20日
出願の特願昭56−186361号明細書「画像フアイル
検索装置」は第10図のような構成を持ち、76
−aの縮小装置により、原画像全体を縮小し、見
出画像を作成していた。第10図に示した従来例
については前記文献1に詳述されているので、以
下では簡単な説明を行なうにとどめる。 画像入力装置101から入力された画像は画像
メモリー102に蓄えられ、モニター105に表
示される。操作卓107から現在モニター175
に表示されている画像をフアイルに登録するとい
うコマンドを入力すると、コマンド処理装置10
8でそのコマンドを受けつけ中央処理装置109
でコマンドの意味を解釈する。中央処理装置10
9は登録コマンドが入力されたことを知ると画像
メモリー102内にある画像データを磁気デイス
クインターフエイス103を介して磁気デイスク
装置104に書込む。また、画像メモリー102
内にある画像データは縮小装置106aによつて
縮小され、その縮小画像データも磁気デイスク装
置104に書込まれる。ここでは例えば1画素お
きのまびきと4点ORを用いて1/4×1/4に縮小す
る。 登録画像とその縮小画像との対応は1対1であ
り、両者のデイスク上でのアドレスを登録順にデ
イスク上のアドレス領域に書込んでおく。つまり
アドレス領域には2つのアドレスが書込まれてい
て、それぞれ縮小画像と登録画像のアドレスをさ
す。次に操作卓107から縮小目次というコマン
ドを入力するとコマンド処理装置108でそのコ
マンドを受けつけ中央処理装置109でその意味
を解釈する。中央処理装置109は縮小画像目次
コマンドが入力されたことを知ると、磁気デイス
ク装置104からデイスク上のアドレス領域に書
込まれているアドレス順に縮小画像を読出す。ま
た、この時最初に読出される画像は中央処理装置
109が現時点で、どの画像をさしているかを記
憶していて、その画像を最初に表示する。この例
では1/4×1/4に縮小しているので16枚の縮小画像
を読出し、合成装置76bにおいて16枚の縮小画
像を合成して縮小画像目次を画像メモリー102
に書込み、モニター15に表示する。 以上従来例について説明したが、上記従来例に
おいては画像の縮小処理が画一的であるため画像
によつては縮小画像がつぶれて非常に見づらくな
るという欠点を有していた。特に一般文書などの
ように、見出しと本文の文字の大きさがほとんど
かわらないような画像では、文書の表題自体が最
悪の場合には読めなくなり、緒小画像による検索
が困難となることもあつた。 (発明の目的) 本発明は、このような従来の見出画像による検
索装置の欠点を除去し、見やすく、検索に有効な
見出画像を備えた画像フアイル登録・検索装置を
提供することにある。 (発明の構成) 本発明によれば、文書画像を入力する手段と、
入力画像を一時的に記憶する手段と、画像データ
上の位置を指定する手段と、登録及び検索命令を
入力する手段と、命令を解読し、登録処理,検索
処理を後記フアイル管理情報記憶手段、画像記憶
手段に行わせる手段と、登録処理時に登録画像を
ブロツク単位に走査し、少なくとも黒画素数及び
黒ラン同士の連結を調べ、少なくとも背景、黒、
太線、細線、網点で代表される文書画像に特徴的
な画像パターンのうち、前記ブロツクがどれに該
当するかによつてブロツクを分類する手段と、分
類結果を記憶する手段と、分類結果を利用し、文
書中の本文と見出とにおける、前記特徴的な画像
パターンの出現頻度の相異と、見出の大きさ、形
状、位置に関する統計的特徴、及び文書の一般的
書式規則に基づき、原画像中の見出文字列を自動
的に抽出する手段と、原画像と見出画像とを記憶
する画像記憶手段と、原画像と見出画像のフアイ
ル管理情報を記憶するフアイル管理情報記憶手段
と、原画像あるいは複数の見出画像を表示する手
段とから構成されることを特徴とする文書画像フ
アイル登録検索装置が実現できる。 (発明の概要) 本発明は、上述の構成をとることにより、従来
技術の問題を解決した。文書画像登録時には、利
用者はまず画像入力手段から画像を入力し、バツ
フアメモリに一時的に記憶する。次に、コマンド
入力手段から登録コマンドを入力することによ
り、入力画像を記憶手段に記録する。この後、見
出抽出手段により、入力画像を微少ブロツク単位
に走査し、ブロツク内の黒画素数と黒ラン同士の
連結を調べ、該当ブロツクが文書画像に特徴的な
画像パターン、例えば背景、黒、太文字、細文
字、網点のいずれかにあたるか分類する。この結
果は、補助メモリに記憶される。続いて見出抽出
手段は、先の分類結果を利用し、文書中の本文と
見出部とで、先の画像パターンが統計的にどのよ
うな頻度で現われるかに基づき、見出と予想され
る領域を抽出し、領域情報を別の補助メモリに記
録する。さらに、見出抽出手段は記録した見出候
補領域について、見出部が統計的にどのような大
きさ、形状であるか、また、どのような位置にあ
るかに基づいて取捨選択を行ない、原画像にもど
つてその画像の見出となる文字列を抽出する。こ
の後、見出画像作成手段が、抽出された見出文字
列を含む領域を一定の枠に納まるように拡大また
は縮小し、見出画像として原画像とは別個に記憶
手段に記録する。同時に、原画像フアイルと見出
画像フアイルとの対応、及び他の見出画像フアイ
ルとの関係を記述したフアイル管理テーブルを作
成または更新し、記憶手段に記録する。 画像検索時には、検索コマンドを入力すること
により、記憶しているフアイル管理テーブルを参
照して、テーブル内で関係づけられている複数の
見出画像が表示手段に表示される。表示された見
出画像中に希望の画像がなければ、利用者は他の
見出画像の検索を要求する。利用者が希望する見
出画像を見出した時点で、コマンド入力手段また
は位置指定手段からその画像のアクセス要求を入
力することにより、表示装置に該当画像の全体が
表示される。 本発明により、文書画像登録時に、その画像の
見出となる文字列を高速なアルゴリズムで抽出す
ることができ、これを別個に記憶することによ
り、重要な情報を見やすく表示する見出画像がえ
られ、有効な文書画像検索が行なえる。 (実施例) 以下、本発明の実施例について、図面を参照し
て詳細に説明する。第1図に本発明による文書画
像フアイル登録検索装置の具体例を示す。図にお
いて、11が画像入力装置、12は画像メモリ、
13が画像メモリ内の画像データを表示する画像
表示装置で、本装置の画面上にはカーソルまたは
ポインターが表示され、16の画面指示装置によ
つてこれを移動させることができる。14のコマ
ンド入力装置、15のコマンド処理装置は、例え
ばパーソナルコンピユータにより構成する。16
の指示装置は、ジヨイステイツクあるいはマウス
で構成する。指示装置は、座標データ、または付
随するフアンクシヨンキーの入力によるキー入力
データを送信する。17の中央処理装置は、マイ
クロプロセツサ、ROM、RAMにより構成され
るが、コマンドを解読し、第2図を用いて後に説
明するアルゴリズムにより、登録処理、検索処理
を制御する。18−1は、登録画像の見出文字列
を抽出する見出抽出装置、18−2は見出抽出処
理の中間結果を記録する属性メモリ、18−3は
見出文字列の候補となる領域を記録する見出候補
メモリ、18−4は見出画像作成に用いる画像処
理装置、19−1はフアイル管理テーブル記憶用
の磁気デイスク装置、19−2,19−3は各々
画像データ記憶用の光デイスクインタフエース装
置及び光デイスク装置である。 第2図aは中央処理装置17の登録処理アルゴ
リズムを示す。登録コマンドを解読した中央処理
装置17は光デイスクインタフエース装置19−
2に原画像書込信号(デイスク側を書込モードに
する)、画像データ転送開始信号を送出する。デ
ータ転送後、光デイスクインタフエース装置19
−2のステータスワードを読み、光デイスク19
−3の書込みアドレスを記憶する。続いて、見出
抽出装置18−1に起動信号を送つて抽出処理を
行なわせる。抽出処理終了後、見出抽出装置18
−1から見出領域情報をうけとり、見出領域を記
憶する。続いて、画像処理装置18−4に起動信
号を送つて起動させ、見出領域情報を通知して見
出画像作成を行なわせる。見出画像作成が終わる
と、光デイスクインタフエース装置19−2に見
出画像書込信号と画像データ転送信号を送信し、
データ転送後、ステータスワードを読んで書きこ
みアドレスを記憶する。最後に、磁気デイスク装
置19−1上のフアイル管理テーブルを参照し、
新しい欄に、今回登録した画像の登録番号、アド
レスを書きこむ。また、すでに登録した見出画像
と今回登録した見出画像を関連づけるため、例え
ば直前に登録した見出画像のアドレスを書きこ
む。同時に、直前に登録した見出画像の欄に、今
回登録した見出画像のアドレスを、「直後に登録
されたもの」として書きこみ、登録処理を終わ
る。 第2図bは中央処理装置17の検索処理アルゴ
リズムを示す。検索コマンドを解読した中央処理
装置17は、光デイスクインタフエース装置19
−2に見出画像読出信号を送出して読出しモード
にし、現在記憶している見出画像読出しアドレ
ス、画像メモリ書込アドレスを通知する。続いて
データ転送信号を送出し、転送終了後、フアイル
管理テーブルを参照して、例えば読み出した見出
画像の直後に登録したとして関係づけた見出画像
のアドレスを新しい読み出しアドレスとする。画
像メモリの一画面分がすべて書きこまれるまで、
画像メモリの書きこみアドレスを順次変化させ、
この処理をくり返す。一画面分の見出画像が書き
こまれると、中央処理装置17はコマンド処理装
置15からの入力待ち状態となる。見出画面変更
コマンドをうけつけると、フアイル管理テーブル
を参照し、見出画像読出アドレスを変更して、先
程の処理にもどる。指示装置16からの座標デー
タをうけつけると、画像データ上のカーソル/ポ
インタ(図ではポインタと表示している)の現在
位置を更新し、画面上でカーソル/ポインタを移
動させる。指示装置16からのフアンクシヨンキ
ー入力(図ではキー入力としている)をうけつけ
ると、カーソル/ポインタの現在位置の座標を参
照し、表示している何番目の見出画像に対応して
いるかを判断し、フアイル管理テーブルを参照し
て該当見出画像に対応する原画像のアドレスを読
み出す。さらに、光デイスクインタフエース装置
19−2に原画像読出信号と読出アドレスを送出
し、画像データ転送信号を送出することにより、
原画像を表示させ、一連の検索処理を終わる。見
出画像選択に指示装置16を利用するのは、画面
から目を離さずに操作ができ、しかも選択する画
像が何番目のものかいちいち意識する必要がない
ためである。 文書画像登録時には、利用者はまず画像入力装
置11から画像を入力する。入力された画像は画
像メモリ12に蓄えられ、表示装置13に表示さ
れる。コマンド入力装置14から画像登録コマン
ドを入力すると、コマンド処理部15を通じて中
央処理装置17がこれを解読する。中央処理装置
17は画像メモリ12内の画像データを光デイス
クインタフエース装置19−2を介して光デイス
ク装置19−3に書きこむ。 この後、中央処理装置17は見出抽出装置18
−1(マイクロプロセツサ、ROM、RAMを用
いて実現できる)を起動させ、見出文字列抽出を
行なう。文字列抽出アルゴリズムの例を第3図に
示す。これは、画像データの特徴抽出と見出領域
推定をブロツク単位に行ない、必要に応じて画素
を参照するトツプダウン的なアルゴリズムで、ノ
イズにつよく、高速で、かつ書式不定の文書画像
に柔軟に対応できる。まず画像メモリ12内の画
像データを矩形のブロツク単位で読み出す。この
ブロツクの大きさは、例えば8本/mmの解像度の
入力データに対し、16画素×16画素(2mm×2
mm)とする。読み出したブロツクデータ内の特徴
量として、黒画素数と黒ラン連結数を測定する。
黒ラン連結数は、本文中の文字のように細いスト
ロークで構成される領域と他の領域とを簡便に識
別するための評価値で、ブロツク内の黒画素領域
が短いランの連結で構成されるとみて、黒画素を
横方向のラン単位に抽出し、このランの連結を評
価するものである。第4図aは、黒画素連結領域
(図の斜線部分)を横方向のラン単位に分離した
様子を模式的に示している。具体的には、本実施
例のブロツクの大きさの場合、例えば次のような
に黒ラン連結数を定める。 (1) 横方向の一つの黒ランに対し、そのラン長に
応じてたとえば次のようにライン内連結数を定
める。
(Field of Industrial Application) The present invention relates to a document image file registration and search device that can perform a search using images in document image file searches. (Prior Art and its Problems) In recent years, document image file devices have been put into practical use, and various search methods have been studied. Among these methods, the method of searching using the image itself as an index (heading) is very effective in searching redundant image data. At this time, it is desirable to display a plurality of images at the same time and to be able to select a desired image from among them, but it is necessary that each index image is easy to see. However, this was not sufficient with conventional devices. For example, Japanese Patent Application No. 186361/1986 filed on November 20, 1986 entitled "Image File Search Device" has a configuration as shown in FIG.
-A reduction device was used to reduce the entire original image and create a headline image. The conventional example shown in FIG. 10 is detailed in the above-mentioned document 1, so a brief explanation will be given below. Images input from the image input device 101 are stored in the image memory 102 and displayed on the monitor 105. Current monitor 175 from operation console 107
When you enter a command to register the image displayed in a file, the command processing device 10
8 receives the command and central processing unit 109
to interpret the meaning of the command. Central processing unit 10
9 writes the image data in the image memory 102 to the magnetic disk device 104 via the magnetic disk interface 103 when it learns that the registration command has been input. In addition, the image memory 102
The image data contained therein is reduced by the reduction device 106a, and the reduced image data is also written to the magnetic disk device 104. Here, for example, the image is reduced to 1/4 x 1/4 using a diagonal of every other pixel and 4-point OR. The correspondence between a registered image and its reduced image is one-to-one, and the addresses of both on the disk are written in the address area on the disk in the order of registration. In other words, two addresses are written in the address area, which indicate the addresses of the reduced image and the registered image, respectively. Next, when a command ``reduced table of contents'' is inputted from the console 107, the command processing device 108 receives the command, and the central processing unit 109 interprets its meaning. When the central processing unit 109 learns that the reduced image table of contents command has been input, it reads the reduced images from the magnetic disk device 104 in the order of the addresses written in the address area on the disk. Further, as for the first image to be read out at this time, the central processing unit 109 remembers which image is currently being displayed, and displays that image first. In this example, since the size is reduced to 1/4 x 1/4, 16 reduced images are read out, the 16 reduced images are combined in the composition device 76b, and the reduced image table of contents is stored in the image memory 100.
and display it on the monitor 15. The conventional example has been described above, but in the conventional example, the image reduction processing is uniform, and therefore, depending on the image, the reduced image is crushed and becomes extremely difficult to see. In particular, in images such as general documents where the font size of the heading and the main text are almost the same, the title of the document itself may become unreadable in the worst case, making it difficult to search using small images. Ta. (Object of the Invention) An object of the present invention is to provide an image file registration/search device that eliminates the drawbacks of the conventional search device using index images and is equipped with index images that are easy to view and effective for searching. . (Structure of the Invention) According to the present invention, means for inputting a document image;
means for temporarily storing an input image; means for specifying a position on the image data; means for inputting registration and search commands; file management information storage means for decoding the commands and performing registration processing and search processing; The image storage means scans the registered image block by block during the registration process, checks at least the number of black pixels and the connections between black runs, and scans at least the background, black,
A means for classifying blocks according to which of image patterns characteristic of document images represented by thick lines, thin lines, and halftone dots the blocks correspond to, a means for storing classification results, and a means for storing classification results. Based on the difference in the frequency of appearance of the characteristic image pattern between the main text and headings in the document, statistical characteristics regarding the size, shape, and position of the headings, and the general formatting rules of the document. , a means for automatically extracting a heading character string from an original image, an image storage means for storing the original image and the heading image, and a file management information storage for storing file management information of the original image and the heading image. It is possible to realize a document image file registration and retrieval device characterized by comprising a means for displaying an original image or a plurality of index images. (Summary of the Invention) The present invention solves the problems of the prior art by adopting the above-described configuration. When registering a document image, the user first inputs an image from the image input means and temporarily stores it in the buffer memory. Next, by inputting a registration command from the command input means, the input image is recorded in the storage means. After that, the index extraction means scans the input image in microblock units, examines the number of black pixels in the block and the connections between black runs, and determines whether the corresponding block is an image pattern characteristic of the document image, such as the background, black , classify whether it corresponds to bold text, thin text, or halftone dots. This result is stored in auxiliary memory. Next, the heading extracting means uses the previous classification results to extract information that is predicted to be a heading based on how frequently the previous image pattern appears statistically between the main text and the heading part of the document. Extract the area and record the area information in another auxiliary memory. Furthermore, the heading extraction means selects the recorded heading candidate areas based on the statistical size and shape of the heading part and the position thereof, Return to the original image and extract the character string that becomes the image's heading. Thereafter, the index image creation means enlarges or reduces the area containing the extracted index character string so that it fits within a certain frame, and records it in the storage means as a index image separately from the original image. At the same time, a file management table is created or updated that describes the correspondence between the original image file and the index image file, and the relationship with other index image files, and is recorded in the storage means. At the time of image search, by inputting a search command, a stored file management table is referred to and a plurality of index images related within the table are displayed on the display means. If the desired image is not found among the displayed index images, the user requests a search for another index image. When the user finds a desired headline image, the entire image is displayed on the display device by inputting a request to access the image from the command input means or the position specifying means. According to the present invention, when registering a document image, it is possible to use a high-speed algorithm to extract the character string that becomes the heading of the image, and by storing this separately, a heading image that displays important information in an easy-to-read manner can be created. This allows effective document image retrieval. (Example) Hereinafter, an example of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a specific example of a document image file registration and search device according to the present invention. In the figure, 11 is an image input device, 12 is an image memory,
13 is an image display device for displaying image data in the image memory; a cursor or pointer is displayed on the screen of this device, and can be moved by a screen pointing device 16; The command input device 14 and the command processing device 15 are configured by, for example, a personal computer. 16
The pointing device consists of a joy stick or a mouse. The pointing device transmits coordinate data or key input data by inputting an accompanying function key. The central processing unit 17, which is composed of a microprocessor, ROM, and RAM, decodes commands and controls registration processing and search processing using an algorithm that will be explained later with reference to FIG. 18-1 is a heading extraction device that extracts a heading string from a registered image; 18-2 is an attribute memory that records intermediate results of the heading extraction process; and 18-3 is an area that is a candidate for a heading string. 18-4 is an image processing device used to create a headline image, 19-1 is a magnetic disk device for storing file management tables, and 19-2 and 19-3 are each for storing image data. These are an optical disk interface device and an optical disk device. FIG. 2a shows the registration processing algorithm of the central processing unit 17. The central processing unit 17 that decoded the registration command is an optical disk interface device 19-.
2, an original image write signal (to put the disk side in write mode) and an image data transfer start signal are sent. After data transfer, optical disk interface device 19
-2 status word and optical disk 19
-3 write address is stored. Subsequently, a start signal is sent to the heading extraction device 18-1 to cause it to perform extraction processing. After the extraction process is completed, the heading extraction device 18
-1 receives heading area information and stores the heading area. Subsequently, an activation signal is sent to the image processing device 18-4 to activate it, notify it of headline area information, and cause it to create a headline image. When the creation of the headline image is completed, a headline image write signal and an image data transfer signal are sent to the optical disk interface device 19-2.
After data transfer, read the status word and memorize the write address. Finally, referring to the file management table on the magnetic disk device 19-1,
In the new field, write the registration number and address of the image you just registered. Also, in order to associate the already registered headline image with the currently registered headline image, for example, write the address of the previously registered headline image. At the same time, the address of the currently registered headline image is written in the column of the previously registered headline image as "the one registered immediately after", and the registration process ends. FIG. 2b shows the search processing algorithm of the central processing unit 17. The central processing unit 17 that decoded the search command is sent to the optical disk interface device 19.
-2, a headline image readout signal is sent to set the readout mode, and the currently stored headline image readout address and image memory write address are notified. Subsequently, a data transfer signal is sent, and after the transfer is completed, the file management table is referred to and, for example, the address of the related index image registered immediately after the read index image is set as the new read address. Until one screen of image memory is completely written,
Sequentially change the write address of the image memory,
Repeat this process. Once the headline image for one screen has been written, the central processing unit 17 enters a state of waiting for input from the command processing unit 15. When the headline screen change command is received, the file management table is referred to, the headline image read address is changed, and the process returns to the previous one. When the coordinate data from the pointing device 16 is received, the current position of the cursor/pointer (indicated as a pointer in the figure) on the image data is updated, and the cursor/pointer is moved on the screen. When a function key input (key input is shown in the figure) is received from the pointing device 16, the coordinates of the current position of the cursor/pointer are referred to and it is determined which index image currently being displayed corresponds to. The address of the original image corresponding to the relevant headline image is read out by referring to the file management table. Furthermore, by sending an original image read signal and a read address to the optical disk interface device 19-2, and sending an image data transfer signal,
The original image is displayed and the series of search processes is completed. The reason why the pointing device 16 is used to select a headline image is because the operation can be performed without taking one's eyes off the screen, and there is no need to be conscious of the number of the image to be selected. When registering a document image, the user first inputs an image from the image input device 11. The input image is stored in the image memory 12 and displayed on the display device 13. When an image registration command is input from the command input device 14, the central processing unit 17 decodes it through the command processing section 15. The central processing unit 17 writes the image data in the image memory 12 to the optical disk device 19-3 via the optical disk interface device 19-2. After this, the central processing unit 17
-1 (which can be implemented using a microprocessor, ROM, and RAM) is activated to extract a header string. An example of a character string extraction algorithm is shown in FIG. This is a top-down algorithm that extracts features from image data and estimates the index area on a block-by-block basis, and refers to pixels as necessary.It is resistant to noise, fast, and flexibly compatible with document images of undefined formats. can. First, the image data in the image memory 12 is read out in rectangular blocks. For example, the size of this block is 16 pixels x 16 pixels (2 mm x 2 mm) for input data with a resolution of 8 lines/mm.
mm). The number of black pixels and the number of connected black runs are measured as feature quantities in the read block data.
The number of connected black runs is an evaluation value that allows you to easily distinguish between areas that are made up of thin strokes, such as characters in the main text, and other areas. The black pixels are extracted in units of runs in the horizontal direction, and the connection of these runs is evaluated. FIG. 4a schematically shows how the black pixel connection region (hatched area in the figure) is separated into horizontal run units. Specifically, in the case of the block size of this embodiment, the number of connected black runs is determined as follows, for example. (1) For one black run in the horizontal direction, determine the number of connections within the line according to the run length, for example, as follows.

【表】 ラン長2以下のランは、短かすぎるランとして
連結数を与えない。ラン長3以上10以下のもの
については基本単位として連結数を1とする。
ラン長11以上のものは、上記の連結数1を与え
るランが二つ連結したものとみなし、連結数を
2とする。以上の数値をブロツク内のすべての
黒ランについて与え、ライン内連結数の総和を
もつて横方向の黒ラン連結数とする。 (2) 次に、(1)においてライン内連結数1または2
とされた黒ランについて、1ライン前における
ライン内連結数1または2の黒ランと連結して
いるか否かを調べる。これは、例えば前ライン
と現ラインの論理積をとり、注目しているラン
の中で1画素でも前ラインのランと連結してい
れば、ライン間でラン同士の連結があるとみな
す。これをライン間連結とする。ライン間連結
を検出するごとに得られた横方向の黒ラン連結
数に1ずつ加える。 以上の手続きにより、例えば第4図aの黒画
素パターンの黒ラン連結数は17と求められる。 なお、黒ランフアイルはブロツク内の連結の
みでなく、ブロツク間の連結を評価することも
可能である。例えば、第4図bのように、二つ
のレジスタA,Bにそれぞれ注目しているブロ
ツクの左と上で接するブロツクの境界の情報を
格納しておく。レジスタAには、左側で接する
ブロツクの各ラインにおけるライン内連結数1
または2のランが注目するブロツク境界に接し
ていれば1、いなければ0をビツト単位に記憶
する。もし注目ブロツクのあるラインにおい
て、ライン内連結数1または2のランが左側の
ブロツク境界に接し、かつ、レジスタAの同一
ラインに対応するビツトが1ならば、ブロツク
間で黒ランが連結するとみなし、黒ラン連結数
を1つます。一方、レジスタBには上側で接す
るブロツクの1番下のライン、すなわちブロツ
ク境界で現ブロツクの1番上のラインと接する
ラインの画素パターンを記憶しておく。図で0
が白画素、1が黒画素を示す。現ブロツクの第
1ラインとのライン間連結を調べ、連結を検出
する毎に連結数を1つます。ブロツクの右側と
下側の境界での連結を調べてもよいが、4方向
すべての連結を各ブロツクごとに調べると、境
界での連結を二重に調べることになり、むだで
ある。 以上によつて求めた黒ラン連結数は、黒画素数
と正の相関を持つが、ラン長の短いランの連結を
無視することにより、黒画素が集中したパターン
と分散したパターンとで、相関性が変化する。こ
れにより、細いストロークで構成される文字領域
では黒ラン連結数が黒画素数に比べて低く押さえ
られ、太いストロークで構成される文字領域との
識別が容易になる。また、網点写真においては、
ラン長の短いパターンが連続し、黒ラン連結数が
細文字よりも低く押さえられる領域が多く存在す
ることから、写真領域の識別にもこの評価値は有
効である。 本実施例に示した黒ラン連結数の評価方法は最
も簡単な一例であり、他にもたて方向の走査によ
る評価、ラン長のしきい値の変更、連結数加算方
法の変更など、種々の応用が可能である。 特徴量が得られた後、見出抽出装置18−1
は、それらをもとに各ブロツクが文書画像に特徴
的な画像パターンのどれに属するかを決定する。
対象とする文書画像を新聞記事とした場合の決定
例を第5図を参照して説明する。 黒画素数をs、黒ラン連結数をgとして、 Γs<s1のとき、背景に近いパターンとみて「背
景」とする。(s1は定数) Γs≧s2のとき、真黒に近いパターンとみて
「黒」とする。(s2は定数) Γs1≦s<s2かつ、g≧r1・sのとき、黒画素数
に対して黒ラン連結数が大きいことから「太文
字」とする。(r1は定数) Γs1≦s<s2かつ、r1・s>g≧r1・s−g1のと
き、黒画素数に対して黒ラン連結数がやや小さ
いことから「細文字」とする。(g1は定数) Γs1≦s<s2かつ、r1・s−g1>gのとき、黒画
素数に対して黒ラン連結数が非常に小さいこと
から、黒ランの短い代表的パターン「網点」と
する。 各定数は、ブロツクの大きさ、黒ラン連結数の
しきい値のとり方によるが、本実施例のブロツク
の大きさ(16×16画素)、しきい値(ラン長2,
10)を用いるとき、例えばs1=10、s2=128、r1
0.3、g1=6とする。「黒」と判定する黒画素数の
しきい値s2をブロツク内画素数(256)の半分に
とるのは、これより黒画素数の多いブロツクのパ
ターン分類があまり意味を持たないこと、このし
きい値により記事部と見出、写真部での「黒」ブ
ロツクの出現頻度が大きく異なることによる。新
聞画像においては、統計的に記事部は「細線」と
「網点」、見出部は「太線」「黒」「細線」、写真部
は「網点」「黒」、図表部は「太線」「細線」「背
景」の各ブロツクで主として構成される。もちろ
ん、上記分類項目(以下属性という)は一般文書
にも適用できる。 この他、ブロツク内の最長ランとその隣接関係
を記憶して「罫線」という属性を与えることもで
きる。網点写真は、ピツチを持つことから、これ
を調べて「網点」属性を決定してもよい。 得られた属性は、属性メモリ18−2に二次元
的に記憶される。見出抽出装置18−1はこの属
性画像を走査し、背景ブロツクに囲まれた非背景
ブロツク塊を矩形状に切り出す。(一回の走査で
できる。)これは、見出文字列が新聞に限らず、
一般に周囲にかなりの空白領域をもち、矩形で囲
めることから、効率のよい方法である。先に示し
たブロツクの大きさ(2mm/2mm)では、新聞の
記事部は行間で分離されることなく、一群の非背
景領域となる。 切り出し時には、ブロツク化による切りすて誤
差を防ぐため、周囲の背景ブロツクも含めて切り
出しを行なう。なお、属性決定時に「太線」ある
いは「黒」の出現頻度から見出の大きさを推定し
それに対応する周囲の空白領域を想定して、周囲
の背景ブロツク幅をしきい値として切り出しに使
うことができる。また、「罫線」を属性に含める
場合、記事部の罫線が一定のピツチを持つことか
ら、属性決定時にピツチを検出し、記事部を推定
することもできる。上記の方法は高速であるが、
他の領域と近接する見出、複雑な形状の見出の切
り出しはむずかしい。これを補なうため、切り残
した領域の「太線」「黒」ブロツクの連結を追跡
し、ある大きさ以上のものを切り出す。必要に応
じ、画素単位の走査を行なつて境界を決定する。 切り出された矩形領域は見出候補メモリ18−
3に見出候補として記載する。見出抽出装置18
−1はこれらの位置、面積、形状、領域内の属性
値を評価して見出として不適当なものを除外す
る。属性値は各属性ブロツク数の比などにより統
計的評価を行なう。基本的には「細線」が多く
「黒」の少ないものは記事として除外し、写真と
見出の区別は「網点」と矩形の形状の総合評価に
よる。配置規則からみて見出となりにくい位置に
あるもの、特に正方形に近いものは除外する。矩
形が入れ子状態になつて切り出された場合、大き
さ、属性等により不要な方を除外する。1つの見
出が複数の矩形に分割されていると考えられる場
合、これらの矩形を統一して再結合する。結合の
判断は、矩形の中心線または外接線が一致する
か、距離が2ブロツク以内か、矩形内の最多属性
が一致するかなどで行なう。さらに、画像処理装
置18−4を起動させてノイズを除去する。例え
ば、たて見出が要約文と分離せずに切り出される
場合があるが、画素単位のプロジエクシヨンによ
り要約文を除去する。また、地紋を持つ見出はこ
れを除去する。 再構成された見出候補領域には、配置規則、大
きさ等から優先順位をつける。新聞の場合、大き
い見出、右上にある見出ほど優先度が高い。これ
らの優先度は見出候補領域の配置パターンを調べ
て決定する。配置パターンはたて見出のみ、横見
出のみ、かぎ型(たてと横の併用)など、10種程
度に分類できる。最後に一つあるいは複数の見出
候補領域を優先度の高いものから選び、これらを
見出領域とする。 これまでの切り出し処理は新聞を対象として述
べたが、これを一般の文書に適用することは容易
にできる。例えば、一般文書画像の見出となる文
字列の抽出規則をかきこんだROMを用意してお
き、利用者が「一般文書」コマンドをコマンド入
力端末14から入力することにより、中央処理装
置17は見出抽出装置18−1が参照するROM
をきりかえる。見出領域の抽出アルゴリズムは新
聞の場合と同じように属性画像を用いて行なう。
連結数評価、属性決定、矩形切り出しのしきい値
は一般文書に適合するように変更する。切り出し
においては、本文と同等の細いストロークをもつ
文字列が見出となることもあるので、このような
文字列を抽出した場合にも除外しない。大きい見
出では文字間隔も大きい場合があるので、再結合
の距離条件などを変更する。行間が広く、文中の
各行が切り出される場合は、行間のピツチをもつ
矩形を除外する。行ピツチの検出、または切り出
した矩形のプロジエクシヨンにより、横書き、た
て書きを判定し、それぞれに応じた優先順位決定
規則を用いる。最も簡単には、周囲に1ブロツク
以上の空白をもち、横書きなら他より左上にある
横長の矩形、たて書きなら右上にあるたて長の矩
形を優先する。該当する矩形が切り出されない場
合は、見出領域がないと判定し、文書画像の冒頭
部(横書きなら左上、たて書きなら右上)を強制
的に切り出し見出し画像とする。横書き、たて書
が判明した時点で走査する領域を上半分、右半分
のように限定し、ここに見出がない場合には強制
切り出しを行なうことも、検索上さしつかえなけ
れば処理効率の向上の点で有効である。 見出領域が決定すると、中央処理装置17は画
像処理装置18−4を起動し、該当領域が見出画
像の枠内に納まるように正規化する。見出画像の
大きさは、例えば原画像の1/4×1/4とする。見出
領域がこの枠をこえる場合は縮小処理が、こえな
い場合は拡大処理がなされる。ここで、見出が見
出画像の中央にくるようにする。処理されたデー
タは光デイスクインタフエース19−2を介して
光デイスク装置19−3の見出画像領域に記憶さ
れる。見出抽出装置18−1は見出領域を表示装
置13上に枠で示す。 これら一連の処理に対話処理を加えることも可
能である。例えば、見出領域決定結果が利用者に
とつて不満な場合、利用者はコマンド入力装置1
4から「変更」コマンドを入力する。これによつ
て中央処理装置17が見出候補メモリ18−3の
候補領域を表示装置13に枠で表示し、利用者が
指示装置16(あるいはコマンド入力装置17)
によつて見出画像とする領域を選択する。あるい
は指示装置16により、利用者が自ら領域を設定
する。以後の処理は全く同様である。 光デイスク19−3上での原画像と見出画像の
アドレスは磁気デイスク19−1上のフアイル管
理テーブルに書きこまれる。フアイル管理テーブ
ルの構造を第6図に示す。n−1,n,n+1は
登録順にわりあてられる番号で、aが原画像アド
レス、bが見出画像アドレス、c,dは見出画像
と論理的に隣接する前後の見出画像のアドレスで
ある。この隣接関係は、例えば登録の順番とす
る。この状況を第7図に示す。画像Aの見出画像
がBであり、その直前に登録された見出画像が
C、直後に登録されたものがDである。a,b,
c,dはそれぞれアドレスである。利用者が画像
を検索する場合、コマンド入力装置14から「検
索」コマンドを入力する。これを受け付けた中央
処理装置17は現在記憶している見出画像読み出
しアドレスを基準に、磁気デイスク19−1上の
フアイル管理テーブルを参照しながら16枚の見出
画像を順次読み出し、画像メモリ12への書きこ
みアドレスを順次変化させて書きこみ、表示装置
13に表示する。これを第8図に示す。表示する
順番はA,B,C,D,E,F,G,H,I,
J,K,L,M,N,O,Pとなる。この後、見
出画像読み出しアドレスは見出画像Pの次の画像
をさす。希望の画像が表示された16枚の中になけ
れば、利用者は「前」または「後」コマンドをコ
マンド入力装置14から入力する。「前」コマン
ドをうけた中央処理装置17は、表示されている
16枚のうち先頭の見出画像(8図のA)の16枚前
にある見出画像のアドレスを読み出しアドレスと
して、そこから16枚を読み出し、表示する。「前」
で指定された部分に16枚見出画像がなければ、フ
アイル管理テーブルの先頭の見出画像から16枚が
表示される。「後」コマンドをうけた中央処理装
置17は、その時の見出画像読み出しアドレス
(第8図のPの次の画像をさす)をもとに、そこ
から16枚を読み出し、表示する。「後」で指定さ
れた部分に16枚画像がなければ、最後の画像を表
示した時点で処理を終わる。 「検索」「前」「後」コマンドにより検索を続
け、希望の見出画像が得られた時点で利用者は指
示装置16を移動し、表示装置13上でカーソ
ル/ポインターを該当する見出画像の枠内に納め
る。ここで指示装置16のフアンクシヨンキーを
押下することにより、中央処理装置17は現在カ
ーソル/ポインターの位置している見出画像に検
索要求があることを知り、対応する原画像データ
を光デイスク装置19−3より読み出し、表示装
置13に表示する。 本実施例では、見出画像を原画像の1/4×1/4と
したが別な形状の見出画像を採用してもよい。例
えば、横書きの見出文字列を、第9図のような短
柵状の見出画像とすることが考えられる。 以上は本発明の単なる一例であり、特許請求の
範囲を実施例の構成に限定するものではない。 (発明の効果) 以上に述べた文書画像フアイル登録検索装置を
用いれば、文書画像登録時にその画像の見出とな
る文字列を高速なアルゴリズムで抽出し、これを
別個に記憶することにより、重要な情報を見やす
く表示する見出画像が得られ、有効な文書画像検
索が行なえる。
[Table] Runs with a run length of 2 or less are considered too short and are not given the number of connections. For run lengths of 3 to 10, the number of connections is 1 as the basic unit.
If the run length is 11 or more, it is assumed that two runs giving the above-mentioned number of connections 1 are connected, and the number of connections is 2. The above values are given for all black runs in the block, and the total number of connections within the line is taken as the number of connections of black runs in the horizontal direction. (2) Next, in (1), the number of connections within the line is 1 or 2.
It is checked whether or not the black run is connected to a black run with an intra-line connection count of 1 or 2 one line before. This is done by calculating, for example, the logical product of the previous line and the current line, and if even one pixel in the run of interest is connected to the run of the previous line, it is considered that there is a connection between the runs between the lines. This is called line-to-line connection. Each time a connection between lines is detected, one is added to the obtained number of horizontal black run connections. Through the above procedure, for example, the number of connected black runs of the black pixel pattern shown in FIG. 4a is determined to be 17. Note that the black graph file can evaluate not only connections within blocks but also connections between blocks. For example, as shown in FIG. 4B, two registers A and B store information about the boundaries of blocks that touch on the left and top of the block of interest, respectively. Register A contains the number of intra-line connections (1) for each line of blocks that touch on the left.
Or, if run 2 touches the block boundary of interest, 1 is stored, otherwise 0 is stored bit by bit. If in a certain line of the block of interest, a run with an intra-line connection number of 1 or 2 touches the block boundary on the left, and the bit corresponding to the same line in register A is 1, it is assumed that black runs are connected between blocks. , the number of black run connections is one. On the other hand, register B stores the pixel pattern of the bottom line of the blocks that touch on the upper side, that is, the line that touches the top line of the current block at the block boundary. 0 in the diagram
indicates a white pixel, and 1 indicates a black pixel. Checks the line connection with the first line of the current block, and increments the number of connections by 1 each time a connection is detected. It is possible to check connections at the right and bottom boundaries of blocks, but if connections in all four directions are checked for each block, connections at the boundaries will be checked twice, which is wasteful. The number of connected black runs determined above has a positive correlation with the number of black pixels, but by ignoring the connections of runs with short run lengths, the correlation between patterns with concentrated black pixels and patterns with dispersed black pixels increases. Gender changes. As a result, the number of connected black runs in a character area made up of thin strokes is kept low compared to the number of black pixels, making it easier to distinguish the character area from a character area made up of thick strokes. In addition, in halftone photographs,
This evaluation value is also effective for identifying photographic areas because there are many areas where patterns with short run lengths are continuous and the number of connected black runs is lower than that of fine letters. The method for evaluating the number of connected black runs shown in this example is the simplest example, and there are various other methods such as evaluation by scanning in the vertical direction, changing the run length threshold, and changing the method of adding the number of connections. can be applied. After the feature values are obtained, the heading extraction device 18-1
Based on these, it is determined to which image pattern characteristic of the document image each block belongs.
An example of determination when the target document image is a newspaper article will be explained with reference to FIG. When the number of black pixels is s and the number of connected black runs is g, when Γs<s 1 , the pattern is considered to be close to the background and is defined as the "background". (s 1 is a constant) When Γs≧s 2 , the pattern is considered to be close to pure black and is called "black." (s 2 is a constant) When Γs 1 ≦s<s 2 and g≧r 1 ·s, the number of connected black runs is large compared to the number of black pixels, so it is called a “bold character”. (r 1 is a constant) When Γs 1 ≦s<s 2 and r 1・s>g≧r 1・s−g 1 , the number of connected black runs is slightly smaller than the number of black pixels, so “fine letters” ”. (g 1 is a constant) When Γs 1 ≦s < s 2 and r 1・s−g 1 > g, the number of connected black runs is very small compared to the number of black pixels, so a short representative black run The pattern is "halftone dots". Each constant depends on the size of the block and how to set the threshold value for the number of connected black runs.
10), for example, s 1 = 10, s 2 = 128, r 1 =
0.3, and g 1 =6. The reason for setting the threshold value s2 for the number of black pixels to be judged as "black" to half the number of pixels in a block (256) is that pattern classification of blocks with a larger number of black pixels than this has little meaning. This is because the frequency of appearance of "black" blocks in the article section, headline section, and photo section differs greatly depending on the threshold value. Statistically, in newspaper images, article sections have thin lines and halftone dots, headings have thick lines, black, and thin lines, photographs have halftone dots and black, and figures and tables have thick lines. It mainly consists of blocks such as ”, ”thin lines”, and ”background”. Of course, the above classification items (hereinafter referred to as attributes) can also be applied to general documents. In addition, the longest run within a block and its adjacency relationship can be stored and given an attribute called "ruled line." Since halftone photographs have pitches, the "halftone dot" attribute may be determined by examining this. The obtained attributes are two-dimensionally stored in the attribute memory 18-2. The heading extraction device 18-1 scans this attribute image and cuts out a non-background block cluster surrounded by background blocks into a rectangular shape. (This can be done with one scan.) This is because the heading character string is not limited to newspapers.
This is an efficient method because it generally has a considerable amount of blank space around it and can be surrounded by a rectangle. With the block size shown above (2 mm/2 mm), the article section of the newspaper is not separated by line spacing and becomes a group of non-background areas. When cutting out, surrounding background blocks are also included in the cutting to prevent cutting errors due to block formation. In addition, when determining the attribute, estimate the size of the heading from the frequency of appearance of "thick line" or "black", assume the corresponding surrounding blank area, and use the surrounding background block width as a threshold for cutting out. I can do it. Further, when "ruled line" is included in the attribute, since the ruled line of the article part has a certain pitch, the pitch can be detected when determining the attribute and the article part can be estimated. Although the above method is fast,
It is difficult to cut out headings that are close to other areas or have complex shapes. To compensate for this, we track the connection of the "thick line" and "black" blocks in the uncut area and cut out the blocks larger than a certain size. If necessary, the boundaries are determined by scanning pixel by pixel. The cut out rectangular area is stored in the heading candidate memory 18-
3 as a heading candidate. Heading extraction device 18
-1 evaluates these positions, areas, shapes, and attribute values within the region and excludes those that are inappropriate as headings. Attribute values are statistically evaluated based on the ratio of the number of blocks for each attribute. Basically, articles with many "thin lines" and little "black" are excluded as articles, and the distinction between photographs and headlines is based on a comprehensive evaluation of "halftone dots" and rectangular shapes. Exclude items that are difficult to use as headings according to layout rules, especially items that are close to a square. When rectangles are cut out in a nested state, unnecessary ones are excluded based on size, attributes, etc. If one heading is considered to be divided into multiple rectangles, these rectangles are unified and recombined. The determination of connection is made based on whether the center lines or circumscribed lines of the rectangles match, whether the distance is within two blocks, whether the most common attributes within the rectangles match, and so on. Furthermore, the image processing device 18-4 is activated to remove noise. For example, a vertical heading may be extracted without being separated from the summary text, but the summary text is removed by pixel-by-pixel projection. Additionally, headings with background patterns are removed. The reconstructed heading candidate areas are prioritized based on arrangement rules, size, etc. In the case of newspapers, larger headings and headings located in the upper right corner have higher priority. These priorities are determined by examining the layout pattern of the headline candidate areas. Layout patterns can be classified into about 10 types, including vertical headings only, horizontal headings only, and hook-shaped (combination of vertical and horizontal headings). Finally, one or more heading candidate areas are selected from those with high priority, and these are set as heading areas. Although the extraction processing described above has been described for newspapers, it can easily be applied to general documents. For example, a ROM containing extraction rules for character strings that serve as headings for general document images is prepared, and when the user inputs a "general document" command from the command input terminal 14, the central processing unit 17 ROM referenced by the extraction device 18-1
Change. The headline area extraction algorithm is performed using attribute images in the same way as in the case of newspapers.
The thresholds for evaluating the number of connections, determining attributes, and cutting out rectangles are changed to suit general documents. When cutting out text, a character string with a thin stroke similar to that of the main text may serve as a heading, so even if such a character string is extracted, it is not excluded. In large headings, the spacing between characters may be large, so change the distance conditions for recombination. If the line spacing is wide and each line in the sentence is to be cut out, exclude rectangles with line spacing. Horizontal writing or vertical writing is determined by detecting the line pitch or projecting the cut rectangle, and a priority order determination rule is used depending on each. The simplest way is to have one or more blank spaces around it, and for horizontal writing, give priority to the horizontal rectangle at the top left, and for vertical writing, give priority to the vertical rectangle at the top right. If the corresponding rectangle is not cut out, it is determined that there is no heading area, and the beginning of the document image (upper left for horizontal writing, upper right for vertical writing) is forcibly cut out and used as the heading image. As soon as horizontal or vertical writing is determined, the area to be scanned can be limited to the top half or right half, and if there are no headings there, forced extraction can be performed to improve processing efficiency if it is not a problem for the search. It is effective in this respect. When the heading area is determined, the central processing unit 17 activates the image processing device 18-4 and normalizes the corresponding area so that it fits within the frame of the heading image. The size of the headline image is, for example, 1/4×1/4 of the original image. If the heading area exceeds this frame, reduction processing is performed; otherwise, enlargement processing is performed. Now, make sure that the heading is in the center of the heading image. The processed data is stored in the index image area of the optical disk device 19-3 via the optical disk interface 19-2. The heading extraction device 18-1 shows the heading area on the display device 13 with a frame. It is also possible to add interactive processing to this series of processing. For example, if the user is not satisfied with the result of determining the heading area, the user may use the command input device 1.
Enter the "Change" command from step 4. As a result, the central processing unit 17 displays the candidate area of the heading candidate memory 18-3 in a frame on the display device 13, and the user uses the pointing device 16 (or command input device 17)
Select the area to be used as the index image. Alternatively, the user himself/herself sets the area using the instruction device 16. The subsequent processing is exactly the same. The addresses of the original image and index image on the optical disk 19-3 are written into the file management table on the magnetic disk 19-1. The structure of the file management table is shown in FIG. n-1, n, and n+1 are numbers assigned in the order of registration, where a is the original image address, b is the headline image address, and c, d are the addresses of the front and rear headline images that are logically adjacent to the headline image. . This adjacency relationship is, for example, the order of registration. This situation is shown in FIG. The index image of image A is B, the index image registered immediately before is C, and the index image registered immediately after is D. a, b,
c and d are addresses, respectively. When a user searches for an image, the user inputs a "search" command from the command input device 14. Having received this, the central processing unit 17 sequentially reads out the 16 headline images based on the currently stored headline image reading address while referring to the file management table on the magnetic disk 19-1, and reads out the 16 headline images sequentially from the image memory 12. The write address is sequentially changed and written, and the data is displayed on the display device 13. This is shown in FIG. The display order is A, B, C, D, E, F, G, H, I,
J, K, L, M, N, O, P. After this, the headline image read address points to the next image after the headline image P. If the desired image is not among the 16 displayed images, the user inputs a "previous" or "back" command from the command input device 14. The central processing unit 17 that received the "previous" command is displayed.
Among the 16 images, the address of the index image 16 images before the first index image (A in Figure 8) is used as the readout address, and the 16 images are read from there and displayed. "Before"
If there are no 16 index images in the area specified by , the first 16 index images in the file management table will be displayed. The central processing unit 17, which receives the "after" command, reads out 16 images based on the index image read address at that time (indicating the image next to P in FIG. 8) and displays them. If there are no 16 images in the area specified by "After", processing ends when the last image is displayed. The user continues the search using the "Search", "Previous", and "Next" commands, and when the desired heading image is obtained, the user moves the pointing device 16 and moves the cursor/pointer on the display device 13 to the corresponding heading image. Fit within the frame of. By pressing the function key of the indicating device 16, the central processing unit 17 learns that there is a search request for the index image where the cursor/pointer is currently located, and transfers the corresponding original image data to the optical disk device. 19-3 and display it on the display device 13. In this embodiment, the index image is 1/4×1/4 of the original image, but a index image having a different shape may be adopted. For example, it is conceivable to use a horizontally written heading character string as a short fence-shaped heading image as shown in FIG. The above is just an example of the present invention, and the scope of the claims is not limited to the configuration of the embodiment. (Effects of the Invention) By using the document image file registration and retrieval device described above, when registering a document image, a character string that becomes the heading of the image is extracted using a high-speed algorithm, and this is stored separately. It is possible to obtain a heading image that displays information in an easy-to-read manner, and to perform an effective document image search.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による画像フアイル登録検索装
置のブロツク図、第2図a、第2図bはそれぞれ
中央処理装置の登録処理アルゴリズム、検索処理
アルゴリズムを示す図、第3図は見出領域決定ア
ルゴリズムを示す図、第4図aは黒画素連結領域
を横方向のラン単位に抽出した様子を示す図、第
4図bはブロツクの境界における連結情報をレジ
スタA,Bに格納したことを模式的に示す図、第
5図は属性決定アルゴリズムを示す図、第6図は
フアイル管理テーブルの構造を示す図、第7図は
6図に示した見出画像及び原画像の関係を示す
図、第8図、第9図は検索用見出画面を示す図、
10図は従来発明による画像フアイル登録検索装
置例を示すブロツク図である。 図において、11は画像入力装置、12は画像
メモリ、13は画像表示装置、14はコマンド入
力装置、15はコマンド処理装置、16は画面指
示装置、17は中央処理装置、18−1は見出抽
出装置、18−2は属性メモリ、18−3は見出
候補メモリ、18−4は画像処理装置、19−1
は磁気デイスク装置、19−2は光デイスクイン
タフエース装置、19−3は光デイスク装置、1
01は画像入力装置、102は画像メモリ、10
3は磁気デイスクインタフエース装置、104は
磁気デイスク装置、105は画像モニター、10
6aは画像縮小装置、106bは画像合成装置、
107は操作卓、108はコマンド処理装置、1
09は中央処理装置である。
FIG. 1 is a block diagram of an image file registration and search device according to the present invention, FIGS. 2a and 2b are diagrams showing the registration processing algorithm and search processing algorithm of the central processing unit, respectively, and FIG. 3 is a heading area determination Figure 4a is a diagram showing the algorithm. Figure 4a is a diagram showing how the black pixel connected area is extracted in horizontal run units. Figure 4b is a schematic diagram showing how the connection information at the block boundary is stored in registers A and B. 5 is a diagram showing the attribute determination algorithm, FIG. 6 is a diagram showing the structure of the file management table, FIG. 7 is a diagram showing the relationship between the headline image and the original image shown in FIG. 6, Figures 8 and 9 are diagrams showing the search heading screen;
FIG. 10 is a block diagram showing an example of an image file registration and search device according to the conventional invention. In the figure, 11 is an image input device, 12 is an image memory, 13 is an image display device, 14 is a command input device, 15 is a command processing device, 16 is a screen instruction device, 17 is a central processing unit, and 18-1 is a header. Extraction device, 18-2 attribute memory, 18-3 heading candidate memory, 18-4 image processing device, 19-1
1 is a magnetic disk device, 19-2 is an optical disk interface device, 19-3 is an optical disk device, 1
01 is an image input device, 102 is an image memory, 10
3 is a magnetic disk interface device, 104 is a magnetic disk device, 105 is an image monitor, 10
6a is an image reduction device, 106b is an image synthesis device,
107 is an operation console, 108 is a command processing device, 1
09 is a central processing unit.

Claims (1)

【特許請求の範囲】[Claims] 1 文書画像を入力する手段と、前記入力画像を
記憶する手段と、画像データ上の位置を指定する
手段と、登録及び検索命令を入力する手段と、前
記命令を解読し、登録処理、検索処理を後記フア
イル管理情報記憶手段、画像記憶手段に行わせる
手段と、前記登録処理時に、登録画像をブロツク
単位に走査し、少なくとも黒画素数、及び黒ラン
同士の連結を調べ、少なくとも背景、黒、太線、
細線、網点で代表される文書画像に特徴的な画像
パターンのうち、前記ブロツクがどれに該当する
かによつてブロツクを分類する手段と、前記分類
結果を記憶する手段と、前記分類結果を利用し、
文書中の本文と見出とにおける前記特徴的な画像
パターンの出現頻度の相異と、見出の大きさ、形
状、位置に関する統計的特徴に基づき、前記原画
像中の見出文字列を抽出する手段と、前記抽出し
た文字列を含む領域から見出画像を作成する手段
と、前記原画像と見出画像とを記憶する画像記憶
手段と、前記原画像と見出画像のフアイル管理情
報を記憶するフアイル管理情報記憶手段と、前記
原画像、あるいは複数の見出画像を表示する手段
とから構成されることを特徴とする文書画像フア
イル登録検索装置。
1 means for inputting a document image, means for storing the input image, means for specifying a position on the image data, means for inputting a registration and search command, and a means for decoding the command and performing registration processing and search processing. means for causing the file management information storage means and image storage means described below to perform the above-mentioned image storage means; and during the registration process, the registered image is scanned block by block, at least the number of black pixels and the connections between black runs are checked, and at least the background, black, thick line,
means for classifying blocks according to which of image patterns characteristic of document images represented by thin lines and halftone dots the blocks correspond to; means for storing the classification results; and means for storing the classification results. use,
Extracting a heading character string from the original image based on the difference in the appearance frequency of the characteristic image pattern between the main text and the heading in the document, and statistical characteristics regarding the size, shape, and position of the heading. means for creating a heading image from the region containing the extracted character string; image storage means for storing the original image and the heading image; and file management information for the original image and the heading image. A document image file registration and retrieval device comprising: a file management information storage means for storing; and a means for displaying the original image or a plurality of index images.
JP14813684A 1984-07-17 1984-07-17 Registering and retrieving device of document picture file Granted JPS6126149A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14813684A JPS6126149A (en) 1984-07-17 1984-07-17 Registering and retrieving device of document picture file

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14813684A JPS6126149A (en) 1984-07-17 1984-07-17 Registering and retrieving device of document picture file

Publications (2)

Publication Number Publication Date
JPS6126149A JPS6126149A (en) 1986-02-05
JPH0521266B2 true JPH0521266B2 (en) 1993-03-23

Family

ID=15446071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14813684A Granted JPS6126149A (en) 1984-07-17 1984-07-17 Registering and retrieving device of document picture file

Country Status (1)

Country Link
JP (1) JPS6126149A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2763096B2 (en) * 1987-09-14 1998-06-11 株式会社東芝 Electronic filing equipment
JP3425834B2 (en) * 1995-09-06 2003-07-14 富士通株式会社 Title extraction apparatus and method from document image
JP4094789B2 (en) 1999-11-26 2008-06-04 富士通株式会社 Image processing apparatus and image processing method
JP5098614B2 (en) * 2007-12-11 2012-12-12 コニカミノルタビジネステクノロジーズ株式会社 Method for controlling sentence processing apparatus and sentence processing apparatus

Also Published As

Publication number Publication date
JPS6126149A (en) 1986-02-05

Similar Documents

Publication Publication Date Title
US6903751B2 (en) System and method for editing electronic images
US6720965B1 (en) Image display device
US8001466B2 (en) Document processing apparatus and method
US6499043B1 (en) Script character processing method and system
US5848184A (en) Document page analyzer and method
US6434581B1 (en) Script character processing method for interactively adjusting space between writing element
EP0434930B1 (en) Editing text in an image
US5953735A (en) Script character processing method and system with bit-mapped document editing
US6173073B1 (en) System for analyzing table images
DE69731418T2 (en) Search and retrieval system for documents with search methods of partially matching, user-drawn notes
EP0854433B1 (en) Caption and photo extraction from scanned document images
US6952803B1 (en) Method and system for transcribing and editing using a structured freeform editor
US5369742A (en) Image file and retrieving apparatus and method
US6208744B1 (en) Document image processor and method for setting a document format conforming to a document image
CN101183283A (en) A Method of Writing Handwritten Information Directly
US20080244384A1 (en) Image retrieval apparatus, method for retrieving image, and control program for image retrieval apparatus
JP3178483B2 (en) Document processing device
JP2010123002A (en) Document image layout device
JPH08147446A (en) Electronic filing device
JPS6126150A (en) Registering and retrieving device of document picture file
JP5182902B2 (en) Document image output device
JPH0521266B2 (en)
JPH08221558A (en) Method and device for filing document
JPH0877295A (en) Handwriting information retrieval method and handwriting input device using the same
JPH0743718B2 (en) Multimedia document structuring method