JPH05128302A - Method and device for character recognition - Google Patents
Method and device for character recognitionInfo
- Publication number
- JPH05128302A JPH05128302A JP3288274A JP28827491A JPH05128302A JP H05128302 A JPH05128302 A JP H05128302A JP 3288274 A JP3288274 A JP 3288274A JP 28827491 A JP28827491 A JP 28827491A JP H05128302 A JPH05128302 A JP H05128302A
- Authority
- JP
- Japan
- Prior art keywords
- window
- character recognition
- character
- area
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000005520 cutting process Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000007796 conventional method Methods 0.000 description 4
- 238000012015 optical character recognition Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
- Digital Computer Display Output (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は文字認識方法及びその装
置に関し、特に、紙面に印刷あるいは手書きされた文字
を光学的に読取り認識する文字認識方法及びその装置に
関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition method and an apparatus therefor, and more particularly to a character recognition method and an apparatus therefor for optically reading and recognizing a character printed or handwritten on paper.
【0002】[0002]
【従来の技術】従来の光学的文字認識装置(以下、OC
R:Optical Character Readerという)における文字認
識処理は、一般的には図15に示すフローチャートのよ
うな手順で実行される。2. Description of the Related Art A conventional optical character recognition device (hereinafter referred to as OC
The character recognition process in (R: Optical Character Reader) is generally executed by the procedure shown in the flowchart of FIG.
【0003】即ち、ステップS501でスキャナから画
像原稿を読み取りアナログ電気信号出力を得た後、これ
をステップS502で2値化処理を施し2値のデジタル
データ(以下、イメージと呼ぶ)に変換する。次にステ
ップS503で、装置に備えられているディスプレイに
イメージを表示するためのイメージウィンドウ画面をオ
ープンし、例えば、図16に示されているようにそのイ
メージを表示する。通常、ディスプレイには複数のウィ
ンドウ画面が同時に表示可能となっているが、図16の
場合はディスプレイ画面いっぱいにイメージウィンドウ
101が表示されている例が示されている。That is, after the image original is read from the scanner in step S501 and an analog electric signal output is obtained, this is binarized in step S502 to be converted into binary digital data (hereinafter referred to as an image). Next, in step S503, an image window screen for displaying an image is opened on the display provided in the device, and the image is displayed, for example, as shown in FIG. Normally, a plurality of window screens can be simultaneously displayed on the display, but FIG. 16 shows an example in which the image window 101 is displayed in the entire display screen.
【0004】ステップS504では、装置操作者がディ
スプレイ上に表示されたイメージを見ながら、認識させ
たい領域(以下、これを認識対象領域という)、例え
ば、図16の102で示されている領域をマウス等のポ
インティングデバイスにより指定する。ステップS50
5では認識対象領域に含まれる文字画像の認識結果を表
示するための結果ウィンドウをオープンする。さらにス
テップS506では、指定された認識対象領域内の文字
画像を1文字ずつ取り出すための文字切り出し処理を実
行し、ステップS507では切り出された1文字ずつの
画像に対して認識処理を実行する。最後にステップS5
08では結果ウィンドウに認識結果を表示する。In step S504, while looking at the image displayed on the display, the device operator selects an area to be recognized (hereinafter referred to as a recognition target area), for example, the area indicated by 102 in FIG. Specify with a pointing device such as a mouse. Step S50
In 5, the result window for displaying the recognition result of the character image included in the recognition target area is opened. Further, in step S506, a character cutout process for extracting the character images in the designated recognition target area one by one is executed, and in step S507, the recognition process is executed for the cut out image of each character. Finally step S5
At 08, the recognition result is displayed in the result window.
【0005】さて、以上のような一般的な文字認識処理
の手順に加えて、入力した画像原稿に写真、図、見出し
などが含まれ認識対象領域がマウスで指定するような矩
形で切り出せない場合には、ステップS504のマウス
による領域指定の前に、装置操作者がイメージウィンド
ウ101に表示された画像から不要な部分を消去するな
どの操作を行っていた。In addition to the general character recognition processing procedure as described above, in the case where a photograph, a drawing, a headline, etc. are included in the input image original and the recognition target area cannot be cut out in a rectangle designated by the mouse. In addition, before the area designation by the mouse in step S504, the device operator performs an operation such as erasing an unnecessary portion from the image displayed in the image window 101.
【0006】例えば、図17に示されるイメージウィン
ドウ101に表示された画像に対して、103で示され
た領域に含まれる文字画像を文字認識させたい場合、マ
ウスによる矩形領域指定では画面左上端の『静電誘導』
の見出しを含んでしまうため都合が悪い。このため、装
置操作者が表示された画像から『静電誘導』の部分を消
去する操作を行って、図18に示される103′のよう
な画像を得てからマウスによる矩形領域指定を行ってい
た。For example, when it is desired to recognize the character image included in the area 103 in the image displayed in the image window 101 shown in FIG. "Static induction"
It is inconvenient because it includes the heading. For this reason, the device operator performs an operation of deleting the "electrostatic induction" portion from the displayed image to obtain an image like 103 'shown in FIG. 18, and then designates a rectangular area with the mouse. It was
【0007】[0007]
【発明が解決しようとする課題】しかしながら上記従来
例では、結果ウィンドウが所定の初期値サイズに基づい
て表示されるため、認識対象領域の文字数や行数が結果
ウィンドウサイズと対応せず、無駄な部分を表示した
り、認識結果が見づらいという欠点があった。However, in the above-mentioned conventional example, since the result window is displayed based on the predetermined initial size, the number of characters or lines in the recognition target area does not correspond to the size of the result window, which is wasteful. There was a drawback that it was difficult to display the part and the recognition result was difficult to see.
【0008】この点について、図19〜図21に示す種
々のサイズの結果ウィンドウ104と結果ウィンドウ1
04に表示された認識結果を参照して具体的に説明す
る。これらの図で示される認識結果は、図16に示した
イメージウィンドウ101に表示された画像から指定さ
れた認識対象領域102に含まれる文字画像から得られ
たものである。図19〜図21において、104は結果
ウィンドウ、105は認識動作に必要な各種モードを設
定するためのモード設定ウィンドウである。In this regard, the result window 104 and the result window 1 of various sizes shown in FIGS.
A specific description will be given with reference to the recognition result displayed in 04. The recognition results shown in these figures are obtained from the character image included in the recognition target area 102 designated from the image displayed in the image window 101 shown in FIG. 19 to 21, 104 is a result window, and 105 is a mode setting window for setting various modes necessary for the recognition operation.
【0009】さて、図19に示される場合、認識対象領
域102の文字数及び行数に対して結果ウィンドウ10
4のサイズが大きすぎるため、無駄な部分が生じる。こ
れに対して、図20に示される場合、結果ウィンドウ1
04のサイズが小さすぎるため、本来の改行にウィンド
ウサイズの制限による強制改行も加わるため、大変見づ
らくなる。以上の欠点を補うために、図21に示すよう
に、本来の改行は無視しウィンドウサイズに合わせた改
行だけを挿入する方法も考えられるが、この場合には、
改行位置が元の文章と異なるので、視覚的にはやはり違
和感が残り認識結果の確認・修正作業がやりにくいとい
う不便さは残る。In the case shown in FIG. 19, the result window 10 with respect to the number of characters and the number of lines in the recognition target area 102 is displayed.
Since the size of 4 is too large, there is a wasteful part. On the other hand, in the case shown in FIG. 20, the result window 1
Since the size of 04 is too small, a forced line break due to the window size limitation is added to the original line break, which makes it very difficult to see. To compensate for the above drawbacks, a method of ignoring the original line breaks and inserting only line breaks matching the window size can be considered as shown in FIG. 21, but in this case,
Since the line feed position is different from the original sentence, it still feels uncomfortable visually, and the inconvenience that it is difficult to confirm and correct the recognition result remains.
【0010】また、写真、図、見出しなどが含まれる入
力画像原稿から矩形以外の領域を認識対象としたい場合
には不要な部分を削除するための余計な作業が必要とな
るために、文字画像入力に時間を要するという問題や、
不要部分を削除中に誤って必要部分をも削除してしまう
という操作上のミスが発生する可能性が常にあった。本
発明は上記従来例に鑑みてなされたもので、認識対象領
域に含まれる文字画像の大きさに対応した適切なサイズ
で認識結果を表示可能な文字認識方法及びその装置を提
供することを目的としている。Further, when it is desired to recognize an area other than a rectangle from an input image document including a photograph, a figure, a headline, etc., extra work is required to delete an unnecessary portion. The problem that it takes time to input,
There was always the possibility of an operational mistake in deleting the unnecessary part by mistake while deleting the unnecessary part. The present invention has been made in view of the above conventional example, and an object of the present invention is to provide a character recognition method and apparatus capable of displaying a recognition result in an appropriate size corresponding to the size of a character image included in a recognition target area. I am trying.
【0011】[0011]
【課題を解決するための手段】上記目的を達成するため
に本発明の文字認識方法は、以下のような工程からな
る。即ち、画像原稿を読み取り前記画像原稿に描かれた
文字を認識する文字認識方法であって、前記画像原稿を
読み取る入力工程と、前記入力工程によって読み取られ
た前記画像原稿を画面上の第1のウィンドウに表示する
第1表示工程と、前記第1表示工程によって表示された
前記画像原稿から、文字認識を行いたい領域を指定する
指定工程と、前記指定工程によって指定された前記領域
に含まれる文字を一文字ずつ切り出して、前記領域に含
まれる文字数を算出する算出工程と、前記算出工程によ
って算出された文字数に基づいて、文字認識結果を表示
する第2のウィンドウ画面のサイズを決定し、前記画面
上に前記第2のウィンドウをオープンするウィンドウオ
ープン工程と、前記領域に含まれる文字を一文字ずつ文
字認識する認識工程と、前記認識工程による認識結果を
前記第2のウィンドウに表示する第2表示工程とを有す
ることを特徴とする文字認識方法を備える。In order to achieve the above object, the character recognition method of the present invention comprises the following steps. That is, it is a character recognition method for recognizing a character drawn on the image original by reading the image original, and an input step of reading the image original, and a first step of displaying the image original read by the input step on a screen. A first display step of displaying in a window, a designation step of designating an area where character recognition is desired from the image original displayed by the first display step, and a character included in the area designated by the designation step Is calculated for each character to calculate the number of characters included in the area, and the size of the second window screen for displaying the character recognition result is determined based on the number of characters calculated by the calculating step. A window opening step of opening the second window above, and a recognition step of recognizing the characters contained in the area one by one Comprising a character recognition method characterized by having a second display step of displaying the recognition result by said recognizing step in the second window.
【0012】また他の発明によれば、画像原稿を読み取
り前記画像原稿に描かれた文字を認識する文字認識装置
であって、前記画像原稿を読み取る入力手段と、前記入
力手段によって読み取られた前記画像原稿を画面上の第
1のウィンドウに表示する第1表示手段と、前記第1表
示手段によって表示された前記画像原稿から、文字認識
を行いたい領域を指定する指定手段と、前記指定手段に
よって指定された前記領域に含まれる文字を一文字ずつ
切り出して、前記領域に含まれる文字数を算出する算出
手段と、前記算出手段によって算出された文字数に基づ
いて、文字認識結果を表示する第2のウィンドウ画面の
サイズを決定し、前記画面上に前記第2のウィンドウを
オープンするウィンドウオープン手段と、前記領域に含
まれる文字を一文字ずつ文字認識する認識手段と、前記
認識手段による認識結果を前記第2のウィンドウに表示
する第2表示手段とを有することを特徴とする文字認識
装置を備える。According to another aspect of the invention, there is provided a character recognition device for reading an image original and recognizing characters drawn on the image original, wherein the input means reads the image original and the character read by the input means. First display means for displaying the image original in a first window on the screen, designating means for designating an area for character recognition from the image original displayed by the first display means, and by the designating means A calculating unit that calculates the number of characters included in the region by cutting out characters included in the specified region one by one, and a second window that displays the character recognition result based on the number of characters calculated by the calculating unit. A window opening unit that determines the size of the screen and opens the second window on the screen, and a sentence included in the area Each comprising a character recognizing unit, a character recognition apparatus characterized by a second display means for displaying the recognition result by the recognition means to the second window.
【0013】[0013]
【作用】以上の構成により本発明は、入力された画像原
稿から文字認識を行いたい領域を指定し、その領域に含
まれる文字数に基づいて、文字認識結果を表示する第2
のウィンドウ画面のサイズを決定し、これをオープンす
るよう動作する。With the above arrangement, the present invention designates an area in the input image original where character recognition is desired, and displays the character recognition result based on the number of characters included in the area.
Works to determine the size of the windows screen and open it.
【0014】[0014]
【実施例】以下添付図面を参照して本発明の好適な実施
例を詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described in detail below with reference to the accompanying drawings.
【0015】[装置の概要説明(図1)]ここでは、以
下に述べるいくつかの実施例において共通に用いられる
文字認識装置について説明する。[General Description of Apparatus (FIG. 1)] Here, a character recognition apparatus commonly used in several embodiments described below will be described.
【0016】図1は本発明の代表的な実施例である光学
的文字認識装置(OCR)の構成を示すブロック図であ
る。図1において、1は画像原稿に光を照射してその反
射光を読み取りアナログ電気信号を出力するスキャナ、
2はスキャナ1が出力する電気信号をデジタル変換し白
黒に対応した2値信号に変換する2値化回路、3はイメ
ージウィンドウ上での領域指定など座標を入力するため
のポインディングデバイスであるマウス、4はマウス3
からの信号を他の装置構成要素に伝送するためのマウス
インタフェース回路、5は装置全体の制御及び文字切り
出し処理や認識処理などを実行するCPU、6はCPU
5が実行する制御プログラム、各種処理プログラム、認
識辞書などを格納するROM、7は文字画像の展開や文
字認識処理のための作業領域などとして用いられるRA
M、8は入力イメージや認識結果を表示するためのディ
スプレイ、9はディスプレイインタフェース回路、そし
て、10は各装置構成要素を接続するCPUバスであ
る。FIG. 1 is a block diagram showing the configuration of an optical character recognition device (OCR) which is a typical embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a scanner that irradiates an image original with light and reads the reflected light to output an analog electric signal.
Reference numeral 2 is a binarization circuit that digitally converts the electric signal output from the scanner 1 into a binary signal corresponding to black and white, and 3 is a mouse that is a pointing device for inputting coordinates such as area designation on an image window. 4 is mouse 3
A mouse interface circuit for transmitting signals from other devices to other device components, 5 is a CPU for controlling the entire device and performing character cutout processing, recognition processing, etc., 6 is a CPU
A ROM storing a control program executed by 5, various processing programs, a recognition dictionary, and the like, and 7 is an RA used as a work area for developing a character image or character recognition processing.
M and 8 are displays for displaying input images and recognition results, 9 is a display interface circuit, and 10 is a CPU bus for connecting each device constituent element.
【0017】[第1実施例(図2〜図4)]ここでは上
記構成の文字認識装置を用いて実行する文字認識処理に
ついて、図2に示すフローチャートを参照して説明す
る。なお、ここでは従来例で既に説明したと同じ処理ス
テップについては、同じステップ参照番号を付して説明
を省略する。[First Embodiment (FIGS. 2 to 4)] Here, a character recognition process executed by using the character recognition device having the above configuration will be described with reference to a flow chart shown in FIG. Note that, here, the same processing steps as those already described in the conventional example are designated by the same step reference numerals, and description thereof will be omitted.
【0018】ステップS501〜S504では従来の技
術に従って、画像原稿の入力、2値化処理、イメージ表
示、及び、マウスによる認識対象領域の指定を行う。In steps S501 to S504, input of an image original, binarization processing, image display, and designation of a recognition target area by a mouse are performed according to a conventional technique.
【0019】次にステップS10では、指定された認識
対象領域から文字切り出し処理を行い、1文字ずつに対
応する矩形領域を取り出す。続いて、S15で文字切り
出しの処理結果に基づき、その認識対象領域における文
字数の最大値及び行数を計算する。これらの値から認識
結果文字を表示するのに必要かつ余分のない結果ウィン
ドウのサイズを決定し、ステップS20では計算された
サイズに従う結果ウィンドウをオープンする。Next, in step S10, character cutting processing is performed from the designated recognition target area, and a rectangular area corresponding to each character is taken out. Then, in S15, the maximum value of the number of characters and the number of lines in the recognition target area are calculated based on the result of the character cutting process. From these values, the size of the result window that is necessary and unnecessary for displaying the recognition result character is determined, and in step S20, the result window according to the calculated size is opened.
【0020】ステップS507〜S508では従来の技
術に従って、認識処理を実行し、その結果を結果ウィン
ドウへ表示する。In steps S507 to S508, recognition processing is executed according to the conventional technique, and the result is displayed in the result window.
【0021】以上の処理によって、図3に示すような結
果ウィンドウのサイズと文字認識結果の表示文字量との
関係が適切な表示が得られる。図3において、11はイ
メージウィンドウで、13は結果ウィンドウ、14はO
CRの動作に必要な各種モードを設定するためのモード
設定ウィンドウである。また、ここで結果ウィンドウ1
3に表示されている文字は、図16に示したイメージウ
ィンドウ101に表示された画像から指定された認識対
象領域102に含まれる文字画像から得られたものであ
る。By the above processing, it is possible to obtain an appropriate display of the relationship between the size of the result window and the display character amount of the character recognition result as shown in FIG. In FIG. 3, 11 is an image window, 13 is a result window, and 14 is O.
It is a mode setting window for setting various modes necessary for the operation of the CR. Also here the result window 1
The character displayed in No. 3 is obtained from the character image included in the recognition target area 102 designated from the image displayed in the image window 101 shown in FIG.
【0022】以上の説明では、横書き文書に対する処理
の例を示したが縦書き文書に対しても同様の処理が適用
可能であることは言うまでもない。In the above description, an example of the process for a horizontally written document is shown, but it goes without saying that the same process can be applied to a vertically written document.
【0023】また、上記の説明ではマルチウィンドウ画
面は各ウィンドウが重なり合うオーバラップ型のマルチ
ウィンドウであったが、例えば、図4に示すようなウィ
ンドウが重なり合わないタイル型のマルチウィンドウを
用いることももちろん可能である。図4において、15
は各種処理モード設定ウィンドウ、16はイメージウィ
ンドウ、17は結果ウィンドウである。ここで、結果ウ
ィンドウの高さは固定であるが、幅は認識対象領域の文
字数の最大値に応じて決定される。Further, in the above description, the multi-window screen is an overlap type multi-window in which the windows are overlapped, but for example, a tile-type multi-window in which the windows are not overlapped as shown in FIG. 4 may be used. Of course it is possible. In FIG. 4, 15
Is a processing mode setting window, 16 is an image window, and 17 is a result window. Here, the height of the result window is fixed, but the width is determined according to the maximum number of characters in the recognition target area.
【0024】さらに、各ウィンドウはマウス操作によ
り、移動、リサイズ(拡大・縮小など)、前置、後置等
の操作が自由に行えることは言うまでもない。Further, it goes without saying that each window can be freely moved, resized (enlarged / reduced, etc.), placed in front and placed in the rear by operating the mouse.
【0025】従って本実施例に従えば、指定された認識
対象領域に含まれる文字数の最大値及び行数に基づい
て、結果ウィンドウのサイズが決定されるので、常に、
文字認識結果の表示文字量に適切な結果ウィンドウが得
られ、違和感のない適切な表示が行われる。Therefore, according to the present embodiment, the size of the result window is determined based on the maximum value of the number of characters and the number of lines included in the designated recognition target area.
A result window suitable for the display character amount of the character recognition result can be obtained, and an appropriate display can be performed without any discomfort.
【0026】[第2実施例(図5〜図11)]第1実施
例では指定された認識対象領域に含まれる文字数の最大
値及び行数に対応して最適な結果ウィンドウのサイズを
決定する処理について説明した。本実施例では、単なる
矩形ではなくより複雑な形をした認識対象領域の指定が
可能な処理について、図5に示すフローチャートを参照
して説明する。なお、ここでも従来例で既に説明したと
同じ処理ステップについては、同じステップ参照番号を
付して説明を省略する。[Second Embodiment (FIGS. 5 to 11)] In the first embodiment, the optimum size of the result window is determined in accordance with the maximum number of characters and the number of lines included in the designated recognition target area. The processing has been described. In the present embodiment, a process capable of designating a recognition target area having a more complicated shape than a simple rectangle will be described with reference to the flowchart shown in FIG. Here, also here, the same processing steps as those already described in the conventional example are designated by the same step reference numerals, and description thereof will be omitted.
【0027】ステップS501〜S503では従来の技
術に従って、画像原稿の入力、2値化処理、イメージ表
示を行う。In steps S501 to S503, input of an image original, binarization processing, and image display are performed according to the conventional technique.
【0028】次にステップS30では、認識対象領域を
マウス3を用いて指定する。本実施例では、マウス3を
操作してイメージウィンドウ画面上に線分を描き、その
線分を連結して多角形を形成し、その多角形によって囲
まれる領域が認識対象領域とみなされる。この認識対象
領域指定の動作については、図6〜図8に示す表示画面
例を参照して具体的に説明する。Next, in step S30, the recognition target area is specified using the mouse 3. In the present embodiment, the mouse 3 is operated to draw a line segment on the image window screen, the line segments are connected to form a polygon, and the region surrounded by the polygon is regarded as the recognition target region. The operation of designating the recognition target area will be specifically described with reference to the display screen examples shown in FIGS.
【0029】図6はステップS503の処理が終了して
スキヤナ1より入力した画像原稿をイメージウィンドウ
41に表示した様子を示す図である。さらに図6では、
線分42と線分43とが既に描かれており、認識対象領
域指定のための多角形が描画中であることを示してい
る。線分の指定はマウス3によって行われ、カーソル4
0を所望の位置に移動させた後、マウス3のボタンを1
回クリックすることによって、多角形の構成要素である
線分の始点または終点が決定される。FIG. 6 is a diagram showing a state in which the image original input from the scanner 1 is displayed in the image window 41 after the processing of step S503 is completed. Further in FIG.
The line segment 42 and the line segment 43 have already been drawn, indicating that the polygon for designating the recognition target area is being drawn. The line segment is specified by the mouse 3 and the cursor 4
After moving 0 to the desired position, press the mouse 3 button 1
By clicking twice, the start point or the end point of the line segment that is a component of the polygon is determined.
【0030】図7は図6と比べて多角形の描画が進み、
最後の線分を決定する様子を示している。図7ではさら
にカーソル40を所望の位置に移動させながらマウス3
のボタンの1回クリックが続行されて、線分44、線分
45、線分46が描かれている。多角形を完成させるた
めには、カーソル40を所望の位置に移動させた後、マ
ウス3のボタンを2回クリック(ダブルクリック)す
る。これによって、例えば、図7に示す場合には、カー
ソル40の位置と多角形を作成し始めた始点51とが直
線で結ばれ、図8に示す多角形61が完成し、この多角
形61が認識対象領域とみなされる。In FIG. 7, drawing of a polygon is advanced as compared with FIG.
It shows how to determine the last line segment. In FIG. 7, the mouse 3 is moved while further moving the cursor 40 to a desired position.
The button is continuously clicked once to draw line segment 44, line segment 45, and line segment 46. In order to complete the polygon, the cursor 40 is moved to a desired position and then the button of the mouse 3 is clicked twice (double click). As a result, for example, in the case shown in FIG. 7, the position of the cursor 40 and the starting point 51 at which the polygon is started are connected by a straight line, and the polygon 61 shown in FIG. 8 is completed. It is regarded as a recognition target area.
【0031】このようにして認識対象領域の指定が完了
すると、処理はステップS35に進み、指定された領域
内での文字切り出し処理が実行され、1文字ずつの矩形
領域が取り出される。ここでは、図9と図10を参照し
てもう少し具体的に説明する。なお、文字切り出しには
既に多くの方法が公知の技術として知られているが、本
実施例では射影によって得られる黒画素のヒストグラム
を用いて文字切り出し処理を行うものとする。もちろん
輪郭線追跡等、他の切り出し方法を用いても良いことは
言うまでもない。When the designation of the recognition target area is completed in this way, the process proceeds to step S35, where character cutting processing is executed in the designated area to extract a rectangular area for each character. Here, a more specific description will be given with reference to FIGS. 9 and 10. It should be noted that although many methods are already known as known techniques for character extraction, in the present embodiment, character extraction processing is performed using a histogram of black pixels obtained by projection. Needless to say, other cutting methods such as contour line tracking may be used.
【0032】説明を簡単にするために、ここでは指定さ
れた認識対象領域を図9に示されるような矩形領域71
とする。ここで、図9に示すように横方向にx軸、縦方
向にy軸をとるxy座標系を考えると、この矩形内領域
の座標は、a0 <x<a1 、b0 <y<b1 と表現でき
る。In order to simplify the explanation, here, the designated recognition target area is a rectangular area 71 as shown in FIG.
And Here, considering an xy coordinate system having an x-axis in the horizontal direction and a y-axis in the vertical direction as shown in FIG. 9, the coordinates of this rectangular area are a 0 <x <a 1 and b 0 <y <. It can be expressed as b 1 .
【0033】最初に矩形71内でx方向への黒画素の射
影を取ると、y軸方向に関してヒストグラム72が得ら
れる。このヒストグラム72に従って、YS1,YE1,Y
S2,YE2,…というように各行の始点及び終点のy座標
値が計算される。First, when a black pixel is projected in the x direction within the rectangle 71, a histogram 72 is obtained in the y axis direction. According to this histogram 72, Y S1 , Y E1 , Y
The y coordinate values of the start point and the end point of each line are calculated as S2 , Y E2 , ....
【0034】次に、各行ごとに、即ち、第n行に対して
は、a0 <x<a、YSn<y<YEnで与えられる矩形内
で、図10に示すように、y方向への黒画素の射影を取
ると、x軸方向に関してヒストグラム73が得られる。
そして、このヒストグラム73に従って、XS1,XE1,
xS2,XE2,…という各文字の始点及び終点のx座標値
が計算される。Next, for each row, that is, for the nth row, in the rectangle given by a 0 <x <a and Y Sn <y <Y En , as shown in FIG. Histogram 73 is obtained in the x-axis direction.
Then, according to this histogram 73, X S1 , X E1 ,
The x coordinate values of the start point and the end point of each character x S2 , X E2 , ... Are calculated.
【0035】以上のような考え方は、図11に示される
多角形の認識対象領域に対しても適用できる。図11の
多角形74の場合、多角形によって囲まれる領域の座標
は、 XS (y)<x<XE (y) …(1) かつ、 XS (x)<y<YE (x) …(2) で表される。The above concept can be applied to the polygonal recognition target area shown in FIG. In the case of the polygon 74 of FIG. 11, the coordinates of the area surrounded by the polygon are X S (y) <x <X E (y) (1) and X S (x) <y <Y E (x ) ... (2) is represented.
【0036】従って、式(1)及び(2)の条件を満足
する範囲のみでx方向及びy方向へ射影を取れば、所望
の領域の行の切り出し及び文字の切り出しが実現でき
る。Therefore, by projecting in the x direction and the y direction only within the range satisfying the conditions of the expressions (1) and (2), it is possible to cut out a line and a character in a desired area.
【0037】最後にステップS507〜S508では従
来の技術に従って、切り出された文字画像に対して認識
処理を実行し、その結果を結果ウィンドウへ表示する。Finally, in steps S507 to S508, the recognition process is executed on the cut out character image according to the conventional technique, and the result is displayed in the result window.
【0038】従って本実施例に従えば、複数の線分を自
由に組み合わせた多角形が認識対象領域となるので、マ
ウスで単純に指定することができない複雑な外形をした
認識対象領域を指定することができる。また、これによ
って写真、図、見出し等が存在しても、それらを容易に
除いて認識対象領域を選択できる。Therefore, according to the present embodiment, since the polygon to be freely combined with a plurality of line segments becomes the recognition target area, the recognition target area having a complicated outline which cannot be simply specified with the mouse is specified. be able to. In addition, even if there are photographs, figures, captions, etc., it is possible to easily remove them and select the recognition target area.
【0039】なお以上の説明において、マウスをポイン
ティングデバイスとして用いたが、他の各種ポインティ
ングデバイスを用いることも可能である。また、多角形
を形成する際の線分の確定にマウスボタンのシングルク
リックを、多角形の確定にダブルクリックをそれぞれ用
いるものとして説明したが、これらのクリックの定義は
変更可能であるし、また、マウスボタンを離した時点で
線分あるいは多角形が確定するようにしてもよい。Although the mouse is used as the pointing device in the above description, various other pointing devices can be used. Also, it has been explained that a single click of a mouse button is used to confirm a line segment when forming a polygon, and a double click is used to confirm a polygon, but the definition of these clicks can be changed. Alternatively, the line segment or the polygon may be fixed when the mouse button is released.
【0040】[第3実施例(図12〜図14)]第2実
施例では複数の線分を組み合わせて多角形を形成し、そ
の多角形によって囲まれる領域を認識対象領域とする場
合について説明したが、本実施例では単純な矩形を組み
合わせて認識対象領域を形成する場合について説明す
る。なお、第2実施例と比較したとき、本実施例の特徴
は認識対象領域の形成手順にあり、その他の処理につい
ては共通なので、ここではその形成手順についてのみ図
12〜図14を参照して説明する。[Third Embodiment (FIGS. 12 to 14)] In the second embodiment, a case will be described in which a plurality of line segments are combined to form a polygon, and an area surrounded by the polygon is used as a recognition target area. However, in the present embodiment, a case will be described in which simple rectangles are combined to form a recognition target area. When compared with the second embodiment, the feature of the present embodiment lies in the procedure for forming the recognition target area, and the other processing is common, so here only the formation procedure will be described with reference to FIGS. 12 to 14. explain.
【0041】認識させたい領域としては、従来例で説明
した図17に示す領域103を考える。まず、図12に
示す矩形領域81をマウス3で指定する。矩形領域81
は、まず、矩形領域81の左上端にマウスカーソルを合
わせてマウスボタンを一度クリックし、その後、マウス
をドラッグして矩形領域81の右下端に移動して、さら
にもう一度マウスボタンをクリックすることによって確
定する。次に、マウス3を同様に操作して矩形領域82
を指定する。このように連続的に複数の矩形領域をマウ
スによって指定すると、本実施例の場合は、指定された
矩形領域を合成して多角形を形成する。例えば、図12
に示す場合、これら矩形領域81と82が重なり合う部
分の線分83と線分84が無視されて、その結果、図1
3に示すような多角形85が認識対象領域とみなされ
る。このようして最終的に図14に示されるような認識
対象領域86が得られる。で表される。As an area to be recognized, consider the area 103 shown in FIG. 17 described in the conventional example. First, the rectangular area 81 shown in FIG. 12 is designated by the mouse 3. Rectangular area 81
First, move the mouse cursor to the upper left corner of the rectangular area 81 and click the mouse button once, then drag the mouse to the lower right corner of the rectangular area 81 and click the mouse button again. Determine. Next, the mouse 3 is similarly operated to operate the rectangular area 82.
Is specified. When a plurality of rectangular areas are successively designated by the mouse in this way, in the present embodiment, the designated rectangular areas are combined to form a polygon. For example, in FIG.
In the case of FIG. 1, the line segment 83 and the line segment 84 in the portion where the rectangular regions 81 and 82 overlap each other are ignored, and as a result, as shown in FIG.
A polygon 85 as shown in 3 is regarded as a recognition target area. Thus, the recognition target area 86 as shown in FIG. 14 is finally obtained. It is represented by.
【0042】言い換えると矩形領域の合成とは、指定さ
れた矩形を構成する線分の最も外側の部分だけを残すこ
とであると言える。このような合成処理は重なりをもつ
矩形領域が指定される度ごとに実行され、常に最も外側
の線分要素だけが認識対象領域の境界線として残され
る。In other words, it can be said that the synthesis of the rectangular area means leaving only the outermost portion of the line segment which constitutes the designated rectangle. Such a combining process is executed every time a rectangular area having an overlap is designated, and only the outermost line segment element is always left as the boundary line of the recognition target area.
【0043】従って本実施例に従えば、マウスを用いて
複数の矩形領域を指定し、それを合成することによって
形成される多角形を認識対象領域とすることができる。Therefore, according to the present embodiment, a polygon formed by designating a plurality of rectangular areas with the mouse and synthesizing them can be the recognition target area.
【0044】尚、本発明は、複数の機器から構成される
システムに適用しても良いし、1つの機器から成る装置
に適用しても良い。また、本発明はシステム或は装置に
プログラムを供給することによって達成される場合にも
適用できることは言うまでもない。The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.
【0045】[0045]
【発明の効果】以上説明したように本発明によれば、文
字認識を行いたい領域に含まれる文字数に基づいて、文
字認識結果を表示するウィンドウのサイズを決定してオ
ープンするので、常に文字認識結果に対して適切なサイ
ズのウィンドウを得ることができる効果がある。従っ
て、そのウィンドウが大きすぎて画面上に無駄な部分が
生じることもなく、また、そのウィンドウが小さすぎず
文字認識結果が見やすいので認識結果の確認・修正も容
易であるという利点もある。As described above, according to the present invention, the size of the window for displaying the character recognition result is determined and opened based on the number of characters included in the area in which character recognition is desired. This has the effect of obtaining a window of an appropriate size for the result. Therefore, there is an advantage that the window is not too large and an unnecessary portion is not generated on the screen, and that the window is not too small and the character recognition result is easy to see, so that the recognition result can be easily confirmed and corrected.
【0046】また、文字認識を行いたい領域をオペレー
タが所望の形状の多角形で指定できるため、矩形では何
回かに分割して指定しなければならないような形状の領
域でも一度に指定できるので、操作効率が向上するとい
う効果がある。Also, since the operator can specify the area in which character recognition is desired with a polygon of a desired shape, even an area having a shape that must be divided into several times and specified can be specified at once. The operation efficiency is improved.
【図1】本発明の代表的な実施例である文字認識装置の
構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a character recognition device that is a typical embodiment of the present invention.
【図2】第1実施例に従う文字認識処理を示すフローチ
ャートである。FIG. 2 is a flowchart showing a character recognition process according to the first embodiment.
【図3】第1実施例に従う、結果ウィンドウの表示例を
示す図である。FIG. 3 is a diagram showing a display example of a result window according to the first embodiment.
【図4】タイル型マルチウィンドウの表示例を示す図で
ある。FIG. 4 is a diagram showing a display example of a tile-type multi-window.
【図5】第2実施例に従う文字認識処理を示すフローチ
ャートである。FIG. 5 is a flowchart showing a character recognition process according to the second embodiment.
【図6】[Figure 6]
【図7】[Figure 7]
【図8】第2実施例に従うイメージウィンドウに認識対
象領域となる多角形を描画する様子を示す図である。FIG. 8 is a diagram showing how a polygon to be a recognition target area is drawn in an image window according to the second embodiment.
【図9】射影による行切り出しを説明する図である。FIG. 9 is a diagram illustrating line segmentation by projection.
【図10】射影による文字切り出しを説明する図であ
る。FIG. 10 is a diagram illustrating character segmentation by projection.
【図11】第2実施例に従う多角形の認識対象領域内で
の行、文字切り出しを説明する図である。FIG. 11 is a diagram illustrating line and character cutout in a polygonal recognition target region according to the second embodiment.
【図12】[Fig. 12]
【図13】第3実施例に従うイメージウィンドウに認識
対象領域となる複数の矩形を描画する様子を示す図であ
る。FIG. 13 is a diagram showing a manner of drawing a plurality of rectangles as recognition target areas in an image window according to the third embodiment.
【図14】第3実施例に従う多角形の認識対象領域内で
の行、文字切り出しを説明する図である。FIG. 14 is a diagram illustrating line and character cutout in a polygonal recognition target area according to the third embodiment.
【図15】従来例に従う文字認識処理を示すフローチャ
ートである。FIG. 15 is a flowchart showing a character recognition process according to a conventional example.
【図16】FIG. 16
【図17】FIG. 17
【図18】従来例に従うイメージウィンドウの表示例を
示す図である。FIG. 18 is a diagram showing a display example of an image window according to a conventional example.
【図19】FIG. 19
【図20】FIG. 20
【図21】従来例に従う結果ウィンドウの表示例を示す
図である。FIG. 21 is a diagram showing a display example of a result window according to a conventional example.
1 スキャナ 2 2値化回路 3 マウス 4 マウスインタフェース回路 5 CPU 6 ROM 7 RAM 8 ディスプレイ 9 ディスプレイインタフェース回路 10 CPUバス 1 Scanner 2 Binarization Circuit 3 Mouse 4 Mouse Interface Circuit 5 CPU 6 ROM 7 RAM 8 Display 9 Display Interface Circuit 10 CPU Bus
Claims (7)
れた文字を認識する文字認識方法であって、 前記画像原稿を読み取る入力工程と、 前記入力工程によって読み取られた前記画像原稿を画面
上の第1のウィンドウに表示する第1表示工程と、 前記第1表示工程によって表示された前記画像原稿か
ら、文字認識を行いたい領域を指定する指定工程と、 前記指定工程によって指定された前記領域に含まれる文
字を一文字ずつ切り出して、前記領域に含まれる文字数
を算出する算出工程と、 前記算出工程によって算出された文字数に基づいて、文
字認識結果を表示する第2のウィンドウ画面のサイズを
決定し、前記画面上に前記第2のウィンドウをオープン
するウィンドウオープン工程と、 前記領域に含まれる文字を一文字ずつ文字認識する認識
工程と、 前記認識工程による認識結果を前記第2のウィンドウに
表示する第2表示工程とを有することを特徴とする文字
認識方法。1. A character recognition method for recognizing a character drawn on an image original by reading the image original, the input step of reading the image original, and the image original read on the screen by the input step. A first display step of displaying in a first window; a designation step of designating an area in which character recognition is desired from the image original displayed in the first display step; and a designation step in the area designated by the designation step. A step of calculating the number of characters included in the area by cutting out the included characters one by one, and determining the size of the second window screen displaying the character recognition result based on the number of characters calculated by the calculating step. , A window opening step of opening the second window on the screen, and character recognition of characters included in the area one by one A character recognition method, comprising: a recognition step; and a second display step of displaying the recognition result of the recognition step in the second window.
に複数の矩形を指定する矩形指定工程と、 前記複数の矩形を合成して1つの多角形を形成し該多角
形を前記領域とする多角形合成工程とを有することを特
徴とする請求項第1項に記載の文字認識方法。2. The specifying step includes a rectangular specifying step of specifying a plurality of rectangles in the first window, and a plurality of rectangles are combined to form one polygon, and the polygon is used as the area. The character recognizing method according to claim 1, further comprising a polygon synthesizing step.
に複数の線分を描き、前記複数の線分によって1つの多
角形を形成し、該多角形を前記領域とする領域形成工程
とを有することを特徴とする請求項第1項に記載の文字
認識方法。3. The step of designating comprises: drawing a plurality of line segments in the first window, forming one polygon by the plurality of line segments, and forming a region having the polygon as the region. The character recognition method according to claim 1, further comprising:
れた文字を認識する文字認識装置であって、 前記画像原稿を読み取る入力手段と、 前記入力手段によって読み取られた前記画像原稿を画面
上の第1のウィンドウに表示する第1表示手段と、 前記第1表示手段によって表示された前記画像原稿か
ら、文字認識を行いたい領域を指定する指定手段と、 前記指定手段によって指定された前記領域に含まれる文
字を一文字ずつ切り出して、前記領域に含まれる文字数
を算出する算出手段と、 前記算出手段によって算出された文字数に基づいて、文
字認識結果を表示する第2のウィンドウ画面のサイズを
決定し、前記画面上に前記第2のウィンドウをオープン
するウィンドウオープン手段と、 前記領域に含まれる文字を一文字ずつ文字認識する認識
手段と、 前記認識手段による認識結果を前記第2のウィンドウに
表示する第2表示手段とを有することを特徴とする文字
認識装置。4. A character recognition device for reading an image original and recognizing characters drawn on the image original, comprising: input means for reading the image original; and the image original read by the input means on a screen. A first display unit for displaying in a first window; a designation unit for designating an area in which character recognition is desired to be performed from the image original displayed by the first display unit; and a region designated by the designation unit. Calculating the included characters one by one to calculate the number of characters included in the area, and determining the size of the second window screen displaying the character recognition result based on the number of characters calculated by the calculating unit. Window opening means for opening the second window on the screen, and character recognition of characters contained in the area one by one A character recognition device comprising: a recognition means and a second display means for displaying a recognition result by the recognition means in the second window.
に複数の矩形を指定する矩形指定手段と、 前記複数の矩形を合成して1つの多角形を形成し該多角
形を前記領域とする多角形合成手段とを有することを特
徴とする請求項第4項に記載の文字認識装置。5. The designating means composes a plurality of rectangles in the first window with a rectangle designating means for designating a plurality of rectangles, forms one polygon, and defines the polygon as the area. The character recognition device according to claim 4, further comprising a polygon synthesizing unit.
に複数の線分を描き、前記複数の線分によって1つの多
角形を形成し、該多角形を前記領域とする領域形成手段
を有することを特徴とする請求項第4項に記載の文字認
識装置。6. The designating means has a region forming means for drawing a plurality of line segments in the first window, forming one polygon by the plurality of line segments, and defining the polygon as the region. The character recognition device according to claim 4, wherein the character recognition device is a character recognition device.
し、前記光の反射光を受光して前記反射光をアナログ電
気信号に変換するスキャナと、 前記アナログ電気信号をデジタル信号に変換して2値信
号を出力する2値化手段とを有することを特徴とする請
求項第4項に記載の文字認識装置。7. The scanner, wherein the input means irradiates the image original with light, receives reflected light of the light and converts the reflected light into an analog electric signal, and converts the analog electric signal into a digital signal. 5. The character recognition device according to claim 4, further comprising a binarizing unit that outputs a binary signal.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3288274A JPH05128302A (en) | 1991-11-05 | 1991-11-05 | Method and device for character recognition |
US07/934,313 US5703962A (en) | 1991-08-29 | 1992-08-25 | Image processing method and apparatus |
DE69230392T DE69230392T2 (en) | 1991-08-29 | 1992-08-28 | Image processing method and apparatus |
EP92307847A EP0531060B1 (en) | 1991-08-29 | 1992-08-28 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3288274A JPH05128302A (en) | 1991-11-05 | 1991-11-05 | Method and device for character recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05128302A true JPH05128302A (en) | 1993-05-25 |
Family
ID=17728059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3288274A Withdrawn JPH05128302A (en) | 1991-08-29 | 1991-11-05 | Method and device for character recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05128302A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015201038A (en) * | 2014-04-08 | 2015-11-12 | 富士通株式会社 | Information processing device and information processing program |
KR20200062806A (en) * | 2018-11-27 | 2020-06-04 | 삼성생명보험주식회사 | Method for recognizing characters on document images |
JP2023528132A (en) * | 2021-05-14 | 2023-07-04 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Information display method, device, terminal, and computer program |
-
1991
- 1991-11-05 JP JP3288274A patent/JPH05128302A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015201038A (en) * | 2014-04-08 | 2015-11-12 | 富士通株式会社 | Information processing device and information processing program |
KR20200062806A (en) * | 2018-11-27 | 2020-06-04 | 삼성생명보험주식회사 | Method for recognizing characters on document images |
JP2023528132A (en) * | 2021-05-14 | 2023-07-04 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Information display method, device, terminal, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11341733B2 (en) | Method and system for training and using a neural network for image-processing | |
CN107133615B (en) | Information processing apparatus, information processing method, and computer program | |
JP2001175807A (en) | Method for selecting text area | |
US20070071319A1 (en) | Method, apparatus, and program for dividing images | |
JP2005073015A (en) | Device and method for image processing and computer program | |
US5703962A (en) | Image processing method and apparatus | |
US7068855B2 (en) | System and method for manipulating a skewed digital image | |
US6504540B1 (en) | Method and apparatus for altering one or more attributes of one or more blocks of image data in a document | |
US8533590B2 (en) | Information processing apparatus and layout processing method | |
JPH05128302A (en) | Method and device for character recognition | |
JP2000181988A (en) | Optical character reader | |
US11380032B2 (en) | Image information processing apparatus, method and non-transitory computer readable medium storing program | |
JP3171626B2 (en) | Character recognition processing area / processing condition specification method | |
JP2000082110A (en) | Ruled line deletion device, character picture extraction device, ruled line deletion method, character picture extraction method and storage medium | |
JP3761923B2 (en) | Image processing apparatus and method | |
JPH103516A (en) | Method and device for processing information | |
JP2803736B2 (en) | Character recognition method | |
JP3484274B2 (en) | Area segmentation method for similar documents | |
JPH10222688A (en) | Picture processing method | |
JP2734628B2 (en) | Character recognition device | |
JPH01270107A (en) | Program generation device for numerically controlled working device | |
JPH07160811A (en) | Character recognizing device | |
JP2004213215A (en) | Method and device for inputting image | |
JP2800205B2 (en) | Image processing device | |
JP2931041B2 (en) | Character recognition method in table |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19990204 |