[go: up one dir, main page]

JP2013196479A - Information processing system, information processing program, and information processing method - Google Patents

Information processing system, information processing program, and information processing method Download PDF

Info

Publication number
JP2013196479A
JP2013196479A JP2012063982A JP2012063982A JP2013196479A JP 2013196479 A JP2013196479 A JP 2013196479A JP 2012063982 A JP2012063982 A JP 2012063982A JP 2012063982 A JP2012063982 A JP 2012063982A JP 2013196479 A JP2013196479 A JP 2013196479A
Authority
JP
Japan
Prior art keywords
character string
character
image
information
attribute information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012063982A
Other languages
Japanese (ja)
Inventor
Noriko Horibe
典子 堀部
Kazuaki Yokota
和章 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2012063982A priority Critical patent/JP2013196479A/en
Publication of JP2013196479A publication Critical patent/JP2013196479A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique by which a necessary attribute described in a free-format document and a character string can be efficiently extracted and associated with each other, and the extracted content can be corrected with an easy procedure.SOLUTION: An information processing system according to the embodiment includes a first display part, a first input part, a second input part, and a second display part. The first display part displays an image of a document to which character recognition is performed. The first input part detects a range specified by a user in the image. The second display part displays, in the form of a list, character string, which is a result of the character recognition performed in the document, for each attribute information indicative of what attribute the character string has, and displays the character string, which is a result of the character recognition performed in the range detected by the first input part, in a column in the list specified by the user by means of the second input part.

Description

本発明の実施形態は、光学式文字読取装置によって認識され、識別された文字を訂正する技術に関する。   Embodiments described herein relate generally to a technique for correcting characters recognized and identified by an optical character reader.

紙面上に記載された文字を識別し、電子データに変換する技術として、光学文字認識(OCR:Optical Character Recognition)の技術や、このOCR技術を用いて文字認識を実現する光学式文字読取装置があり、実用化されている。   Optical character recognition (OCR) technology and an optical character reader that realizes character recognition using this OCR technology as a technology for identifying characters on paper and converting them to electronic data Yes, it has been put to practical use.

また、名刺上に記載されている文字を識別するとともに、名刺上の文字の大きさや位置、"Tel:"、"Fax:"、"E-mail:"等のキーワードをもとに、識別した文字列と企業、氏名、役職、連絡先等の属性情報とを同定させ、対応付けて保持する技術もある。   In addition to identifying the characters on the business card, the characters were identified based on the size and position of the characters on the business card and keywords such as "Tel:", "Fax:", and "E-mail:". There is also a technique for identifying character strings and attribute information such as company, name, title, contact information, etc., and holding them in association with each other.

関連技術として、以下の文献が開示されている。   The following documents are disclosed as related technologies.

特開平5−151387号公報JP-A-5-151387

名刺のように、ある程度フォーマットが慣例上決まっており、また記載内容が限られている場合には上記従来技術は有効であるが、多数のページのフリーフォーマット文書に記載された、多数の文字列を検出する場合、記載された文字列と属性情報との組合せを判断するのが困難となる。   If the format is customarily determined to some extent, such as a business card, and the description content is limited, the above prior art is effective, but a large number of character strings described in a free format document of a large number of pages When it is detected, it becomes difficult to determine the combination of the written character string and the attribute information.

また、抽出すべき文字列の近傍に上記のようなキーワードがある場合、その抽出も容易であるが、フリーフォーマット文書である場合は必ずしもキーワードが近傍にあるとは限らない。抽出漏れがある場合、ユーザが文書内の文字列を特定して抽出することとなるが、従来技術では、効率的に取り出すユーザインターフェースについては考慮されていない。   Further, when there is a keyword as described above in the vicinity of the character string to be extracted, the extraction is easy, but in the case of a free format document, the keyword is not necessarily in the vicinity. When there is omission of extraction, the user specifies and extracts a character string in the document, but the conventional technique does not consider a user interface that is efficiently extracted.

本発明が解決しようとする課題は、フリーフォーマット文書に記載された必要な属性と文字列とを効率よく抽出して対応付け、また、抽出した内容を容易な手順で訂正することが可能な技術を提供することである。   The problem to be solved by the present invention is a technology that can efficiently extract and associate necessary attributes and character strings described in a free format document, and can correct the extracted contents by an easy procedure. Is to provide.

実施形態の情報処理システムは、第1の表示部と、第1の入力部と、第2の入力部と、第2の表示部とを有する。第1の表示部は、文字認識が行われた文書の画像を表示する。第1の入力部は、画像内の、ユーザが指定した範囲を検出する。第2の表示部は、文書において文字認識が行われた結果である文字列を、文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、一覧内の、第2の入力部を用いてユーザにより指定された欄に、第1の入力部により検出された範囲における文字認識の結果である文字列を表示する。   The information processing system according to the embodiment includes a first display unit, a first input unit, a second input unit, and a second display unit. The first display unit displays an image of the document on which character recognition has been performed. The first input unit detects a range designated by the user in the image. The second display unit displays a list of character strings, which are the result of character recognition in the document, for each attribute information indicating what attribute the character string is a character string of. A character string that is a result of character recognition in the range detected by the first input unit is displayed in a column designated by the user using the input unit.

実施形態の情報処理システムは、デジタルペンと、コンピュータとを有する。デジタルペンは、文字認識が行われた画像が印刷されたシート上の位置情報を取得する。コンピュータは、画像に記された文字列を、文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、デジタルペンにより取得される、シートの画像内に記されたユーザ指定の文字列の位置情報と、シートに記されている、属性情報を指定するための記入枠でありユーザが指定した記入枠の位置情報とに基づき、一覧のうちの指定された属性情報と一致する属性情報の欄の余白欄に、シートの画像内に記された指定された文字列を表示する。   The information processing system of the embodiment includes a digital pen and a computer. The digital pen acquires position information on a sheet on which an image subjected to character recognition is printed. The computer displays a list of character strings written in the image for each attribute information indicating what kind of attribute the character string is, and is specified by the user specified in the sheet image obtained by the digital pen. Matches the specified attribute information in the list based on the position information of the character string and the position information of the entry frame specified by the user and specified in the sheet. The designated character string written in the sheet image is displayed in the blank space of the attribute information column to be displayed.

第1の実施形態の構成例を示す図である。It is a figure which shows the structural example of 1st Embodiment. 実施形態の文書読み取りシステムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the document reading system of embodiment. 実施形態の文書画像の一例、およびレイアウト解析後の領域の一例を示す図である。It is a figure which shows an example of the document image of embodiment, and an example of the area | region after layout analysis. 第1の実施形態の訂正端末機の機能ブロックを示す図である。It is a figure which shows the functional block of the correction terminal of 1st Embodiment. 第1の実施形態の訂正端末機が表示する画面例を示す図である。It is a figure which shows the example of a screen which the correction terminal of 1st Embodiment displays. 図5に示す画面例に対する操作表示例を示す図である。It is a figure which shows the example of an operation display with respect to the example of a screen shown in FIG. 図6に示す操作が行われた後の、指定欄に文字列が表示される例を示す図である。It is a figure which shows the example in which a character string is displayed on the designation | designated column after operation shown in FIG. 6 is performed. 第1の実施形態の他の操作例、表示更新例を示す図である。It is a figure which shows the other operation example of 1st Embodiment, and the example of a display update. 第1の実施形態の訂正端末機の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of the correction terminal according to the first embodiment. 第2の実施形態の訂正システムの構成例を示す図である。It is a figure which shows the structural example of the correction system of 2nd Embodiment. 第2の実施形態の訂正システムで表示される文書画像の表示例、および抽出結果/訂正用画面の一例を示す図である。It is a figure which shows the example of a display of the document image displayed with the correction system of 2nd Embodiment, and an example of the screen for extraction result / correction. 第3の実施形態の構成例を示す図である。It is a figure which shows the structural example of 3rd Embodiment. 第3の実施形態の訂正システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the correction system of 3rd Embodiment. 第3の実施形態の記入例、表示例を示す図である。It is a figure which shows the example of an entry and display example of 3rd Embodiment.

(第1の実施形態)
図1は、本実施形態の文書読み取りシステムのハードウェア構成例を示す図である。以下の実施形態では、例えばFAXや郵送などで人事異動の連絡を受けたときの態様について説明するが、態様はこれに限定されない。
(First embodiment)
FIG. 1 is a diagram illustrating a hardware configuration example of a document reading system according to the present embodiment. In the following embodiment, for example, a mode when a personnel change notification is received by FAX or mail will be described, but the mode is not limited to this.

第1の実施形態の文書読み取りシステム300は、訂正用端末機1(情報処理システム)、サーバシステム2、ネットワーク3を有する。尚、訂正用端末機1が複数となる構成でもよく、サーバシステム2が複数となる構成でもよい。   A document reading system 300 according to the first embodiment includes a correction terminal 1 (information processing system), a server system 2, and a network 3. Note that a configuration in which a plurality of correction terminals 1 are provided or a configuration in which a plurality of server systems 2 are provided may be employed.

訂正用端末機1は、文字認識された結果に対し、ユーザが文書と文字認識結果とを比較して、訂正が必要なものについては訂正するための操作用端末機である。訂正用端末機1は、演算処理装置であるプロセッサ101、主記憶装置であるメモリ102、フラッシュメモリやHDD(ハードディスクドライブ)等の補助記憶装置103を有するコンピュータである。また訂正用端末機1は、出力装置であるディスプレイ105や、入力装置であるキーボード106、マウス107を有し、外部とのデータ通信を制御する通信デバイス104を有する。これら各ユニットはデータバス108を介して互いにコマンド送受信、データ送受信を行っている。   The correction terminal 1 is an operation terminal for a user to compare a document and a character recognition result with respect to the result of character recognition, and to correct what needs correction. The correction terminal 1 is a computer having a processor 101 which is an arithmetic processing unit, a memory 102 which is a main storage device, and an auxiliary storage device 103 such as a flash memory or an HDD (hard disk drive). The correction terminal 1 includes a display 105 as an output device, a keyboard 106 and a mouse 107 as input devices, and a communication device 104 that controls data communication with the outside. These units perform command transmission / reception and data transmission / reception with each other via the data bus 108.

サーバシステム2は、FAXサーバ2A、OCRサーバ2B、ファイルサーバ2Cを含む。サーバ2A〜2Cは、それぞれプロセッサやメモリ、補助記憶装置等のハードウェアを含んだ従前のコンピュータである。   The server system 2 includes a FAX server 2A, an OCR server 2B, and a file server 2C. The servers 2A to 2C are conventional computers each including hardware such as a processor, a memory, and an auxiliary storage device.

FAXサーバ2Aは、公衆回線を介して外部と通信可能な通信ボードを含み、外部からのFAXデータを受信し、デジタルデータに変換する。変換後のデジタルデータは、例えば画像ファイルとして、自己の記憶装置やファイルサーバ2C等に記憶される。尚、ファイルの出力先は、記憶可能な装置、媒体であれば態様は限定されない。   The FAX server 2A includes a communication board that can communicate with the outside via a public line, receives FAX data from the outside, and converts it into digital data. The converted digital data is stored, for example, as an image file in its own storage device or the file server 2C. The file output destination is not limited as long as it is a storable device or medium.

OCRサーバ2Bは、画像ファイルに描画されている文字や図柄の領域を認識し(レイアウト解析)、また従前のOCR技術に基づき、画像ファイルに描かれている文字を領域ごとに識別してデジタルデータ(本例ではテキストデータ)に変換する。またOCRサーバ2Bには、特定のキーワードが事前に記憶装置に記憶されており(以下、キーワード辞書と称す)、識別された文字列データにキーワードが含まれているかを、レイアウト解析により得られた領域ごとに判定する。ここで登録されているキーワードは、抽出対象となる文字列が、どのような意味(カテゴリ)であるかを示す属性情報であり、例えば、「氏名」、「住所」、「電話番号」である。文書読み取りシステム300は、文書画像内に例えば「氏名」の文字列が明記されている場合、この「氏名」の文字列と近接している文字列を、「氏名」のカテゴリであるとして管理、保持する。   The OCR server 2B recognizes the area of the character or design drawn in the image file (layout analysis), and identifies the character drawn in the image file for each area based on the conventional OCR technology. (In this example, text data). In the OCR server 2B, a specific keyword is stored in advance in a storage device (hereinafter referred to as a keyword dictionary), and it is obtained by layout analysis whether the identified character string data includes the keyword. Determine for each region. The keyword registered here is attribute information indicating the meaning (category) of the character string to be extracted, for example, “name”, “address”, and “phone number”. . The document reading system 300 manages a character string adjacent to the character string “name” as a category of “name” when, for example, a character string “name” is clearly specified in the document image. Hold.

OCRサーバ2Bは、領域情報(例えば画像の左上の最端点を基準点とした座標情報)、領域内の文字列情報とを対応付けて抽出結果ファイルとして出力する。またキーワード辞書に登録されている文字列がヒットした場合、OCRサーバ2Bは、そのキーワードも領域情報、および文字列データに対応付けて抽出結果ファイルとして出力する。尚、本実施形態ではキーワードがヒットした/しないにかかわらず、領域情報、文字列情報の全てが対応付けられ、抽出結果ファイルが出力される。出力先は、自己の記憶装置内でもよいし、ファイルサーバ2Cでもよい。記憶可能な装置、媒体であれば態様は限定されない。   The OCR server 2B associates region information (for example, coordinate information with the upper leftmost end point of the image as a reference point) and character string information in the region, and outputs the result as an extraction result file. When the character string registered in the keyword dictionary is hit, the OCR server 2B outputs the keyword as an extraction result file in association with the area information and the character string data. In the present embodiment, regardless of whether or not the keyword is hit, all the area information and character string information are associated with each other, and an extraction result file is output. The output destination may be in its own storage device or the file server 2C. The mode is not limited as long as it is a storable device and medium.

ファイルサーバ2Cは、訂正用端末機1を介して確認、訂正されたデータを永続的に記憶するサーバである。ファイルサーバ2Cは、FAXサーバ2Aによって電子化されたFAXデータを記憶してもよいし、OCRサーバ2Bから出力される抽出結果ファイルを記憶しもよい。   The file server 2C is a server that permanently stores data that has been confirmed and corrected via the correction terminal 1. The file server 2C may store FAX data digitized by the FAX server 2A, or may store an extraction result file output from the OCR server 2B.

サーバシステム2内のFAXサーバ2A、OCRサーバ2B、ファイルサーバ2Cは、互いにデータの送受信が可能であるとする。また訂正用端末機1は、通信デバイス104、ネットワーク3を介してサーバシステム2とデータの送受信を行う。ネットワーク3は、本実施形態ではLAN(Local Area Network)とし、IPアドレス(IP:Internet Protocol)が装置個別に割り当てられているとするが、態様はこれに限定されず、インターネット網を経由する形態であってもよい。また通信手段は有線、無線を問わない。   It is assumed that the FAX server 2A, the OCR server 2B, and the file server 2C in the server system 2 can transmit / receive data to / from each other. The correction terminal 1 transmits / receives data to / from the server system 2 via the communication device 104 and the network 3. In this embodiment, the network 3 is a LAN (Local Area Network), and an IP address (IP: Internet Protocol) is assigned to each device. However, the mode is not limited to this, and the mode is via an Internet network. It may be. The communication means may be wired or wireless.

サーバ2A〜2C内の各補助記憶装置には、ハードウェアを制御するソフトウェア、および本実施形態を実現するためのソフトウェアが事前に導入されている。サーバシステム2は、図1に示すように無停電電源装置(UPS)を含む構成であってもよく、また入力用のキーボード、マウスや表示用のディスプレイ等を有する構成でもよい。また、FAXサーバ2Aが実現可能な機能は、FAX送受信機能やプリンタ機能、スキャナ、コピー機能等を備えたMFP(Multifunction Peripheral)であってもよい。またファイルサーバ2Cは、ネットワーク対応のHDDであってもよい。これ以外にも、さまざまなシステム構成が考えられる。作業規模によっては、1つのコンピュータが、上記各装置の機能を全て担ってもよい。   Each auxiliary storage device in the servers 2A to 2C is preinstalled with software for controlling the hardware and software for realizing the present embodiment. The server system 2 may have a configuration including an uninterruptible power supply (UPS) as shown in FIG. 1 or may have a configuration including an input keyboard, a mouse, a display for display, and the like. The function that can be realized by the FAX server 2A may be an MFP (Multifunction Peripheral) having a FAX transmission / reception function, a printer function, a scanner, a copy function, and the like. The file server 2C may be a network compatible HDD. In addition to this, various system configurations are conceivable. Depending on the work scale, one computer may be responsible for all the functions of each of the above devices.

また、処理対象となる画像ファイルは、FAX受信されるもの以外にも、MFP等により紙面上のデータがスキャンされた画像データや、所定形式に則った電子文書ファイルでもよい。   Further, the image file to be processed may be image data obtained by scanning data on a sheet of paper by an MFP or the like, or an electronic document file conforming to a predetermined format, in addition to those received by FAX.

次に、文書読み取りシステム300の動作例を図2のフローチャートに示す。図2の動作例は、FAXサーバ2A等により、処理対象の画像ファイルが得られた後の動作例となっている。   Next, an operation example of the document reading system 300 is shown in the flowchart of FIG. The operation example of FIG. 2 is an operation example after an image file to be processed is obtained by the FAX server 2A or the like.

OCRサーバ2Bは、処理対象の文書が描かれた画像ファイル(以下、文書画像)を取得し、文書画像に対してレイアウト解析を行う(S101)。このレイアウト解析は、画像上のいずれの領域に文字や図柄が描かれているかを判定し、当該領域の座標を取得するための処理となる。図3を用いて、レイアウト解析について説明する。図3(A)は、もととなる文書画像の一例であり、図3(B)は、文書画像をレイアウト解析した後の領域例を示している。図3(B)に示された複数の太線矩形は、文字や図柄が描かれた領域として判定された箇所である。レイアウト解析により、一定間隔内にある文字(文字列)や図柄は、1つの領域としてまとめられ、それぞれの座標情報が得られる。レイアウト解析は、公知技術が用いられてもよい。   The OCR server 2B acquires an image file (hereinafter referred to as a document image) on which a document to be processed is drawn, and performs layout analysis on the document image (S101). This layout analysis is a process for determining in which area on the image a character or a pattern is drawn and acquiring the coordinates of the area. The layout analysis will be described with reference to FIG. FIG. 3A shows an example of the original document image, and FIG. 3B shows an example of the area after the layout analysis of the document image. A plurality of thick line rectangles shown in FIG. 3B are determined as areas where characters and designs are drawn. By the layout analysis, characters (character strings) and symbols within a certain interval are collected as one area, and each coordinate information is obtained. A known technique may be used for the layout analysis.

OCRサーバ2Bは、レイアウト解析により得られた領域内に描かれている文字を識別し、デジタルデータに変換する(S102)。OCRサーバ2Bは、識別した文字列データと、キーワード辞書内のキーワードとを対比することで、当該文字がキーワードであるかを判定する(S103)。尚、本実施形態では、キーワードに特殊文字(ワイルドワード)を含ませることも可能であり、マッチングさせることが可能である。また本例では、キーワードとして、「氏名」、「前職」、「新職」の文字列が含まれているものとする。   The OCR server 2B identifies the character drawn in the area obtained by the layout analysis and converts it into digital data (S102). The OCR server 2B determines whether the character is a keyword by comparing the identified character string data with the keyword in the keyword dictionary (S103). In the present embodiment, a special character (wild word) can be included in the keyword, and matching can be performed. In this example, it is assumed that the character strings “name”, “previous job”, and “new job” are included as keywords.

OCRサーバ2Bは、キーワードにマッチした文字列を属性情報として取得し(S104)、当該属性情報が有った領域内に含まれる、他の文字列を抽出する(S105)。またOCRサーバ2Bは、属性情報が有った領域内に近接する、他の領域内に含まれる文字列も抽出する。近接間隔はパラメータで指定可能である。OCRサーバ2Bは、領域情報と、領域内の文字列と、属性情報が当該領域内にあればその属性情報(または、当該領域の近傍に属性情報があれば、その属性情報)とを対応付けて、抽出結果ファイルとして出力する。また文書画像のファイル名も対応付けて出力される。   The OCR server 2B acquires a character string that matches the keyword as attribute information (S104), and extracts another character string included in the area having the attribute information (S105). The OCR server 2B also extracts a character string included in another area that is close to the area having the attribute information. The proximity interval can be specified by a parameter. The OCR server 2B associates the area information, the character string in the area, and the attribute information if the attribute information is in the area (or the attribute information if there is attribute information in the vicinity of the area). And output as an extraction result file. The file name of the document image is also output in association with it.

訂正用端末機1は抽出結果ファイルを取得し、ユーザの操作に基づき、確認、訂正作業を支援する(S106)。ここでのユーザ操作や訂正用端末機1の動作については後述する。訂正作業が終わると、訂正用端末機1は、確認/訂正後のデータをCSVファイルとしてファイルサーバ2Cに出力する(S107)。本実施形態のCSVファイルは、本実施形態では属性情報と、その属性情報に対応付けられた、文書画像内の文字列データ(抽出された文字列データ)が1つのレコードに含まれるテキストファイルとする。尚、ファイル形式はCSVファイルに限らず、またファイルではなくデータベースに格納する実装でもよい。   The correction terminal 1 obtains the extraction result file and supports confirmation and correction work based on the user's operation (S106). The user operation and the operation of the correction terminal 1 will be described later. When the correction work is completed, the correction terminal 1 outputs the data after confirmation / correction to the file server 2C as a CSV file (S107). In the present embodiment, the CSV file of this embodiment is a text file that includes attribute information and character string data (extracted character string data) in the document image associated with the attribute information in one record. To do. Note that the file format is not limited to a CSV file, and may be implemented in a database instead of a file.

次に、本実施形態の訂正用端末機1の詳細について説明する。図4は、訂正用端末機1の構成をブロック図で例示したものである。   Next, details of the correction terminal 1 of the present embodiment will be described. FIG. 4 is a block diagram illustrating the configuration of the correction terminal 1.

訂正用端末機1は、入力部11、指定欄取得部12、訂正画面表示部13、領域取得部14、文字情報取得部15、文書画像表示部16を有する。訂正用端末機1内の補助記憶装置103には、ハードウェアを制御するソフトウェア、および図4に示す各ブロックの機能を実現するためのソフトウェアが事前に導入されている。図4に示す各ブロックは、プロセッサ101がこのソフトウェアを演算実行することで実現され、またディスプレイ105、キーボード106、マウス107等、図1で示す各ハードウェアと協働して実現される。   The correction terminal 1 includes an input unit 11, a designation field acquisition unit 12, a correction screen display unit 13, an area acquisition unit 14, a character information acquisition unit 15, and a document image display unit 16. The auxiliary storage device 103 in the correction terminal 1 is preinstalled with software for controlling hardware and software for realizing the functions of the blocks shown in FIG. Each block shown in FIG. 4 is realized by the processor 101 executing this software, and is realized in cooperation with each hardware shown in FIG. 1, such as the display 105, the keyboard 106, and the mouse 107.

図5〜図7を参照しつつ、図4の各ブロックの動作を説明する。訂正用端末機1は、OCRサーバ2Bが出力した抽出結果ファイル、および文書画像を取得し、図5に示すレイアウトでディスプレイ105に表示する。文書画像表示部16は、図5の左側に示すように、文書画像を表示するとともに、抽出結果ファイル内の対応関係に従い、属性情報と対応付けられた文字列を、属性情報ごとに色分けして強調して描画する。本例では、キーワード辞書に登録されている情報が「氏名」、「前職」、「新職」であるため、文書画像表示部16は、これら属性情報に対応した文字列を色分けして表示する。また文書画像表示部16は、文書画像が複数枚に跨っている等、一度に表示できない場合は、スクロールバーを表示して、マウス操作で次ページ等を表示するように制御する。   The operation of each block in FIG. 4 will be described with reference to FIGS. The correction terminal 1 acquires the extraction result file and the document image output from the OCR server 2B, and displays them on the display 105 in the layout shown in FIG. As shown on the left side of FIG. 5, the document image display unit 16 displays a document image and color-codes a character string associated with attribute information according to the correspondence in the extraction result file for each attribute information. Draw with emphasis. In this example, since the information registered in the keyword dictionary is “name”, “previous job”, and “new job”, the document image display unit 16 displays the character strings corresponding to these attribute information in different colors. To do. The document image display unit 16 controls to display a scroll bar and display the next page or the like by a mouse operation when the document images cannot be displayed at once, for example, when there are a plurality of document images.

訂正画面表示部13は、図5の右側に示すように、抽出結果ファイルを参照して、各属性情報を最上欄に表示するとともに、各属性情報に対応した文字列を、その下の欄に編集可能なように一覧表示する。また、ユーザの視認性を良くするため、訂正画面表示部13は、文書画像表示部16の上記属性情報ごとの色分けと一致するように、最上欄を色分けして表示する。   As shown on the right side of FIG. 5, the correction screen display unit 13 refers to the extraction result file and displays each attribute information in the uppermost column, and displays a character string corresponding to each attribute information in the lower column. List it for editing. Further, in order to improve the visibility of the user, the correction screen display unit 13 displays the uppermost column in a color-coded manner so as to match the color coding for each attribute information in the document image display unit 16.

ユーザは、文書画像表示部16に表示される文書画像および属性情報ごとに色分けされた文字列と、訂正画面表示部13により表示される抽出結果/訂正用画面上の表示文字列とを比較する。OCRサーバ2Bによる文字誤認識がある場合は、ユーザは、当該認識誤り箇所をマウス107、キーボード106を使用して訂正する。訂正には抽出結果/訂正用画面が用いられる。   The user compares the character string color-coded for each document image and attribute information displayed on the document image display unit 16 with the extraction result displayed on the correction screen display unit 13 / the display character string on the correction screen. . When there is an erroneous character recognition by the OCR server 2B, the user corrects the recognition error portion using the mouse 107 and the keyboard 106. An extraction result / correction screen is used for correction.

OCRサーバ2Bの処理には、文字の識別以外にも上述したレイアウト解析処理、文字列に属性情報を対応付ける処理がある。属性情報が対応付けられた文字列については、訂正画面表示部13の表示一覧(図5の右側)に、その文字列が表示される。しかしながら、図5左側の文書画像上の「東芝次郎」、「経理課長」、「取締役」、「東芝三郎」、「取締役」、「顧問」の文字列は、文書の書式がフリーフォーマットであるがゆえに、「氏名」、「前職」、「新職」の属性情報が近傍に明記されていないため、これらはいずれの属性にも該当しないと認識され、抽出漏れとなっている。   The processing of the OCR server 2B includes the above-described layout analysis processing and processing for associating attribute information with a character string in addition to character identification. About the character string with which attribute information was matched, the character string is displayed on the display list of the correction screen display part 13 (right side of FIG. 5). However, the character strings of “Jiro Toshiba”, “Account Manager”, “Director”, “Saburo Toshiba”, “Director”, and “Advisor” on the document image on the left side of FIG. 5 are in free format. Therefore, since the attribute information of “name”, “previous job”, and “new job” is not specified in the vicinity, it is recognized that they do not correspond to any attribute, and the extraction is omitted.

このような場合の属性情報と文字列との対応付けの訂正方法について、図6、図7を用いて説明する。ここでは、文字列を「氏名」の属性情報に対応づけて一覧に表示させる方法を例示する。   A method for correcting the correspondence between the attribute information and the character string in such a case will be described with reference to FIGS. Here, a method of displaying a character string in a list in association with attribute information of “name” is illustrated.

まずユーザは、図6に示すように訂正画面表示部13により表示される欄のうち、挿入箇所を指定する。本例では、「氏名」欄の余白箇所である図6の指定欄Cが入力部11(マウス107とするが、キーボード106の矢印キー等でも構わない)により指定される。指定欄取得部12は、入力部11によりいずれの欄が指定されたかの位置情報(行番号、列番号で示されるカラム位置情報)や属性情報を取得する。次にユーザは、入力部11を用いて、文書画像表示部16により表示される文書画像(図6左側)の、対応付けを行う文字列を囲むようにドラッグ操作で指定する。領域取得部14は、入力部11によって囲まれた領域の座標情報を取得する。   First, as shown in FIG. 6, the user designates an insertion location in the column displayed by the correction screen display unit 13. In this example, the designation field C in FIG. 6, which is a blank space in the “name” field, is designated by the input unit 11 (which is the mouse 107, but may be an arrow key or the like on the keyboard 106). The designation field acquisition unit 12 acquires position information (column position information indicated by a row number and column number) and attribute information indicating which field is designated by the input unit 11. Next, the user uses the input unit 11 to specify a document image (left side in FIG. 6) displayed by the document image display unit 16 by a drag operation so as to surround a character string to be associated. The area acquisition unit 14 acquires coordinate information of an area surrounded by the input unit 11.

文字情報取得部15は、領域取得部14により得られた指定された領域が、抽出結果ファイル内の領域情報のいずれに合致しているかを判定する。もしくは、抽出結果ファイル内の領域情報のうちで、指定された領域に最も近似している領域情報を抽出する。文字情報取得部15は、合致もしくは近似している領域情報に対応した文字列を、抽出結果ファイルから取得する。上述のように、抽出結果ファイルには文書画像の全ての領域情報、文字列が対応付いて存在しているため、文字情報取得部15は、抽出結果ファイルから指定領域に対応した文字列を取得することができる。   The character information acquisition unit 15 determines which of the region information in the extraction result file the specified region obtained by the region acquisition unit 14 matches. Alternatively, area information that is closest to the specified area is extracted from the area information in the extraction result file. The character information acquisition unit 15 acquires a character string corresponding to the matched or approximated region information from the extraction result file. As described above, since all the region information and character strings of the document image are associated with each other in the extraction result file, the character information acquisition unit 15 acquires a character string corresponding to the specified region from the extraction result file. can do.

訂正画面表示部13は、指定欄取得部12により取得されたユーザ指定欄に、文字列情報取得部15により取得された文字列データを挿入して表示する。また文書画像表示部16は、指定欄取得部12から、ユーザに指定された欄の属性情報を取得し、指定された領域内の文字列を、その属性情報に応じて色分けして強調表示する。このときの表示を図7に示す。「前職」欄や「新職」欄にも、このような操作や訂正用端末機1の動作を適用させることで、属性情報との対応付けの漏れを解消することができる。   The correction screen display unit 13 inserts and displays the character string data acquired by the character string information acquisition unit 15 in the user specification column acquired by the specification column acquisition unit 12. Further, the document image display unit 16 acquires the attribute information of the column specified by the user from the specified column acquisition unit 12, and highlights the character string in the specified region by color coding according to the attribute information. . The display at this time is shown in FIG. By applying such an operation and the operation of the correction terminal 1 to the “previous job” field and the “new job” field, it is possible to eliminate omission of association with attribute information.

また、図8に示す指定も可能となる。すなわち、1つの欄が指定され、複数行に跨る領域が指定された場合、当該1つの欄内に複数行の文字列が挿入される。この場合、行間の改行コードは取り除かれて挿入される。   Further, the designation shown in FIG. 8 is also possible. That is, when one column is specified and an area extending over a plurality of lines is specified, a plurality of lines of character strings are inserted into the one column. In this case, the line feed code between lines is removed and inserted.

尚、本例では、欄の数と文字列の数が一致するように、2つの欄を選択し、2つの文字列を文書画像から指定する例を示しているが、不図示のチェックボックスやボタンが選択されている場合、文書画像上で選択される文字列の改行コードに従って、文字列が各欄に挿入される実装でもよい。例えば「氏名」欄の余白1箇所が選択され、文書画像上の複数行の文字列、本例では「東芝次郎(+改行コード)」、「東芝三郎(+改行コード)」の2行が選択される場合、訂正画面表示部13は、まずは「東芝次郎」を1つ目の欄に表示し、「東芝次郎」の改行コードを確認した場合は次の下の欄にカーソルを進めて「東芝三郎」を表示する。すなわち、図7と同様の表示となる。   In this example, two columns are selected so that the number of columns matches the number of character strings, and two character strings are designated from the document image. When the button is selected, the character string may be inserted into each column according to the line feed code of the character string selected on the document image. For example, one margin in the “Name” field is selected, and multiple lines of text on the document image, in this example, “Toshiba Jiro (+ line feed code)” and “Toshiba Saburo (+ line feed code)” are selected. In this case, the correction screen display unit 13 first displays “Toshiba Jiro” in the first column, and when the line feed code of “Toshiba Jiro” is confirmed, the cursor is advanced to the next column below “Toshiba "Saburo" is displayed. That is, the display is the same as in FIG.

図9は、上述の属性情報と文字列との対応関係不備(抽出漏れ)を訂正するときの、訂正用端末機1の動作例を示すフローチャートである。指定欄取得部12は、入力部11から、属性情報一覧のうちのいずれの欄がユーザに選択されたかの位置情報を取得する(S201)。この位置情報は、例えば行番号、列番号となる。領域取得部14は、ユーザが入力部11を用いて指定される、文書画像内の領域の情報を取得する(S202)。領域の情報は、本例では座標情報である。文字情報取得部15は、領域取得部14により取得される領域に含まれる文字列を、抽出結果ファイル内で設定された領域情報と文字列との対応関係に基づき取得する(S203)。訂正画面表示部13は、指定欄取得部12で取得される欄に、文字列情報取得部15により取得される文字列を挿入する(S204)。このように対応不備が解消された属性情報と文字列は、正規な情報として確認/訂正CSVファイルに出力される。   FIG. 9 is a flowchart illustrating an operation example of the correction terminal 1 when correcting the above-described correspondence deficiency (missing extraction) between the attribute information and the character string. The designation column acquisition unit 12 acquires position information indicating which column in the attribute information list has been selected by the user from the input unit 11 (S201). This position information is, for example, a row number and a column number. The area acquisition unit 14 acquires information on an area in the document image designated by the user using the input unit 11 (S202). The area information is coordinate information in this example. The character information acquisition unit 15 acquires a character string included in the region acquired by the region acquisition unit 14 based on the correspondence relationship between the region information and the character string set in the extraction result file (S203). The correction screen display unit 13 inserts the character string acquired by the character string information acquisition unit 15 into the column acquired by the designation column acquisition unit 12 (S204). Thus, the attribute information and the character string for which the deficiencies are eliminated are output to the confirmation / correction CSV file as normal information.

上記例では、文書画像内の主な連絡事項が人事異動についてであり、1枚のシートに人事異動の情報が記載されている例を示した。ここでフリーフォーマット文書である場合、別の主だった連絡事項が複数のシートに渡ってあり、その中の一部に人事異動に関する情報がある場合、また人事異動に関する情報が文書の文頭ではなく、文書の中節や末尾にある場合、さらには複数箇所に分かれて記載されている場合がある。また状況によっては、人事異動に関する情報が複数ページに渡って膨大にある場合もある。本実施形態を適用することで、このような状況での操作性向上を図ることができ、もってユーザへの利便性を図ることができる。すなわち本実施形態により、ユーザはページめくりを文書画像表示部16の表示領域で行い、属性情報ごとに色分けされている箇所についての確認を行う。またユーザは、手入力(キーボードを用いた文字列の直接入力)をすること無く、簡単な操作のみで属性情報と文書内文字列との対応を是正することができ、抽出すべき文字列の抽出漏れを低減させることができる。よって、より正確な情報を取得できる。   In the above example, the main communication item in the document image is about personnel changes, and information on personnel changes is described on one sheet. If it is a free-format document, there are different main communication items on multiple sheets, and if some of them have information on personnel changes, the information on personnel changes is not the beginning of the document. In the middle or end of a document, it may be described in several places. Also, depending on the situation, there may be an enormous amount of information regarding personnel changes over multiple pages. By applying this embodiment, it is possible to improve the operability in such a situation, and to improve the convenience for the user. In other words, according to the present embodiment, the user turns the page in the display area of the document image display unit 16 and confirms a location that is color-coded for each attribute information. In addition, the user can correct the correspondence between the attribute information and the character string in the document with a simple operation without performing manual input (direct input of the character string using the keyboard). Extraction leakage can be reduced. Therefore, more accurate information can be acquired.

(第2の実施形態)
第2の実施形態では、上記第1の実施形態よりもさらに操作性を向上させた構成について説明する。第2実施形態は、通常のPC(PC:パーソナルコンピュータ)に加え、タッチパネルディスプレイを有するタブレットPCも用い、タブレットPCと通常のPCとを連動させることで、訂正作業が行われる。
(Second Embodiment)
In the second embodiment, a configuration in which operability is further improved as compared with the first embodiment will be described. In the second embodiment, in addition to a normal PC (PC: personal computer), a tablet PC having a touch panel display is used, and the correction work is performed by linking the tablet PC and the normal PC.

図10に、第2の実施形態の訂正システムの構成例を示す。訂正システム100(情報処理システム)は、タブレットPC1B、端末機1A(据え置きPCやノートPC)を有する構成となっている。訂正システム100は、第1の実施形態で説明したサーバシステム2と、ネットワーク3を介してデータの送受信が可能となっており、またタブレットPC1Bと端末機1Aとの間でも、無線LANやBluetooth(登録商標)の通信手段を用いてデータ送受信が可能となっている。   FIG. 10 shows a configuration example of the correction system of the second embodiment. The correction system 100 (information processing system) includes a tablet PC 1B and a terminal 1A (stationary PC or notebook PC). The correction system 100 can transmit and receive data to and from the server system 2 described in the first embodiment via the network 3, and also between the tablet PC 1B and the terminal 1A, a wireless LAN or Bluetooth ( Data transmission / reception is possible using a registered trademark communication means.

タブレットPC1Bのハードウェア構成は、プロセッサ、メモリ、不揮発性に記憶することができる記憶装置を含んだ従前のタブレットPCである。また、タブレットPCは、指先(ペン先でもよい)の押下を検知するタッチパネル方式の入力装置と、表示装置とを合わせたタッチパネルディスプレイを有する。入力部11Aおよび文書画像表示部16Aは、このタッチパネルディスプレイと協働することで実現される機能部となっている。端末機1Aは、第1の実施形態の訂正用端末機1と同様のハードウェア構成であり、また図10に示されるその他の各機能部は、第1の実施形態と同様の機能となっている。   The hardware configuration of the tablet PC 1B is a conventional tablet PC including a processor, a memory, and a storage device that can be stored in a nonvolatile manner. The tablet PC has a touch panel display in which a touch panel type input device that detects pressing of a fingertip (may be a pen tip) and a display device are combined. The input unit 11A and the document image display unit 16A are functional units realized by cooperating with the touch panel display. The terminal 1A has the same hardware configuration as that of the correction terminal 1 of the first embodiment, and the other functional units shown in FIG. 10 have the same functions as those of the first embodiment. Yes.

図11に、タブレットPC1Bのタッチパネルディスプレイに表示される画面イメージ(左側)、および端末機1Aのディスプレイ105に表示される画面イメージ(右側)を示す。タブレットPC1Bの文書画像表示部16Aにより、文書画像および属性ごとに色分けされた文字列がタッチパネルディスプレイ上に表示される。また端末機1Aの訂正画面表示部13により、抽出結果/訂正用画面がディスプレイ105上に表示される。   FIG. 11 shows a screen image (left side) displayed on the touch panel display of the tablet PC 1B and a screen image (right side) displayed on the display 105 of the terminal 1A. The document image display unit 16A of the tablet PC 1B displays a character string color-coded for each document image and attribute on the touch panel display. Further, an extraction result / correction screen is displayed on the display 105 by the correction screen display unit 13 of the terminal 1A.

タブレットPC1Bは原稿(文書画像)の視認性が高く、指先をスライドさせる操作でページ送りができ、範囲指定なども指先でのドラッグ操作で簡単に行える反面、文字入力には向いていない。一方で、端末機1Aは、ページ送りはマウス操作で行われる等、文書画像に対しての操作性や視認性はタブレットPC1Bよりも低いが、文字入力の操作はキーボード106を用いた入力となるため、容易である。このように、タッチパネルディスプレイとキーボードと用い、それぞれの操作性の欠点を補完し合うことで、操作性が向上し、訂正作業が円滑に実施される。   The tablet PC 1B has high visibility of the document (document image), can be page-fed by an operation of sliding the fingertip, and can easily specify a range by a drag operation with the fingertip, but is not suitable for character input. On the other hand, the terminal device 1A has lower operability and visibility for document images than the tablet PC 1B, for example, page feed is performed by a mouse operation, but character input operations are input using the keyboard 106. Therefore, it is easy. In this way, by using the touch panel display and the keyboard and complementing the disadvantages of the respective operability, the operability is improved and the correction work is smoothly performed.

ユーザの操作手順は、入出力デバイスは異なること以外は、第1の実施形態の図6、図7で示したものと同様とある。属性情報の対応付けに不備があり、抽出漏れがある場合、ユーザは、まずは抽出結果/訂正用画面内の欄を指定し、その後、文書画像内の該当文字列を指先で囲むように指定する。これにより、抽出結果/訂正用画面内の指定欄に、該当文字列が表示される。   The user operation procedure is the same as that shown in FIGS. 6 and 7 of the first embodiment except that the input / output devices are different. If there is a defect in the attribute information correspondence and there is omission of extraction, the user first specifies the column in the extraction result / correction screen, and then specifies that the corresponding character string in the document image is surrounded by the fingertip. . As a result, the corresponding character string is displayed in the designation field in the extraction result / correction screen.

修正作業の基となる文書画像は、本実施形態ではタブレットPC1B側で保持するものとし、抽出結果ファイルは、タブレットPC1B、端末機1Aの両方でそれぞれ保持するものとするが、態様はこれに限定されず、適材適所に配置される。また、タブレットPC1B内の文字情報取得部15が、抽出結果ファイルから文字列を取得した際には、端末機1A内の訂正画面表示部13に取得された文字列が送信される。また端末機1A内の指定欄取得部12により取得される指定欄の属性情報については、タブレットPC1B内の文書画像表示部16Aに送信される。指定欄取得部12からの送信により、文書画像表示部16Aは、ユーザに指先で指定された領域内の文字列を、属性に応じた色で強調表示する。これ以外の各機能部の動作は、第1の実施形態と同様である(図9のフローチャート等を参照)。   In this embodiment, the document image that is the basis of the correction work is held on the tablet PC 1B side, and the extraction result file is held on both the tablet PC 1B and the terminal 1A, but the mode is limited to this. Rather than being placed in the right place. In addition, when the character information acquisition unit 15 in the tablet PC 1B acquires a character string from the extraction result file, the acquired character string is transmitted to the correction screen display unit 13 in the terminal 1A. Further, the attribute information of the designated field acquired by the designated field acquisition unit 12 in the terminal 1A is transmitted to the document image display unit 16A in the tablet PC 1B. With the transmission from the designation field acquisition unit 12, the document image display unit 16A highlights the character string in the area designated by the fingertip of the user with a color corresponding to the attribute. The operation of each functional unit other than this is the same as that of the first embodiment (see the flowchart in FIG. 9).

また、本実施形態では、文字情報取得部15をタブレットPC1B内としたが、端末機1A内であってもよい。タッチパネルディスプレイに対する指先操作は、従前の操作方法と同様とすることができる。またタッチパネルディスプレイ上での表示制御(拡大表示や縮小表示、ページめくり時の表示制御、等)や、ユーザが指定した文書画像上の領域取得は、タッチパネルで検知される座標情報に基づき行われる。この制御には従前の技術が採用されてもよい。   In the present embodiment, the character information acquisition unit 15 is in the tablet PC 1B, but may be in the terminal 1A. The fingertip operation on the touch panel display can be the same as the previous operation method. Display control on the touch panel display (enlarged display, reduced display, display control when turning pages, etc.) and area acquisition on the document image designated by the user are performed based on coordinate information detected by the touch panel. A conventional technique may be employed for this control.

領域指定画面をタブレットPC1Bで表示し、文字入力用の画面を端末機1Aで表示し、これらを連動させることで、指先でページをめくる、指で範囲指定をする特徴と、キーボードで文字を入力する特徴を利用した操作ができる。これにより、作業効率のよいインターフェースを実現することができる。   The area designation screen is displayed on the tablet PC 1B, the screen for character input is displayed on the terminal 1A, and by interlocking these, the page is turned with the fingertip, the range is designated with the finger, and the character is entered with the keyboard. It is possible to operate using the features to be. Thereby, an interface with good work efficiency can be realized.

また第1の実施形態では、文書画像と抽出結果/訂正用画面とを1つのディスプレイ105に表示させる必要があるため、その分抽出結果/訂正用画面の表示領域が狭くなる。第2の実施形態により、ディスプレイ105の全体を訂正用画面として利用することが可能となるため、属性の多い文書にも対応ができ、視認性の良い操作を行うことができる。   In the first embodiment, since it is necessary to display the document image and the extraction result / correction screen on one display 105, the display area of the extraction result / correction screen is reduced accordingly. According to the second embodiment, since the entire display 105 can be used as a correction screen, a document with many attributes can be handled, and an operation with high visibility can be performed.

(第3の実施形態)
第3の実施形態では、デジタルペンやデジタルペン専用の用紙を用いた実装例について説明する。図12は、第3の実施形態の構成例を示す図である。文書読み取りシステム300Bは、第1の実施形態で説明したサーバシステム2に、訂正システム100A(情報処理システム)、MFP4がネットワーク3を介して接続された構成となっている。MFP4には、デジタルペン専用のシートP1が給紙カセット内に格納されており、文書画像を取得し、シートP1に文書画像を印刷する。
(Third embodiment)
In the third embodiment, a mounting example using a digital pen or paper dedicated to the digital pen will be described. FIG. 12 is a diagram illustrating a configuration example of the third embodiment. The document reading system 300B has a configuration in which the correction system 100A (information processing system) and the MFP 4 are connected to the server system 2 described in the first embodiment via the network 3. In the MFP 4, a sheet P1 dedicated to the digital pen is stored in the sheet cassette, and a document image is acquired and printed on the sheet P1.

訂正システム100Aは、シートP1、デジタルペンT1、端末機1Cにより構成されている。ユーザはデジタルペンT1を用いて、シートP1上に描かれた文書画像に対し、領域を指定する。端末機1Cは、シートP1上のいずれの領域が指定されたかの情報を、座標情報として取得する。   The correction system 100A includes a sheet P1, a digital pen T1, and a terminal 1C. The user uses the digital pen T1 to specify an area for the document image drawn on the sheet P1. The terminal 1C acquires information indicating which area on the sheet P1 is designated as coordinate information.

シートP1には、記入位置が識別できるように、ドットや格子状マス目が印刷されている。ドットや格子状マス目は、位置によって異なるパターン形状となっている。   On the sheet P1, dots and grid cells are printed so that the entry position can be identified. The dots and grid cells have different pattern shapes depending on the positions.

デジタルペンT1のボディ部には、ペン先方向を撮像するように配置されるカメラが内蔵されている。デジタルペンT1は、筆圧センサを有し、筆圧センサが筆圧を検知した場合にカメラが作動する。またデジタルペンT1のボディ部には、プロセッサ、メモリが内蔵されており、このプロセッサは、撮像されたドットパターンや格子状マス目パターンに基づき、記入位置を演算して取得し、記入位置をメモリ内に一時的に記憶させる。メモリ内には、筆跡に従った順序で記入位置が記憶される。またデジタルペンT1には、Bluetooth通信等が可能な装置が内蔵されており、メモリ内の記入位置情報を端末機1Cに送信する。   The body of the digital pen T1 incorporates a camera that is arranged so as to capture the direction of the pen tip. The digital pen T1 has a writing pressure sensor, and the camera operates when the writing pressure sensor detects writing pressure. The body of the digital pen T1 includes a processor and a memory. The processor calculates and obtains an entry position based on the captured dot pattern and grid pattern, and the entry position is stored in the memory. Memorize temporarily. In the memory, entry positions are stored in the order according to the handwriting. The digital pen T1 has a built-in device capable of Bluetooth communication and the like, and transmits entry position information in the memory to the terminal 1C.

このようなシートP1、デジタルペンT1として、従前のデジタルペン専用シート、従前のデジタルペンが採用されてもよい。   As such a sheet P1 and digital pen T1, a conventional digital pen dedicated sheet or a conventional digital pen may be employed.

端末機1Cは、第1の実施形態の訂正用端末機1と同様のハードウェア構成を有するコンピュータであるため、ここでの説明は省略する(図1参照)。   Since the terminal 1C is a computer having the same hardware configuration as that of the correction terminal 1 of the first embodiment, description thereof is omitted here (see FIG. 1).

図13は、訂正システム100Aの構成例を示す機能ブロック図である。訂正システム100Aは、デジタルペンT1、シートP2を含んだ紙面座標取得部21を有する。紙面座標取得部21は、文書画像が印刷されたシートP1に対してのデジタルペンT1の筆跡情報(シートP1上の位置情報)を取得する。図13に示されるその他の機能部は端末機1Cが有するものであり、その機能は第1の実施形態と同様である。   FIG. 13 is a functional block diagram illustrating a configuration example of the correction system 100A. The correction system 100A includes a paper surface coordinate acquisition unit 21 including a digital pen T1 and a sheet P2. The paper surface coordinate acquisition unit 21 acquires handwriting information (position information on the sheet P1) of the digital pen T1 for the sheet P1 on which the document image is printed. The other functional units shown in FIG. 13 are those that the terminal 1C has, and the functions thereof are the same as those in the first embodiment.

図14を用いて、第3の実施形態の態様をさらに説明する。図14の上段は、MFP4により印刷された文書画像の一例を示している。この例に示すように、シートP1の最下段には、チェック用のボックスと、「氏名」、「前職」、「新職」の各属性情報が明記されている。また第1、第2の実施形態と同様に、シートP1には、どの部分が既に氏名、旧職、新職として抽出されているかが色分け表示されていてもよい。これらの属性情報や色分けが付与された文書画像は、本実施形態では抽出結果ファイル内の対応関係に基づきOCRサーバ2Bが作成するものとするが、端末機1Cが作成しても構わない。   The aspect of 3rd Embodiment is further demonstrated using FIG. The upper part of FIG. 14 shows an example of a document image printed by the MFP 4. As shown in this example, a check box and attribute information of “name”, “previous job”, and “new job” are specified at the bottom of the sheet P1. Similarly to the first and second embodiments, which part of the sheet P1 has already been extracted as the name, old job, and new job may be displayed in different colors. In this embodiment, the OCR server 2B creates the document image to which the attribute information and the color code are assigned, but the terminal 1C may create the document image.

紙面座標取得部21は、ユーザにより枠で囲まれ、もしくはアンダーラインが引かれた文字列の位置情報を取得する。また紙面座標取得部21は、ユーザがいずれのチェックボックスに印をいれたかを位置情報で取得する。これら位置情報は、デジタルペンT1により取得され、デジタルペンT1のメモリに記憶される。   The page coordinate acquisition unit 21 acquires position information of a character string surrounded by a frame or underlined by the user. Further, the page coordinate acquisition unit 21 acquires which check box the user has marked with position information. The position information is acquired by the digital pen T1 and stored in the memory of the digital pen T1.

領域取得部14は、紙面座標取得部21により取得された位置情報と、抽出結果ファイル内の座標情報とを比較して、文書画像内の領域を取得する。文字情報取得部15は、領域取得部14により取得される領域に対応する文字列を取得する。一方、指定欄取得部12は、紙面座標取得部21により取得されるチェック印が付された位置情報を基に、いずれの属性情報が指定されているかの情報を取得する。これにより、指定欄取得部12は、図14下段に示す抽出結果/訂正用画面上のいずれの欄が指定されたかを特定することができる。訂正画面表示部13は、文字情報取得部5により取得される文字列を、指定欄取得部12により取得される欄に、編集可能な状態で表示する(図14の下段参照)。   The region acquisition unit 14 compares the position information acquired by the paper surface coordinate acquisition unit 21 with the coordinate information in the extraction result file, and acquires a region in the document image. The character information acquisition unit 15 acquires a character string corresponding to the region acquired by the region acquisition unit 14. On the other hand, the designation field acquisition unit 12 acquires information indicating which attribute information is specified based on the position information with a check mark acquired by the paper surface coordinate acquisition unit 21. Thereby, the designation column acquisition unit 12 can identify which column on the extraction result / correction screen shown in the lower part of FIG. 14 is designated. The correction screen display unit 13 displays the character string acquired by the character information acquisition unit 5 in an editable state in the column acquired by the designation column acquisition unit 12 (see the lower part of FIG. 14).

尚、デジタルペンP1は、筆跡(位置情報)を順序立てて記憶することが可能であることから、氏名として抽出すべき文字列に枠やアンダーラインを記載し、その後、氏名に関するボックスに印付けをする、という順序にユーザが従うことで、先に記した枠やアンダーラインは氏名の属性情報となる文字列である、ということを確定させることができる。よって、引き続き同じシートを用いて前職に関する指定(文字列指定後に「前職」のチェックボックスに印を入れる)、新職に関する指定(文字列指定後に「新職」のチェックボックスに印を入れる)も行うことができる。位置情報は、シーケンシャルに記憶されているため、後段処理を行う領域取得部14や指定欄取得部12、文字情報取得部15は、属性情報と文字列との対応付けを正確に実施することができる。   Since the digital pen P1 can store handwriting (position information) in order, write a frame or underline in the character string to be extracted as a name, and then mark the box related to the name If the user follows the order of performing the above, it is possible to determine that the frame or underline described above is a character string serving as name attribute information. Therefore, using the same sheet, specify the previous job (mark the "previous job" check box after specifying the character string), specify the new job (mark the new job check box after specifying the character string) ) Can also be performed. Since the position information is stored sequentially, the area acquisition unit 14, the designation field acquisition unit 12, and the character information acquisition unit 15 that perform subsequent processing can accurately associate the attribute information with the character string. it can.

尚、上記ではデジタルペン専用のシートを用いるものとして説明したが、デジタルペン近傍にセンサ装置を配置させて筆記位置を検出する形式の場合は、デジタルペン専用のシートでなくても構わない。この場合、紙面座標取得部21の構成は、デジタルペン、センサ装置を含むものとなる。   In the above description, a sheet dedicated to the digital pen is used. However, in the case of a type in which a sensor device is disposed in the vicinity of the digital pen to detect the writing position, the sheet may not be dedicated to the digital pen. In this case, the configuration of the paper surface coordinate acquisition unit 21 includes a digital pen and a sensor device.

第3の実施形態のように、デジタルペンを使用することで、ユーザが指定した情報を、簡単にかつ確実に抽出することができる。   As in the third embodiment, by using a digital pen, information specified by the user can be easily and reliably extracted.

第1の実施形態(図4を参照)における入力部11は、第1の入力部、第2の入力部に相当する。第2の実施形態(図10を参照)における入力部11は第2の入力部に相当し、入力部11Aは、第1の入力部に相当する。また文書画像表示部16、16Aは、第1の表示部に相当し、訂正画面表示部13は、第2の表示部に相当する。   The input unit 11 in the first embodiment (see FIG. 4) corresponds to a first input unit and a second input unit. The input unit 11 in the second embodiment (see FIG. 10) corresponds to a second input unit, and the input unit 11A corresponds to a first input unit. The document image display units 16 and 16A correspond to a first display unit, and the correction screen display unit 13 corresponds to a second display unit.

以上、この実施形態で説明した態様により、フリーフォーマット文書に抽出すべき文字列があり、その抽出ができていない場合、容易な手順で訂正することができ、データの取得漏れを低減させることができる。   As described above, according to the aspect described in this embodiment, when there is a character string to be extracted in the free format document and the character string cannot be extracted, it can be corrected by an easy procedure, and data acquisition omission can be reduced. it can.

なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although embodiment of this invention was described, the said embodiment is shown as an example and is not intending limiting the range of invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 訂正用端末機、1A、1C 端末機、1B タブレットPC、2 サーバシステム、2A FAXサーバ、2B OCRサーバ、2C ファイルサーバ、3 ネットワーク、4 MFP、11 入力部、11A 入力部(タッチパネル式)、12 指定欄取得部、13 訂正画面表示部、14 領域取得部、15 文字情報取得部、16、16A 文書画像表示部、21 紙面座標取得部、100、100A 訂正システム、300、300B 文書読み取りシステム、T1 デジタルペン、P1 デジタルペン専用シート。   1 correction terminal, 1A, 1C terminal, 1B tablet PC, 2 server system, 2A FAX server, 2B OCR server, 2C file server, 3 network, 4 MFP, 11 input unit, 11A input unit (touch panel type), 12 specification field acquisition unit, 13 correction screen display unit, 14 area acquisition unit, 15 character information acquisition unit, 16, 16A document image display unit, 21 page coordinate acquisition unit, 100, 100A correction system, 300, 300B document reading system, T1 digital pen, P1 digital pen dedicated sheet.

Claims (6)

文字認識が行われた文書の画像を表示する第1の表示部と、
前記画像内の、ユーザが指定した範囲を検出する第1の入力部と、
第2の入力部と、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、前記一覧内の、前記第2の入力部を用いてユーザにより指定された欄に、前記第1の入力部により検出された範囲における文字認識の結果である文字列を表示する第2の表示部と、
を含む情報処理システム。
A first display for displaying an image of a document that has undergone character recognition;
A first input unit for detecting a range designated by the user in the image;
A second input unit;
A list of character strings that are the result of character recognition in the document is displayed for each attribute information indicating what character string the character string is, and the second input unit in the list is displayed. A second display unit that displays a character string that is a result of character recognition in a range detected by the first input unit in a field designated by the user using;
Information processing system including
請求項1に記載の情報処理システムにおいて、
前記第1の表示部、前記第1の入力部は、タッチパネルディスプレイを有するコンピュータに含まれている情報処理システム。
The information processing system according to claim 1,
The first display unit and the first input unit are information processing systems included in a computer having a touch panel display.
請求項1に記載の情報処理システムにおいて、
前記第2の表示部は、前記属性情報を色ごとに区別して表示し、前記第1の表示部は、前記画像内の文字列のうち、既に属性情報が定義付けられた文字列については、前記第2の表示部に表示される属性情報と同じ色となるように表示する情報処理システム。
The information processing system according to claim 1,
The second display unit displays the attribute information separately for each color, and the first display unit includes a character string in which attribute information is already defined among character strings in the image. An information processing system for displaying the same color as attribute information displayed on the second display unit.
1つまたは複数のコンピュータに、
文字認識が行われた文書の画像を表示させ、
前記画像内の、ユーザが指定した範囲を検出させ、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示させ、前記一覧内の、ユーザにより指定された欄に、前記検出された範囲における文字認識の結果である文字列を表示させる
ための情報処理プログラム。
On one or more computers,
Display an image of a document that has undergone character recognition,
A range designated by the user in the image is detected;
A character string that is a result of character recognition in the document is displayed in a list for each attribute information that indicates what attribute the character string is a character string, and is displayed in a column specified by the user in the list. An information processing program for displaying a character string that is a result of character recognition in the detected range.
1つまたは複数のコンピュータが、
文字認識が行われた文書の画像を表示し、
前記画像内の、ユーザが指定した範囲を検出し、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示させ、前記一覧内の、ユーザにより指定された欄に、前記検出された範囲における文字認識の結果である文字列を表示する
情報処理方法。
One or more computers
Displays an image of a document that has been character-recognized,
Detecting a range specified by the user in the image;
A character string that is a result of character recognition in the document is displayed in a list for each attribute information that indicates what attribute the character string is a character string, and is displayed in a column specified by the user in the list. An information processing method for displaying a character string that is a result of character recognition in the detected range.
文字認識が行われた画像が印刷されたシート上の位置情報を取得するデジタルペンと、
前記画像に記された文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、前記デジタルペンにより取得される、前記シートの画像内に記されたユーザ指定の文字列の位置情報と、前記シートに記されている、属性情報を指定するための記入枠でありユーザが指定した記入枠の位置情報とに基づき、前記一覧のうちの前記指定された属性情報と一致する属性情報の欄に、前記シートの画像内に記された前記指定された文字列を表示するコンピュータと、
を含む情報処理システム。
A digital pen for acquiring position information on a sheet on which an image on which character recognition has been performed is printed;
The character string described in the image is displayed in a list for each attribute information indicating what attribute the character string is a character string of, and the user described in the image of the sheet obtained by the digital pen Based on the position information of the designated character string and the position information of the entry frame which is an entry frame for designating attribute information described on the sheet and specified by the user, the designated of the list A computer for displaying the designated character string written in the image of the sheet in a column of attribute information matching the attribute information;
Information processing system including
JP2012063982A 2012-03-21 2012-03-21 Information processing system, information processing program, and information processing method Pending JP2013196479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063982A JP2013196479A (en) 2012-03-21 2012-03-21 Information processing system, information processing program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063982A JP2013196479A (en) 2012-03-21 2012-03-21 Information processing system, information processing program, and information processing method

Publications (1)

Publication Number Publication Date
JP2013196479A true JP2013196479A (en) 2013-09-30

Family

ID=49395317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063982A Pending JP2013196479A (en) 2012-03-21 2012-03-21 Information processing system, information processing program, and information processing method

Country Status (1)

Country Link
JP (1) JP2013196479A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015090625A (en) * 2013-11-06 2015-05-11 株式会社東芝 Document reading device, program and document reading system
JP2015090623A (en) * 2013-11-06 2015-05-11 株式会社東芝 Document reading device, program and document reading system
JP2017220266A (en) * 2017-09-21 2017-12-14 株式会社東芝 Document reading device, program and document reading method
JP2018037036A (en) * 2016-09-02 2018-03-08 株式会社東芝 Ledger sheet reader, ledger sheet reading method, program and ledger sheet reading system
CN110321880A (en) * 2015-03-09 2019-10-11 佳能株式会社 System and control method
JP2021504787A (en) * 2017-12-01 2021-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer programs and systems for digitizing cognitive document images
JP2021114237A (en) * 2020-01-21 2021-08-05 キヤノン株式会社 Image processing system for converting document to electronic data, its control method and program
WO2023053950A1 (en) * 2021-09-29 2023-04-06 株式会社 東芝 System and information processing method
JP7487394B2 (en) 2020-01-21 2024-05-20 キヤノン株式会社 Image processing system for digitizing documents, and its control method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298479A (en) * 1992-04-24 1993-11-12 Hitachi Eng Co Ltd Data processor, data input method and input data display method
JPH07129319A (en) * 1993-11-01 1995-05-19 Hitachi Ltd Pen input type information processing device
JPH1055413A (en) * 1996-08-09 1998-02-24 Matsushita Electric Ind Co Ltd Business card recognition device
JPH10134120A (en) * 1996-10-28 1998-05-22 Oki Electric Ind Co Ltd Method and device for table processing
JPH11306281A (en) * 1998-04-27 1999-11-05 Nec Corp Recognizing condition specifying system, its method, and recording medium in which program to generate recognizing condition specifying function on computer is recorded
JP2009151803A (en) * 2009-01-29 2009-07-09 Dainippon Printing Co Ltd Entry information processing system, program, and business form for electronic pen
JP2011248669A (en) * 2010-05-27 2011-12-08 Ricoh Co Ltd Document management program, storage medium, information processor, and document management method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298479A (en) * 1992-04-24 1993-11-12 Hitachi Eng Co Ltd Data processor, data input method and input data display method
JPH07129319A (en) * 1993-11-01 1995-05-19 Hitachi Ltd Pen input type information processing device
JPH1055413A (en) * 1996-08-09 1998-02-24 Matsushita Electric Ind Co Ltd Business card recognition device
JPH10134120A (en) * 1996-10-28 1998-05-22 Oki Electric Ind Co Ltd Method and device for table processing
JPH11306281A (en) * 1998-04-27 1999-11-05 Nec Corp Recognizing condition specifying system, its method, and recording medium in which program to generate recognizing condition specifying function on computer is recorded
JP2009151803A (en) * 2009-01-29 2009-07-09 Dainippon Printing Co Ltd Entry information processing system, program, and business form for electronic pen
JP2011248669A (en) * 2010-05-27 2011-12-08 Ricoh Co Ltd Document management program, storage medium, information processor, and document management method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015090623A (en) * 2013-11-06 2015-05-11 株式会社東芝 Document reading device, program and document reading system
JP2015090625A (en) * 2013-11-06 2015-05-11 株式会社東芝 Document reading device, program and document reading system
CN110321880A (en) * 2015-03-09 2019-10-11 佳能株式会社 System and control method
CN110321880B (en) * 2015-03-09 2024-02-09 佳能株式会社 System and control method
JP2018037036A (en) * 2016-09-02 2018-03-08 株式会社東芝 Ledger sheet reader, ledger sheet reading method, program and ledger sheet reading system
JP2017220266A (en) * 2017-09-21 2017-12-14 株式会社東芝 Document reading device, program and document reading method
JP2021504787A (en) * 2017-12-01 2021-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer programs and systems for digitizing cognitive document images
JP7201299B2 (en) 2017-12-01 2023-01-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, computer program and system for cognitive document image digitization
JP2021114237A (en) * 2020-01-21 2021-08-05 キヤノン株式会社 Image processing system for converting document to electronic data, its control method and program
JP7483384B2 (en) 2020-01-21 2024-05-15 キヤノン株式会社 Image processing system for digitizing documents, and its control method and program
JP7487394B2 (en) 2020-01-21 2024-05-20 キヤノン株式会社 Image processing system for digitizing documents, and its control method and program
JP2024099820A (en) * 2020-01-21 2024-07-25 キヤノン株式会社 Image processing system that computerizes document, control method thereof, and program
JP7562900B2 (en) 2020-01-21 2024-10-07 キヤノン株式会社 Information processing device, control method and application
WO2023053950A1 (en) * 2021-09-29 2023-04-06 株式会社 東芝 System and information processing method

Similar Documents

Publication Publication Date Title
JP2013196479A (en) Information processing system, information processing program, and information processing method
US7236653B2 (en) System and method for locating document areas using markup symbols
JP5712487B2 (en) Image processing apparatus, image processing system, image processing method, and program
US10810351B2 (en) Integrated document editor
US8482827B2 (en) Annotation on media sheet indicating functionality to be performed in relation to image on media sheet
JP4934124B2 (en) Image forming apparatus
CN107426456A (en) Image processing apparatus and image processing system
JP2008059157A (en) Document confirmation support system, document confirmation support device and program
US20100238195A1 (en) Systems and Methods for Reviewing Digital Pen Data
US20060285748A1 (en) Document processing device
US20150261735A1 (en) Document processing system, document processing apparatus, and document processing method
JP6279732B2 (en) TERMINAL DEVICE, INPUT CONTENT CONTROL METHOD, AND PROGRAM
JP5717831B2 (en) Electronic device and handwritten document processing method
JP2000322417A (en) Device and method for filing image and storage medium
JP6325218B2 (en) Character recognition result verification device and character reading system
US11006015B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP5906608B2 (en) Information processing apparatus and program
CN113496224B (en) Information processing apparatus and method, data structure, identification system, and readable medium
JP5284342B2 (en) Character recognition system and character recognition program
JP4294456B2 (en) Specific character string search device, specific character string search method, specific character string search program, and recording medium
JP5935376B2 (en) Copy machine
JP7246610B2 (en) Image processing device, image processing program and image processing method
JP7287097B2 (en) Image processing device, image processing program and image processing method
JP2008244612A (en) Image processing apparatus and method
JP6702198B2 (en) Information processing device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150224