JP2013196479A - Information processing system, information processing program, and information processing method - Google Patents
Information processing system, information processing program, and information processing method Download PDFInfo
- Publication number
- JP2013196479A JP2013196479A JP2012063982A JP2012063982A JP2013196479A JP 2013196479 A JP2013196479 A JP 2013196479A JP 2012063982 A JP2012063982 A JP 2012063982A JP 2012063982 A JP2012063982 A JP 2012063982A JP 2013196479 A JP2013196479 A JP 2013196479A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- character
- image
- information
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明の実施形態は、光学式文字読取装置によって認識され、識別された文字を訂正する技術に関する。 Embodiments described herein relate generally to a technique for correcting characters recognized and identified by an optical character reader.
紙面上に記載された文字を識別し、電子データに変換する技術として、光学文字認識(OCR:Optical Character Recognition)の技術や、このOCR技術を用いて文字認識を実現する光学式文字読取装置があり、実用化されている。 Optical character recognition (OCR) technology and an optical character reader that realizes character recognition using this OCR technology as a technology for identifying characters on paper and converting them to electronic data Yes, it has been put to practical use.
また、名刺上に記載されている文字を識別するとともに、名刺上の文字の大きさや位置、"Tel:"、"Fax:"、"E-mail:"等のキーワードをもとに、識別した文字列と企業、氏名、役職、連絡先等の属性情報とを同定させ、対応付けて保持する技術もある。 In addition to identifying the characters on the business card, the characters were identified based on the size and position of the characters on the business card and keywords such as "Tel:", "Fax:", and "E-mail:". There is also a technique for identifying character strings and attribute information such as company, name, title, contact information, etc., and holding them in association with each other.
関連技術として、以下の文献が開示されている。 The following documents are disclosed as related technologies.
名刺のように、ある程度フォーマットが慣例上決まっており、また記載内容が限られている場合には上記従来技術は有効であるが、多数のページのフリーフォーマット文書に記載された、多数の文字列を検出する場合、記載された文字列と属性情報との組合せを判断するのが困難となる。 If the format is customarily determined to some extent, such as a business card, and the description content is limited, the above prior art is effective, but a large number of character strings described in a free format document of a large number of pages When it is detected, it becomes difficult to determine the combination of the written character string and the attribute information.
また、抽出すべき文字列の近傍に上記のようなキーワードがある場合、その抽出も容易であるが、フリーフォーマット文書である場合は必ずしもキーワードが近傍にあるとは限らない。抽出漏れがある場合、ユーザが文書内の文字列を特定して抽出することとなるが、従来技術では、効率的に取り出すユーザインターフェースについては考慮されていない。 Further, when there is a keyword as described above in the vicinity of the character string to be extracted, the extraction is easy, but in the case of a free format document, the keyword is not necessarily in the vicinity. When there is omission of extraction, the user specifies and extracts a character string in the document, but the conventional technique does not consider a user interface that is efficiently extracted.
本発明が解決しようとする課題は、フリーフォーマット文書に記載された必要な属性と文字列とを効率よく抽出して対応付け、また、抽出した内容を容易な手順で訂正することが可能な技術を提供することである。 The problem to be solved by the present invention is a technology that can efficiently extract and associate necessary attributes and character strings described in a free format document, and can correct the extracted contents by an easy procedure. Is to provide.
実施形態の情報処理システムは、第1の表示部と、第1の入力部と、第2の入力部と、第2の表示部とを有する。第1の表示部は、文字認識が行われた文書の画像を表示する。第1の入力部は、画像内の、ユーザが指定した範囲を検出する。第2の表示部は、文書において文字認識が行われた結果である文字列を、文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、一覧内の、第2の入力部を用いてユーザにより指定された欄に、第1の入力部により検出された範囲における文字認識の結果である文字列を表示する。 The information processing system according to the embodiment includes a first display unit, a first input unit, a second input unit, and a second display unit. The first display unit displays an image of the document on which character recognition has been performed. The first input unit detects a range designated by the user in the image. The second display unit displays a list of character strings, which are the result of character recognition in the document, for each attribute information indicating what attribute the character string is a character string of. A character string that is a result of character recognition in the range detected by the first input unit is displayed in a column designated by the user using the input unit.
実施形態の情報処理システムは、デジタルペンと、コンピュータとを有する。デジタルペンは、文字認識が行われた画像が印刷されたシート上の位置情報を取得する。コンピュータは、画像に記された文字列を、文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、デジタルペンにより取得される、シートの画像内に記されたユーザ指定の文字列の位置情報と、シートに記されている、属性情報を指定するための記入枠でありユーザが指定した記入枠の位置情報とに基づき、一覧のうちの指定された属性情報と一致する属性情報の欄の余白欄に、シートの画像内に記された指定された文字列を表示する。 The information processing system of the embodiment includes a digital pen and a computer. The digital pen acquires position information on a sheet on which an image subjected to character recognition is printed. The computer displays a list of character strings written in the image for each attribute information indicating what kind of attribute the character string is, and is specified by the user specified in the sheet image obtained by the digital pen. Matches the specified attribute information in the list based on the position information of the character string and the position information of the entry frame specified by the user and specified in the sheet. The designated character string written in the sheet image is displayed in the blank space of the attribute information column to be displayed.
(第1の実施形態)
図1は、本実施形態の文書読み取りシステムのハードウェア構成例を示す図である。以下の実施形態では、例えばFAXや郵送などで人事異動の連絡を受けたときの態様について説明するが、態様はこれに限定されない。
(First embodiment)
FIG. 1 is a diagram illustrating a hardware configuration example of a document reading system according to the present embodiment. In the following embodiment, for example, a mode when a personnel change notification is received by FAX or mail will be described, but the mode is not limited to this.
第1の実施形態の文書読み取りシステム300は、訂正用端末機1(情報処理システム)、サーバシステム2、ネットワーク3を有する。尚、訂正用端末機1が複数となる構成でもよく、サーバシステム2が複数となる構成でもよい。
A
訂正用端末機1は、文字認識された結果に対し、ユーザが文書と文字認識結果とを比較して、訂正が必要なものについては訂正するための操作用端末機である。訂正用端末機1は、演算処理装置であるプロセッサ101、主記憶装置であるメモリ102、フラッシュメモリやHDD(ハードディスクドライブ)等の補助記憶装置103を有するコンピュータである。また訂正用端末機1は、出力装置であるディスプレイ105や、入力装置であるキーボード106、マウス107を有し、外部とのデータ通信を制御する通信デバイス104を有する。これら各ユニットはデータバス108を介して互いにコマンド送受信、データ送受信を行っている。
The correction terminal 1 is an operation terminal for a user to compare a document and a character recognition result with respect to the result of character recognition, and to correct what needs correction. The correction terminal 1 is a computer having a
サーバシステム2は、FAXサーバ2A、OCRサーバ2B、ファイルサーバ2Cを含む。サーバ2A〜2Cは、それぞれプロセッサやメモリ、補助記憶装置等のハードウェアを含んだ従前のコンピュータである。
The
FAXサーバ2Aは、公衆回線を介して外部と通信可能な通信ボードを含み、外部からのFAXデータを受信し、デジタルデータに変換する。変換後のデジタルデータは、例えば画像ファイルとして、自己の記憶装置やファイルサーバ2C等に記憶される。尚、ファイルの出力先は、記憶可能な装置、媒体であれば態様は限定されない。
The
OCRサーバ2Bは、画像ファイルに描画されている文字や図柄の領域を認識し(レイアウト解析)、また従前のOCR技術に基づき、画像ファイルに描かれている文字を領域ごとに識別してデジタルデータ(本例ではテキストデータ)に変換する。またOCRサーバ2Bには、特定のキーワードが事前に記憶装置に記憶されており(以下、キーワード辞書と称す)、識別された文字列データにキーワードが含まれているかを、レイアウト解析により得られた領域ごとに判定する。ここで登録されているキーワードは、抽出対象となる文字列が、どのような意味(カテゴリ)であるかを示す属性情報であり、例えば、「氏名」、「住所」、「電話番号」である。文書読み取りシステム300は、文書画像内に例えば「氏名」の文字列が明記されている場合、この「氏名」の文字列と近接している文字列を、「氏名」のカテゴリであるとして管理、保持する。
The
OCRサーバ2Bは、領域情報(例えば画像の左上の最端点を基準点とした座標情報)、領域内の文字列情報とを対応付けて抽出結果ファイルとして出力する。またキーワード辞書に登録されている文字列がヒットした場合、OCRサーバ2Bは、そのキーワードも領域情報、および文字列データに対応付けて抽出結果ファイルとして出力する。尚、本実施形態ではキーワードがヒットした/しないにかかわらず、領域情報、文字列情報の全てが対応付けられ、抽出結果ファイルが出力される。出力先は、自己の記憶装置内でもよいし、ファイルサーバ2Cでもよい。記憶可能な装置、媒体であれば態様は限定されない。
The
ファイルサーバ2Cは、訂正用端末機1を介して確認、訂正されたデータを永続的に記憶するサーバである。ファイルサーバ2Cは、FAXサーバ2Aによって電子化されたFAXデータを記憶してもよいし、OCRサーバ2Bから出力される抽出結果ファイルを記憶しもよい。
The
サーバシステム2内のFAXサーバ2A、OCRサーバ2B、ファイルサーバ2Cは、互いにデータの送受信が可能であるとする。また訂正用端末機1は、通信デバイス104、ネットワーク3を介してサーバシステム2とデータの送受信を行う。ネットワーク3は、本実施形態ではLAN(Local Area Network)とし、IPアドレス(IP:Internet Protocol)が装置個別に割り当てられているとするが、態様はこれに限定されず、インターネット網を経由する形態であってもよい。また通信手段は有線、無線を問わない。
It is assumed that the
サーバ2A〜2C内の各補助記憶装置には、ハードウェアを制御するソフトウェア、および本実施形態を実現するためのソフトウェアが事前に導入されている。サーバシステム2は、図1に示すように無停電電源装置(UPS)を含む構成であってもよく、また入力用のキーボード、マウスや表示用のディスプレイ等を有する構成でもよい。また、FAXサーバ2Aが実現可能な機能は、FAX送受信機能やプリンタ機能、スキャナ、コピー機能等を備えたMFP(Multifunction Peripheral)であってもよい。またファイルサーバ2Cは、ネットワーク対応のHDDであってもよい。これ以外にも、さまざまなシステム構成が考えられる。作業規模によっては、1つのコンピュータが、上記各装置の機能を全て担ってもよい。
Each auxiliary storage device in the
また、処理対象となる画像ファイルは、FAX受信されるもの以外にも、MFP等により紙面上のデータがスキャンされた画像データや、所定形式に則った電子文書ファイルでもよい。 Further, the image file to be processed may be image data obtained by scanning data on a sheet of paper by an MFP or the like, or an electronic document file conforming to a predetermined format, in addition to those received by FAX.
次に、文書読み取りシステム300の動作例を図2のフローチャートに示す。図2の動作例は、FAXサーバ2A等により、処理対象の画像ファイルが得られた後の動作例となっている。
Next, an operation example of the
OCRサーバ2Bは、処理対象の文書が描かれた画像ファイル(以下、文書画像)を取得し、文書画像に対してレイアウト解析を行う(S101)。このレイアウト解析は、画像上のいずれの領域に文字や図柄が描かれているかを判定し、当該領域の座標を取得するための処理となる。図3を用いて、レイアウト解析について説明する。図3(A)は、もととなる文書画像の一例であり、図3(B)は、文書画像をレイアウト解析した後の領域例を示している。図3(B)に示された複数の太線矩形は、文字や図柄が描かれた領域として判定された箇所である。レイアウト解析により、一定間隔内にある文字(文字列)や図柄は、1つの領域としてまとめられ、それぞれの座標情報が得られる。レイアウト解析は、公知技術が用いられてもよい。
The
OCRサーバ2Bは、レイアウト解析により得られた領域内に描かれている文字を識別し、デジタルデータに変換する(S102)。OCRサーバ2Bは、識別した文字列データと、キーワード辞書内のキーワードとを対比することで、当該文字がキーワードであるかを判定する(S103)。尚、本実施形態では、キーワードに特殊文字(ワイルドワード)を含ませることも可能であり、マッチングさせることが可能である。また本例では、キーワードとして、「氏名」、「前職」、「新職」の文字列が含まれているものとする。
The
OCRサーバ2Bは、キーワードにマッチした文字列を属性情報として取得し(S104)、当該属性情報が有った領域内に含まれる、他の文字列を抽出する(S105)。またOCRサーバ2Bは、属性情報が有った領域内に近接する、他の領域内に含まれる文字列も抽出する。近接間隔はパラメータで指定可能である。OCRサーバ2Bは、領域情報と、領域内の文字列と、属性情報が当該領域内にあればその属性情報(または、当該領域の近傍に属性情報があれば、その属性情報)とを対応付けて、抽出結果ファイルとして出力する。また文書画像のファイル名も対応付けて出力される。
The
訂正用端末機1は抽出結果ファイルを取得し、ユーザの操作に基づき、確認、訂正作業を支援する(S106)。ここでのユーザ操作や訂正用端末機1の動作については後述する。訂正作業が終わると、訂正用端末機1は、確認/訂正後のデータをCSVファイルとしてファイルサーバ2Cに出力する(S107)。本実施形態のCSVファイルは、本実施形態では属性情報と、その属性情報に対応付けられた、文書画像内の文字列データ(抽出された文字列データ)が1つのレコードに含まれるテキストファイルとする。尚、ファイル形式はCSVファイルに限らず、またファイルではなくデータベースに格納する実装でもよい。
The correction terminal 1 obtains the extraction result file and supports confirmation and correction work based on the user's operation (S106). The user operation and the operation of the correction terminal 1 will be described later. When the correction work is completed, the correction terminal 1 outputs the data after confirmation / correction to the
次に、本実施形態の訂正用端末機1の詳細について説明する。図4は、訂正用端末機1の構成をブロック図で例示したものである。 Next, details of the correction terminal 1 of the present embodiment will be described. FIG. 4 is a block diagram illustrating the configuration of the correction terminal 1.
訂正用端末機1は、入力部11、指定欄取得部12、訂正画面表示部13、領域取得部14、文字情報取得部15、文書画像表示部16を有する。訂正用端末機1内の補助記憶装置103には、ハードウェアを制御するソフトウェア、および図4に示す各ブロックの機能を実現するためのソフトウェアが事前に導入されている。図4に示す各ブロックは、プロセッサ101がこのソフトウェアを演算実行することで実現され、またディスプレイ105、キーボード106、マウス107等、図1で示す各ハードウェアと協働して実現される。
The correction terminal 1 includes an
図5〜図7を参照しつつ、図4の各ブロックの動作を説明する。訂正用端末機1は、OCRサーバ2Bが出力した抽出結果ファイル、および文書画像を取得し、図5に示すレイアウトでディスプレイ105に表示する。文書画像表示部16は、図5の左側に示すように、文書画像を表示するとともに、抽出結果ファイル内の対応関係に従い、属性情報と対応付けられた文字列を、属性情報ごとに色分けして強調して描画する。本例では、キーワード辞書に登録されている情報が「氏名」、「前職」、「新職」であるため、文書画像表示部16は、これら属性情報に対応した文字列を色分けして表示する。また文書画像表示部16は、文書画像が複数枚に跨っている等、一度に表示できない場合は、スクロールバーを表示して、マウス操作で次ページ等を表示するように制御する。
The operation of each block in FIG. 4 will be described with reference to FIGS. The correction terminal 1 acquires the extraction result file and the document image output from the
訂正画面表示部13は、図5の右側に示すように、抽出結果ファイルを参照して、各属性情報を最上欄に表示するとともに、各属性情報に対応した文字列を、その下の欄に編集可能なように一覧表示する。また、ユーザの視認性を良くするため、訂正画面表示部13は、文書画像表示部16の上記属性情報ごとの色分けと一致するように、最上欄を色分けして表示する。
As shown on the right side of FIG. 5, the correction
ユーザは、文書画像表示部16に表示される文書画像および属性情報ごとに色分けされた文字列と、訂正画面表示部13により表示される抽出結果/訂正用画面上の表示文字列とを比較する。OCRサーバ2Bによる文字誤認識がある場合は、ユーザは、当該認識誤り箇所をマウス107、キーボード106を使用して訂正する。訂正には抽出結果/訂正用画面が用いられる。
The user compares the character string color-coded for each document image and attribute information displayed on the document
OCRサーバ2Bの処理には、文字の識別以外にも上述したレイアウト解析処理、文字列に属性情報を対応付ける処理がある。属性情報が対応付けられた文字列については、訂正画面表示部13の表示一覧(図5の右側)に、その文字列が表示される。しかしながら、図5左側の文書画像上の「東芝次郎」、「経理課長」、「取締役」、「東芝三郎」、「取締役」、「顧問」の文字列は、文書の書式がフリーフォーマットであるがゆえに、「氏名」、「前職」、「新職」の属性情報が近傍に明記されていないため、これらはいずれの属性にも該当しないと認識され、抽出漏れとなっている。
The processing of the
このような場合の属性情報と文字列との対応付けの訂正方法について、図6、図7を用いて説明する。ここでは、文字列を「氏名」の属性情報に対応づけて一覧に表示させる方法を例示する。 A method for correcting the correspondence between the attribute information and the character string in such a case will be described with reference to FIGS. Here, a method of displaying a character string in a list in association with attribute information of “name” is illustrated.
まずユーザは、図6に示すように訂正画面表示部13により表示される欄のうち、挿入箇所を指定する。本例では、「氏名」欄の余白箇所である図6の指定欄Cが入力部11(マウス107とするが、キーボード106の矢印キー等でも構わない)により指定される。指定欄取得部12は、入力部11によりいずれの欄が指定されたかの位置情報(行番号、列番号で示されるカラム位置情報)や属性情報を取得する。次にユーザは、入力部11を用いて、文書画像表示部16により表示される文書画像(図6左側)の、対応付けを行う文字列を囲むようにドラッグ操作で指定する。領域取得部14は、入力部11によって囲まれた領域の座標情報を取得する。
First, as shown in FIG. 6, the user designates an insertion location in the column displayed by the correction
文字情報取得部15は、領域取得部14により得られた指定された領域が、抽出結果ファイル内の領域情報のいずれに合致しているかを判定する。もしくは、抽出結果ファイル内の領域情報のうちで、指定された領域に最も近似している領域情報を抽出する。文字情報取得部15は、合致もしくは近似している領域情報に対応した文字列を、抽出結果ファイルから取得する。上述のように、抽出結果ファイルには文書画像の全ての領域情報、文字列が対応付いて存在しているため、文字情報取得部15は、抽出結果ファイルから指定領域に対応した文字列を取得することができる。
The character
訂正画面表示部13は、指定欄取得部12により取得されたユーザ指定欄に、文字列情報取得部15により取得された文字列データを挿入して表示する。また文書画像表示部16は、指定欄取得部12から、ユーザに指定された欄の属性情報を取得し、指定された領域内の文字列を、その属性情報に応じて色分けして強調表示する。このときの表示を図7に示す。「前職」欄や「新職」欄にも、このような操作や訂正用端末機1の動作を適用させることで、属性情報との対応付けの漏れを解消することができる。
The correction
また、図8に示す指定も可能となる。すなわち、1つの欄が指定され、複数行に跨る領域が指定された場合、当該1つの欄内に複数行の文字列が挿入される。この場合、行間の改行コードは取り除かれて挿入される。 Further, the designation shown in FIG. 8 is also possible. That is, when one column is specified and an area extending over a plurality of lines is specified, a plurality of lines of character strings are inserted into the one column. In this case, the line feed code between lines is removed and inserted.
尚、本例では、欄の数と文字列の数が一致するように、2つの欄を選択し、2つの文字列を文書画像から指定する例を示しているが、不図示のチェックボックスやボタンが選択されている場合、文書画像上で選択される文字列の改行コードに従って、文字列が各欄に挿入される実装でもよい。例えば「氏名」欄の余白1箇所が選択され、文書画像上の複数行の文字列、本例では「東芝次郎(+改行コード)」、「東芝三郎(+改行コード)」の2行が選択される場合、訂正画面表示部13は、まずは「東芝次郎」を1つ目の欄に表示し、「東芝次郎」の改行コードを確認した場合は次の下の欄にカーソルを進めて「東芝三郎」を表示する。すなわち、図7と同様の表示となる。
In this example, two columns are selected so that the number of columns matches the number of character strings, and two character strings are designated from the document image. When the button is selected, the character string may be inserted into each column according to the line feed code of the character string selected on the document image. For example, one margin in the “Name” field is selected, and multiple lines of text on the document image, in this example, “Toshiba Jiro (+ line feed code)” and “Toshiba Saburo (+ line feed code)” are selected. In this case, the correction
図9は、上述の属性情報と文字列との対応関係不備(抽出漏れ)を訂正するときの、訂正用端末機1の動作例を示すフローチャートである。指定欄取得部12は、入力部11から、属性情報一覧のうちのいずれの欄がユーザに選択されたかの位置情報を取得する(S201)。この位置情報は、例えば行番号、列番号となる。領域取得部14は、ユーザが入力部11を用いて指定される、文書画像内の領域の情報を取得する(S202)。領域の情報は、本例では座標情報である。文字情報取得部15は、領域取得部14により取得される領域に含まれる文字列を、抽出結果ファイル内で設定された領域情報と文字列との対応関係に基づき取得する(S203)。訂正画面表示部13は、指定欄取得部12で取得される欄に、文字列情報取得部15により取得される文字列を挿入する(S204)。このように対応不備が解消された属性情報と文字列は、正規な情報として確認/訂正CSVファイルに出力される。
FIG. 9 is a flowchart illustrating an operation example of the correction terminal 1 when correcting the above-described correspondence deficiency (missing extraction) between the attribute information and the character string. The designation
上記例では、文書画像内の主な連絡事項が人事異動についてであり、1枚のシートに人事異動の情報が記載されている例を示した。ここでフリーフォーマット文書である場合、別の主だった連絡事項が複数のシートに渡ってあり、その中の一部に人事異動に関する情報がある場合、また人事異動に関する情報が文書の文頭ではなく、文書の中節や末尾にある場合、さらには複数箇所に分かれて記載されている場合がある。また状況によっては、人事異動に関する情報が複数ページに渡って膨大にある場合もある。本実施形態を適用することで、このような状況での操作性向上を図ることができ、もってユーザへの利便性を図ることができる。すなわち本実施形態により、ユーザはページめくりを文書画像表示部16の表示領域で行い、属性情報ごとに色分けされている箇所についての確認を行う。またユーザは、手入力(キーボードを用いた文字列の直接入力)をすること無く、簡単な操作のみで属性情報と文書内文字列との対応を是正することができ、抽出すべき文字列の抽出漏れを低減させることができる。よって、より正確な情報を取得できる。
In the above example, the main communication item in the document image is about personnel changes, and information on personnel changes is described on one sheet. If it is a free-format document, there are different main communication items on multiple sheets, and if some of them have information on personnel changes, the information on personnel changes is not the beginning of the document. In the middle or end of a document, it may be described in several places. Also, depending on the situation, there may be an enormous amount of information regarding personnel changes over multiple pages. By applying this embodiment, it is possible to improve the operability in such a situation, and to improve the convenience for the user. In other words, according to the present embodiment, the user turns the page in the display area of the document
(第2の実施形態)
第2の実施形態では、上記第1の実施形態よりもさらに操作性を向上させた構成について説明する。第2実施形態は、通常のPC(PC:パーソナルコンピュータ)に加え、タッチパネルディスプレイを有するタブレットPCも用い、タブレットPCと通常のPCとを連動させることで、訂正作業が行われる。
(Second Embodiment)
In the second embodiment, a configuration in which operability is further improved as compared with the first embodiment will be described. In the second embodiment, in addition to a normal PC (PC: personal computer), a tablet PC having a touch panel display is used, and the correction work is performed by linking the tablet PC and the normal PC.
図10に、第2の実施形態の訂正システムの構成例を示す。訂正システム100(情報処理システム)は、タブレットPC1B、端末機1A(据え置きPCやノートPC)を有する構成となっている。訂正システム100は、第1の実施形態で説明したサーバシステム2と、ネットワーク3を介してデータの送受信が可能となっており、またタブレットPC1Bと端末機1Aとの間でも、無線LANやBluetooth(登録商標)の通信手段を用いてデータ送受信が可能となっている。
FIG. 10 shows a configuration example of the correction system of the second embodiment. The correction system 100 (information processing system) includes a
タブレットPC1Bのハードウェア構成は、プロセッサ、メモリ、不揮発性に記憶することができる記憶装置を含んだ従前のタブレットPCである。また、タブレットPCは、指先(ペン先でもよい)の押下を検知するタッチパネル方式の入力装置と、表示装置とを合わせたタッチパネルディスプレイを有する。入力部11Aおよび文書画像表示部16Aは、このタッチパネルディスプレイと協働することで実現される機能部となっている。端末機1Aは、第1の実施形態の訂正用端末機1と同様のハードウェア構成であり、また図10に示されるその他の各機能部は、第1の実施形態と同様の機能となっている。
The hardware configuration of the
図11に、タブレットPC1Bのタッチパネルディスプレイに表示される画面イメージ(左側)、および端末機1Aのディスプレイ105に表示される画面イメージ(右側)を示す。タブレットPC1Bの文書画像表示部16Aにより、文書画像および属性ごとに色分けされた文字列がタッチパネルディスプレイ上に表示される。また端末機1Aの訂正画面表示部13により、抽出結果/訂正用画面がディスプレイ105上に表示される。
FIG. 11 shows a screen image (left side) displayed on the touch panel display of the
タブレットPC1Bは原稿(文書画像)の視認性が高く、指先をスライドさせる操作でページ送りができ、範囲指定なども指先でのドラッグ操作で簡単に行える反面、文字入力には向いていない。一方で、端末機1Aは、ページ送りはマウス操作で行われる等、文書画像に対しての操作性や視認性はタブレットPC1Bよりも低いが、文字入力の操作はキーボード106を用いた入力となるため、容易である。このように、タッチパネルディスプレイとキーボードと用い、それぞれの操作性の欠点を補完し合うことで、操作性が向上し、訂正作業が円滑に実施される。
The
ユーザの操作手順は、入出力デバイスは異なること以外は、第1の実施形態の図6、図7で示したものと同様とある。属性情報の対応付けに不備があり、抽出漏れがある場合、ユーザは、まずは抽出結果/訂正用画面内の欄を指定し、その後、文書画像内の該当文字列を指先で囲むように指定する。これにより、抽出結果/訂正用画面内の指定欄に、該当文字列が表示される。 The user operation procedure is the same as that shown in FIGS. 6 and 7 of the first embodiment except that the input / output devices are different. If there is a defect in the attribute information correspondence and there is omission of extraction, the user first specifies the column in the extraction result / correction screen, and then specifies that the corresponding character string in the document image is surrounded by the fingertip. . As a result, the corresponding character string is displayed in the designation field in the extraction result / correction screen.
修正作業の基となる文書画像は、本実施形態ではタブレットPC1B側で保持するものとし、抽出結果ファイルは、タブレットPC1B、端末機1Aの両方でそれぞれ保持するものとするが、態様はこれに限定されず、適材適所に配置される。また、タブレットPC1B内の文字情報取得部15が、抽出結果ファイルから文字列を取得した際には、端末機1A内の訂正画面表示部13に取得された文字列が送信される。また端末機1A内の指定欄取得部12により取得される指定欄の属性情報については、タブレットPC1B内の文書画像表示部16Aに送信される。指定欄取得部12からの送信により、文書画像表示部16Aは、ユーザに指先で指定された領域内の文字列を、属性に応じた色で強調表示する。これ以外の各機能部の動作は、第1の実施形態と同様である(図9のフローチャート等を参照)。
In this embodiment, the document image that is the basis of the correction work is held on the
また、本実施形態では、文字情報取得部15をタブレットPC1B内としたが、端末機1A内であってもよい。タッチパネルディスプレイに対する指先操作は、従前の操作方法と同様とすることができる。またタッチパネルディスプレイ上での表示制御(拡大表示や縮小表示、ページめくり時の表示制御、等)や、ユーザが指定した文書画像上の領域取得は、タッチパネルで検知される座標情報に基づき行われる。この制御には従前の技術が採用されてもよい。
In the present embodiment, the character
領域指定画面をタブレットPC1Bで表示し、文字入力用の画面を端末機1Aで表示し、これらを連動させることで、指先でページをめくる、指で範囲指定をする特徴と、キーボードで文字を入力する特徴を利用した操作ができる。これにより、作業効率のよいインターフェースを実現することができる。
The area designation screen is displayed on the
また第1の実施形態では、文書画像と抽出結果/訂正用画面とを1つのディスプレイ105に表示させる必要があるため、その分抽出結果/訂正用画面の表示領域が狭くなる。第2の実施形態により、ディスプレイ105の全体を訂正用画面として利用することが可能となるため、属性の多い文書にも対応ができ、視認性の良い操作を行うことができる。
In the first embodiment, since it is necessary to display the document image and the extraction result / correction screen on one
(第3の実施形態)
第3の実施形態では、デジタルペンやデジタルペン専用の用紙を用いた実装例について説明する。図12は、第3の実施形態の構成例を示す図である。文書読み取りシステム300Bは、第1の実施形態で説明したサーバシステム2に、訂正システム100A(情報処理システム)、MFP4がネットワーク3を介して接続された構成となっている。MFP4には、デジタルペン専用のシートP1が給紙カセット内に格納されており、文書画像を取得し、シートP1に文書画像を印刷する。
(Third embodiment)
In the third embodiment, a mounting example using a digital pen or paper dedicated to the digital pen will be described. FIG. 12 is a diagram illustrating a configuration example of the third embodiment. The
訂正システム100Aは、シートP1、デジタルペンT1、端末機1Cにより構成されている。ユーザはデジタルペンT1を用いて、シートP1上に描かれた文書画像に対し、領域を指定する。端末機1Cは、シートP1上のいずれの領域が指定されたかの情報を、座標情報として取得する。
The
シートP1には、記入位置が識別できるように、ドットや格子状マス目が印刷されている。ドットや格子状マス目は、位置によって異なるパターン形状となっている。 On the sheet P1, dots and grid cells are printed so that the entry position can be identified. The dots and grid cells have different pattern shapes depending on the positions.
デジタルペンT1のボディ部には、ペン先方向を撮像するように配置されるカメラが内蔵されている。デジタルペンT1は、筆圧センサを有し、筆圧センサが筆圧を検知した場合にカメラが作動する。またデジタルペンT1のボディ部には、プロセッサ、メモリが内蔵されており、このプロセッサは、撮像されたドットパターンや格子状マス目パターンに基づき、記入位置を演算して取得し、記入位置をメモリ内に一時的に記憶させる。メモリ内には、筆跡に従った順序で記入位置が記憶される。またデジタルペンT1には、Bluetooth通信等が可能な装置が内蔵されており、メモリ内の記入位置情報を端末機1Cに送信する。 The body of the digital pen T1 incorporates a camera that is arranged so as to capture the direction of the pen tip. The digital pen T1 has a writing pressure sensor, and the camera operates when the writing pressure sensor detects writing pressure. The body of the digital pen T1 includes a processor and a memory. The processor calculates and obtains an entry position based on the captured dot pattern and grid pattern, and the entry position is stored in the memory. Memorize temporarily. In the memory, entry positions are stored in the order according to the handwriting. The digital pen T1 has a built-in device capable of Bluetooth communication and the like, and transmits entry position information in the memory to the terminal 1C.
このようなシートP1、デジタルペンT1として、従前のデジタルペン専用シート、従前のデジタルペンが採用されてもよい。 As such a sheet P1 and digital pen T1, a conventional digital pen dedicated sheet or a conventional digital pen may be employed.
端末機1Cは、第1の実施形態の訂正用端末機1と同様のハードウェア構成を有するコンピュータであるため、ここでの説明は省略する(図1参照)。 Since the terminal 1C is a computer having the same hardware configuration as that of the correction terminal 1 of the first embodiment, description thereof is omitted here (see FIG. 1).
図13は、訂正システム100Aの構成例を示す機能ブロック図である。訂正システム100Aは、デジタルペンT1、シートP2を含んだ紙面座標取得部21を有する。紙面座標取得部21は、文書画像が印刷されたシートP1に対してのデジタルペンT1の筆跡情報(シートP1上の位置情報)を取得する。図13に示されるその他の機能部は端末機1Cが有するものであり、その機能は第1の実施形態と同様である。
FIG. 13 is a functional block diagram illustrating a configuration example of the
図14を用いて、第3の実施形態の態様をさらに説明する。図14の上段は、MFP4により印刷された文書画像の一例を示している。この例に示すように、シートP1の最下段には、チェック用のボックスと、「氏名」、「前職」、「新職」の各属性情報が明記されている。また第1、第2の実施形態と同様に、シートP1には、どの部分が既に氏名、旧職、新職として抽出されているかが色分け表示されていてもよい。これらの属性情報や色分けが付与された文書画像は、本実施形態では抽出結果ファイル内の対応関係に基づきOCRサーバ2Bが作成するものとするが、端末機1Cが作成しても構わない。
The aspect of 3rd Embodiment is further demonstrated using FIG. The upper part of FIG. 14 shows an example of a document image printed by the MFP 4. As shown in this example, a check box and attribute information of “name”, “previous job”, and “new job” are specified at the bottom of the sheet P1. Similarly to the first and second embodiments, which part of the sheet P1 has already been extracted as the name, old job, and new job may be displayed in different colors. In this embodiment, the
紙面座標取得部21は、ユーザにより枠で囲まれ、もしくはアンダーラインが引かれた文字列の位置情報を取得する。また紙面座標取得部21は、ユーザがいずれのチェックボックスに印をいれたかを位置情報で取得する。これら位置情報は、デジタルペンT1により取得され、デジタルペンT1のメモリに記憶される。
The page coordinate
領域取得部14は、紙面座標取得部21により取得された位置情報と、抽出結果ファイル内の座標情報とを比較して、文書画像内の領域を取得する。文字情報取得部15は、領域取得部14により取得される領域に対応する文字列を取得する。一方、指定欄取得部12は、紙面座標取得部21により取得されるチェック印が付された位置情報を基に、いずれの属性情報が指定されているかの情報を取得する。これにより、指定欄取得部12は、図14下段に示す抽出結果/訂正用画面上のいずれの欄が指定されたかを特定することができる。訂正画面表示部13は、文字情報取得部5により取得される文字列を、指定欄取得部12により取得される欄に、編集可能な状態で表示する(図14の下段参照)。
The
尚、デジタルペンP1は、筆跡(位置情報)を順序立てて記憶することが可能であることから、氏名として抽出すべき文字列に枠やアンダーラインを記載し、その後、氏名に関するボックスに印付けをする、という順序にユーザが従うことで、先に記した枠やアンダーラインは氏名の属性情報となる文字列である、ということを確定させることができる。よって、引き続き同じシートを用いて前職に関する指定(文字列指定後に「前職」のチェックボックスに印を入れる)、新職に関する指定(文字列指定後に「新職」のチェックボックスに印を入れる)も行うことができる。位置情報は、シーケンシャルに記憶されているため、後段処理を行う領域取得部14や指定欄取得部12、文字情報取得部15は、属性情報と文字列との対応付けを正確に実施することができる。
Since the digital pen P1 can store handwriting (position information) in order, write a frame or underline in the character string to be extracted as a name, and then mark the box related to the name If the user follows the order of performing the above, it is possible to determine that the frame or underline described above is a character string serving as name attribute information. Therefore, using the same sheet, specify the previous job (mark the "previous job" check box after specifying the character string), specify the new job (mark the new job check box after specifying the character string) ) Can also be performed. Since the position information is stored sequentially, the
尚、上記ではデジタルペン専用のシートを用いるものとして説明したが、デジタルペン近傍にセンサ装置を配置させて筆記位置を検出する形式の場合は、デジタルペン専用のシートでなくても構わない。この場合、紙面座標取得部21の構成は、デジタルペン、センサ装置を含むものとなる。
In the above description, a sheet dedicated to the digital pen is used. However, in the case of a type in which a sensor device is disposed in the vicinity of the digital pen to detect the writing position, the sheet may not be dedicated to the digital pen. In this case, the configuration of the paper surface coordinate
第3の実施形態のように、デジタルペンを使用することで、ユーザが指定した情報を、簡単にかつ確実に抽出することができる。 As in the third embodiment, by using a digital pen, information specified by the user can be easily and reliably extracted.
第1の実施形態(図4を参照)における入力部11は、第1の入力部、第2の入力部に相当する。第2の実施形態(図10を参照)における入力部11は第2の入力部に相当し、入力部11Aは、第1の入力部に相当する。また文書画像表示部16、16Aは、第1の表示部に相当し、訂正画面表示部13は、第2の表示部に相当する。
The
以上、この実施形態で説明した態様により、フリーフォーマット文書に抽出すべき文字列があり、その抽出ができていない場合、容易な手順で訂正することができ、データの取得漏れを低減させることができる。 As described above, according to the aspect described in this embodiment, when there is a character string to be extracted in the free format document and the character string cannot be extracted, it can be corrected by an easy procedure, and data acquisition omission can be reduced. it can.
なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although embodiment of this invention was described, the said embodiment is shown as an example and is not intending limiting the range of invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 訂正用端末機、1A、1C 端末機、1B タブレットPC、2 サーバシステム、2A FAXサーバ、2B OCRサーバ、2C ファイルサーバ、3 ネットワーク、4 MFP、11 入力部、11A 入力部(タッチパネル式)、12 指定欄取得部、13 訂正画面表示部、14 領域取得部、15 文字情報取得部、16、16A 文書画像表示部、21 紙面座標取得部、100、100A 訂正システム、300、300B 文書読み取りシステム、T1 デジタルペン、P1 デジタルペン専用シート。 1 correction terminal, 1A, 1C terminal, 1B tablet PC, 2 server system, 2A FAX server, 2B OCR server, 2C file server, 3 network, 4 MFP, 11 input unit, 11A input unit (touch panel type), 12 specification field acquisition unit, 13 correction screen display unit, 14 area acquisition unit, 15 character information acquisition unit, 16, 16A document image display unit, 21 page coordinate acquisition unit, 100, 100A correction system, 300, 300B document reading system, T1 digital pen, P1 digital pen dedicated sheet.
Claims (6)
前記画像内の、ユーザが指定した範囲を検出する第1の入力部と、
第2の入力部と、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、前記一覧内の、前記第2の入力部を用いてユーザにより指定された欄に、前記第1の入力部により検出された範囲における文字認識の結果である文字列を表示する第2の表示部と、
を含む情報処理システム。 A first display for displaying an image of a document that has undergone character recognition;
A first input unit for detecting a range designated by the user in the image;
A second input unit;
A list of character strings that are the result of character recognition in the document is displayed for each attribute information indicating what character string the character string is, and the second input unit in the list is displayed. A second display unit that displays a character string that is a result of character recognition in a range detected by the first input unit in a field designated by the user using;
Information processing system including
前記第1の表示部、前記第1の入力部は、タッチパネルディスプレイを有するコンピュータに含まれている情報処理システム。 The information processing system according to claim 1,
The first display unit and the first input unit are information processing systems included in a computer having a touch panel display.
前記第2の表示部は、前記属性情報を色ごとに区別して表示し、前記第1の表示部は、前記画像内の文字列のうち、既に属性情報が定義付けられた文字列については、前記第2の表示部に表示される属性情報と同じ色となるように表示する情報処理システム。 The information processing system according to claim 1,
The second display unit displays the attribute information separately for each color, and the first display unit includes a character string in which attribute information is already defined among character strings in the image. An information processing system for displaying the same color as attribute information displayed on the second display unit.
文字認識が行われた文書の画像を表示させ、
前記画像内の、ユーザが指定した範囲を検出させ、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示させ、前記一覧内の、ユーザにより指定された欄に、前記検出された範囲における文字認識の結果である文字列を表示させる
ための情報処理プログラム。 On one or more computers,
Display an image of a document that has undergone character recognition,
A range designated by the user in the image is detected;
A character string that is a result of character recognition in the document is displayed in a list for each attribute information that indicates what attribute the character string is a character string, and is displayed in a column specified by the user in the list. An information processing program for displaying a character string that is a result of character recognition in the detected range.
文字認識が行われた文書の画像を表示し、
前記画像内の、ユーザが指定した範囲を検出し、
前記文書において文字認識が行われた結果である文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示させ、前記一覧内の、ユーザにより指定された欄に、前記検出された範囲における文字認識の結果である文字列を表示する
情報処理方法。 One or more computers
Displays an image of a document that has been character-recognized,
Detecting a range specified by the user in the image;
A character string that is a result of character recognition in the document is displayed in a list for each attribute information that indicates what attribute the character string is a character string, and is displayed in a column specified by the user in the list. An information processing method for displaying a character string that is a result of character recognition in the detected range.
前記画像に記された文字列を、該文字列がいかなる属性の文字列であるかを示す属性情報ごとに一覧表示し、前記デジタルペンにより取得される、前記シートの画像内に記されたユーザ指定の文字列の位置情報と、前記シートに記されている、属性情報を指定するための記入枠でありユーザが指定した記入枠の位置情報とに基づき、前記一覧のうちの前記指定された属性情報と一致する属性情報の欄に、前記シートの画像内に記された前記指定された文字列を表示するコンピュータと、
を含む情報処理システム。 A digital pen for acquiring position information on a sheet on which an image on which character recognition has been performed is printed;
The character string described in the image is displayed in a list for each attribute information indicating what attribute the character string is a character string of, and the user described in the image of the sheet obtained by the digital pen Based on the position information of the designated character string and the position information of the entry frame which is an entry frame for designating attribute information described on the sheet and specified by the user, the designated of the list A computer for displaying the designated character string written in the image of the sheet in a column of attribute information matching the attribute information;
Information processing system including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063982A JP2013196479A (en) | 2012-03-21 | 2012-03-21 | Information processing system, information processing program, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063982A JP2013196479A (en) | 2012-03-21 | 2012-03-21 | Information processing system, information processing program, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013196479A true JP2013196479A (en) | 2013-09-30 |
Family
ID=49395317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063982A Pending JP2013196479A (en) | 2012-03-21 | 2012-03-21 | Information processing system, information processing program, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013196479A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090625A (en) * | 2013-11-06 | 2015-05-11 | 株式会社東芝 | Document reading device, program and document reading system |
JP2015090623A (en) * | 2013-11-06 | 2015-05-11 | 株式会社東芝 | Document reading device, program and document reading system |
JP2017220266A (en) * | 2017-09-21 | 2017-12-14 | 株式会社東芝 | Document reading device, program and document reading method |
JP2018037036A (en) * | 2016-09-02 | 2018-03-08 | 株式会社東芝 | Ledger sheet reader, ledger sheet reading method, program and ledger sheet reading system |
CN110321880A (en) * | 2015-03-09 | 2019-10-11 | 佳能株式会社 | System and control method |
JP2021504787A (en) * | 2017-12-01 | 2021-02-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Methods, computer programs and systems for digitizing cognitive document images |
JP2021114237A (en) * | 2020-01-21 | 2021-08-05 | キヤノン株式会社 | Image processing system for converting document to electronic data, its control method and program |
WO2023053950A1 (en) * | 2021-09-29 | 2023-04-06 | 株式会社 東芝 | System and information processing method |
JP7487394B2 (en) | 2020-01-21 | 2024-05-20 | キヤノン株式会社 | Image processing system for digitizing documents, and its control method and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298479A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Eng Co Ltd | Data processor, data input method and input data display method |
JPH07129319A (en) * | 1993-11-01 | 1995-05-19 | Hitachi Ltd | Pen input type information processing device |
JPH1055413A (en) * | 1996-08-09 | 1998-02-24 | Matsushita Electric Ind Co Ltd | Business card recognition device |
JPH10134120A (en) * | 1996-10-28 | 1998-05-22 | Oki Electric Ind Co Ltd | Method and device for table processing |
JPH11306281A (en) * | 1998-04-27 | 1999-11-05 | Nec Corp | Recognizing condition specifying system, its method, and recording medium in which program to generate recognizing condition specifying function on computer is recorded |
JP2009151803A (en) * | 2009-01-29 | 2009-07-09 | Dainippon Printing Co Ltd | Entry information processing system, program, and business form for electronic pen |
JP2011248669A (en) * | 2010-05-27 | 2011-12-08 | Ricoh Co Ltd | Document management program, storage medium, information processor, and document management method |
-
2012
- 2012-03-21 JP JP2012063982A patent/JP2013196479A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298479A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Eng Co Ltd | Data processor, data input method and input data display method |
JPH07129319A (en) * | 1993-11-01 | 1995-05-19 | Hitachi Ltd | Pen input type information processing device |
JPH1055413A (en) * | 1996-08-09 | 1998-02-24 | Matsushita Electric Ind Co Ltd | Business card recognition device |
JPH10134120A (en) * | 1996-10-28 | 1998-05-22 | Oki Electric Ind Co Ltd | Method and device for table processing |
JPH11306281A (en) * | 1998-04-27 | 1999-11-05 | Nec Corp | Recognizing condition specifying system, its method, and recording medium in which program to generate recognizing condition specifying function on computer is recorded |
JP2009151803A (en) * | 2009-01-29 | 2009-07-09 | Dainippon Printing Co Ltd | Entry information processing system, program, and business form for electronic pen |
JP2011248669A (en) * | 2010-05-27 | 2011-12-08 | Ricoh Co Ltd | Document management program, storage medium, information processor, and document management method |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090623A (en) * | 2013-11-06 | 2015-05-11 | 株式会社東芝 | Document reading device, program and document reading system |
JP2015090625A (en) * | 2013-11-06 | 2015-05-11 | 株式会社東芝 | Document reading device, program and document reading system |
CN110321880A (en) * | 2015-03-09 | 2019-10-11 | 佳能株式会社 | System and control method |
CN110321880B (en) * | 2015-03-09 | 2024-02-09 | 佳能株式会社 | System and control method |
JP2018037036A (en) * | 2016-09-02 | 2018-03-08 | 株式会社東芝 | Ledger sheet reader, ledger sheet reading method, program and ledger sheet reading system |
JP2017220266A (en) * | 2017-09-21 | 2017-12-14 | 株式会社東芝 | Document reading device, program and document reading method |
JP2021504787A (en) * | 2017-12-01 | 2021-02-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Methods, computer programs and systems for digitizing cognitive document images |
JP7201299B2 (en) | 2017-12-01 | 2023-01-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Method, computer program and system for cognitive document image digitization |
JP2021114237A (en) * | 2020-01-21 | 2021-08-05 | キヤノン株式会社 | Image processing system for converting document to electronic data, its control method and program |
JP7483384B2 (en) | 2020-01-21 | 2024-05-15 | キヤノン株式会社 | Image processing system for digitizing documents, and its control method and program |
JP7487394B2 (en) | 2020-01-21 | 2024-05-20 | キヤノン株式会社 | Image processing system for digitizing documents, and its control method and program |
JP2024099820A (en) * | 2020-01-21 | 2024-07-25 | キヤノン株式会社 | Image processing system that computerizes document, control method thereof, and program |
JP7562900B2 (en) | 2020-01-21 | 2024-10-07 | キヤノン株式会社 | Information processing device, control method and application |
WO2023053950A1 (en) * | 2021-09-29 | 2023-04-06 | 株式会社 東芝 | System and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013196479A (en) | Information processing system, information processing program, and information processing method | |
US7236653B2 (en) | System and method for locating document areas using markup symbols | |
JP5712487B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
US10810351B2 (en) | Integrated document editor | |
US8482827B2 (en) | Annotation on media sheet indicating functionality to be performed in relation to image on media sheet | |
JP4934124B2 (en) | Image forming apparatus | |
CN107426456A (en) | Image processing apparatus and image processing system | |
JP2008059157A (en) | Document confirmation support system, document confirmation support device and program | |
US20100238195A1 (en) | Systems and Methods for Reviewing Digital Pen Data | |
US20060285748A1 (en) | Document processing device | |
US20150261735A1 (en) | Document processing system, document processing apparatus, and document processing method | |
JP6279732B2 (en) | TERMINAL DEVICE, INPUT CONTENT CONTROL METHOD, AND PROGRAM | |
JP5717831B2 (en) | Electronic device and handwritten document processing method | |
JP2000322417A (en) | Device and method for filing image and storage medium | |
JP6325218B2 (en) | Character recognition result verification device and character reading system | |
US11006015B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program | |
JP5906608B2 (en) | Information processing apparatus and program | |
CN113496224B (en) | Information processing apparatus and method, data structure, identification system, and readable medium | |
JP5284342B2 (en) | Character recognition system and character recognition program | |
JP4294456B2 (en) | Specific character string search device, specific character string search method, specific character string search program, and recording medium | |
JP5935376B2 (en) | Copy machine | |
JP7246610B2 (en) | Image processing device, image processing program and image processing method | |
JP7287097B2 (en) | Image processing device, image processing program and image processing method | |
JP2008244612A (en) | Image processing apparatus and method | |
JP6702198B2 (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140909 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150224 |