JP7107138B2 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7107138B2 JP7107138B2 JP2018182651A JP2018182651A JP7107138B2 JP 7107138 B2 JP7107138 B2 JP 7107138B2 JP 2018182651 A JP2018182651 A JP 2018182651A JP 2018182651 A JP2018182651 A JP 2018182651A JP 7107138 B2 JP7107138 B2 JP 7107138B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- image
- area
- handwritten
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
文書管理を行う場合に、文書の秘匿すべき部分をマスキング等によって視認不可能にした上で文書を管理することが一般的に行われている。例えば特許文献1では、文書をスキャンした画像にマスキングを行った上で保存する文書管理システムであって、文書内の領域毎に公開レベルを設定し、公開レベルに応じて異なる領域をマスキングした複数の画像を生成する文書管理システムが開示されている。 2. Description of the Related Art In document management, it is common practice to mask a portion of a document that should be kept secret so that it cannot be visually recognized, and then manage the document. For example, Japanese Patent Application Laid-Open No. 2002-200001 discloses a document management system that saves a scanned image of a document after masking it. A document management system is disclosed that generates images of .
しかしながら、特許文献1に係る発明は、文書内の予め定められた領域をマスクするものである。従って、文書内に手書きで文字等が記入されている場合に、文字等が記入された位置によっては、手書きの文字等までマスクされる虞がある。
However, the invention according to
一つの側面では、文書管理を適切に行うことができる情報処理装置等を提供することを目的とする。 An object of one aspect of the present invention is to provide an information processing apparatus and the like capable of appropriately managing documents.
一つの側面では、情報処理装置は、予め印刷されたコンテンツと手書きで記入された手書きオブジェクトとを有する記入用紙をスキャンした用紙画像を取得する取得部と、前記用紙画像から、前記コンテンツを特定するコンテンツ特定部と、前記用紙画像から、前記手書きオブジェクトを抽出する抽出部と、前記コンテンツを含む周辺領域であるコンテンツ領域から前記手書きオブジェクトを除いたマスキング領域を特定し、前記マスキング領域を視認できないように画像処理した前記用紙画像を生成する生成部とを備え、前記コンテンツ特定部は、前記用紙画像に対する文字認識により抽出したテキストに応じて前記コンテンツを特定することを特徴とする。 In one aspect, an information processing apparatus includes an acquisition unit that acquires a form image obtained by scanning a form having pre-printed content and a handwritten object that is handwritten, and identifies the content from the form image. a content specifying unit, an extracting unit that extracts the handwritten object from the paper image, and a masking region that excludes the handwritten object from a content region, which is a peripheral region that includes the content, to specify a masking region so that the masking region cannot be visually recognized. and a generation unit for generating the paper image subjected to image processing, and the content identification unit identifies the content according to text extracted by character recognition of the paper image .
一つの側面では、文書管理を適切に行うことができる。 In one aspect, document management can be properly performed.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、文書管理システムの構成例を示す模式図である。本実施の形態では、管理対象とする文書の一例として、学校のテストで回答者(生徒)が設問に対する回答を手書きで記入するテスト用紙(記入用紙)を想定し、テスト用紙をスキャンした用紙画像にマスキングを行った上で保存する文書管理システムについて説明する。文書管理システムは、情報処理装置1、サーバ2、スキャナ3を含む。情報処理装置1及びサーバ2は、インターネット等のネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of a document management system. In this embodiment, as an example of a document to be managed, a test form (fill-in form) in which a respondent (student) answers a question in a school test by handwriting is assumed. This section describes a document management system that stores documents after masking them. The document management system includes an
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばパーソナルコンピュータ、複合機、多機能端末等である。本実施の形態では情報処理装置1がパーソナルコンピュータであるものとし、以下の説明では簡潔のためにPC1と読み替える。本実施の形態に係るPC1は学校の教員が操作する端末装置であり、紙媒体を光学的に読み取るスキャナ3に接続されている。PC1は、スキャナ3がスキャンしたテスト用紙の画像をサーバ2にアップロードし、保存させる。この場合にPC1は、テスト用紙に予め印刷されている文章、絵、写真等のコンテンツであって、著作物に該当する可能性があるコンテンツが印刷されたコンテンツ領域に対しマスキングを行い、マスクされた画像をアップロードする。
The
サーバ2は所謂クラウドサーバであり、PC1からアップロードされたテスト用紙の画像をデータベースに格納して保存する。本実施の形態と無関係であるため詳細な説明は省略するが、サーバ2はテスト用紙に記入された回答の採点、集計、分析を行って分析結果を生徒及び教員に通知し、個々の生徒に適した教材の提供を行う。
The
なお、画像の保存場所はクラウド上のサーバ2に限定されず、例えばPC1がローカルで保存しておいてもよい。
Note that the image storage location is not limited to the
また、以下の説明ではローカル端末であるPC1がマスク処理を行うものとして説明するが、画像のアップロード先であるサーバ2がマスク処理を行ってもよい。
In the following description, the
上記のようにテスト用紙をスキャンして画像を保存する際に、テスト用紙に著作物が含まれる場合、スキャンした画像をそのまま保存すると著作物の不正な複製に該当する虞がある。このような事態を回避するため、著作物に該当する可能性がある部分をマスクすることが考えられる。 When the test sheet is scanned and the image is saved as described above, if the test sheet contains a copyrighted work, saving the scanned image as it is may constitute an illegal copy of the copyrighted work. In order to avoid such a situation, it is conceivable to mask the part that may correspond to the copyrighted work.
一方で、例えば回答者が問題文と重ねて回答を記入した場合など、回答が記入された位置によってはマスクすることで回答が判別できなくなる虞がある(図4、図5等参照)。そこで本実施の形態では、PC1は、手書きの回答(オブジェクト)が記入された領域を画像から特定し、特定した領域をマスキングの対象から除外することで、回答が判別できなくなる事態を防止する。 On the other hand, for example, when a respondent writes an answer overlapping a question sentence, depending on the position where the answer is written, there is a possibility that the answer cannot be identified by masking (see FIGS. 4, 5, etc.). Therefore, in the present embodiment, the PC 1 identifies an area in which a handwritten answer (object) is entered from the image, and excludes the identified area from the masking target, thereby preventing the answer from being unidentifiable.
図2は、PC1の構成例を示すブロック図である。PC1は、制御部11、主記憶部12、通信部13、表示部14、入力部15、補助記憶部16を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)等の演算処理装置を有し、補助記憶部16に記憶されたプログラムPを読み出して実行することにより、PC1に係る種々の情報処理、制御処理等を行う。主記憶部12は、RAM等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は通信モジュールであり、外部と情報の送受信を行う。表示部14は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示装置であり、制御部11から与えられた画像を表示する。入力部15はキーボード、マウス等の操作インターフェイスであり、操作内容を制御部11に入力する。補助記憶部16はハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。
FIG. 2 is a block diagram showing a configuration example of the PC1. The
The control unit 11 has an arithmetic processing unit such as one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), etc. By reading and executing the program P stored in the
図3は、コンテンツ領域の特定処理に関する説明図である。図3では、テスト用紙をスキャンした画像からコンテンツが印刷された領域を特定する様子を概念的に図示している。以下では本実施の形態の概要について説明する。 FIG. 3 is an explanatory diagram of content area specifying processing. FIG. 3 conceptually illustrates how a region in which a content is printed is specified from an image obtained by scanning a test sheet. The outline of this embodiment will be described below.
PC1はスキャナ3から、回答者が手書きの回答(手書きオブジェクト)を記入するテスト用紙(回答用紙)であって、著作物に該当する可能性があるコンテンツが印刷されたテスト用紙をスキャンした用紙画像を取得する。テスト用紙は、設問に対する回答を記入する記入用紙であって、例えば図3に示すように、設問文、設問内容、回答欄等が文字、記号等によって印刷されている。なお、テスト用紙の印刷内容(コンテンツ)は文字、記号のほかに、例えば図形、写真、絵などを含んでもよく、その内容は特に限定されない。
From the
回答者はテスト用紙に、文字等によって手書きで回答を記入する。なお、記入する内容は文字のほかにストローク、記号、図形等であってもよく、手書きで記入された何らかのオブジェクトであればよい。 The respondent fills in the answers by handwriting on the test paper. In addition to characters, the content to be entered may be strokes, symbols, graphics, or the like, and may be any object that is handwritten.
PC1は用紙画像から、設問文、設問内容、回答欄等に相当する箇所、すなわちコンテンツを特定し、コンテンツを含む周辺領域であるコンテンツ領域を特定する。図3では、ハッチングを付した部分がコンテンツ領域に該当する。例えばPC1は、回答が未記入であるテスト用紙の用紙画像からコンテンツ領域を特定する。PC1は、著作物に該当する可能性があるコンテンツ領域を特定し、当該領域にマスキングを行う。
From the sheet image, the
コンテンツ領域を特定する手法は、種々の手法が考えられる。図3では例示として、3つの手法について概念的に図示している。 Various methods are conceivable for specifying the content area. In FIG. 3, as an example, three methods are conceptually illustrated.
第1の手法として、PC1は、用紙画像に対する文字認識を行ってテスト用紙に印刷されているテキストを抽出し、抽出したテキストをコンテンツとして特定して、当該テキストを囲む領域をコンテンツ領域として特定する。図3右上に、文字認識を行ってコンテンツ領域を特定する様子を図示している。PC1は、用紙画像に対して文字認識を行い、テスト用紙に印刷されている個々のテキストを抽出する。PC1は、各テキストをコンテンツとして特定し、各テキストが被覆されるように、ハッチングで示す矩形領域をコンテンツ領域に設定(特定)する。
As a first method, the PC 1 performs character recognition on the paper image, extracts the text printed on the test paper, identifies the extracted text as content, and identifies the area surrounding the text as the content area. . The upper right portion of FIG. 3 illustrates how character recognition is performed to identify a content area. The PC 1 performs character recognition on the paper image and extracts individual texts printed on the test paper. The
第2の手法として、PC1は、用紙画像内の画素値の分布(画素密度)に応じてコンテンツ領域を特定する。図3右側中央に、画素値の分布に基づきコンテンツ領域を特定する様子を図示している。PC1は、用紙画像内の各画素の画素値を参照し、画素値の分布状況を判別して、テスト用紙に印刷されている文字、記号、ストローク等のように、テスト用紙の背景と異なる部分を特定する。例えばPC1は、用紙画像内のある画素に着目する場合、当該画素及びその周辺の画素(例えば3×3ピクセル)における、背景色とのRGB値の差分が閾値以上の画素の数をカウントする。PC1は、カウントした画素が所定数(例えば3ピクセル)以上ある場合、当該画素を含む部分をコンテンツとして特定する。
As a second method, the
PC1は、特定した部分を被覆するようにコンテンツ領域を設定(特定)する。これにより、文字認識では特定することが困難な記号、ストロークなどもマスキングを施すことができる。
The
なお、PC1が参照する画素値はRGB値のような色に関する値であってもよく、輝度のような明るさに関する値であってもよい。 The pixel value referred to by PC1 may be a color-related value such as an RGB value, or may be a brightness-related value such as luminance.
第3の手法として、PC1は、ディープラーニング等の機械学習により予め構築されている識別器(学習済みモデル)を用いて、用紙画像からコンテンツを特定する。図3下側に、識別器に用紙画像を入力してコンテンツ領域の識別結果を出力として得る様子を図示している。例えばPC1は、CNN(Convolution Neural Network;畳み込みニューラルネットワーク)等に係る識別器であって、コンテンツ領域の正解値(正解の座標範囲)がラベル付けされた用紙画像の教師データを元に、コンテンツの特徴を学習済みの識別器を用いる。なお、機械学習の手法はCNNに限定されず、他のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、決定木等であってもよい。PC1は、用紙画像を識別器に入力して画像特徴量を抽出し、コンテンツを識別した識別結果を出力値として取得する。PC1は、識別器から出力された識別結果に従ってコンテンツ領域を設定(特定)する。
As a third method, the
PC1は、上記で例示した手法のいずれかを用いてコンテンツ領域を特定する。あるいはPC1は、複数の手法を組み合わせてコンテンツ領域を特定するようにしてもよい。
PC1 identifies the content area using any of the methods exemplified above. Alternatively, the
図4は、手書き記入領域の特定処理に関する説明図である。図4では、回答が記入済みのテスト用紙の用紙画像から、手書きで記入された回答(オブジェクト)を抽出し、抽出した回答を囲む手書き記入領域を特定する様子を概念的に図示している。 4A and 4B are explanatory diagrams related to the specifying process of the handwritten entry area. FIG. 4 conceptually illustrates how handwritten answers (objects) are extracted from a paper image of a test sheet on which answers have already been written, and a handwritten entry area surrounding the extracted answers is specified.
図4上段に示す画像例では、回答者が記入した回答が、本来回答を記入すべき範囲からはみ出して記入されており、一部が問題文(コンテンツ)と重なっている。既に述べたように、このような状態でコンテンツ領域にそのままマスキングを施した場合、回答の一部も視認不可能となる。そこでPC1は、手書きで記入されている回答を用紙画像から抽出し、抽出した回答を囲むように、マスク対象から除外する手書き記入領域を特定する。
In the image example shown in the upper part of FIG. 4, the answer written by the respondent protrudes from the range in which the answer should be written, and partially overlaps the question sentence (content). As already mentioned, if the content area is masked as it is in such a state, part of the answer will not be visible. Therefore, the
例えばPC1は、回答が記入済みの用紙画像と、回答が未記入の用紙画像とを比較し、両者の差分を抽出することで手書きの回答を抽出する。例えばPC1は、回答が記入済みである用紙画像内の画素値を、回答が未記入である用紙画像内の画素値であって、記入済みの用紙画像の画素と同一画素の画素値と比較する。PC1は、各画素について画素値の比較を行い、両者の差分を抽出していく。
For example, the
図4中段に、抽出した回答を示す画像例を図示する。図4に示すように、PC1は、手書きで記入された回答に相当するオブジェクトを抽出する。PC1は、当該オブジェクトを囲むように、例えば矩形枠の領域を手書き記入領域として設定(特定)する。
An image example showing the extracted answers is shown in the middle of FIG. As shown in FIG. 4, the
図5は、マスク処理に関する説明図である。図5では、回答が記入されたテスト用紙の用紙画像に対し、マスキングを行う様子を図示している。 FIG. 5 is an explanatory diagram relating to mask processing. FIG. 5 shows how masking is performed on the image of the test sheet on which the answers are written.
PC1は、回答が記入済みの用紙画像に対して、上記で特定したコンテンツ領域から、手書き記入領域を除外した領域を視認できないように加工する画像処理、つまりマスク処理を行う。図5右側に、当該処理を概念的に図示している。図5右側では、黒塗りの矩形枠がマスキング対象であるコンテンツ領域を、白抜きの矩形枠が手書き記入領域をそれぞれ表す。PC1は、図5右の上段に示すコンテンツ領域と、図5右の中段に示す手書き記入領域とを比較し、図5右の下段に示す、コンテンツ領域から手書き記入領域を除外した領域を特定する。これにより、図5右の下段で点線矩形枠により示すように、コンテンツ領域と手書き記入領域との重複部分、すなわち問題文と回答とが重なった部分がマスキングの対象から除外される。
The
図5左側に示すように、PC1は、上記で特定した領域を視認不可能にするマスキングを行い、保存用のマスク画像を生成する。PC1は、生成したマスク画像をサーバ2に送信し、データベース上に記憶させる。
As shown on the left side of FIG. 5, the
図6は、PC1が実行する処理手順の一例を示すフローチャートである。図6に基づき、PC1が実行する処理内容について説明する。
PC1の制御部11は、スキャナ3から、予め印刷されたコンテンツと、手書きで記入されたオブジェクト(回答)とを有するテスト用紙をスキャンした用紙画像を取得する(ステップS11)。コンテンツは、著作物に該当する可能性がある文章、絵、写真等であるが、その具体的な内容は特に限定されない。
FIG. 6 is a flowchart showing an example of a processing procedure executed by the PC1. Based on FIG. 6, the contents of processing executed by the
The control unit 11 of the
制御部11は、用紙画像からコンテンツを特定する(ステップS12)。具体的には、制御部11は、回答が未記入の用紙画像からコンテンツを特定する。例えば制御部11は、用紙画像に対する文字認識によりテスト用紙に印刷されているテキストを抽出し、抽出したテキストをコンテンツとして特定してもよい。また、例えば制御部11は、用紙画像内の画素値の分布(画素密度)に応じてコンテンツを特定してもよい。また、例えば制御部11は、オブジェクトが未記入の用紙画像をコンテンツの教師データとして学習済みの識別器を用いて、コンテンツを特定するようにしてもよい。 The control unit 11 identifies the content from the paper image (step S12). Specifically, the control unit 11 identifies the content from the blank image of the answer sheet. For example, the control unit 11 may extract text printed on the test paper by character recognition on the paper image, and specify the extracted text as content. Further, for example, the control unit 11 may specify the content according to the pixel value distribution (pixel density) in the paper image. Further, for example, the control unit 11 may specify content by using a learned classifier using a sheet image in which no object is written as training data for the content.
制御部11は用紙画像から、テスト用紙に手書きで記入されたオブジェクト(回答)を抽出する(ステップS13)。具体的には、制御部11は、回答が記入済みであるテスト用紙の用紙画像と、回答が未記入であるテスト用紙の用紙画像とを比較し、手書きで記入された文字等を抽出する。制御部11は、抽出したオブジェクトを囲むように、手書き記入領域を特定する(ステップS14)。 The control unit 11 extracts an object (answer) handwritten on the test form from the form image (step S13). Specifically, the control unit 11 compares the test sheet image on which the answers have been written and the test sheet image on which the answers have not been written, and extracts handwritten characters and the like. Control unit 11 specifies a handwritten entry area so as to surround the extracted object (step S14).
制御部11は用紙画像に対し、ステップS12で特定したコンテンツを含む周辺領域であるコンテンツ領域から、ステップS14で特定した手書き記入領域を除外したマスキング領域を特定し、特定したマスキング領域を視認できないように画像処理したマスク画像を生成する(ステップS15)。制御部11は、生成したマスク画像をサーバ2に送信し(ステップS16)、一連の処理を終了する。 The control unit 11 identifies a masking area excluding the handwritten entry area identified in step S14 from the content area, which is a peripheral area containing the content identified in step S12, in the paper image, and makes the identified masking area invisible. A mask image is generated by image processing (step S15). The control unit 11 transmits the generated mask image to the server 2 (step S16), and ends the series of processes.
なお、上記ではマスキングを施す記入用紙の一例としてテスト用紙を挙げたが、例えば所定の質問(設問)に対して回答を記入するアンケート用紙などであってもよい。 In the above description, a test sheet is given as an example of an entry form to be masked, but a questionnaire form in which answers to predetermined questions (questions) are entered may be used.
また、上記ではマスキングを行うことでコンテンツ領域を視認不可能にするようにしたが、本実施の形態はこれに限定されるものではなく、例えば用紙画像からコンテンツ領域を切り取る(除去する)ようにしてもよい。この場合でも、コンテンツ(著作物)に該当する部分を適切に処理することができ、上記と同様の効果を奏する。このように、PC1はコンテンツ領域を視認不可能とした用紙画像を生成することができればよく、画像の加工方法はマスキングに限定されない。
Also, in the above description, the content area is made invisible by masking, but the present embodiment is not limited to this. For example, the content area is cut (removed) from the paper image. may Even in this case, the portion corresponding to the content (copyrighted work) can be appropriately processed, and the same effect as above can be obtained. In this way, the
また、上記では回答が未記入の用紙画像からコンテンツを特定したが、本実施の形態はこれに限定されるものではなく、回答が記入済みの用紙画像からコンテンツを特定してもよい。例えばPC1は、多数の回答者それぞれの用紙画像から、各画像において共通して出現する文字、記号、図形等を抽出することにより、テスト用紙に印刷されたコンテンツを特定するようにしてもよい。また、例えばPC1は、著作物に該当するコンテンツとして予め定められた画像データを格納したデータベースを参照して、用紙画像からコンテンツを特定するようにしてもよい。このように、PC1はテスト用紙をスキャンした用紙画像からコンテンツを特定可能であればよく、回答の記入の有無は特に限定されない。
In addition, in the above description, content is identified from a form image with no answers written, but the present embodiment is not limited to this, and content may be identified from a form image with answers already written. For example, the
また、上記では未記入の用紙画像と記入済みの用紙画像との差分を取ることで手書きの回答(オブジェクト)を抽出したが、本実施の形態はこれに限定されるものではない。例えばPC1は、人間の手書き文字の特徴を学習済みの学習済みモデル(識別器)を用いて、用紙画像に含まれる文字の手書きらしさを評価し、手書き文字(オブジェクト)を抽出するようにしてもよい。このように、PC1は用紙画像から手書きで記入されたオブジェクトを抽出可能であればよく、その手法は未記入の用紙画像と記入済みの用紙画像との比較に限定されない。
Further, in the above description, a handwritten answer (object) is extracted by taking the difference between the blank form image and the filled form image, but the present embodiment is not limited to this. For example, the
以上より、本実施の形態1によれば、手書きで記入される文字等のオブジェクトが被覆されないようマスキングを行い、文書管理を適切に行うことができる。 As described above, according to the first embodiment, it is possible to appropriately perform document management by performing masking so that an object such as a handwritten character is not covered.
また、本実施の形態1によれば、記入済みの用紙画像と未記入の用紙画像とを比較することで、手書き記入領域を適切に特定することができる。 Further, according to the first embodiment, it is possible to appropriately identify the handwritten entry area by comparing the filled-in sheet image and the unfilled-in sheet image.
また、本実施の形態1によれば、用紙画像に対する文字認識によりコンテンツ領域を適切に特定することができる。 Further, according to the first embodiment, it is possible to appropriately specify the content area by character recognition on the paper image.
また、本実施の形態1によれば、用紙画像内の画素値の分布(画素密度)を判別することで、コンテンツ領域を適切に特定することができる。 Further, according to the first embodiment, it is possible to appropriately specify the content area by determining the distribution (pixel density) of the pixel values in the paper image.
また、本実施の形態1によれば、用紙画像内のコンテンツの特徴を学習済みの識別器を用いることで、コンテンツ領域をより精度良く特定することができる。 Further, according to the first embodiment, by using a classifier that has already learned the features of the content in the paper image, it is possible to identify the content region with higher accuracy.
(実施の形態2)
本実施の形態では、テスト用紙から認識されるテキスト内容に応じて、マスクすべきコンテンツ領域を特定する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図7は、実施の形態2に係るコンテンツ領域の特定処理に関する説明図である。図7に基づき、本実施の形態の概要について説明する。
(Embodiment 2)
In this embodiment, a form of specifying a content area to be masked according to text content recognized from a test sheet will be described. In addition, the same code|symbol is attached|subjected about the content which overlaps with
7A and 7B are explanatory diagrams of content area specifying processing according to the second embodiment. Based on FIG. 7, the outline of this embodiment will be described.
図7上側には、用紙画像(テスト用紙)の一例を示す。本実施の形態でPC1は、用紙画像に対する文字認識を行ってテスト用紙に印刷されているテキストを抽出し、抽出したテキストの内容に応じて、マスクすべきコンテンツ領域を決定する。
An example of a paper image (test paper) is shown in the upper part of FIG. In this embodiment, the
例えばPC1は、テスト用紙のテキストから設問文を特定し、マスク対象とするコンテンツ領域から、設問文が印刷されている領域を除外する。設問文は回答者に回答を指示する文章であり、設問文自体に著作物が含まれる可能性が低い。そこでPC1は、設問文をマスク対象から除外することで、不要な箇所までマスクされる事態を防止する。
For example, the
具体的には、PC1は、テスト用紙のテキストから設問を表す特定のキーワードを認識し、当該キーワードに続く文章を設問文と特定する。当該キーワードは、例えば設問番号を表す文字列であり、図7では「第4問」及び「問1」が設問番号に該当する。例えばPC1は、設問番号を表す文字列のテンプレート(ルール)を格納したテーブルを参照して、テスト用紙のテキストから設問番号を表すキーワードを特定する。PC1は、特定したキーワード(設問番号)と、当該キーワードに続く文章を設問文として特定する。PC1は、設問文がマスクされないように、設問文が印刷されている領域をコンテンツ領域から除外する。
Specifically, the
なお、上記ではルールベースで設問文を特定したが、PC1は意味解析等の手法を用い、テスト用紙のテキストから直接的に設問文を特定(認識)してもよい。例えばPC1は、テスト用紙のテキストに対する構文解析を行い、命令文、依頼文など、設問文に用いられる所定表現の構文を特定する。例えば図7のテスト用紙では、PC1は、「問いに答えよ」、「正しいものを~選べ」といった命令文を特定する。PC1は、特定した命令文を含む一連の文章を設問文として特定し、コンテンツ領域から除外する。
In the above description, the question text is specified based on rules, but the
上述の如く、PC1は文字認識によって抽出したテキストから設問文を特定し、設問文が印刷された領域をコンテンツ領域から除外する。これにより、著作物に該当する可能性が低い部分をマスク対象から除外し、著作物に該当する可能性が高い部分にのみマスキングを行う。
As described above, the
上記ではマスク対象から除外する領域を特定することで、著作物に該当する可能性が高い領域を間接的に特定する手法を取った。一方で、PC1は、テスト用紙のテキストの内容に応じて、著作物に該当する可能性が高いコンテンツの領域を直接的に特定するようにしてもよい。
In the above, a method of indirectly specifying areas that are likely to correspond to copyrighted works is adopted by specifying areas to be excluded from masking. On the other hand, the
例えばPC1は、コンテンツ(著作物)が印刷されている位置を表す所定表現の文章をテキスト中から特定し、当該文章の内容に応じて、マスクすべきコンテンツ領域を特定する。当該文章は、コンテンツの記載箇所を示唆する文章であり、例えば読解問題であるか否かなど、設問形式を判定可能な文章である。図7の例を用いて説明すると、例えばPC1は、「第4問」から続く設問文の冒頭に出現する文章「次の文章A・Bを読み」を判別(特定)し、当該文章から、読解問題である旨を判定する。この場合、PC1は当該文章の次の段落文をコンテンツとして特定し、当該段落文を被覆するようにコンテンツ領域を設定(特定)する。このように、PC1は用紙画像から抽出したテキストの内容に応じて、コンテンツが記載されている位置を特定する。例えばPC1は、コンテンツの位置を示唆する表現の文章をテーブル化して保持しておき、テーブルを参照しながら該当文章の有無を判別して、コンテンツ領域を特定するようにすればよい。
For example, the
また、例えばPC1は、用紙画像から抽出したテキストから、コンテンツ(著作物)に該当する文章のキーワードを特定することで、コンテンツ領域を直接的に特定してもよい。例えばPC1は、著作物に該当する文章のキーワードをデータベース化して予め保持しておき、当該キーワードを含む文章をテキスト中から検索(特定)して、当該キーワードを含む文章のみをコンテンツとして特定する。
Alternatively, for example, the
上記のように、PC1は文字認識によって抽出したテキストから、マスクすべき領域とマスクすべきでない領域とを識別し、マスクすべきコンテンツ領域を特定する。図7下側に、特定したコンテンツ領域をハッチングにより示す。PC1は、実施の形態1と同様にコンテンツ領域へのマスク処理を行い、マスク画像を生成する。以上より、著作物を含む可能性が高い部分のみマスキングが施され、不要な箇所へのマスキングが防止される。
As described above, the
図8は、実施の形態2に係るPC1が実行する処理手順の一例を示すフローチャートである。
テスト用紙をスキャンした用紙画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は用紙画像に対する文字認識を行い、テスト用紙に印刷されているテキストを抽出する(ステップS201)。制御部11は、抽出したテキストに応じてコンテンツを特定する(ステップS202)。例えば制御部11は、ステップS201で抽出したテキストから設問を表す特定のキーワードを特定し、当該キーワードを含む文章を設問文として特定して、コンテンツから除外する。また、例えば制御部11は、ステップS201で抽出したテキストに対する意味解析を行い、命令文、依頼文といった構文を特定し、当該構文を含む文章を設問文と特定して、コンテンツから除外する。また、例えば制御部11は、ステップS201で抽出したテキストから、コンテンツが印刷されている位置を表す所定表現の文章を特定し、当該文章の内容に応じて、マスク対象であるコンテンツを特定する。また、例えば制御部11は、ステップS201で抽出したテキストから、コンテンツに該当する文章のキーワードを特定し、当該キーワードを含む文章をコンテンツとして特定する。制御部11は、処理をステップS13に移行する。
FIG. 8 is a flow chart showing an example of a processing procedure executed by the
After acquiring a paper image obtained by scanning the test paper (step S11), the control section 11 of the
以上より、本実施の形態2によれば、テスト用紙に印刷されているテキストから設問文を特定し、コンテンツ領域から除外することで、コンテンツを含む可能性が低い部分をマスク対象から除外することができる。 As described above, according to the second embodiment, the question sentence is specified from the text printed on the test sheet and excluded from the content area, thereby excluding the part that is unlikely to contain the content from the mask target. can be done.
また、本実施の形態2によれば、テスト用紙に印刷されているテキストからコンテンツ領域を推定(特定)することで、コンテンツを含む可能性が高い部分のみにマスキングを施すことができる。 Further, according to the second embodiment, by estimating (specifying) the content area from the text printed on the test paper, it is possible to mask only the portion that is highly likely to contain the content.
(実施の形態3)
図9は、上述した形態のPC1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、PC1は以下のように動作する。
取得部91は、予め印刷されたコンテンツと手書きで記入された手書きオブジェクトとを有する記入用紙をスキャンした用紙画像を取得する。コンテンツ特定部92は、前記用紙画像から、前記コンテンツを特定する。抽出部93は、前記用紙画像から、前記手書きオブジェクトを抽出する。生成部94は、前記コンテンツを含む周辺領域であるコンテンツ領域から前記手書きオブジェクトを除いたマスキング領域を特定し、前記マスキング領域を視認できないように画像処理した前記用紙画像を生成する。
(Embodiment 3)
FIG. 9 is a functional block diagram showing the operation of the
本実施の形態3は以上の如きであり、その他は実施の形態1及び2と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The third embodiment is as described above, and other aspects are the same as those of the first and second embodiments, so corresponding parts are given the same reference numerals and detailed description thereof will be omitted.
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.
1 PC(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 表示部
15 入力部
16 補助記憶部
P プログラム
2 サーバ
3 スキャナ
1 PC (information processing device)
11
Claims (10)
前記用紙画像から、前記コンテンツを特定するコンテンツ特定部と、
前記用紙画像から、前記手書きオブジェクトを抽出する抽出部と、
前記コンテンツを含む周辺領域であるコンテンツ領域から前記手書きオブジェクトを除いたマスキング領域を特定し、前記マスキング領域を視認できないように画像処理した前記用紙画像を生成する生成部と
を備え、
前記コンテンツ特定部は、前記用紙画像に対する文字認識により抽出したテキストに応じて前記コンテンツを特定することを特徴とする情報処理装置。 an acquisition unit for acquiring a scanned form image of a form having pre-printed content and handwritten handwritten objects;
a content identification unit that identifies the content from the paper image;
an extraction unit that extracts the handwritten object from the paper image;
a generation unit that identifies a masking area excluding the handwritten object from a content area, which is a peripheral area including the content, and generates the paper image that has undergone image processing so that the masking area is invisible ;
The information processing apparatus , wherein the content specifying unit specifies the content according to text extracted by character recognition on the paper image .
前記生成部は前記コンテンツ領域から前記手書き記入領域を除いたマスキング領域を特定する
ことを特徴とする請求項1に記載の情報処理装置。 An entry specifying unit that specifies a handwritten entry area surrounding the extracted handwritten object,
The information processing apparatus according to claim 1, wherein the generation unit specifies a masking area obtained by removing the handwritten entry area from the content area.
ことを特徴とする請求項1又は2に記載の情報処理装置。 3. The extracting unit according to claim 1, wherein the extracting unit extracts the handwritten object based on the paper image on which the handwritten object has been written and the paper image on which the handwritten object has not been written. Information processing equipment.
前記抽出したテキストから、特定のキーワードを特定し、
前記キーワードを含む文章を前記コンテンツから除外する
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。 The content identification unit
Identifying a specific keyword from the extracted text,
4. The information processing apparatus according to any one of claims 1 to 3, wherein sentences containing said keyword are excluded from said content.
前記抽出したテキストから、特定のキーワードを特定し、
前記キーワードを含む文章のみを前記コンテンツとする
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。 The content identification unit
Identifying a specific keyword from the extracted text,
4. The information processing apparatus according to any one of claims 1 to 3, wherein only sentences containing said keyword are set as said contents.
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5 , wherein the content specifying unit specifies a position where the content is printed according to the content of the extracted text.
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6 , wherein the content specifying unit specifies the content from a pixel density of the paper image or predetermined image data.
ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。 wherein the content identification unit identifies the content from the form image acquired by the acquisition unit, using a plurality of form images in which the handwritten object is not written as training data for the content, and using a learned classifier. The information processing apparatus according to any one of claims 1 to 7 .
前記用紙画像から、前記コンテンツを特定し、
前記用紙画像から、前記手書きオブジェクトを抽出し、
前記コンテンツを含む周辺領域であるコンテンツ領域から前記手書きオブジェクトを除いたマスキング領域を特定し、前記マスキング領域を視認できないように画像処理した前記用紙画像を生成する処理であって、
前記用紙画像に対する文字認識により抽出したテキストに応じて前記コンテンツを特定する
処理をコンピュータが実行することを特徴とする情報処理方法。 obtaining a scanned form image of a form having pre-printed content and a handwritten object filled in by hand;
identifying the content from the paper image;
extracting the handwritten object from the paper image;
A process of specifying a masking area excluding the handwritten object from a content area, which is a peripheral area including the content, and generating the paper image by performing image processing so that the masking area cannot be visually recognized ,
The content is specified according to the text extracted by character recognition on the paper image.
An information processing method characterized in that a computer executes processing.
前記用紙画像から、前記コンテンツを特定し、
前記用紙画像から、前記手書きオブジェクトを抽出し、
前記コンテンツを含む周辺領域であるコンテンツ領域から前記手書きオブジェクトを除いたマスキング領域を特定し、前記マスキング領域を視認できないように画像処理した前記用紙画像を生成する処理であって、
前記用紙画像に対する文字認識により抽出したテキストに応じて前記コンテンツを特定する
処理をコンピュータに実行させることを特徴とするプログラム。 obtaining a scanned form image of a form having pre-printed content and a handwritten object filled in by hand;
identifying the content from the paper image;
extracting the handwritten object from the paper image;
A process of specifying a masking area excluding the handwritten object from a content area, which is a peripheral area including the content, and generating the paper image by performing image processing so that the masking area cannot be visually recognized ,
The content is specified according to the text extracted by character recognition on the paper image.
A program characterized by causing a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182651A JP7107138B2 (en) | 2018-09-27 | 2018-09-27 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182651A JP7107138B2 (en) | 2018-09-27 | 2018-09-27 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020053891A JP2020053891A (en) | 2020-04-02 |
JP7107138B2 true JP7107138B2 (en) | 2022-07-27 |
Family
ID=69994132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182651A Active JP7107138B2 (en) | 2018-09-27 | 2018-09-27 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7107138B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639630B (en) * | 2020-06-23 | 2023-07-18 | 北京字节跳动网络技术有限公司 | Operation modifying method and device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352191A (en) | 2001-02-09 | 2002-12-06 | Matsushita Electric Ind Co Ltd | Printing control interface system and method having handwriting discrimination capability |
JP2008219800A (en) | 2007-03-07 | 2008-09-18 | Osaka Prefecture Univ | Write extraction method, write extraction apparatus, and write extraction program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5181255A (en) * | 1990-12-13 | 1993-01-19 | Xerox Corporation | Segmentation of handwriting and machine printed text |
-
2018
- 2018-09-27 JP JP2018182651A patent/JP7107138B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352191A (en) | 2001-02-09 | 2002-12-06 | Matsushita Electric Ind Co Ltd | Printing control interface system and method having handwriting discrimination capability |
JP2008219800A (en) | 2007-03-07 | 2008-09-18 | Osaka Prefecture Univ | Write extraction method, write extraction apparatus, and write extraction program |
Also Published As
Publication number | Publication date |
---|---|
JP2020053891A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9824604B2 (en) | Creating assessment model for educational assessment system | |
US11574489B2 (en) | Image processing system, image processing method, and storage medium | |
US8824785B2 (en) | Segregation of handwritten information from typographic information on a document | |
CN113177435B (en) | Test paper analysis method and device, storage medium and electronic equipment | |
CN112801084B (en) | Image processing method and device, electronic device and storage medium | |
JP5661663B2 (en) | Information extraction device | |
CN112446259A (en) | Image processing method, device, terminal and computer readable storage medium | |
US10255494B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
CN109657619A (en) | A kind of attached drawing interpretation method, device and storage medium | |
JP7107138B2 (en) | Information processing device, information processing method and program | |
CN112257400B (en) | Table data extraction method, apparatus, computer device and storage medium | |
WO2021129289A9 (en) | Image processing method and apparatus, electronic device, and storage medium | |
US9860398B2 (en) | Information processing apparatus that creates other documents from read document | |
US20210303843A1 (en) | Information processing apparatus | |
Sable et al. | Doc-handler: Document scanner, manipulator, and translator based on image and natural language processing | |
US9098777B2 (en) | Method and system for evaluating handwritten documents | |
CN114579796B (en) | Machine reading understanding method and device | |
US11170211B2 (en) | Information processing apparatus for extracting portions filled with characters from completed document without user intervention and non-transitory computer readable medium | |
JP2007005950A (en) | Image processing apparatus and network system | |
CN114332901A (en) | Automatic volume assembling method and device | |
Kanjalkar et al. | Economical solution to automatic evaluation of an OMR sheet using image processing | |
JP2021056796A (en) | Structure recognition system, structure recognition device, structure recognition method, and program | |
DC et al. | EASY READ | |
CN115967837B (en) | Method, device, equipment and medium for content interaction based on online course video | |
CN110738522B (en) | User portrait construction method and device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7107138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |