[go: up one dir, main page]

JP6540597B2 - INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6540597B2
JP6540597B2 JP2016098884A JP2016098884A JP6540597B2 JP 6540597 B2 JP6540597 B2 JP 6540597B2 JP 2016098884 A JP2016098884 A JP 2016098884A JP 2016098884 A JP2016098884 A JP 2016098884A JP 6540597 B2 JP6540597 B2 JP 6540597B2
Authority
JP
Japan
Prior art keywords
image
character
area
mask
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016098884A
Other languages
Japanese (ja)
Other versions
JP2017208655A (en
Inventor
龍太 土井
龍太 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016098884A priority Critical patent/JP6540597B2/en
Publication of JP2017208655A publication Critical patent/JP2017208655A/en
Application granted granted Critical
Publication of JP6540597B2 publication Critical patent/JP6540597B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)

Description

本開示は、原稿を撮影して得られた画像を補正して出力することが可能な情報処理装置、情報処理方法及びプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing method, and a program capable of correcting and outputting an image obtained by photographing an original.

原稿を撮影して得られた画像を補正して出力することが可能な技術が知られている(例えば、特許文献1〜特許文献5)。   There is known a technology capable of correcting and outputting an image obtained by photographing a document (for example, Patent Document 1 to Patent Document 5).

特開2004−062350号公報Unexamined-Japanese-Patent No. 2004-062350 特開2015−210749号公報JP, 2015-210749, A 特開平11−243481号公報Unexamined-Japanese-Patent No. 11-243481 gazette 特開2012−22413号公報JP, 2012-22413, A 特開2012−14430号公報JP 2012-14430 A

補正後の画像は、益々ユーザーが視覚的に認識しやすいものであることが望ましい。   It is desirable that the corrected image be more easily visually recognizable by the user.

以上のような事情に鑑み、本開示の目的は、原稿を撮影して得られた画像を補正して出力する技術において、補正後の画像を、益々ユーザーが視覚的に認識しやすいものとすることにある。   In view of the circumstances as described above, the object of the present disclosure is to make it easier for the user to visually recognize an image after correction in a technology for correcting and outputting an image obtained by photographing an original. It is.

本開示の一形態に係る情報処理装置は、
原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出する原稿領域抽出部と、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成する補正部と、
前記補正原稿画像に含まれる補正文字画像を判別し、前記補正文字画像が示す文字を識別する判別部と、
前記判別部が判別した補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成するマスク画像生成部と、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出する編集可能領域算出部と、
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する配置部と
を具備する。
An information processing apparatus according to an aspect of the present disclosure is
An original area extracting unit for extracting an original area image which is an image of an area of the original from an original photographed image obtained by photographing the original;
A correction unit that corrects distortion of the extracted document area image to generate a corrected document image;
A determination unit that determines a corrected character image included in the corrected original image and identifies a character indicated by the corrected character image;
A mask image generation unit that generates a mask image including a character mask area that masks the corrected character images determined by the determination unit one-on-one;
An editable area calculation unit for calculating an editable area including all the character mask areas in the mask image;
The character mask area is detected from the editable area of the mask image, and text data indicating a character indicated by the corrected character image to be masked by the character mask area is arranged in the character mask area of the mask image, And an arranging unit for generating a composite image.

本形態によれば、原稿領域画像の歪みを補正してから補正文字画像を判別するので、文字識別の正確性が向上する。   According to this embodiment, since the corrected character image is determined after correcting the distortion of the document area image, the accuracy of character identification is improved.

前記判別部は、光学文字認識(Optical Character Recognition)により、前記補正原稿画像に含まれる補正文字画像を判別する。   The determination unit determines a corrected character image included in the corrected document image by optical character recognition.

前記マスク画像生成部は、前記生成したマスク画像のサイズを、前記合成画像のサイズと一致するように変更する。   The mask image generation unit changes the size of the generated mask image so as to match the size of the composite image.

前記判別部は、前記補正原稿画像に含まれる補正図画像をさらに判別する。   The determination unit further determines a corrected drawing image included in the corrected original image.

前記判別部は、前記補正図画像に含まれる文字を補正文字画像として判別しない。   The determination unit does not determine characters included in the corrected image as the corrected character image.

本形態によれば、補正図画像に含まれる文字に対して、テキストデータは配置されない。   According to the present embodiment, the text data is not arranged for the characters included in the corrected drawing image.

前記マスク画像生成部は、前記判別部が判別した補正図画像を一対一でマスクする図マスク領域をさらに含む前記マスク画像を生成し、
前記編集可能領域算出部は、前記マスク画像内の、前記図マスク領域全てをさらに包含する前記編集可能領域を算出し、
前記配置部は、前記マスク画像の前記編集可能領域から前記図マスク領域をさらに検出し、前記マスク画像の前記図マスク領域に、前記図マスク領域がマスクする前記補正図画像又は前記補正図画像と異なる画像をさらに配置して、前記合成画像を生成する。
The mask image generation unit generates the mask image further including a drawing mask area that masks the corrected drawing image determined by the determination unit one-on-one,
The editable area calculation unit calculates the editable area further including all the drawing mask areas in the mask image;
The arrangement unit further detects the figure mask area from the editable area of the mask image, and the corrected figure image or the corrected figure image to be masked by the figure mask area in the figure mask area of the mask image Different images are further arranged to generate the composite image.

本形態によれば、配置部は、典型的には、判別部が判別した補正図画像そのものを配置してもよいし、ユーザーの選択に基づき補正図画像と異なる画像を配置してもよいし、補正図画像を必要に応じて加工した画像を配置してもよい。   According to the present embodiment, the arranging unit may typically arrange the corrected drawing image itself determined by the judging unit, or may arrange an image different from the corrected drawing image based on the user's selection. The image which processed the correction | amendment figure image as needed may be arrange | positioned.

前記情報処理装置は、前記合成画像を用紙に形成する画像形成部をさらに具備する。   The information processing apparatus further includes an image forming unit that forms the composite image on a sheet.

本形態によれば、情報処理装置は、例えば、プリンターなどの画像形成装置である。   According to the present embodiment, the information processing apparatus is, for example, an image forming apparatus such as a printer.

前記情報処理装置は、前記原稿撮影画像を読み取る画像読取部をさらに具備する。   The information processing apparatus further includes an image reading unit that reads the document photographed image.

本形態によれば、情報処理装置は、例えば、スキャナー機能を有する画像形成装置である。   According to the present embodiment, the information processing apparatus is, for example, an image forming apparatus having a scanner function.

本開示の一形態に係る情報処理方法は、
原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出し、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成し、
前記補正原稿画像に含まれる補正文字画像を判別し、前記補正文字画像が示す文字を識別し、
前記判別された補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成し、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出し、
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する。
An information processing method according to an aspect of the present disclosure is
An original area image which is an image of an area of the original is extracted from an original photographed image obtained by photographing the original,
Correcting distortion of the extracted original area image to generate a corrected original image;
Determining a corrected character image included in the corrected original image, and identifying a character indicated by the corrected character image;
Generating a mask image including a character mask area for masking the determined corrected character image one by one;
Calculating an editable area in the mask image including all of the character mask area;
The character mask area is detected from the editable area of the mask image, and text data indicating a character indicated by the corrected character image to be masked by the character mask area is arranged in the character mask area of the mask image, Generate a composite image.

本開示の一形態に係るプログラムは、
情報処理装置を、
原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出する原稿領域抽出部、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成する補正部と、
前記補正原稿画像に含まれる補正文字画像を判別し、前記補正文字画像が示す文字を識別する判別部、
前記判別部が判別した補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成するマスク画像生成部、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出する編集可能領域算出部及び
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する配置部
として機能させる。
A program according to an embodiment of the present disclosure is
An information processor,
A document area extraction unit for extracting a document area image which is an image of a region of the document from a document photographed image obtained by photographing a document;
A correction unit that corrects distortion of the extracted document area image to generate a corrected document image;
A determination unit that determines a corrected character image included in the corrected original image and identifies a character indicated by the corrected character image;
A mask image generation unit that generates a mask image including a character mask area that masks the corrected character image determined by the determination unit on a one-on-one basis;
An editable area calculation unit for calculating an editable area including all of the character mask area in the mask image, the character mask area is detected from the editable area of the mask image, and the character mask of the mask image is detected Text data indicating characters indicated by the corrected character image to be masked by the character mask area is arranged in the area, and functions as an arrangement unit for generating a composite image.

本開示によれば、原稿を撮影して得られた画像を補正して出力する技術において、補正後の画像を、益々ユーザーが視覚的に認識しやすいものとすることができる。   According to the present disclosure, in the technology of correcting and outputting an image obtained by photographing an original, it is possible to make the image after correction more easily visually recognizable by the user.

本開示の一実施形態に係る画像形成装置のハードウェア構成を示すブロック図である。FIG. 1 is a block diagram showing a hardware configuration of an image forming apparatus according to an embodiment of the present disclosure. 画像形成装置の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the image forming apparatus. 画像形成装置の動作を示すフローチャートである。5 is a flowchart showing an operation of the image forming apparatus. 画像形成装置の動作を説明するための図である。FIG. 6 is a diagram for explaining the operation of the image forming apparatus.

以下、図面を参照しながら、本開示の実施形態を説明する。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

(1.画像形成装置のハードウェア構成)
図1は、本開示の一実施形態に係る画像形成装置のハードウェア構成を示すブロック図である。
(1. Hardware configuration of image forming apparatus)
FIG. 1 is a block diagram showing a hardware configuration of an image forming apparatus according to an embodiment of the present disclosure.

本発明の各実施形態に係る情報処理装置は、画像形成装置(例えば、MFP、Multifunction Peripheral)であり、以下MFPと称する。   An information processing apparatus according to each embodiment of the present invention is an image forming apparatus (for example, an MFP or multifunction peripheral), and is hereinafter referred to as an MFP.

MFP1は、制御部11を備える。制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)及び専用のハードウェア回路等から構成され、MFP1の全体的な動作制御を司る。MFP1を各機能部(後述)として機能させるコンピュータプログラムは、ROM等の非一過性の記憶媒体に記憶される。   The MFP 1 includes a control unit 11. The control unit 11 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), a dedicated hardware circuit, and the like, and controls the overall operation of the MFP 1. A computer program that causes the MFP 1 to function as each functional unit (described later) is stored in a non-transitory storage medium such as a ROM.

制御部11は、画像読取部12、画像処理部14、画像メモリー15、画像形成部16、操作部17、記憶部18、ネットワーク通信部13等と接続されている。制御部11は、接続されている上記各部の動作制御や、各部との間での信号又はデータの送受信を行う。   The control unit 11 is connected to the image reading unit 12, the image processing unit 14, the image memory 15, the image forming unit 16, the operation unit 17, the storage unit 18, the network communication unit 13 and the like. The control unit 11 controls the operation of each of the connected units, and transmits and receives signals or data to and from each unit.

制御部11は、ユーザーから、操作部17またはネッワーク接続されたパーソナルコンピュータ(図示せず)等を通じて入力されるジョブの実行指示に従って、スキャナー機能、印刷機能及びコピー機能機能などの各機能についての動作制御を実行するために必要な機構の駆動及び処理を制御する。   The control unit 11 operates the respective functions such as the scanner function, the print function and the copy function according to a job execution instruction input from the user through the operation unit 17 or a personal computer (not shown) connected to the network or the like. Control the drive and processing of the mechanism necessary to carry out the control.

画像読取部12は、原稿から画像を読み取る。   The image reading unit 12 reads an image from a document.

画像処理部14は、画像読取部12で読み取られた画像の画像データを必要に応じて画像処理する。例えば、画像処理部14は、画像読取部12により読み取られた画像が画像形成された後の品質を向上させるために、シェーディング補正等の画像処理を行う。   The image processing unit 14 processes the image data of the image read by the image reading unit 12 as necessary. For example, the image processing unit 14 performs image processing such as shading correction in order to improve the quality after the image read by the image reading unit 12 is formed.

画像メモリー15は、画像読取部12による読み取りで得られた原稿画像のデータを一時的に記憶したり、画像形成部16での印刷対象となるデータを一時的に記憶したりする領域を有する。   The image memory 15 has an area for temporarily storing data of a document image obtained by reading by the image reading unit 12 and temporarily storing data to be printed by the image forming unit 16.

画像形成部16は、画像読取部12で読み取られた画像データ等の画像形成を行う。   The image forming unit 16 forms an image of image data or the like read by the image reading unit 12.

操作部17は、MFP1が実行可能な各種動作及び処理についてユーザーからの指示を受け付けるタッチパネル部および操作キー部を備える。タッチパネル部は、タッチパネルが設けられたLCD(Liquid Crystal Display)等の表示部17aを備えている。   The operation unit 17 includes a touch panel unit and an operation key unit that receive instructions from the user regarding various operations and processes that can be executed by the MFP 1. The touch panel unit includes a display unit 17 a such as an LCD (Liquid Crystal Display) provided with a touch panel.

ネットワーク通信部13は、ネットワークに接続するためのインタフェースである。   The network communication unit 13 is an interface for connecting to a network.

記憶部18は、画像読取部12によって読み取られた原稿画像等を記憶する、HDD(Hard Disk Drive)などの大容量の記憶装置である。   The storage unit 18 is a large-capacity storage device such as a hard disk drive (HDD) that stores an original image and the like read by the image reading unit 12.

(2.画像形成装置の機能的構成)
図2は、画像形成装置の機能的構成を示すブロック図である。
(2. Functional configuration of image forming apparatus)
FIG. 2 is a block diagram showing a functional configuration of the image forming apparatus.

MFP1は、コンピューター読み取り可能な非一過性の記憶媒体の一例であるROMに記憶された情報処理プログラムをRAMにロードして実行することで、原稿領域抽出部101、補正部102、判別部103、マスク画像生成部104、編集可能領域算出部105及び配置部106として機能する。   The MFP 1 loads an information processing program stored in the ROM, which is an example of a non-transitory storage medium that can be read by a computer, into the RAM and executes the information processing program. These functions as the mask image generation unit 104, the editable area calculation unit 105, and the arrangement unit 106.

原稿領域抽出部101は、画像メモリー15から、原稿撮影画像を読み出す。原稿領域抽出部101は、読み出した原稿撮影画像から、原稿領域画像I‐2を抽出する。   The document area extraction unit 101 reads a document photographed image from the image memory 15. The original area extraction unit 101 extracts an original area image I-2 from the read original photographed image.

補正部102は、原稿領域抽出部101が抽出した原稿領域画像の歪みを補正して補正原稿画像を生成する。   The correction unit 102 corrects distortion of the document area image extracted by the document area extraction unit 101 and generates a corrected document image.

判別部103は、補正原稿画像に含まれる補正図画像及び補正文字画像を判別する。判別部103は、文字認識用データベース111を参照し、抽出した複数の補正文字画像それぞれが示す文字を識別する。   The determination unit 103 determines a corrected figure image and a corrected character image included in the corrected original image. The determination unit 103 refers to the character recognition database 111 to identify the character indicated by each of the plurality of extracted corrected character images.

マスク画像生成部104は、補正原稿画像に基づき、マスク画像を生成する。   The mask image generation unit 104 generates a mask image based on the corrected original image.

編集可能領域算出部105は、マスク画像内の編集可能領域を算出する。   The editable area calculation unit 105 calculates an editable area in the mask image.

配置部106は、マスク画像内の編集可能領域内に、補正図画像と、補正文字画が示す文字を示すテキストデータとを配置することで、合成画像を生成する。   The arranging unit 106 generates a composite image by arranging the corrected figure image and the text data indicating the character indicated by the corrected character image in the editable area in the mask image.

(3.画像形成装置の動作)
図3は、画像形成装置の動作を示すフローチャートである。図4は、画像形成装置の動作を説明するための図である。
(3. Operation of image forming apparatus)
FIG. 3 is a flowchart showing the operation of the image forming apparatus. FIG. 4 is a diagram for explaining the operation of the image forming apparatus.

画像入力部110としての画像読取部12は、用紙に形成(印刷)された原稿撮影画像I‐1をスキャンして読み取る。あるいは、画像入力部110としてのネットワーク通信部13は、ネットワークNに接続された情報処理装置(図示せず)から、原稿撮影画像I‐1を受信する。画像メモリー15に設定された画像メモリー15は、画像入力部110としての画像読取部12又はネットワーク通信部13が取得した原稿撮影画像I‐1を、記憶する(ステップS1)。   The image reading unit 12 as the image input unit 110 scans and reads a document photographed image I-1 formed (printed) on a sheet. Alternatively, the network communication unit 13 as the image input unit 110 receives a document photographed image I-1 from an information processing apparatus (not shown) connected to the network N. The image memory 15 set in the image memory 15 stores the document photographed image I-1 acquired by the image reading unit 12 or the network communication unit 13 as the image input unit 110 (step S1).

「原稿撮影画像I‐1」は、具体的には、原稿をデジタルカメラ等で撮影して得られた画像データである。「原稿」は、用紙等に文字や図が可視的に記録されたものである。「文字」は、典型的にはテキストデータの印字であるが、手書きの文字でもよい。「図」は、本開示では、用紙等への「文字」以外の記録対象を意味する。「図」の具体例は、写真、電子的に作図した図形や表等、手書きの絵等であるが、これらに限定されない。   Specifically, “original photographed image I-1” is image data obtained by photographing an original with a digital camera or the like. The "document" is a document or the like in which characters and figures are visibly recorded. The "character" is typically a print of text data, but may be a handwritten character. In the present disclosure, “figure” means a recording target other than “character” on a sheet or the like. Specific examples of the “figure” include, but are not limited to, photographs, handwritten drawings such as figures and tables drawn electronically, and the like.

原稿領域抽出部101は、画像メモリー15から、原稿撮影画像I‐1を読み出す。原稿領域抽出部101は、読み出した原稿撮影画像I‐1から、原稿領域画像I‐2を抽出する(ステップS2)。「原稿領域画像」は、原稿の領域の画像である。より具体的には、「原稿領域画像」は、原稿撮影画像I‐1全体のうち、原稿(用紙)の輪郭線により縁取られる領域であり、文字、図及び背景を内包する。具体的には、原稿領域抽出部101は、原稿撮影画像I‐1に含まれる原稿(用紙)の輪郭線を探索する。原稿領域抽出部101は、輪郭線上の1つの点Pを検出すると、点Pを始点として輪郭線をなぞることにより、輪郭線を探索する。原稿領域抽出部101は、探索の始点と終点が同一であり、外周が一定の距離以上ある輪郭線により囲まれる閉塞した領域を、原稿領域として判断する。原稿領域抽出部101は、判断した原稿領域の画像を、原稿領域画像I‐2として抽出する。   The document area extraction unit 101 reads the document photographed image I-1 from the image memory 15. The document area extraction unit 101 extracts a document area image I-2 from the read document photographed image I-1 (step S2). The "original area image" is an image of the area of the original. More specifically, the "document area image" is an area bordered by the outline of the document (paper) in the entire document photographed image I-1, and includes characters, figures and a background. Specifically, the document area extraction unit 101 searches for an outline of a document (paper) included in the document photographed image I-1. When the document area extraction unit 101 detects one point P on the contour line, the document area extraction unit 101 searches the contour line by tracing the contour line starting from the point P. The document area extraction unit 101 determines, as a document area, a closed area surrounded by an outline whose start point and end point of search are the same and whose outer periphery is a predetermined distance or more. The document area extraction unit 101 extracts an image of the determined document area as a document area image I-2.

補正部102は、原稿領域抽出部101が抽出した原稿領域画像I‐2の歪みを補正する(ステップS3)。長方形の用紙等の原稿をデジタルカメラ等で撮影すると、原稿領域画像I‐2は、台形になる等少なからず歪んでいる可能性が高い。従って、補正部102は、公知の台形歪み補正技術等により、台形の原稿領域画像I‐2を長方形に補正して(図4の矢印及び点線を参照)、補正原稿画像I‐3を生成する。   The correction unit 102 corrects the distortion of the document area image I-2 extracted by the document area extraction unit 101 (step S3). When a document such as a rectangular sheet of paper is photographed by a digital camera or the like, the document area image I-2 is likely to be distorted by a trapezoid or the like. Therefore, the correction unit 102 corrects the trapezoidal original area image I-2 into a rectangular shape (see the arrow and dotted line in FIG. 4) by a known trapezoidal distortion correction technique or the like to generate a corrected original image I-3. .

判別部103は、公知の方法(エッジ検出等)により、補正原稿画像I‐3に含まれる補正図画像を判別する。例えば、判別部103は、連続するエッジで形成される図形(図形が矩形等の2次元の場合は、図形の輪郭線で囲まれる閉塞した領域(図形が特定サイズ以下であって、単一色で形成されている場合を除いてもよい。例えば、罫線や、黒丸やハイフン等の記号等。)を補正図画像として判別する。「補正図画像」は、補正原稿画像I‐3に含まれる図の画像である。そして、判別部103は、光学文字認識(OCR、Optical Character Recognition)により、補正原稿画像I‐3のうち補正図画像を除く領域(文字領域)に含まれる補正文字画像を判別する(ステップS4)。具体的には、判別部103は、補正原稿画像I‐3のうち補正図画像を除く文字領域から、複数の補正文字画像を抽出する。つまり、判別部103は、補正図画像に含まれる文字を補正文字画像として判別しない。「補正文字画像」は、補正原稿画像I‐3の文字領域に含まれる1文字1文字(言語によっては、1語1語としてもよい。)の画像である。判別部103は、文字認識用データベース111を参照し、抽出した複数の補正文字画像それぞれが示す文字を識別する。具体的には、文字認識用データベース111には、文字の画像パターンと文字コードとが対応付けられて1文字ずつ登録されている。判別部103は、抽出した補正文字画像の画像パターンを文字認識用データベース111から検索し、検索により得られた画像パターンが対応付けられた文字コードを取得する。   Discrimination unit 103 discriminates a corrected figure image included in corrected original image I-3 by a known method (edge detection or the like). For example, if the determination unit 103 determines that a graphic formed by consecutive edges (if the graphic is two-dimensional such as a rectangle, the occluded region surrounded by the outline of the graphic (the graphic has a specific size or less and is a single color) For example, a ruled line or a symbol such as a black circle or a hyphen may be discriminated as a corrected figure image, and the “corrected figure image” is included in the corrected original image I-3. The discrimination unit 103 discriminates the corrected character image included in the area (character area) excluding the corrected figure image in the corrected original image I-3 by optical character recognition (OCR, Optical Character Recognition). Specifically, the determination unit 103 extracts a plurality of corrected character images from the character area of the corrected document image I-3 excluding the correction image, that is, the determination unit 103 performs the correction. Included in figure image The “corrected character image” is an image of one character and one character (may be one word and one word depending on the language) included in the character area of the corrected original image I-3. The determination unit 103 refers to the character recognition database 111 to identify the character indicated by each of the plurality of extracted corrected character images Specifically, the character recognition database 111 includes the character image pattern and the character code The discrimination unit 103 searches the character recognition database 111 for an image pattern of the extracted corrected character image, and the character associated with the image pattern obtained by the search Get code

マスク画像生成部104は、補正原稿画像I‐3に基づき、マスク画像I‐4を生成する(ステップS5)。「マスク画像I‐4」は、補正原稿画像I‐3に含まれる補正図画像を一対一でマスクする図マスク領域と、補正文字画像を一対一でマスクする文字マスク領域とを含む。典型的には、マスク画像I‐4中、図マスク領域及び文字マスク領域のピクセルは黒(全ビットが1)であり、それ以外の背景領域のピクセルは白(全ビットが0)である。さらに、マスク画像生成部104は、マスク画像I‐4のサイズと出力すべき画像(後述の「合成画像I‐6」)のサイズとを比較し、その比率に基づき、マスク画像I‐4のサイズを、出力すべき画像のサイズと一致するように変更する。さらに、マスク画像生成部104は、マスク画像I‐4に含まれる図マスク領域及び文字マスク領域を、それぞれ、ラベリングする。「ラベリング」とは、マスク画像I‐4に含まれる図マスク領域及び文字マスク領域が、補正原稿画像I‐3に含まれる補正図画像及び補正文字画像と、それぞれ対応するように、一対一で識別番号を付すことである。   The mask image generation unit 104 generates a mask image I-4 based on the corrected original image I-3 (step S5). The “mask image I-4” includes a figure mask area for masking the corrected figure image included in the corrected original image I-3 one to one and a character mask area for masking the corrected character image one to one. Typically, in the mask image I-4, pixels in the figure mask area and the character mask area are black (all bits are 1), and pixels in the other background areas are white (all bits are 0). Furthermore, the mask image generation unit 104 compares the size of the mask image I-4 with the size of the image to be output (“composite image I-6” described later), and based on the ratio, the mask image I-4 is Change the size to match the size of the image to be output. Furthermore, the mask image generation unit 104 labels each of the figure mask area and the character mask area included in the mask image I-4. “Labeling” means that the figure mask area and the character mask area included in the mask image I-4 correspond to the corrected figure image and the corrected character image included in the corrected original image I-3, respectively. It is to attach an identification number.

なお、背景領域のピクセルは原稿の地色等の白以外の色であっても良い。また、図マスク領域及び文字マスク領域のピクセルは、背景領域と異なる色であれば、白等の黒以外の色であっても良い。さらに、図マスク領域と文字マスク領域のピクセルは、互いに異なる色であっても良い。   The pixels in the background area may be colors other than white, such as the ground color of the document. The pixels in the figure mask area and the character mask area may be colors other than black, such as white, as long as they are different in color from the background area. Furthermore, the pixels of the figure mask area and the character mask area may have different colors.

編集可能領域算出部105は、マスク画像I‐4内の編集可能領域I‐5を算出する(ステップS6)。「編集可能領域I‐5」は、マスク画像I‐4内の文字マスク領域及び図マスク領域全てを包含する、1つの枠内の領域である。具体的には、「編集可能領域I‐5」は、マスク画像I‐4内の文字マスク領域及び図マスク領域全てを包含し得る、最小の枠内の領域である。   The editable area calculation unit 105 calculates an editable area I-5 in the mask image I-4 (step S6). The “editable area I-5” is an area within one frame including all the character mask area and the figure mask area in the mask image I-4. Specifically, the “editable area I-5” is an area within the smallest frame that can include all character mask areas and figure mask areas in the mask image I-4.

配置部106は、マスク画像I‐4内の編集可能領域I‐5から、図マスク領域を検出する。配置部106は、マスク画像I‐4内の図マスク領域に、この図マスク領域がマスクする補正図画像(言い換えれば、この図マスク領域にラベリングされた補正図画像)を配置する(ステップS7)。このとき、配置部106は、補正図画像のサイズが図マスク領域のサイズと一致するように、補正図画像を変形する。配置部106は、典型的には、判別部103が判別(ステップS4)した補正図画像そのものを配置する。あるいは、配置部106は、ユーザーの選択に基づき補正図画像と異なる画像を配置してもよいし、補正図画像を必要に応じて加工した画像を配置してもよい。   The arranging unit 106 detects a figure mask area from the editable area I-5 in the mask image I-4. The arranging unit 106 arranges the corrected figure image to be masked by the figure mask area (in other words, the corrected figure image labeled in the figure mask area) in the figure mask area in the mask image I-4 (step S7) . At this time, the arrangement unit 106 deforms the corrected figure image such that the size of the corrected figure image matches the size of the figure mask area. The arranging unit 106 typically arranges the corrected figure image itself determined by the determining unit 103 (step S4). Alternatively, the arrangement unit 106 may arrange an image different from the corrected drawing image based on the user's selection, or may arrange an image obtained by processing the corrected drawing image as necessary.

配置部106は、マスク画像I‐4内の編集可能領域I‐5から、文字マスク領域を検出する。配置部106は、マスク画像I‐4内の文字マスク領域に、この文字マスク領域がマスクする補正文字画像(言い換えれば、この文字マスク領域にラベリングされた補正文字画像)が示す文字を示すテキストデータを配置する(ステップS8)。具体的には、配置部106は、判別部103がOCRにより判別した文字コードのテキストデータを、マスク画像I‐4内の文字マスク領域に配置する。テキストデータのフォントは、判別部103が抽出した補正文字画像から推測されるフォントとしてもよい。各文字のサイズは、各文字マスク領域の輪郭線が包含し得る、最大のサイズとしてもよい(この場合、全ての文字のフォントサイズは、必ずしも同一とは限らない)。あるいは、全ての文字のフォントサイズを、同一としてもよい。   The arranging unit 106 detects a character mask area from the editable area I-5 in the mask image I-4. The arranging unit 106 is a text data indicating a character indicated by a corrected character image (in other words, a corrected character image labeled in the character mask area) masked by the character mask area in the character mask area in the mask image I-4. Are placed (step S8). Specifically, the arranging unit 106 arranges the text data of the character code determined by the determining unit 103 by the OCR in the character mask area in the mask image I-4. The font of the text data may be a font estimated from the corrected character image extracted by the determination unit 103. The size of each character may be the maximum size that the outline of each character mask area can encompass (in this case, the font size of all characters is not necessarily the same). Alternatively, the font sizes of all the characters may be the same.

以上のように、配置部106は、マスク画像I‐4の図マスク領域に補正図画像又は別の画像を配置し、文字マスク領域にテキストデータを配置することで、合成画像I‐6を生成する。   As described above, the arranging unit 106 arranges the corrected drawing image or another image in the drawing mask area of the mask image I-4, and generates the composite image I-6 by arranging the text data in the character mask area. Do.

表示部17aは、配置部106が生成した合成画像I‐6と、画像読取部12が読み取った原稿撮影画像I‐1(ステップS1)とを、ユーザーが視覚的に確認しやすいように、例えば並べて表示する。操作部17を介して、ユーザーにより、合成画像I‐6の出力方法(印刷、メール送信、BOX保存等)が選択される。画像出力部112は、選択された出力方法で合成画像I‐6を出力する(ステップS9)。例えば、出力方法として印刷が選択された場合、画像出力部112としての画像形成部16は、合成画像I‐6を用紙に形成(印刷)する。   The display unit 17a, for example, allows the user to easily visually confirm the composite image I-6 generated by the arrangement unit 106 and the document photographed image I-1 (step S1) read by the image reading unit 12 Display side by side. An output method (printing, mail transmission, BOX storage, etc.) of the composite image I-6 is selected by the user via the operation unit 17. The image output unit 112 outputs the composite image I-6 according to the selected output method (step S9). For example, when printing is selected as the output method, the image forming unit 16 as the image output unit 112 forms (prints) the composite image I-6 on a sheet.

(4.変形例)
情報処理装置の一実施形態として画像形成装置(MFP)を例に説明した。これに替えて、情報処理装置の一実施形態として、パーソナルコンピューター、タブレットコンピューター、スマートフォン、デジタルカメラ等の端末装置を用いてもよい。その場合、ステップS1(原稿撮影画像を入力)として、端末装置は、MFPがスキャンして読み取った原稿撮影画像を、ネットワークを通じて取得すればよい。あるいは、端末装置は、別の端末装置(例えば、デジタルカメラや、デジタルカメラを内蔵する端末装置)が撮影した画像を、原稿撮影画像としてネットワークを通じて取得してもよい。あるいは、端末装置は、端末装置自体に内蔵されたカメラが撮影した画像を、原稿撮影画像として取得してもよい。また、ステップS9(合成画像を出力)として、端末装置は、印刷データをネットワークを通じてMFPに出力したり、端末装置の表示部に出力(表示)すればよい。
(4. Modification)
An image forming apparatus (MFP) has been described as an example of the information processing apparatus. Instead of this, as an embodiment of the information processing apparatus, a terminal device such as a personal computer, a tablet computer, a smart phone, a digital camera or the like may be used. In that case, the terminal device may acquire the document captured image scanned and read by the MFP through the network in step S1 (input of the document captured image). Alternatively, the terminal device may acquire an image captured by another terminal device (for example, a digital camera or a terminal device incorporating a digital camera) as a document captured image through the network. Alternatively, the terminal device may acquire an image captured by a camera incorporated in the terminal device itself as a document captured image. In addition, the terminal device may output the print data to the MFP through the network or output (display) to the display unit of the terminal device in step S9 (output a composite image).

あるいは、情報処理装置の一実施形態として、ネットワーク(クラウド)に接続されたサーバー装置としてのコンピューターを用いてもよい。その場合、ステップS1(原稿撮影画像を入力)として、サーバー装置は、MFPがスキャンして読み取った原稿撮影画像を、ネットワークを通じて取得すればよい。あるいは、サーバー装置は、端末装置(例えば、デジタルカメラや、デジタルカメラを内蔵する端末装置)が撮影した画像を、原稿撮影画像としてネットワークを通じて取得してもよい。また、ステップS9(合成画像を出力)として、サーバー装置は、印刷データをネットワークを通じてMFPに出力したり、ネットワークを通じて端末装置の表示部に出力(表示)すればよい。   Alternatively, as an embodiment of the information processing apparatus, a computer as a server apparatus connected to a network (cloud) may be used. In that case, the server device may acquire the document photographed image scanned and read by the MFP through the network as Step S1 (input of the document photographed image). Alternatively, the server device may acquire an image captured by a terminal device (for example, a digital camera or a terminal device incorporating a digital camera) through a network as a document captured image. In step S9 (output a composite image), the server device may output the print data to the MFP through the network or may output (display) the display data to the display unit of the terminal device through the network.

(5.まとめ)
近年、デジタルカメラを内蔵するスマートフォンやタブレットコンピューター等の端末装置の普及や、デジタルカメラの画質の向上が目覚ましい。このため、ワードプロセッサーソフトで作成した文書データを保存したり印刷する代わりに、原稿を端末装置で撮影し、原稿を撮影した画像を保存したり印刷することもある。しかし、原稿を撮影した画像は、カメラの角度など様々な条件によって歪みが生じ得る。歪みが生じた画像に対して処理を施しては、正確性が低くなる可能性がある。
(5. Summary)
2. Description of the Related Art In recent years, the spread of terminal devices such as smartphones and tablet computers incorporating digital cameras and the improvement of image quality of digital cameras have been remarkable. For this reason, instead of storing or printing document data created by word processor software, a document may be photographed by a terminal device, and an image obtained by photographing the document may be stored or printed. However, an image obtained by photographing a document may be distorted due to various conditions such as the angle of the camera. It may be less accurate to process the distorted image.

そこで、本実施形態によれば、原稿撮影画像I‐1から原稿領域画像I‐2を抽出し(ステップS2)、原稿領域画像I‐2の歪みを補正し(ステップS3)、OCRにより補正文字画像を判別し(ステップS4)、補正文字画像を示すテキストデータを配置する(ステップS8)。本実施形態によれば、原稿領域画像I‐2の歪みを補正してから(ステップS3)OCRにより補正文字画像を判別する(ステップS4)ので、OCRの正確性が向上する。また、原稿領域画像I‐2を抽出し(ステップS2)、原稿領域画像I‐2の歪みを補正する(ステップS3)ので、原稿以外の領域(背景。原稿が載置されている机等)が無くなりワードプロセッサーソフトで作成した文書データに近い出力結果を得ることができる。また、判別部103は、補正図画像に含まれる文字を補正文字画像として判別(ステップS4)しない。これにより、補正図画像に含まれる文字に対してテキストデータが配置されないので、配置(ステップS7)される補正図画像がユーザーにとって違和感なく自然なものとなる。また、補正原稿画像I‐3に含まれる補正図画像及び補正文字画像を一対一でマスクするマスク領域を含むマスク画像I‐4を生成し(ステップS5)、テキストデータを配置する(ステップS8)ので、ユーザーが配置先の位置を指定する等の手間が掛からない。以上より、ユーザーにとっては自動的に、原稿撮影画像I‐1を電子文書に変換することができる。   Therefore, according to the present embodiment, the document area image I-2 is extracted from the document photographed image I-1 (step S2), the distortion of the document area image I-2 is corrected (step S3), and the corrected character is obtained by the OCR. An image is determined (step S4), and text data indicating a corrected character image is placed (step S8). According to the present embodiment, since the distortion of the document area image I-2 is corrected (step S3) and the corrected character image is determined by the OCR (step S4), the accuracy of the OCR is improved. Further, the document area image I-2 is extracted (step S2), and distortion of the document area image I-2 is corrected (step S3). Therefore, the area other than the document (background, desk on which the document is placed, etc.) As a result, it is possible to obtain an output result close to the document data created by the word processor software. In addition, the determination unit 103 does not determine the characters included in the corrected image as a corrected character image (step S4). As a result, since the text data is not arranged for the characters included in the corrected drawing image, the corrected drawing image to be arranged (step S7) becomes natural for the user without discomfort. Further, a mask image I-4 including a mask area for masking the correction drawing image and the correction character image included in the correction original image I-3 one to one is generated (step S5), and the text data is arranged (step S8) Therefore, it does not take time for the user to specify the location of the placement destination. As described above, the user can automatically convert the photographed image I-1 into an electronic document.

これに対して、特許文献1では、撮像対象となる文書(既存文書)を写真として読み込み、電子文書として再配置を行うが、ユーザーが座標を指定し、認識範囲、貼り付ける位置などを選択する必要があり、手間がかかる。   On the other hand, in Patent Document 1, a document to be imaged (an existing document) is read as a photo and rearranged as an electronic document, but the user designates coordinates and selects a recognition range, a pasting position, etc. It takes time and effort.

1…MFP
101…原稿領域抽出部
102…補正部
103…判別部
104…マスク画像生成部
105…編集可能領域算出部
106…配置部
110…画像入力部
111…文字認識用データベース
112…画像出力部
1 ... MFP
101 Document area extraction unit 102 Correction unit 103 Discrimination unit 104 Mask image generation unit 105 Editable region calculation unit 106 Arrangement unit 110 Image input unit 111 Character recognition database 112 Image output unit

Claims (8)

原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出する原稿領域抽出部と、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成する補正部と、
前記補正原稿画像に含まれる補正図画像を判別し、前記補正原稿画像のうち前記補正図画像を除く領域である文字領域から、文字毎の補正文字画像を判別し、前記補正図画像に含まれる文字を前記補正文字画像として判別せず、前記補正文字画像が示す文字を識別する判別部と、
前記判別部が判別した前記文字毎の補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成するマスク画像生成部と、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出する編集可能領域算出部と、
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する配置部と
を具備する情報処理装置。
An original area extracting unit for extracting an original area image which is an image of an area of the original from an original photographed image obtained by photographing the original;
A correction unit that corrects distortion of the extracted document area image to generate a corrected document image;
A corrected drawing image included in the corrected original image is determined, a corrected character image for each character is determined from a character area which is an area excluding the corrected drawing image in the corrected original image, and included in the corrected drawing image . A discrimination unit for identifying characters indicated by the corrected character image without judging characters as the corrected character image;
A mask image generation unit that generates a mask image including a character mask area that masks the corrected character image for each character determined one by one by the determination unit;
An editable area calculation unit for calculating an editable area including all the character mask areas in the mask image;
The character mask area is detected from the editable area of the mask image, and text data indicating a character indicated by the corrected character image to be masked by the character mask area is arranged in the character mask area of the mask image, An information processing apparatus comprising: an arranging unit that generates a composite image.
請求項1に記載の情報処理装置であって、
前記判別部は、光学文字認識(Optical Character Recognition)により、前記補正原稿画像に含まれる補正文字画像を判別する
情報処理装置。
The information processing apparatus according to claim 1, wherein
An information processing apparatus, wherein the determination unit determines a corrected character image included in the corrected document image by optical character recognition.
請求項1又は請求項2に記載の情報処理装置であって、
前記マスク画像生成部は、前記生成したマスク画像のサイズを、前記合成画像のサイズと一致するように変更し、
前記配置部は、前記テキストデータに対応する文字のフォントサイズを、全ての前記文字のフォントサイズで同一とはせずに、前記文字マスク領域の輪郭線が包含し得る最大のサイズとする
情報処理装置。
The information processing apparatus according to claim 1 or 2, wherein
The mask image generation unit changes the size of the generated mask image so as to match the size of the composite image .
The placement unit sets the font size of the character corresponding to the text data to the maximum size that can be included in the outline of the character mask area without making the font size of all the characters the same. apparatus.
請求項1乃至請求項3の何れか一項に記載の情報処理装置であって、
前記マスク画像生成部は、前記判別部が判別した前記補正図画像を一対一でマスクする図マスク領域をさらに含む前記マスク画像を生成し、
前記編集可能領域算出部は、前記マスク画像内の、前記図マスク領域全てをさらに包含する前記編集可能領域を算出し、
前記配置部は、前記マスク画像の前記編集可能領域から前記図マスク領域をさらに検出し、前記マスク画像の前記図マスク領域に、前記図マスク領域がマスクする前記補正図画像又は前記補正図画像と異なる画像をさらに配置して、前記合成画像を生成する
情報処理装置。
An information processing apparatus according to any one of claims 1 to 3 , wherein
The mask image generation unit generates the mask image further includes an illustration mask area to mask one-to-one to the correction diagram image the determination unit has determined,
The editable area calculation unit calculates the editable area further including all the drawing mask areas in the mask image;
The arrangement unit further detects the figure mask area from the editable area of the mask image, and the corrected figure image or the corrected figure image to be masked by the figure mask area in the figure mask area of the mask image An information processing apparatus that further arranges different images to generate the composite image.
請求項1乃至請求項の何れか一項に記載の情報処理装置であって、
前記合成画像を用紙に形成する画像形成部をさらに具備する
情報処理装置。
An information processing apparatus according to any one of claims 1 to 4 , wherein
An information processing apparatus, further comprising: an image forming unit that forms the composite image on a sheet.
請求項1乃至請求項の何れか一項に記載の情報処理装置であって、
前記原稿撮影画像を読み取る画像読取部
をさらに具備する情報処理装置。
An information processing apparatus according to any one of claims 1 to 5 , wherein
An information processing apparatus, further comprising: an image reading unit that reads the document photographed image.
原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出し、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成し、
前記補正原稿画像に含まれる補正図画像を判別し、前記補正原稿画像のうち前記補正図画像を除く領域である文字領域から、文字毎の画像である補正文字画像を判別し、前記補正図画像に含まれる文字を前記補正文字画像として判別せず、前記補正文字画像が示す文字を識別し、
前記判別された前記文字毎の補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成し、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出し、
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する
情報処理方法。
An original area image which is an image of an area of the original is extracted from an original photographed image obtained by photographing the original,
Correcting distortion of the extracted original area image to generate a corrected original image;
A corrected drawing image included in the corrected original image is determined, and a corrected character image which is an image for each character is determined from a character area which is an area excluding the corrected drawing image in the corrected original image, and the corrected drawing image is determined . Identifying the character indicated by the corrected character image without discriminating the character contained in the image as the corrected character image;
Generating a mask image including a character mask area in which the determined corrected character image for each character is masked one-to-one,
Calculating an editable area in the mask image including all of the character mask area;
The character mask area is detected from the editable area of the mask image, and text data indicating a character indicated by the corrected character image to be masked by the character mask area is arranged in the character mask area of the mask image, An information processing method that generates a composite image.
情報処理装置を、
原稿を撮影して得られた原稿撮影画像から、前記原稿の領域の画像である原稿領域画像を抽出する原稿領域抽出部、
前記抽出された原稿領域画像の歪みを補正して、補正原稿画像を生成する補正部と、
前記補正原稿画像に含まれる補正図画像を判別し、前記補正原稿画像のうち前記補正図画像を除く領域である文字領域から、文字毎の画像である補正文字画像を判別し、前記補正図画像に含まれる文字を前記補正文字画像として判別せず、前記補正文字画像が示す文字を識別する判別部、
前記判別部が判別した前記文字毎の補正文字画像を一対一でマスクする文字マスク領域を含むマスク画像を生成するマスク画像生成部、
前記マスク画像内の、前記文字マスク領域全てを包含する編集可能領域を算出する編集可能領域算出部及び
前記マスク画像の前記編集可能領域から前記文字マスク領域を検出し、前記マスク画像の前記文字マスク領域に、前記文字マスク領域がマスクする前記補正文字画像が示す文字を示すテキストデータを配置して、合成画像を生成する配置部
として機能させるプログラム。
An information processor,
A document area extraction unit for extracting a document area image which is an image of a region of the document from a document photographed image obtained by photographing a document;
A correction unit that corrects distortion of the extracted document area image to generate a corrected document image;
A corrected drawing image included in the corrected original image is determined, and a corrected character image which is an image for each character is determined from a character area which is an area excluding the corrected drawing image in the corrected original image, and the corrected drawing image is determined . A discrimination unit for discriminating the character indicated by the corrected character image without discriminating the character contained in the image as the corrected character image;
A mask image generation unit that generates a mask image including a character mask area that masks the corrected character image for each character determined one by one by the determination unit;
An editable area calculation unit for calculating an editable area including all of the character mask area in the mask image, the character mask area is detected from the editable area of the mask image, and the character mask of the mask image is detected A program which causes text data indicating characters indicated by the corrected character image to be masked by the character mask region to be arranged in an area and to function as an arranging unit for generating a composite image.
JP2016098884A 2016-05-17 2016-05-17 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Expired - Fee Related JP6540597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098884A JP6540597B2 (en) 2016-05-17 2016-05-17 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098884A JP6540597B2 (en) 2016-05-17 2016-05-17 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017208655A JP2017208655A (en) 2017-11-24
JP6540597B2 true JP6540597B2 (en) 2019-07-10

Family

ID=60416642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098884A Expired - Fee Related JP6540597B2 (en) 2016-05-17 2016-05-17 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6540597B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013217A (en) * 2018-07-13 2020-01-23 株式会社リコー Information processing system, image log search method, information processing apparatus, and program
CN113270088B (en) * 2020-02-14 2022-04-29 阿里巴巴集团控股有限公司 Text processing method, data processing method, voice processing method, data processing device, voice processing device and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013596A (en) * 1998-06-18 2000-01-14 Minolta Co Ltd Device and method for processing image and recording medium with image processing program recorded there
JP2000339402A (en) * 1999-05-27 2000-12-08 Canon Inc Picture processor, picture processing method and computer readable memory
JP2004062350A (en) * 2002-07-26 2004-02-26 Fujitsu Ltd Document information input program, document information input device, and document information input method
JP2006303678A (en) * 2005-04-18 2006-11-02 Canon Inc Image processing apparatus

Also Published As

Publication number Publication date
JP2017208655A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
KR101292925B1 (en) Object of image capturing, computer readable media for storing image processing program and image processing method
EP2333655A2 (en) Printed matter examination apparatus, a printed matter examination method, a storage medium, and a printed matter examination system
US11341733B2 (en) Method and system for training and using a neural network for image-processing
US11245811B2 (en) Image processing apparatus, method and non-transitory computer readable medium storing image processing program
US11983910B2 (en) Image processing system, image processing method, and storage medium each for obtaining pixels of object using neural network
CN111950557A (en) Error problem processing method, image forming apparatus and electronic device
CN108965646B (en) Image processing apparatus, image processing method, and program
KR20170101125A (en) Information processing apparatus, information processing method, and storage medium
US9779323B2 (en) Paper sheet or presentation board such as white board with markers for assisting processing by digital cameras
EP3422690A1 (en) Information processing apparatus, control method thereof, and program
US11436733B2 (en) Image processing apparatus, image processing method and storage medium
JP6540597B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US9818028B2 (en) Information processing apparatus for obtaining a degree of similarity between elements
US8830487B2 (en) System and method for separating image and text in a document
US7738696B2 (en) Image processing apparatus and method for extracting a document area
US20220078299A1 (en) Image processing apparatus for generating an electronic file of a document image from an optically captured image, and non-transitory computer readable recording medium that records image processing program for generating an electronic file of a document image from an optically captured image
US10645256B2 (en) Image forming apparatus and non-transitory computer-readable storage medium suitable for extracting areas in images specified by handwritten marker by line marker such as highlighter pen or the like, and electronic marker by digital pen
US10523848B2 (en) Image processing apparatus for processing marked regions
JP5975945B2 (en) Image processing device
JP6058042B2 (en) Image processing device
JP7147544B2 (en) Information processing device and information processing method
US20140168721A1 (en) Image processing apparatus, method, and program
JP6639257B2 (en) Information processing apparatus and control method therefor
JP2016100780A (en) Image processing device
WO2022097408A1 (en) Image processing device and image forming device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees