[go: up one dir, main page]

JPH10254989A - Image processing system and method - Google Patents

Image processing system and method

Info

Publication number
JPH10254989A
JPH10254989A JP9055781A JP5578197A JPH10254989A JP H10254989 A JPH10254989 A JP H10254989A JP 9055781 A JP9055781 A JP 9055781A JP 5578197 A JP5578197 A JP 5578197A JP H10254989 A JPH10254989 A JP H10254989A
Authority
JP
Japan
Prior art keywords
image
image data
recognition
closed loop
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9055781A
Other languages
Japanese (ja)
Inventor
Toru Yamakita
徹 山北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP9055781A priority Critical patent/JPH10254989A/en
Priority to US09/036,210 priority patent/US6366698B1/en
Priority to DE69821040T priority patent/DE69821040T2/en
Priority to EP98104305A priority patent/EP0865192B1/en
Priority to KR1019980008092A priority patent/KR100308543B1/en
Priority to CN98100497A priority patent/CN1103518C/en
Publication of JPH10254989A publication Critical patent/JPH10254989A/en
Priority to HK99101092.7A priority patent/HK1016389B/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

(57)【要約】 【課題】 入力ユーザインタフェイスの向上を計ると共
に、携帯端末の小型化を推進する。 【解決手段】 紙面に手書きメモ等を記入し、そのメモ
を取り囲むように閉ループパターンを描いておく。画像
入力部3を用いて紙面の画像を読み取る。画像処理部4
は、入力された画像データから閉ループパターンを検出
すると、その閉ループパターンの内側領域の画像データ
を抽出してホスト装置6に送る。画像パターン解析・認
識部7は、携帯端末1から受信した差分画像データに対
して画像認識処理を実行し、その認識結果を携帯端末1
に返送する。
(57) [Summary] [PROBLEMS] To improve the input user interface and promote the miniaturization of portable terminals. A handwritten memo or the like is written on a sheet of paper, and a closed loop pattern is drawn so as to surround the memo. The image on the paper is read using the image input unit 3. Image processing unit 4
Detects a closed loop pattern from the input image data, extracts the image data in the area inside the closed loop pattern, and sends it to the host device 6. The image pattern analysis / recognition unit 7 performs an image recognition process on the difference image data received from the mobile terminal 1 and outputs the recognition result to the mobile terminal 1.
Return to.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ある端末装置を用
いて入力された画像データを他の情報処理装置に処理さ
せるシステムに関する。また、電子カメラ等を用いて読
み取られた画像パターンから不要なパターンを除去する
技術に係わる。
[0001] 1. Field of the Invention [0002] The present invention relates to a system for processing image data input using a certain terminal device by another information processing device. The present invention also relates to a technique for removing unnecessary patterns from an image pattern read using an electronic camera or the like.

【0002】[0002]

【従来の技術】近年の情報化社会においては、特に業務
上、様々な文書あるいは図面等が電子化されてきてい
る。場合によっては、メモ書き程度の内容であっても、
電子化して保存しておくことが要求される。
2. Description of the Related Art In the information society in recent years, various documents, drawings, and the like have been digitized, especially for business purposes. In some cases, even a note-sized content,
It is required to be stored electronically.

【0003】文書の電子化に際しては、パソコン上で文
書作成用のアプリケーションプログラム等を起動し、文
書作成者がキーボードを利用して1文字ずつ入力してい
く方法が最も一般的である。また、図面などの電子化に
際しては、図面作成用のアプリケーションプログラム等
を起動し、図面作成者がキーボードやマウス装置を利用
して入力する方法が一般的である。
[0003] When digitizing a document, the most common method is to start an application program for document creation on a personal computer and input the characters one by one using a keyboard by a document creator. In general, when digitizing a drawing or the like, a method of activating an application program for drawing creation or the like and inputting the drawing by using a keyboard or a mouse device is generally used.

【0004】ところで、最近、電子カメラが普及してき
ている。電子カメラは、被写体を撮影することによって
読み取った画像データをデジタルデータとして保存す
る。そして、所定のインタフェースを介してパソコン等
に接続すれば、電子カメラで読み取った画像データをそ
のパソコン上で処理することができる。したがって、例
えば、紙面などに書かれている文書を電子カメラで撮影
し、その電子カメラで読み取った画像データをパソコン
等に入力して文字認識処理を実行すれば、上記紙面に書
かれている文書を電子化できる。
Recently, electronic cameras have become widespread. The electronic camera stores image data read by photographing a subject as digital data. Then, by connecting to a personal computer or the like via a predetermined interface, image data read by the electronic camera can be processed on the personal computer. Therefore, for example, if a document written on paper is photographed by an electronic camera, and image data read by the electronic camera is input to a personal computer or the like and character recognition processing is performed, the document written on the paper can be obtained. Can be digitized.

【0005】このように、文書あるいは図面等を電子化
する際には、一般的にはキーボードやマウスを用いて行
っており、特定の場合には電子カメラ(あるいは、イメ
ージスキャナ)を用いて取り込んだ画像データに対して
画像認識処理を実行するなどして行っている。
[0005] As described above, when a document or drawing is digitized, it is generally performed using a keyboard or a mouse. In a specific case, the document or drawing is captured using an electronic camera (or an image scanner). For example, image recognition processing is performed on image data.

【0006】[0006]

【発明が解決しようとする課題】ところが、キーボード
やマウス装置による操作は必ずしもすべてのユーザにと
って容易とは言えず、その操作が不得手なユーザもい
る。また、メモ書き程度の内容を電子化する場合には、
手書きであれば僅かな時間で出来るのに対し、キー入力
するためにはその都度文書作成用のアプリケーションプ
ログラムを起動した上で操作を開始しなければならず面
倒である。
However, the operation using a keyboard or a mouse device is not always easy for all users, and some users are not good at the operation. Also, when digitizing the contents of a memo,
While handwriting can be performed in a short time, key input requires an operation to be started after activating an application program for document creation each time, which is troublesome.

【0007】一方、電子カメラ等を用いて紙面などに書
かれた内容を読み取る方法では、必用な範囲のみを撮影
することは困難であり、画像認識したい文書以外の文書
も読みとってしまう可能性が高い。この場合、カメラ撮
影で読み取った画像データをパソコンのディスプレイに
表示させた上で画像認識領域を指定したり、あるいは画
像認識結果として得られた文書を修正する操作が必用と
なり、これも面倒である。
On the other hand, with a method of reading the contents written on paper or the like using an electronic camera or the like, it is difficult to photograph only a necessary range, and there is a possibility that a document other than a document whose image recognition is desired may be read. high. In this case, it is necessary to specify the image recognition area after displaying the image data read by the camera shooting on the display of the personal computer, or to correct the document obtained as a result of the image recognition, which is also troublesome. .

【0008】さらに、上述の電子カメラを用いた方法で
は、画像認識処理を実行するためのノートパソコン等を
携帯していなければ、移動先(出張先など)で撮影した
内容をその場で即座に電子化することはできない。ま
た、性能の良い文字認識ソフトウェアは、一般にプログ
ラム規模が大きく、そのような大規模なプログラムを簡
易型の携帯端末などに搭載することは望ましくない。
Further, in the above-described method using an electronic camera, if a notebook computer or the like for executing image recognition processing is not carried, the contents photographed at a travel destination (such as a business trip destination) are instantly obtained on the spot. It cannot be digitized. In addition, high-performance character recognition software generally has a large program scale, and it is not desirable to mount such a large-scale program on a simple portable terminal or the like.

【0009】本発明の課題は、入力ユーザインタフェイ
スの向上を計ると共に、携帯端末の小型化を推進するこ
とである。
It is an object of the present invention to improve the input user interface and promote the miniaturization of a portable terminal.

【0010】[0010]

【課題を解決するための手段】本発明の画像処理システ
ムは、第1の端末装置で読み取った画像を第2の端末装
置において認識する構成であり、手書きメモ等を含む領
域が予め決められた規則に従って認識対象領域として指
定された記録面の画像を読み取る読取手段と、その読取
手段によって読み取られた画像から上記予め決められた
規則に従って上記認識対象領域を抽出する検出手段およ
び抽出手段と、それら検出手段および抽出手段によって
抽出された領域の画像データに含まれる文字または特定
のパターンを認識する認識手段と、を有する。上記読取
手段を第1の端末装置に設け、上記認識手段を第2の端
末装置に設ける。また、上記検出手段および抽出手段
は、第1に設けてもよいし、第2の端末装置に設けても
よい。
An image processing system according to the present invention has a configuration in which an image read by a first terminal device is recognized by a second terminal device, and an area including a handwritten memo or the like is predetermined. Reading means for reading an image on a recording surface designated as a recognition target area in accordance with rules, detecting means and extraction means for extracting the recognition target area from the image read by the reading means in accordance with the predetermined rule, A recognition unit that recognizes a character or a specific pattern included in the image data of the area extracted by the detection unit and the extraction unit. The reading means is provided in a first terminal device, and the recognition means is provided in a second terminal device. Further, the detection means and the extraction means may be provided first, or may be provided in the second terminal device.

【0011】上記予め決められた規則とは、たとえば、
閉ループパターンの内側の領域を認識対象領域とする方
法、予め決められた識別指示パターン(たとえば、アン
ダーライン)に対して所定の位置の領域を認識対象領域
とする方法、あるいは予め決められた特定の色を含む領
域を認識対象領域とする方法などである。
The predetermined rule is, for example,
A method in which a region inside the closed loop pattern is set as a recognition target region, a method in which a region at a predetermined position with respect to a predetermined identification instruction pattern (for example, an underline) is set as a recognition target region, or a method in which a predetermined specific For example, there is a method of setting a region including a color as a recognition target region.

【0012】上記方式によれば、読取手段を用いて読み
取った画像のうち、必要な領域の画像データのみが抽出
されて認識される。したがって、所望のパターンのみが
認識され、不要な画像は認識されることなく除去され
る。
According to the above method, only the image data of a necessary area is extracted and recognized from the image read by the reading means. Therefore, only the desired pattern is recognized, and unnecessary images are removed without being recognized.

【0013】また、画像データを読み取る機能と画像認
識を実行する機能とを独立した装置に設けたので、上記
第1の端末装置の小型化を計りながら、その第1の端末
装置を介して第2の端末装置の高度な機能を利用でき
る。
Further, since the function of reading image data and the function of executing image recognition are provided in independent devices, the size of the first terminal device can be reduced while the size of the first terminal device is reduced. The advanced functions of the second terminal device can be used.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照しながら説明する。図1は、本実施形態のシ
ステム構成図である。携帯端末1は、通信機能を備えて
おり、ネットワーク5に接続された他の装置にデータ処
理を依頼し、その結果を受け取って例えば液晶ディスプ
レイからなる画像表示部2に表示することができる。携
帯端末1は、最寄りの基地局を介して無線でデータを送
受信する方式、通信機能を持った装置(光リンクユニッ
ト)との間でIr(赤外線)通信などでデータを送受信
する方式、または有線でデータを送受信する方式でネッ
トワーク5に接続される。また、携帯端末1は、たとえ
ば電子カメラ等からなる画像入力部3を備え、それを用
いて取り込んだ画像データをネットワーク5に接続され
た他の装置(たとえば、ホスト装置6)に送って画像処
理を依頼する機能を持っている。さらに、携帯端末1
は、画像入力部3を用いて取り込んだ画像データを画像
処理部4において処理することも可能である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a system configuration diagram of the present embodiment. The mobile terminal 1 has a communication function, requests data processing from another device connected to the network 5, receives the result, and displays the result on the image display unit 2 composed of, for example, a liquid crystal display. The portable terminal 1 transmits and receives data wirelessly via a nearest base station, transmits and receives data to and from a device (optical link unit) having a communication function by Ir (infrared) communication, or uses a wired connection. Is connected to the network 5 by a method of transmitting and receiving data. Further, the mobile terminal 1 includes an image input unit 3 including, for example, an electronic camera, and transmits image data captured using the image input unit 3 to another device (for example, a host device 6) connected to the network 5 to perform image processing. Has the function of requesting Furthermore, the mobile terminal 1
The image processing unit 4 can process image data captured using the image input unit 3.

【0015】ネットワーク5は、公衆電話網、PHS
網、またはLANであり、ホスト装置6を収容してい
る。ホスト装置6は、サーバマシンであり、携帯端末1
から転送されてくる依頼に従ってデータ処理を実行す
る。また、ホスト装置6は、画像パターン解析・認識部
7を備える。画像パターン解析・認識部7は、携帯端末
1から送られてくる画像データに対してパターン認識処
理あるいは文字認識処理を実行し、受信した画像データ
に含まれている所定のパターンおよび文字列を検出す
る。
Network 5 is a public telephone network, PHS
It is a network or a LAN, and accommodates the host device 6. The host device 6 is a server machine, and the mobile terminal 1
Executes data processing according to the request transferred from. Further, the host device 6 includes an image pattern analysis / recognition unit 7. The image pattern analysis / recognition unit 7 performs a pattern recognition process or a character recognition process on the image data sent from the mobile terminal 1 and detects a predetermined pattern and a character string included in the received image data. I do.

【0016】上記構成において、携帯端末1のユーザ
が、たとえば紙面等に手書きしたメモを電子化したいと
きには、紙面上でメモ等を書いた領域を取り囲むように
閉ループパターンを描き、その紙面の画像を画像入力部
3を用いて読み取る。画像処理部4は、画像入力部3に
よって読み取られた画像データを解析し、閉ループパタ
ーンを検出したときにはその閉ループパターンの内側の
領域の画像データを抽出する。この抽出された画像デー
タは、ユーザが紙面に記入したメモ等のみからなり、不
要な領域は削除されている。携帯端末1は、画像処理部
4によって抽出された画像パターンデータをネットワー
ク5を介してホスト装置6に送る。
In the above configuration, when the user of the portable terminal 1 wants to digitize a memo handwritten on paper or the like, a closed loop pattern is drawn so as to surround the area where the memo or the like is written on the paper, and an image of the paper is written. Reading is performed using the image input unit 3. The image processing unit 4 analyzes the image data read by the image input unit 3 and, when detecting a closed loop pattern, extracts image data of an area inside the closed loop pattern. The extracted image data consists only of a memo or the like written on the paper by the user, and unnecessary areas have been deleted. The mobile terminal 1 sends the image pattern data extracted by the image processing unit 4 to the host device 6 via the network 5.

【0017】ホスト装置6は、携帯端末1から画像パタ
ーンデータを受信すると、画像パターン解析・認識部7
にその画像パターンを解析させる。ここで、画像パター
ン解析・認識部7が解析・認識する画像パターンは、ユ
ーザが紙面等にメモ書きした内容そのものであり、不要
な画像は除去されている。従って、ホスト装置6は、認
識結果としてユーザが紙面等にメモ書きした内容のみを
得ることができる。
Upon receiving the image pattern data from the portable terminal 1, the host device 6 receives the image pattern data from the image pattern analysis / recognition unit 7.
To analyze the image pattern. Here, the image pattern analyzed / recognized by the image pattern analysis / recognition unit 7 is the content of the memo written by the user on paper or the like, and unnecessary images are removed. Therefore, the host device 6 can obtain only the content written by the user on the paper or the like as a recognition result.

【0018】なお、画像処理部4の処理をホスト装置6
に実行させる構成であってもよい。この場合、携帯端末
1は、画像入力部3を用いて読み取った画像をそのまま
ホスト装置6に送り、画像パターン解析・認識部7がそ
の画像データから閉ループパターンの内側の領域の画像
データを抽出し、その抽出した画像パターンを解析す
る。
The processing of the image processing unit 4 is performed by the host device 6.
May be executed. In this case, the mobile terminal 1 sends the image read using the image input unit 3 to the host device 6 as it is, and the image pattern analysis / recognition unit 7 extracts the image data of the area inside the closed loop pattern from the image data. Then, the extracted image pattern is analyzed.

【0019】画像パターン解析・認識部7による認識結
果は、ホスト装置6に保存してもよいし、自動的にある
いは必用に応じて携帯端末1に転送してもよい。この場
合、携帯端末1は、ホスト装置6から受信した認識結果
を画像表示部2に表示する。また、画像パターン解析・
認識部7による認識結果を予め指定されている所定の端
末装置に転送してもよいし、さらに、その認識結果をキ
ーワードとして検索処理を実行してもよいし、その認識
結果を所定の言語に翻訳してもよい。
The recognition result by the image pattern analysis / recognition unit 7 may be stored in the host device 6 or may be transferred to the portable terminal 1 automatically or as needed. In this case, the mobile terminal 1 displays the recognition result received from the host device 6 on the image display unit 2. In addition, image pattern analysis
The recognition result by the recognition unit 7 may be transferred to a predetermined terminal device specified in advance, a search process may be performed using the recognition result as a keyword, or the recognition result may be converted into a predetermined language. May be translated.

【0020】なお、画像パターン解析・認識部7は、ホ
スト装置6が所定のプログラム実行することによって得
られる機能として実現してもよいし、ホスト装置6とは
独立したコンピュータで実現してもよい。
The image pattern analysis / recognition unit 7 may be realized as a function obtained by executing a predetermined program by the host device 6, or may be realized by a computer independent of the host device 6. .

【0021】このように、本実施形態のシステムでは、
紙面等にメモ書した文字または図形等を電子化したいと
きには、紙面上でメモ等を書いた領域を取り囲むように
閉ループパターンを描き、それをカメラ等で撮影してそ
の画像データ(あるいは、所定の画像処理を施した画像
データ)をホスト装置6に送信するだけでよい。すなわ
ち、ユーザの操作としては、メモ等を閉ループパターン
で囲み、それをカメラ等で読み取るだけでよいので、非
常に簡単である。また、携帯端末1は、上述のようなメ
モ等を認識するための構成要件として、文字認識機能は
不要であり、画像を読み取る機能および通信機能のみを
備えればよい(構成によっては、閉ループパターンを検
出する機能も必用)ので、軽量化、低コスト化が計れ
る。
As described above, in the system of this embodiment,
When it is desired to digitize a character or a figure written on a memo on a sheet of paper, a closed loop pattern is drawn so as to surround an area where the memo is written on the sheet of paper, and the closed loop pattern is photographed by a camera or the like, and the image data (or predetermined It is only necessary to transmit the image data subjected to the image processing) to the host device 6. In other words, the operation of the user is very simple because it is only necessary to surround the memo or the like in a closed loop pattern and read it with a camera or the like. In addition, the portable terminal 1 does not need a character recognition function and only has a function of reading an image and a communication function as a component requirement for recognizing the above memo or the like (depending on the configuration, a closed loop pattern Function is also required), so that weight and cost can be reduced.

【0022】図2は、携帯端末1の外観図である。携帯
端末1は、LCD表示部11、カメラ12、ICカード
用スロット13、無線通信用アンテナ14を備えてい
る。また、他の通信方式をサポートするために、Ir通
信のためのソケットや、有線通信用のソケットなども備
えている。LCD表示部11は、タッチパネル構成であ
り、携帯端末1は手書き入力情報を処理することができ
る。
FIG. 2 is an external view of the portable terminal 1. The mobile terminal 1 includes an LCD display unit 11, a camera 12, an IC card slot 13, and a wireless communication antenna 14. Further, in order to support other communication methods, a socket for Ir communication, a socket for wired communication, and the like are provided. The LCD display unit 11 has a touch panel configuration, and the mobile terminal 1 can process handwritten input information.

【0023】図3は、携帯端末1の構成図である。CP
U21は、記憶装置22(ROMおよびRAM)に格納
されているプログラムを実行する。CPU21と記憶装
置22とはバス23を介して互いに接続されている。
FIG. 3 is a configuration diagram of the portable terminal 1. CP
U21 executes a program stored in the storage device 22 (ROM and RAM). The CPU 21 and the storage device 22 are connected to each other via a bus 23.

【0024】記憶装置22は、半導体メモリ、磁気的記
録媒体、あるいは光学的記録媒体で構成され、プログラ
ムおよびデータ等を格納している。記憶装置22は、携
帯端末1に固定的に設けたものであってもよいし、着脱
自在に装着するものであってもよい。
The storage device 22 is composed of a semiconductor memory, a magnetic recording medium, or an optical recording medium, and stores programs and data. The storage device 22 may be fixedly provided in the mobile terminal 1 or may be detachably mounted.

【0025】記録媒体ドライバ24は、バス23に接続
されており、可搬性記録媒体(半導体メモリ、磁気ディ
スク、光ディスク、光磁気ディスクを含む)25に格納
されているデータを読み出したり、あるいは可搬性記録
媒体25にデータを書き込む装置である。可搬性記録媒
体25の一例としては、ICカードを想定する。CPU
21は、可搬性記録媒体25に格納されているプログラ
ムを実行することもできる。
The recording medium driver 24 is connected to the bus 23 and reads data stored in a portable recording medium (including a semiconductor memory, a magnetic disk, an optical disk, and a magneto-optical disk) 25, or reads out data stored in a portable recording medium. This is a device for writing data to the recording medium 25. As an example of the portable recording medium 25, an IC card is assumed. CPU
The program 21 can also execute a program stored in the portable recording medium 25.

【0026】なお、記憶装置22に記録するプログラム
およびデータ等は、通信回線などを介して接続された他
の機器から受信して記録する構成にしてもよく、さら
に、CPU21が他の機器側に設けられた記憶装置に格
納されているプログラムおよびデータ等を通信回線など
を介して使用するようにしてもよい。
The programs and data to be recorded in the storage device 22 may be received and recorded from another device connected via a communication line or the like. The programs and data stored in the provided storage device may be used via a communication line or the like.

【0027】LCD表示部11に対応するユニットは、
液晶ディスプレイ(LCD)31、液晶ディスプレイ3
1に表示すべき情報を格納するメモリ32、LCD制御
部34の制御に従ってメモリ32に格納されている情報
を液晶ディスプレイ31に出力するLCDドライバ3
3、メモリ32およびLCDドライバ33を制御するL
CD制御部34、タッチパネル部35、およびタッチパ
ネル部35が検出した入力情報をCPU21に通知する
タッチパネル制御部36から構成される。
The unit corresponding to the LCD display unit 11 is:
Liquid crystal display (LCD) 31, Liquid crystal display 3
1, an LCD driver 3 for outputting information stored in the memory 32 to the liquid crystal display 31 under the control of the LCD controller 34.
3. L controlling the memory 32 and the LCD driver 33
It comprises a CD control unit 34, a touch panel unit 35, and a touch panel control unit 36 that notifies the CPU 21 of input information detected by the touch panel unit 35.

【0028】カメラ12は、たとえばCCDカメラであ
り、その出力はA/Dコンバータ37によってビットマ
ップ形式のデジタルデータに変換されてメモリ38に書
き込まれる。カメラ制御部39は、CPU21の指示に
従って、メモリ38に保持されている画像データをバス
23に出力する。
The camera 12 is, for example, a CCD camera, and its output is converted into bitmap digital data by an A / D converter 37 and written into a memory 38. The camera control unit 39 outputs the image data stored in the memory 38 to the bus 23 according to an instruction from the CPU 21.

【0029】通信制御部40は、携帯端末1からデータ
を送出する際には、CPU21の指示に従って送信パケ
ットを生成して無線トランシーバ41、42または有線
トランシーバ43に渡す。また、データを受信する際に
は、無線トランシーバ41、42、または有線トランシ
ーバ43を介して受信したパケットに格納されているデ
ータをバス24上に出力する。無線トランシーバ41
は、図3に示した無線通信用アンテナ14に接続されて
おり、無線基地局4との間で無線データを授受する。無
線トランシーバ42は、Ir通信を行うための送受信機
であり、また、有線トランシーバ43は例えばモデムで
ある。無線トランシーバ42および有線トランシーバ4
3は、オプションで着脱される。なお、携帯端末1は、
さらに時計44を備えている。
When transmitting data from the portable terminal 1, the communication control unit 40 generates a transmission packet according to the instruction of the CPU 21 and passes it to the wireless transceivers 41 and 42 or the wired transceiver 43. When data is received, data stored in a packet received via the wireless transceiver 41 or 42 or the wired transceiver 43 is output onto the bus 24. Wireless transceiver 41
Are connected to the wireless communication antenna 14 shown in FIG. 3 and exchange wireless data with the wireless base station 4. The wireless transceiver 42 is a transceiver for performing Ir communication, and the wired transceiver 43 is, for example, a modem. Wireless transceiver 42 and wired transceiver 4
3 is optionally attached and detached. In addition, the mobile terminal 1
Further, a clock 44 is provided.

【0030】図4は、本実施形態のシステムの画像処理
の概念を説明する図であり、ユーザが紙面に手書きで記
入したメモをカメラで読み取ったときの画像の例であ
る。この例は、予めアルファベットA〜Zが書かれてい
る紙面の空スペースに「XX月XX日 K氏と打合せ」
とメモを書き、そのメモをカメラ12で撮影する場合を
示している。ユーザは、文字認識したい部分とそうでな
い部分とを区別するために、文字認識したいメモ文を取
り囲むような閉ループを紙面に描いている。この閉ルー
プは、紙面上に普通のペンや鉛筆で描けばよい。
FIG. 4 is a diagram for explaining the concept of image processing of the system according to the present embodiment, and is an example of an image when a user reads a memo handwritten on a sheet of paper with a camera. In this example, “meeting with Mr. XX / XX / K” in an empty space on the paper in which alphabets A to Z are written in advance
And writing a memo and shooting the memo with the camera 12. The user draws a closed loop on the paper surrounding a memo sentence to be character-recognized in order to distinguish a part to be character-recognized from a part not to be character-recognized. This closed loop can be drawn on the paper surface with an ordinary pen or pencil.

【0031】ユーザは、少なくとも文字認識したいメモ
文とそれを取り囲む閉ループパターンを読み取るように
してその紙面を撮影する。このとき、図4に示す例で
は、不要な画像であるアルファベットQ〜Zもメモとい
っしょに画像データとして読み取ってしまっている。
The user photographs at least the memo text to be recognized and the closed loop pattern surrounding the memo text. At this time, in the example shown in FIG. 4, alphabets Q to Z, which are unnecessary images, are also read as image data together with the memo.

【0032】このような状態であっても、本実施形態の
画像処理では、閉ループパターンの内側の領域のみに対
して画像認識処理を実行するので、閉ループパターンの
外側の領域に位置しているアルファベットQ〜Zは認識
されず、メモ書「XX月XX日 K氏と打合せ」のみが
認識される。このように、簡単なユーザインタフェース
で不要なパターンを除去しながら所望のパターンのみを
認識できる。
Even in such a state, in the image processing of the present embodiment, since the image recognition processing is performed only on the area inside the closed loop pattern, the alphabets located in the area outside the closed loop pattern are Q to Z are not recognized, and only the memo “meeting with Mr. XX / XX / K” is recognized. As described above, it is possible to recognize only a desired pattern while removing unnecessary patterns with a simple user interface.

【0033】図5は、携帯端末1においてカメラ撮影に
より読み取った画像データをホスト装置6に転送してそ
の画像を認識させる処理のフローチャートである。この
フローチャートに示す各機能を実現するプログラムは、
CPU21が読み取り可能なプログラムコードの形態で
記憶装置22に格納されている。
FIG. 5 is a flowchart of a process for transferring image data read by camera photographing in the portable terminal 1 to the host device 6 and recognizing the image. The program that realizes each function shown in this flowchart is
The program is stored in the storage device 22 in the form of a program code readable by the CPU 21.

【0034】また、図5のフローチャートは、携帯端末
1が入力待ち状態において何らかの入力を検出した後の
処理を示している。以下の説明では、図4の例を参照す
る。すなわち、ユーザがメモ書した文字などをカメラで
撮影することによって読み取る例を説明する。
FIG. 5 is a flowchart showing a process after the portable terminal 1 detects some input in an input waiting state. The following description refers to the example of FIG. That is, an example will be described in which a character or the like written by a user is read by photographing with a camera.

【0035】ステップS1では、検出した入力がカメラ
12からの入力であるかを調べ、カメラ12からの入力
であればステップS2以降の処理を実行し、他の入力で
あれば、ステップS21においてその入力に対応する他
の処理を実行する。このように、ユーザが携帯端末1の
カメラ12を用いて撮影すると、ステップS2以降の処
理が開始される。なお、カメラ入力があったときには、
時計44の出力である時刻情報を保持しておく。
In step S1, it is checked whether the detected input is an input from the camera 12. If the input is from the camera 12, the processing from step S2 is executed. If the input is another input, the processing proceeds to step S21. Perform other processing corresponding to the input. As described above, when the user shoots using the camera 12 of the mobile terminal 1, the processing after step S2 is started. When there is a camera input,
Time information output from the clock 44 is held.

【0036】ステップS2では、カメラ12によって取
り込まれた画像データをLCD表示部11に表示する。
すなわち、カメラ12によって取り込まれた画像データ
をLCD表示部11のメモリ32に書き込み、その画像
データを液晶ディスプレイ31に表示する。続いて、ス
テップS3では、ユーザ指示入力画面を表示する。ユー
ザ指示入力画面は、カメラ撮影により読み取った画像を
ホスト装置6に送って画像認識させる否かをユーザに指
定させるための画面であり、そのカメラ撮影により読み
取った画像上に上書き表示する。即ち、ステップS3の
処理によってカメラ12から入力された画像データが書
き込まれているメモリ32に対して、記憶装置22に格
納されているユーザ指示入力画面の画像データを上書き
する。ユーザ指示入力画面は、例えば「認識」、「保
存」、及び「キャンセル」というボタンを含む。従っ
て、ステップS2およびS3により、LCD表示部11
には、図4において点線で囲まれたカメラ撮影範囲内の
画像上に上記3つのボタンが設けられた状態が表示され
る。
In step S2, the image data captured by the camera 12 is displayed on the LCD display unit 11.
That is, the image data captured by the camera 12 is written into the memory 32 of the LCD display unit 11, and the image data is displayed on the liquid crystal display 31. Subsequently, in step S3, a user instruction input screen is displayed. The user instruction input screen is a screen for sending the image read by the camera shooting to the host device 6 so as to allow the user to specify whether or not to recognize the image, and overwrites the image read by the camera shooting. That is, the image data of the user instruction input screen stored in the storage device 22 is overwritten on the memory 32 in which the image data input from the camera 12 is written by the processing of step S3. The user instruction input screen includes, for example, buttons of “recognition”, “save”, and “cancel”. Therefore, in steps S2 and S3, the LCD display unit 11
Shows a state in which the above three buttons are provided on an image within the camera shooting range surrounded by a dotted line in FIG.

【0037】上記ユーザ指示入力画面上でユーザが指示
を入力すると、即ち、ユーザが表示されたボタンの中の
1つのボタンを押圧すると、ステップS4以下の処理が
実行される。まず、ステップS4では、ユーザの指示を
認識する。この処理は、ユーザがどのボタンを押圧した
かを検出するものである。ステップS5では、ユーザの
指示が「認識」であるか否かを判断する。認識ボタンが
押圧されたことを検出した場合には、ユーザの指示が画
像認識サービスであると判断し、ステップS6へ進む。
When the user inputs an instruction on the user instruction input screen, that is, when the user presses one of the displayed buttons, the processing from step S4 is executed. First, in step S4, an instruction from the user is recognized. This processing detects which button the user has pressed. In step S5, it is determined whether the user's instruction is "recognition". If it is detected that the recognition button has been pressed, it is determined that the user's instruction is an image recognition service, and the process proceeds to step S6.

【0038】ステップS6では、カメラ12により入力
された画像データをいったん記憶装置22のRAM領域
に保持する。ステップS7では、その画像データから認
識対象画像データを抽出する。即ち、例えば、図4に示
す例では、閉ループパターンの内側の領域を認識対象の
領域とみなし、その領域の画像データを抽出する。な
お、ステップS7の処理は、後述詳しく説明する。続い
て、ステップS8では、ステップS7で抽出した画像デ
ータをホスト装置6に転送するためのパケットを作成す
る。ステップS8の処理についても後述説明する。そし
て、ステップS9において、ステップS8で作成したパ
ケットを図1に示すネットワーク5に送出する。
In step S6, the image data input by the camera 12 is temporarily stored in the RAM area of the storage device 22. In step S7, recognition target image data is extracted from the image data. That is, for example, in the example shown in FIG. 4, an area inside the closed loop pattern is regarded as a recognition target area, and image data of the area is extracted. The processing in step S7 will be described later in detail. Subsequently, in step S8, a packet for transferring the image data extracted in step S7 to the host device 6 is created. The processing in step S8 will also be described later. Then, in step S9, the packet created in step S8 is transmitted to the network 5 shown in FIG.

【0039】一方、ステップS5において、ユーザの指
示が「認識」ではないと判断された場合には、ステップ
S10において、ユーザが保存ボタンを押圧したか否か
を判断する。ユーザが保存ボタンを押圧したのであれ
ば、ステップS11において携帯端末1側で画像データ
を保存する。一方、ユーザが保存ボタンを押圧したので
なければ、ユーザがキャンセルボタンを押圧したものと
見なし、ステップS12でその画像データを廃棄する。
On the other hand, if it is determined in step S5 that the user's instruction is not "recognition", it is determined in step S10 whether the user has pressed the save button. If the user presses the save button, the portable terminal 1 saves the image data in step S11. On the other hand, if the user has not pressed the save button, it is assumed that the user has pressed the cancel button, and the image data is discarded in step S12.

【0040】このように、携帯端末1は、閉ループパタ
ーンを用いて認識対象領域が表されている画像を読み取
ると、その閉ループパターンの内側領域のみを認識対象
領域と見なして抽出し、その抽出した認識対象領域の画
像データをホスト装置6に送る。なお、この抽出された
画像データは、上述したように、実際に画像認識してほ
しい領域(メモを記入した領域)のみを含んでおり、不
要な画像は取り除かれている。
As described above, when the portable terminal 1 reads an image in which the recognition target area is represented using the closed loop pattern, it extracts only the area inside the closed loop pattern as the recognition target area, and extracts the extracted area. The image data of the recognition target area is sent to the host device 6. Note that, as described above, the extracted image data includes only an area (an area where a memo is written) that the user actually wants to recognize the image, and unnecessary images are removed.

【0041】図6は、図5に示すステップS7の処理の
詳細フローチャートであり、認識対象画像データを抽出
する処理を示す。ステップS31では、記憶装置22の
RAM領域からカメラ12の撮影によって読み取られた
画像データを読み出し、その画像データに対して、画像
データの雑音の除去を目的とした前処理を施した後に線
検出処理を実行する。線検出処理は、既存の技術であ
る。たとえば、画像データの濃度分布あるいは色分布を
調べたときに、「線」は、その変化率の大きい点を連続
させたものとして検出可能である。なお、ある領域と他
の領域との境界においても濃度分布あるいは色分布の変
化率は大きくなるが、「線」と「領域どうしの境界」と
を識別することは既存の技術で行われている。このよう
に、上記前処理が施された画像データの全領域において
濃度分布あるいは色分布を調べることによりその画像に
含まれる「線」が検出される。
FIG. 6 is a detailed flowchart of the process in step S7 shown in FIG. 5, and shows a process for extracting image data to be recognized. In step S31, image data read by shooting with the camera 12 is read from the RAM area of the storage device 22, the image data is subjected to preprocessing for removing noise of the image data, and then the line detection process is performed. Execute Line detection processing is an existing technology. For example, when examining the density distribution or color distribution of image data, a “line” can be detected as a series of points having a large change rate. The rate of change of the density distribution or the color distribution also increases at the boundary between a certain area and another area, but the existing technology is used to discriminate "lines" and "boundaries between areas". . As described above, by examining the density distribution or the color distribution in the entire region of the preprocessed image data, "lines" included in the image are detected.

【0042】ステップS32では、ステップS31で検
出された「線」の断部を接続する線接続処理を実行す
る。例えば、図4に示す例では、閉ループパターンは手
書きメモを概ね取り囲んでいるものの、その一部が途切
れており、いわゆる「線切れ」が発生している。線接続
処理は、このような「線切れ」を補修する処理であり、
これも既存の技術である。たとえば、「線切れ」が発生
している線の先端からその線の延長方向に所定長の線分
を伸ばし、その線分を上記線の先端を中心として所定の
角度範囲内で旋回させたときに、他の線に接触したなら
ばそれら2つの線を接続するような処理を行う。この線
接続処理により、図4に示すような一部が途切れている
閉ループパターン(略閉ループパターン)が補修されて
閉ループパターンとなる。
In step S32, a line connection process for connecting the breaks of the "line" detected in step S31 is executed. For example, in the example shown in FIG. 4, although the closed loop pattern generally surrounds the handwritten memo, a part thereof is broken, so-called "line break" occurs. The wire connection process is a process for repairing such a "cut wire",
This is also an existing technology. For example, when a line segment of a predetermined length is extended from the end of the line where the "line break" has occurred in the direction in which the line extends, and the line segment is turned within a predetermined angle range around the end of the line. Then, a process is performed to connect these two lines if they come into contact with another line. By this line connection processing, a closed loop pattern (substantially closed loop pattern) as shown in FIG. 4 which is partially interrupted is repaired to become a closed loop pattern.

【0043】ステップS33では、画像データに含まれ
る閉ループパターンの中で、その閉ループパターンによ
って囲まれる領域の面積が所定値よりも大きいものを検
出する。すなわち、例えば、図4においてアルファベッ
トの「Q」は、閉ループパターンと見なされる可能性が
あるので、ステップS33を実行することにより、この
ような認識対象領域を指定するための閉ループパターン
以外の閉ループパターンを除外している。なお、この処
理で検出される閉ループパターンは、1つである必要は
なく、複数個あってもよい。そして、ステップS34に
おいて、ステップS33で検出した閉ループパターンに
よって囲まれる領域の画像データを出力する。
In step S33, among the closed loop patterns included in the image data, those whose area of the area surrounded by the closed loop pattern is larger than a predetermined value are detected. That is, for example, the letter “Q” in FIG. 4 may be regarded as a closed loop pattern, and therefore, by executing step S33, the closed loop pattern other than the closed loop pattern for specifying such a recognition target area may be used. Is excluded. Note that the number of closed loop patterns detected in this process does not need to be one, but may be plural. Then, in step S34, image data of an area surrounded by the closed loop pattern detected in step S33 is output.

【0044】図7は、上記画像処理の応用例を示す図で
ある。上述したように、画像データの濃度分布または色
分布を調べれば、領域どうしの境界を検出できるが、図
7に示す例では、この技術を用いている。すなわち、メ
モ等は紙面上に書くが、この紙面には画像認識させたい
メモ以外には何も記入しないものとする。そして、その
メモが書かれた紙を紙とは異なる色の机などの上に置
き、カメラ12を用いてその紙面を撮影するときには、
その紙面全体が写っており、かつその紙面を取り囲むよ
うに机の上面が写っているようにする。
FIG. 7 is a diagram showing an application example of the image processing. As described above, the boundary between regions can be detected by examining the density distribution or color distribution of the image data. However, the example shown in FIG. 7 uses this technique. That is, memos and the like are written on paper, but nothing is written on the paper except for the memo to be image-recognized. When the paper on which the memo is written is placed on a desk or the like of a different color from the paper and the camera 12 is used to photograph the paper,
The entire surface of the paper is shown, and the top of the desk is shown so as to surround the paper.

【0045】このようにして取り込んだ画像データに対
して図5のステップS7を実行すれば、紙面の色と机の
上面の色とが異なるので、紙面の外周エッジが閉ループ
パターンとして検出され、紙面の画像のみが認識対象画
像データとして抽出される。このように、撮影方法を変
えれば、メモを取り囲む閉ループパターンをペンや鉛筆
などで紙面に描くことなく必要な領域を抽出できる。
If step S7 in FIG. 5 is executed on the image data thus captured, the color of the paper surface is different from the color of the upper surface of the desk, so that the outer peripheral edge of the paper surface is detected as a closed loop pattern, Are extracted as recognition target image data. Thus, by changing the photographing method, a necessary area can be extracted without drawing a closed loop pattern surrounding the memo on the paper surface with a pen or a pencil.

【0046】ところで、図4または図7に示す例では、
手書きメモを閉ループパターンで取り囲むことによって
画像認識対象の領域を不要な領域から識別したが、他の
方式であってもよい。例えば、「認識対象の文字列には
下線を引く」という規則を設けておき、カメラ12を用
いて取り込んだ画像データから下線が付されている文字
列のみを抽出するような構成としてもよい。図8(a) に
示す例では、「XX月XX日 K氏と打合せ」のみに対
して下線が引かれている。この場合、アルファベットQ
〜Zは抽出されずに、「XX月XX日 K氏と打合せ」
のみが抽出される。
By the way, in the example shown in FIG. 4 or FIG.
Although the area for image recognition is identified from unnecessary areas by surrounding the handwritten memo with a closed loop pattern, other methods may be used. For example, a rule may be provided in which a character string to be recognized is underlined, and only a character string with an underline is extracted from image data captured using the camera 12. In the example shown in FIG. 8A, only “meeting with Mr. XX / XX / K” is underlined. In this case, the alphabet Q
~ Z is not extracted and "meeting with Mr. K on XX / XX / day"
Only those are extracted.

【0047】図9(a) は、認識対象の文字列を下線を用
いて識別する場合の認識対象画像データ抽出処理を説明
するフローチャートである。この処理は、図5のフロー
チャートにおいてはステップS7として実行される。
FIG. 9A is a flowchart for explaining a recognition target image data extraction process in a case where a character string to be recognized is identified using an underline. This process is executed as step S7 in the flowchart of FIG.

【0048】ステップS41およびS42は、それぞれ
図6のステップS31およびS32と同じであり、カメ
ラ12の撮影によって読み取った画像データから「線」
を検出し、その「線」を補修する。ステップS43で
は、上記処理によって得られた「線」の中から、水平方
法あるいは略水平方向に所定長よりも長く伸びた「線」
を検出する。ここで検出される「線」は、複数本であっ
てもよく、図8(a) に示す例では、2本検出される。ス
テップS44では、ステップS43で検出した各「線」
に沿ってそれらの各「線」の上側の領域を所定幅で切り
出し、その切り出した各領域を認識対象領域として出力
する。
Steps S41 and S42 are the same as steps S31 and S32 in FIG.
Is detected, and the "line" is repaired. In step S43, from among the "lines" obtained by the above processing, the "lines" extending longer than a predetermined length in the horizontal
Is detected. The number of "lines" detected here may be plural, and two lines are detected in the example shown in FIG. In step S44, each "line" detected in step S43
A region above each of these “lines” is cut out along the line with a predetermined width, and each cut-out region is output as a recognition target region.

【0049】画像認識対象の領域を識別するための方式
として、色を用いてもよい。たとえば、「認識対象の文
字列は赤色で書く」という規則を設けておき、カメラ1
2を用いて取り込んだ画像データから赤色で書かれてい
る文字列のみを抽出するような構成としてもよい。図8
(b) に示す例では、「XX月XX日 K氏と打合せ」の
みが赤色で書かれている。この場合、アルファベットQ
〜Zは抽出されずに、「XX月XX日 K氏と打合せ」
のみが抽出される。
Color may be used as a method for identifying an image recognition target area. For example, a rule that “the character string to be recognized is written in red” is provided, and the camera 1
2 may be used to extract only a character string written in red from image data captured using 2. FIG.
In the example shown in (b), only “meeting with Mr. XX / XX / K” is written in red. In this case, the alphabet Q
~ Z is not extracted and "meeting with Mr. K on XX / XX / day"
Only those are extracted.

【0050】図9(b) は、認識対象の文字列を予め指定
した色で書いて識別する場合の認識対象画像データ抽出
処理を説明するフローチャートである。この処理も図5
のフローチャートにおいてはステップS7として実行さ
れる。ステップS51では、カメラ12の撮影によって
読み取った画像データから予め指定された色の画素を所
定密度以上含む領域を切り出し、その切り出した領域内
の画像データを認識対象領域として出力する。
FIG. 9 (b) is a flowchart for explaining the recognition target image data extraction processing in the case where a character string to be recognized is written in a color designated in advance and identified. This processing is also shown in FIG.
Is executed as step S7. In step S51, an area including pixels of a color designated in advance and having a predetermined density or more is cut out from the image data read by photographing with the camera 12, and the image data in the cut out area is output as a recognition target area.

【0051】図10(a) は、携帯端末1から送出される
パケットの構造を示す図である。このパケットは、図5
に示すステップS8において作成される。各パケット
は、ヘッダ部およびデータ部から構成される。ヘッダ部
は、送信元アドレスおよび着信先アドレスなどを格納す
る。送信元アドレスおよび着信先アドレスとしてどのよ
うなアドレス体系のアドレスを格納するのかは、本実施
形態が適用されるネットワーク構成によって決まり、た
とえば、TCP/IP通信では、IPアドレスが格納される。
FIG. 10A is a diagram showing the structure of a packet transmitted from the portable terminal 1. This packet is shown in FIG.
Is created in step S8 shown in FIG. Each packet is composed of a header part and a data part. The header section stores a source address, a destination address, and the like. What address system is stored as the source address and the destination address depends on the network configuration to which the present embodiment is applied. For example, in TCP / IP communication, an IP address is stored.

【0052】データ部には、アプリケーション識別情
報、端末ID、画像データ、時刻情報などが格納され
る。アプリケーション識別情報は、着信先の端末(ここ
では、ホスト装置6)において起動すべきアプリケーシ
ョンプログラムを識別する情報である。すなわち、着信
先の端末において所定のプログラムを起動するためのコ
マンドである。本実施形態においては、画像データ解析
・認識プログラムを識別する情報が設定される。なお、
アプリケーション識別情報は、TCP/IP通信では、ポート
番号として指定してもよい。
The data section stores application identification information, terminal ID, image data, time information, and the like. The application identification information is information for identifying an application program to be started in the terminal (the host device 6 in this case) of the destination. That is, it is a command for activating a predetermined program in the destination terminal. In the present embodiment, information for identifying the image data analysis / recognition program is set. In addition,
The application identification information may be specified as a port number in TCP / IP communication.

【0053】端末IDは、携帯端末1の識別番号であ
る。画像データは、図5のステップS8の処理によって
得られた差分画像データであり、パケットに格納される
ときには圧縮される。時刻情報は、ホスト装置6へ送出
される画像データがカメラ撮影された時刻を表す情報で
ある。
The terminal ID is an identification number of the portable terminal 1. The image data is difference image data obtained by the processing in step S8 in FIG. 5, and is compressed when stored in a packet. The time information is information indicating the time when the image data transmitted to the host device 6 was photographed by the camera.

【0054】図10(b) は、図5に示すステップS8パ
ケット作成処理の詳細フローチャートである。ステップ
S61では、ホスト装置6へ転送する画像データを圧縮
し、データ部に格納する。圧縮方式は、たとえば、JP
EGである。ステップS62では、上記画像データをカ
メラ撮影した時刻を表す時刻情報を設定する。ステップ
S63では、アプリケーション識別情報として、画像デ
ータ解析・認識プログラムを識別する情報を設定する。
ステップS64では、携帯端末1を識別する情報(自機
を識別する情報)として端末IDを設定する。さらに、
ステップS65においてヘッダ部を作成する。ヘッダ部
には、少なくとも、送信元アドレスとして携帯端末1の
アドレス(自機のアドレス)、および着信先アドレスと
してホスト装置6のアドレスを設定する。
FIG. 10B is a detailed flowchart of the packet creation process in step S8 shown in FIG. In step S61, the image data to be transferred to the host device 6 is compressed and stored in the data section. The compression method is, for example, JP
EG. In step S62, time information indicating the time at which the image data was captured by the camera is set. In step S63, information for identifying the image data analysis / recognition program is set as application identification information.
In step S64, a terminal ID is set as information for identifying the mobile terminal 1 (information for identifying the own device). further,
In step S65, a header section is created. In the header part, at least the address of the portable terminal 1 (the address of the own device) is set as the source address, and the address of the host device 6 is set as the destination address.

【0055】上述のようにして作成されたパケットは、
ネットワーク5に送出される。ネットワーク5は、パケ
ットの着信先アドレスに従ってそのパケットをホスト装
置6へ転送する。以下に、このパケットを受信して処理
するホスト装置6について説明する。
The packet created as described above is
It is sent to the network 5. The network 5 transfers the packet to the host device 6 according to the destination address of the packet. Hereinafter, the host device 6 that receives and processes this packet will be described.

【0056】図11は、ホスト装置6の構成図である。
記憶装置51は、半導体メモリ、磁気的記録媒体、ある
いは光学的記録媒体で構成され、プログラムおよびデー
タ等を格納している。記憶装置51は、ホスト装置6に
固定的に設けたものであってもよいし、着脱自在に装着
するものであってもよい。
FIG. 11 is a configuration diagram of the host device 6.
The storage device 51 is configured by a semiconductor memory, a magnetic recording medium, or an optical recording medium, and stores programs, data, and the like. The storage device 51 may be fixedly provided in the host device 6 or may be detachably mounted.

【0057】記録媒体ドライバ52は、可搬性記録媒体
(半導体メモリ、磁気ディスク、光ディスク、光磁気デ
ィスク等を含む)53に格納されているデータを読み出
したり、あるいは可搬性記録媒体53にデータを書き込
む装置である。通信制御部54は、ネットワークとの間
でのデータの授受を制御するユニットである。携帯端末
1との間のパケットの送受信もここで制御される。
The recording medium driver 52 reads data stored in a portable recording medium (including a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, etc.) 53 or writes data into the portable recording medium 53. Device. The communication control unit 54 is a unit that controls transmission and reception of data with the network. Transmission and reception of packets with the mobile terminal 1 are also controlled here.

【0058】CPU55は、記憶装置51または可搬性
記録媒体53からプログラム等をメモリ56にロードし
て実行する。なお、記憶装置51に記録するプログラム
およびデータ等は、可搬性記録媒体53に格納されてい
たものを書き込んだものであってもよく、また、通信回
線などを介してネットワーク上の他の機器から受信して
記録する構成にしてもよい。さらに、CPU55は、ネ
ットワーク上に設けられた他の記憶装置に格納されてい
るプログラムおよびデータ等を通信回線などを介して使
用するようにしてもよい。
The CPU 55 loads a program or the like from the storage device 51 or the portable recording medium 53 into the memory 56 and executes it. Note that the program and data to be recorded in the storage device 51 may be those in which what has been stored in the portable recording medium 53 may be written, or may be transmitted from another device on the network via a communication line or the like. It may be configured to receive and record. Further, the CPU 55 may use programs, data, and the like stored in another storage device provided on the network via a communication line or the like.

【0059】図12は、ホスト装置6の処理を説明する
フローチャートである。ここでは、ホスト装置6が携帯
端末1から送出されたパケット(図5のフローチャート
の処理によって作成されたパケット)を受信し、そのデ
ータ部に設定されている情報に従って画像データを処理
する動作を中心に、ホスト装置6がネットワーク5から
パケットを受信したときの動作を説明する。
FIG. 12 is a flowchart for explaining the processing of the host device 6. Here, the operation centered on the host device 6 receiving the packet (the packet created by the processing of the flowchart of FIG. 5) transmitted from the mobile terminal 1 and processing the image data according to the information set in the data part thereof is mainly described. Next, an operation when the host device 6 receives a packet from the network 5 will be described.

【0060】ステップS71でパケットを受信すると、
ステップS72でそのパケットに設定されている端末I
Dを調べることによってそのパケットを送出した端末を
認識する。ステップS73では、受信したパケットに設
定されているアプリケーション識別情報によって指定さ
れているアプリケーションを起動する。ステップS74
では、起動されたアプリケーションが画像認識処理を含
むかどうか判断する。画像認識処理を含まないアプリケ
ーションであれば、ステップS80においてそのアプリ
ケーションの処理を実行する。
When the packet is received in step S71,
The terminal I set in the packet at step S72
By examining D, the terminal that transmitted the packet is recognized. In step S73, the application specified by the application identification information set in the received packet is started. Step S74
Then, it is determined whether the started application includes an image recognition process. If the application does not include the image recognition processing, the processing of the application is executed in step S80.

【0061】一方、画像認識処理を含むアプリケーショ
ンであれば、ステップS75において、受信したパケッ
トに格納されている画像データを解凍し、ステップS7
6においてその画像データに対してパターン認識処理・
文字認識処理を実行する。このとき認識処理が実行され
る画像データは、図5のステップS7で抽出された画像
データである。すなわち、図4または図8の例では、
「XX月XX日 K氏と打合せ」のみを含む領域の画像
データに対して画像認識処理が実行される。従って、こ
の画像認識処理の結果、ユーザがメモ書した内容のみが
認識される。
On the other hand, if the application includes an image recognition process, in step S75, the image data stored in the received packet is decompressed, and the process proceeds to step S7.
6, the image data is subjected to pattern recognition processing.
Perform character recognition processing. The image data on which the recognition process is performed at this time is the image data extracted in step S7 of FIG. That is, in the example of FIG. 4 or FIG.
Image recognition processing is performed on the image data of the area including only “meeting with Mr. XX / XX / K”. Therefore, as a result of this image recognition processing, only the contents that the user has written down are recognized.

【0062】ステップS77では、ステップS76によ
る認識結果が文字を含んでいれば、その文字を文字コー
ド(例えば、アスキーコード、あるいはJISコード
等)に変換する。ステップS78では、認識結果を携帯
端末1に返送するためのパケットを作成する。すなわ
ち、このパケットの送出先アドレスは携帯端末1であ
り、そのデータ部に上記認識結果が格納されている。そ
して、ステップS79において、その作成したパケット
をネットワーク5に送出する。
In step S77, if the recognition result in step S76 includes a character, the character is converted into a character code (for example, an ASCII code or a JIS code). In step S78, a packet for returning the recognition result to the mobile terminal 1 is created. That is, the transmission destination address of this packet is the portable terminal 1, and the recognition result is stored in the data portion thereof. Then, in step S79, the created packet is transmitted to the network 5.

【0063】ステップS79においてネットワーク5に
送出されたパケットは、携帯端末1に転送される。携帯
端末1は、このパケットを受信すると、ホスト装置6に
よる画像認識処理の結果をLCD表示部11に表示す
る。即ち、上述の例の場合、図4(c) の画像が表示され
る。また、この認識結果は、ユーザの指示により、携帯
端末1内に保存される。
The packet sent to the network 5 in step S79 is transferred to the portable terminal 1. Upon receiving this packet, the portable terminal 1 displays the result of the image recognition processing by the host device 6 on the LCD display unit 11. That is, in the case of the above example, the image of FIG. 4C is displayed. The recognition result is stored in the mobile terminal 1 according to a user's instruction.

【0064】なお、上述したように、この画像認識結果
をホスト装置6に保存してもよい。この場合、認識結果
は、差分画像データを送出した端末装置(すなわち、携
帯端末1)の端末IDに対応づけて保存する。また、こ
の認識結果を予め指定されている所定の端末装置に転送
してもよい。さらに、この認識結果に含まれている文字
列をキーワードとして検索処理を実行してもよいし、あ
るいはその文字列を所定の言語に翻訳してもよい。この
場合、検索結果または翻訳結果は、携帯端末1に送られ
る。
As described above, the image recognition result may be stored in the host device 6. In this case, the recognition result is stored in association with the terminal ID of the terminal device (that is, the mobile terminal 1) that has transmitted the difference image data. The recognition result may be transferred to a predetermined terminal device specified in advance. Further, a search process may be executed using a character string included in the recognition result as a keyword, or the character string may be translated into a predetermined language. In this case, the search result or the translation result is sent to the mobile terminal 1.

【0065】ところで、携帯端末の小型・軽量化、およ
び低コスト化の要求は根強いものがある。これらの要求
に答える手だての1つとしては、本実施形態のような利
用方法においては、携帯端末側で実行している処理の一
部をホスト装置側に移せばよい。例えば、図5のフロー
チャートのステップS7の処理をホスト装置6に実行さ
せることができる。ステップS7は、上述したように、
画像処理を含むが、一般に、このような処理を高精度あ
るいは短時間に実現しようとすると、処理能力の高いプ
ロセッサと大規模なプログラムが必用となる。したがっ
て、ステップS7の処理をホスト装置6に実行させるこ
とは携帯端末1の小型・軽量化、または低コスト化の際
して有効である。
By the way, there is a strong demand for reducing the size, weight, and cost of a portable terminal. One way to respond to these requests is to move part of the processing being executed on the mobile terminal side to the host device side in the usage method as in the present embodiment. For example, the processing of step S7 in the flowchart of FIG. Step S7 is, as described above,
Including image processing, in general, if such processing is to be realized with high accuracy or in a short time, a processor having a high processing capability and a large-scale program are required. Therefore, causing the host device 6 to execute the process of step S7 is effective in reducing the size and weight of the mobile terminal 1 or reducing the cost.

【0066】ステップS7の処理をホスト装置6に実行
させる場合、携帯端末1は、カメラ12を用いて読み取
った画像データをそのままホスト装置6に送る。ホスト
装置6は、図12のフローチャートにおいて、ステップ
S75の処理の次にステップS7を実行する。
When causing the host device 6 to execute the process of step S7, the portable terminal 1 sends the image data read using the camera 12 to the host device 6 as it is. In the flowchart of FIG. 12, the host device 6 executes step S7 after the processing of step S75.

【0067】上記実施形態において、ホスト装置6によ
って実行される処理プログラム、すなわち図12に示す
フローチャートで示す各機能を実現するプログラム、お
よびネットワークを介して転送されてくる情報を解釈し
て処理するプログラム等は、CPU55が読み取り可能
なプログラムコードの形態で記憶装置51あるいは可搬
性記録媒体53に格納されている。あるいは、ネットワ
ークを介して接続される他の装置に格納されているもの
を利用する。
In the above embodiment, a processing program executed by the host device 6, that is, a program for realizing each function shown in the flowchart of FIG. 12, and a program for interpreting and processing information transferred via the network And the like are stored in the storage device 51 or the portable recording medium 53 in the form of a program code readable by the CPU 55. Alternatively, one stored in another device connected via a network is used.

【0068】なお、上記実施形態では、カメラを用いて
画像データを取り込む構成を示したが、本発明はこの構
成に限定されず、たとえば、イメージスキャナを用いて
読み込んだ画像データをホスト装置に転送するようにし
てもよい。
In the above embodiment, the configuration in which image data is captured using a camera has been described, but the present invention is not limited to this configuration. For example, image data read using an image scanner is transferred to a host device. You may make it.

【0069】このように、本実施形態の画像処理システ
ムは、携帯端末を用いてメモを書き込んだ紙面などの画
像をカメラ等で撮影し、ホスト装置がその画像の中の必
要な領域のみに対して認識処理を実行する構成である。
このため、携帯端末に、画像を読み取ってホスト装置へ
転送する機能、ホスト装置に処理を依頼する機能を持た
せるだけ(構成によっては、さらに、必要な領域を抽出
する機能)で、手書きメモ等をカメラ撮影するという簡
単なユーザインタフェースでそのメモ書内容を電子化で
きる。
As described above, the image processing system according to the present embodiment uses a portable terminal to photograph an image, such as a page on which a memo has been written, with a camera or the like, and allows the host device to perform processing only on a necessary area in the image. And performs a recognition process.
For this reason, the mobile terminal only has a function of reading an image and transferring the image to the host device and a function of requesting the host device to perform processing (depending on the configuration, a function of extracting a necessary area). The contents of the memo can be digitized with a simple user interface that takes a picture of the memo.

【0070】[0070]

【発明の効果】本発明のシステムは、携帯端末が備える
カメラ等で所望の手書きメモ等を含む記録面を画像デー
タとして取り込み、ホスト装置に認識を依頼するだけで
その手書きメモ等を電子化できる。このように、本発明
は、操作性を向上させたユーザインタフェイスを提供す
る。このとき、閉ループパターンの内側の領域、あるい
は下線が引かれた文字列などを含む領域、あるいは特定
の色で描かれているパターンを含む領域のみを抽出して
その画像を認識するので、必用な情報だけが正確に認識
される。
According to the system of the present invention, a recording surface including a desired handwritten memo or the like is captured as image data by a camera or the like provided in a portable terminal, and the handwritten memo or the like can be digitized simply by requesting recognition from a host device. . Thus, the present invention provides a user interface with improved operability. At this time, only the area inside the closed loop pattern, the area containing the underlined character string, or the area containing the pattern drawn in a specific color is extracted and the image is recognized, so the necessary Only information is accurately recognized.

【0071】高速処理が要求される画像データ処理、特
にパターン認識処理や文字認識を携帯端末側で実行しな
いので、携帯端末は、大容量のメモリや高性能プロセッ
サを設けることなく、高度な画像データ処理結果を得る
ことができる。
Since the portable terminal does not execute image data processing, particularly pattern recognition processing and character recognition, which require high-speed processing, the portable terminal can provide advanced image data without providing a large-capacity memory or a high-performance processor. Processing results can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のシステム構成図である。FIG. 1 is a system configuration diagram of an embodiment.

【図2】携帯端末の外観図である。FIG. 2 is an external view of a portable terminal.

【図3】携帯端末の構成図である。FIG. 3 is a configuration diagram of a mobile terminal.

【図4】本実施形態のシステムの画像処理の概念を説明
するための図である。
FIG. 4 is a diagram for explaining the concept of image processing of the system according to the embodiment.

【図5】携帯端末においてカメラ撮影により取り込んだ
画像データをホスト装置に転送して画像認識させる処理
のフローチャートである。
FIG. 5 is a flowchart of a process in which image data captured by camera shooting in a portable terminal is transferred to a host device to perform image recognition.

【図6】認識対象画像データを抽出する処理のフローチ
ャートである。
FIG. 6 is a flowchart of a process of extracting recognition target image data.

【図7】図4に示す画像処理の応用例を示す図である。FIG. 7 is a diagram illustrating an application example of the image processing illustrated in FIG. 4;

【図8】認識対象画像を識別するための記入例を示す図
である。
FIG. 8 is a diagram illustrating an entry example for identifying a recognition target image.

【図9】図8に示す方法でメモ等が記入された場合に認
識対象画像データを抽出する処理を説明するフローチャ
ートである。
9 is a flowchart illustrating a process for extracting recognition target image data when a memo or the like is entered by the method shown in FIG. 8;

【図10】(a) は、携帯端末から送出されるパケットの
構造を示す図であり、(b) は、パケット作成処理の詳細
フローチャートである。
FIG. 10A is a diagram illustrating a structure of a packet transmitted from a mobile terminal, and FIG. 10B is a detailed flowchart of a packet creation process.

【図11】ホスト装置の構成図である。FIG. 11 is a configuration diagram of a host device.

【図12】ホスト装置の処理を説明するフローチャート
である。
FIG. 12 is a flowchart illustrating processing of a host device.

【符号の説明】[Explanation of symbols]

1 携帯端末 2 画像表示部 3 画像入力部 4 画像処理部 5 ネットワーク 6 ホスト装置 7 画像パターン解析・認識部 12 カメラ 21 CPU 22 記憶装置 24 記録媒体ドライバ 25 可搬性記録媒体 31 液晶ディスプレイ 40 通信制御部 51 記憶装置 52 記録媒体ドライバ 53 可搬性記録媒体 54 通信制御部 55 CPU 56 メモリ Reference Signs List 1 mobile terminal 2 image display unit 3 image input unit 4 image processing unit 5 network 6 host device 7 image pattern analysis / recognition unit 12 camera 21 CPU 22 storage device 24 recording medium driver 25 portable recording medium 31 liquid crystal display 40 communication control unit Reference Signs List 51 storage device 52 recording medium driver 53 portable recording medium 54 communication control unit 55 CPU 56 memory

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像を読み取る読取手段と、 該読取手段によって読み取られた画像から閉ループパタ
ーンまたは略閉ループパターンを検出する検出手段と、 該検出手段によって検出された閉ループパターンまたは
略閉ループパターンの内側の領域の画像データを抽出す
る抽出手段と、 該抽出手段によって抽出された領域の画像データに含ま
れる文字または特定のパターンを認識する認識手段と、 を有し、上記読取手段を第1の端末装置に設け、上記認
識手段を第2の端末装置に設け、上記検出手段および抽
出手段を上記第1または第2の端末装置に設けた画像処
理システム。
1. A reading means for reading an image, a detecting means for detecting a closed loop pattern or a substantially closed loop pattern from an image read by the reading means, and an inner part of the closed loop pattern or the substantially closed loop pattern detected by the detecting means. Extracting means for extracting image data of the area; and recognizing means for recognizing a character or a specific pattern included in the image data of the area extracted by the extracting means. An image processing system, wherein the recognition means is provided in the second terminal device, and the detection means and the extraction means are provided in the first or second terminal device.
【請求項2】 画像を読み取る読取手段と、 該読取手段によって読み取られた画像から予め決められ
た識別指示パターンを検出する検出手段と、 該検出手段によって検出された識別指示パターンに対し
て所定の位置にある領域の画像データを抽出する抽出手
段と、 該抽出手段によって抽出された領域の画像データに含ま
れる文字または特定のパターンを認識する認識手段と、 を有し、上記読取手段を第1の端末装置に設け、上記認
識手段を第2の端末装置に設け、上記検出手段および抽
出手段を上記第1または第2の端末装置に設けた画像処
理システム。
2. A reading means for reading an image, a detecting means for detecting a predetermined identification instruction pattern from the image read by the reading means, and a predetermined identification instruction pattern detected by the detection means. Extracting means for extracting image data of an area at a position, and recognizing means for recognizing a character or a specific pattern included in the image data of the area extracted by the extracting means; An image processing system provided in the terminal device of (1), wherein the recognizing means is provided in the second terminal device, and the detecting means and the extracting means are provided in the first or second terminal device.
【請求項3】 画像を読み取る読取手段と、 該読取手段によって読み取られた画像から予め決められ
た色で描かれた画像の画像データを抽出する抽出手段
と、 該抽出手段によって抽出された画像データに含まれる文
字または特定のパターンを認識する認識手段と、 を有し、上記読取手段を第1の端末装置に設け、上記認
識手段を第2の端末装置に設け、上記検出手段および抽
出手段を上記第1または第2の端末装置に設けた画像処
理システム。
Reading means for reading the image; extracting means for extracting image data of an image drawn in a predetermined color from the image read by the reading means; image data extracted by the extracting means Recognizing means for recognizing a character or a specific pattern included in the above, wherein the reading means is provided in a first terminal device, the recognizing means is provided in a second terminal device, and the detecting means and the extracting means An image processing system provided in the first or second terminal device.
【請求項4】 カメラを用いて手書きメモ等を含む記録
面を画像データとして取り込み、他の装置においてその
画像データを認識する方法であって、 予め決められた規則に従って上記手書きメモ等を含む領
域を認識対象領域として指定するステップと、 カメラを用いて上記手書きメモ等を含む記録面を読み取
るステップと、 上記予め決められた規則に従って上記認識対象領域を抽
出するステップと、 上記抽出された認識対象領域の画像データに対して認識
処理を実行するステップと、 を有する画像処理方法。
4. A method for using a camera to capture a recording surface including a handwritten memo or the like as image data and recognizing the image data in another device, wherein the area including the handwritten memo or the like is determined according to a predetermined rule. Designating as a recognition target area; reading a recording surface including the handwritten memo or the like using a camera; extracting the recognition target area in accordance with the predetermined rule; Performing a recognition process on the image data of the region.
JP9055781A 1997-03-11 1997-03-11 Image processing system and method Pending JPH10254989A (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP9055781A JPH10254989A (en) 1997-03-11 1997-03-11 Image processing system and method
US09/036,210 US6366698B1 (en) 1997-03-11 1998-03-06 Portable terminal device for transmitting image data via network and image processing device for performing an image processing based on recognition result of received image data
DE69821040T DE69821040T2 (en) 1997-03-11 1998-03-10 Portable terminal for the transmission of image data via a network and image processing device for image processing based on the recognition result of the received image data
EP98104305A EP0865192B1 (en) 1997-03-11 1998-03-10 Portable terminal device for transmitting image data via network and image processing device for performing an image processing based on recognition result of received image data
KR1019980008092A KR100308543B1 (en) 1997-03-11 1998-03-11 Data transmission / reception device based on character recognition
CN98100497A CN1103518C (en) 1997-03-11 1998-03-11 Data transmission/receiving device
HK99101092.7A HK1016389B (en) 1997-03-11 1999-03-16 Portable terminal device for transmitting image data via network and image processing device for performing an image processing based on recognition result of received image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9055781A JPH10254989A (en) 1997-03-11 1997-03-11 Image processing system and method

Publications (1)

Publication Number Publication Date
JPH10254989A true JPH10254989A (en) 1998-09-25

Family

ID=13008448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9055781A Pending JPH10254989A (en) 1997-03-11 1997-03-11 Image processing system and method

Country Status (1)

Country Link
JP (1) JPH10254989A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244211A (en) * 2009-04-02 2010-10-28 Nippon Telegr & Teleph Corp <Ntt> Information input device and information input method
JP2012093866A (en) * 2010-10-26 2012-05-17 Rubic Jp:Kk System for creating fair copy text of handwriting data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244211A (en) * 2009-04-02 2010-10-28 Nippon Telegr & Teleph Corp <Ntt> Information input device and information input method
JP2012093866A (en) * 2010-10-26 2012-05-17 Rubic Jp:Kk System for creating fair copy text of handwriting data

Similar Documents

Publication Publication Date Title
KR100308543B1 (en) Data transmission / reception device based on character recognition
JP5042562B2 (en) Image processing apparatus, handwritten information recognition method, handwritten information recognition program
WO2016121401A1 (en) Information processing apparatus and program
CN111586237A (en) An image display method and electronic device
US4941195A (en) Optical character reader
JPH10134004A (en) Image data processing system
JPH10260916A (en) Image data processing system
JPH10289243A (en) Data retrieval system
JP2005517226A (en) Collaborative handwriting input system and method
JP2005275652A (en) Apparatus and method for processing input trajectory
JP3784717B2 (en) Device setting method, program, storage medium storing the program, image forming apparatus, device setting system, and device setting sheet
JP2000032111A (en) Portable information reading processing device and control method
JPH10254989A (en) Image processing system and method
JP4800144B2 (en) Character string determination device, character string determination method, character string determination program, and computer-readable recording medium
WO2023051384A1 (en) Display method, information sending method, and electronic device
JPH10255063A (en) Image processing system
JPH10293813A (en) Handwriting input recognition system and method
EP0783149B1 (en) Clipboard for interactive desktop system
JP3994962B2 (en) Image data storage system or portable terminal device
US12348695B2 (en) Image processing apparatus for performing two authentication steps and selecting a processing function based on first authentication
WO2016121403A1 (en) Information processing apparatus, image processing system, and program
JP2004173289A (en) Mobile terminal device or host device
JP6980167B1 (en) Printing methods, electronic devices, programs, servers and image forming devices
JP7695608B2 (en) Image forming system, image forming apparatus, and remote operation program
JP2004326473A (en) Data registration method for mobile terminal using camera and computer device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060509