[go: up one dir, main page]

JPH02211580A - electronic translator - Google Patents

electronic translator

Info

Publication number
JPH02211580A
JPH02211580A JP1031604A JP3160489A JPH02211580A JP H02211580 A JPH02211580 A JP H02211580A JP 1031604 A JP1031604 A JP 1031604A JP 3160489 A JP3160489 A JP 3160489A JP H02211580 A JPH02211580 A JP H02211580A
Authority
JP
Japan
Prior art keywords
character string
translation
character
image
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1031604A
Other languages
Japanese (ja)
Inventor
Michihiro Nagaishi
道博 長石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP1031604A priority Critical patent/JPH02211580A/en
Publication of JPH02211580A publication Critical patent/JPH02211580A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PURPOSE:To input and process a character string at a high speed by inputting an image by a camera and designating an extracted character string by irradiating the document paper surface with a light beam. CONSTITUTION:A character string on the document paper surface is inputted as an image by an image input means 1 using a camera and stored temporarily as an electric signal. On the other hand, the document paper surface is irradiated with a fine laser luminous flux, etc. of an extraction start point detecting means 2 and an extraction start point is determined, and a character string for executing a translation is extracted from a character image by a character string extracting means 3. Subsequently, the extracted character string is discriminated as a character by a character recognizing means 4 in which data required for the recognition is stored. Next, storage data required for a translation is referred to and a necessary translation is executed by a translating means 5. According to this constitution which uses a camera and a light beam, a character string to be translated is extracted surely and inputted at a high speed, and a translation processing is executed quickly and surely.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は電子翻訳機に関する。[Detailed description of the invention] [Industrial application field] The present invention relates to an electronic translation machine.

(従来の技術〕 半導体メモリーや磁気ディスクに単語等の訳などの情報
を収めておき、単語等の訳を得る電子翻訳機には次に述
べるようなものがあった。
(Prior Art) The following electronic translators have been used to obtain translations of words by storing information such as translations of words in a semiconductor memory or magnetic disk.

まず最も一般的なのは、キー入力を行って単語等を入力
するもので手帳程度の大きさのものが実用化されている
0機械的部分がほとんどなく、仕組みが非常に簡単なの
で安価で供給されている。
First of all, the most common type is one in which words, etc. are entered using keystrokes, and one about the size of a notebook is in practical use.There are almost no mechanical parts and the mechanism is very simple, so it is supplied at a low price. There is.

別な方法として、単語等の入力をキー入力ではなく、文
字を光学的な画像として取り込んで、文字認識を行い訳
を得る方法がある0画像の取り込み手段としては、据置
き型の画像読み取り機や手で走査を行う画像読み取り機
、カメラなどが使用されている。この方法は、アルファ
ベット等のキー入力操作に慣れていない者でも、速く、
正確に入力を行うことが可能である。また多量の文章な
ど処理する場合は、圧倒的にキー入力に比べ速く正確な
方法であった。
Another method is to input words, etc., not by key input, but by importing the characters as optical images and performing character recognition to obtain the translation.0 As a means of importing images, a stationary image reader is used. Image readers, cameras, and other devices that perform scanning by hand are used. This method is quick and easy to use even for those who are not accustomed to inputting alphabets and other keys.
It is possible to input accurately. Also, when processing large amounts of text, it was overwhelmingly faster and more accurate than key input.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

以上述べたように、文字を光学的な画像として取り込み
、文字認識を行う方法は、キー入力と比較し優れた点が
多いが、次のような問題がある。
As described above, the method of capturing characters as optical images and performing character recognition has many advantages over key input, but has the following problems.

まず、カメラや据置き型の画像読み取り機を用いて、例
えばA4の原稿−面の画像を取り込んだ場合、その原稿
の一部について翻訳を得たい時には、操作者が取り込ん
だ文字画像そのものまたは認識結果を見て、111訳を
得たい箇所を指定する前処理を必ず行っていた6例えば
、CRT上に画像を出して、操作者がマウスなどを使い
必要箇所を枠で囲むなど行っていた。
First, if an image of, for example, an A4 document is captured using a camera or a stationary image reader, and the operator wants to obtain a translation for a part of the document, the operator must either use the captured character image itself or the recognized character image. After looking at the results, preprocessing was always performed to specify the parts for which 111 translations were to be obtained6.For example, the image was displayed on a CRT and the operator used a mouse to draw a frame around the necessary parts.

一方、文字画像の取り込みを手で走査を行う画像読み取
り機で行う場合、操作者は入力したい部分を直接なぞる
ので、入力操作自体が前処理になっているため、画像入
力後ただちに認識を行うことができる。又幅の広い画像
入力機でも入力する画像の範囲は、据置き型の画像入力
機よりも狭いので前処理は比較的少なくて済む。
On the other hand, when a character image is captured using an image reader that scans by hand, the operator directly traces the part he or she wants to input, so the input operation itself is preprocessing, so recognition cannot be performed immediately after inputting the image. Can be done. Furthermore, even with a wide image input device, the input image range is narrower than that of a stationary image input device, so relatively less preprocessing is required.

しかし、手で走査する画像読み取り機は手で動かすため
に、走査速度、直進性が不定なため入力画像は多少不安
定で、特に長い文字列をきれいな画像で取り込むことは
至艶であった。そのため、主に単語程度の長さの文字列
を入力する用途がほとんどであった。
However, since hand-scanning image readers are moved by hand, the scanning speed and straightness are uncertain, so the input image is somewhat unstable, making it difficult to capture clear images, especially for long character strings. For this reason, most applications were mainly for inputting character strings as long as words.

このように、文字画像を取り込み、文字認識する方法は
、入力に使用するカメラや画像読み取り機などの形態に
より、得意な分野と不得意な分野があり、キー入力より
優れた能力を十分生かすことができなかった。
In this way, methods for capturing character images and character recognition have strengths and weaknesses depending on the format of the camera, image reader, etc. used for input, and it is important to take full advantage of the capabilities superior to key input. I couldn't do it.

本発明は以上の課題を解決するもので、その目的は、文
字列を画像として取り込み、文字列が短い単語程度の長
さから、文程度までの長いものまで対応できかつ翻訳を
行いたい部分の範囲設定が・・容易にできる電子翻訳機
を得ることにある。
The present invention solves the above-mentioned problems, and its purpose is to capture character strings as images, and to be able to handle strings ranging from short words to long sentences, and to be able to capture the part of the text that you want to translate. The objective is to obtain an electronic translation device that allows for easy range setting.

〔課題を解決するための手段〕[Means to solve the problem]

(1)本発明の電子1羽訳機は、原稿紙面上の文字列を
画像データとして読み取る画像入力手段と、原稿紙面上
に光線を投射し原稿紙面上の文字列の抽出開始点を検出
する抽出開始点検出手段と、前記画像入力手段による画
像データと前記抽出開始点検出手段からの情報から必要
な文字列を取り出す文字列抽出手段と、前記文字列抽出
手段で取り出された文字列に対し、個々の文字として認
識を行いかつ認識に必要なデータ等記憶している文字認
識手段と、前記文字列抽出手段と文字認識手段で得られ
た単語や文に対する訳や翻訳を行い、かつ訳や翻訳に必
要なデータ等記憶している翻訳手段と、前記文字認識手
段と翻訳手段の結果及び前記画像入力手段や抽出開始点
検出手段や文字列抽出手段の状態について表示を行う表
示手段とから構成されることを特徴とする。
(1) The electronic one-leaf translation machine of the present invention includes an image input means for reading character strings on the manuscript paper as image data, and a device that projects a light beam onto the manuscript paper to detect the extraction start point of the character string on the manuscript paper. an extraction start point detection means, a character string extraction means for extracting a necessary character string from the image data by the image input means and information from the extraction start point detection means, and a character string extracted by the character string extraction means; , a character recognition means that recognizes individual characters and stores data necessary for recognition, and translates or translates words and sentences obtained by the character string extraction means and character recognition means; Consisting of a translation means that stores data necessary for translation, and a display means that displays the results of the character recognition means and translation means and the status of the image input means, extraction start point detection means, and character string extraction means. It is characterized by being

(2)第1項記載の電子翻訳機において、認識・翻訳結
果や内部状態等を音声にて操作者に知らせる音声合成手
段を備えたことを特徴とする。
(2) The electronic translator described in item 1 is characterized in that it includes a voice synthesizing means for notifying the operator of recognition/translation results, internal conditions, etc. by voice.

(3)第1項記載の電子翻訳機において、文字列の取り
込みが画像入力のほかにキー入力も可能なキー入力手段
を備えたことを特徴とする。
(3) The electronic translator described in item 1 is characterized in that it is equipped with a key input means that allows input of character strings not only by image input but also by key input.

〔作用〕[Effect]

本発明の電子11I訳機では、文字画像の取り込みはカ
メラで行う、カメラは一度に広い範囲の文字画像を取り
込むことができる。
In the electronic 11I translation machine of the present invention, character images are captured by a camera, and the camera can capture a wide range of character images at once.

次に、取り込んだ文字画像のどこから1羽訳させるか指
定する。指定は操作者が光線を原稿紙面に当てて、カメ
ラは紙面上の光斑の位置から、その付近に存在する文字
を翻訳開始点と認識する。つまり操作者は、紙面上に光
線を翻訳を開始したい箇所に当てるように操作すればよ
い。
Next, specify where in the captured character image you want to translate one bird. To specify this, the operator shines a beam of light onto the paper surface of the manuscript, and the camera recognizes the characters near that spot as the starting point for translation based on the position of the light spot on the paper surface. In other words, the operator only has to operate the light beam so that it shines on the part of the paper where he wants to start translation.

原稿紙面上に照射した光線によって生じた光斑の検出は
次のようにして行う。
Detection of light spots caused by the light rays irradiated onto the surface of the original paper is performed as follows.

まず、文字画像は白黒2値画像で十分なので、照射する
光線は目に見える範囲で一番波長の長い赤色にする。カ
メラをカラー用のものを用い、出力信号のR,G、  
BのRのみは、文字画像以外に照射した光が記録されて
いるので、他のG、  Bと比較すればすぐに位置が分
葛。
First, since a black and white binary image is sufficient for character images, the irradiated light beam is red, which has the longest wavelength within the visible range. Use a color camera and output signals R, G,
Only the R of B records the irradiated light in addition to the character image, so if you compare it with the other G and B, the position is immediately different.

または、照射する赤色光だけ感じるカメラと照射した光
よりも短い光の波長を感じるカメラの2つを用意しても
よい、このように、照射する光を特定の波長に限ること
で、波長の違いを利用して文字画像と、照射光とを分離
することができる。
Alternatively, you can prepare two cameras: one that senses only the emitted red light and the other that senses the wavelength of light shorter than the emitted light.In this way, by limiting the emitted light to a specific wavelength, you can By utilizing the difference, it is possible to separate the character image and the irradiation light.

更にもっと簡易的な方法として、カメラの画角内におい
て、照射する光の位置をあらかじめ固定しておく方法が
ある0例えば、画角が10°×15°だったら、左上隅
から右へ4° 下へ3°のところに照射光が照射される
ように調整しておけば、操作者はやはり照射光が原稿紙
面上の、翻訳開始をしたい部分に当るように操作すれば
よい。
An even simpler method is to fix the position of the irradiating light in advance within the camera's angle of view.For example, if the angle of view is 10° x 15°, the angle of view is 4° to the right from the upper left corner. If the adjustment is made so that the irradiation light is irradiated at a downward angle of 3 degrees, the operator only has to operate the irradiation light so that it hits the part on the manuscript surface where he wants to start translation.

この方法では、照射光の直接の検出はしないので簡単な
装置で実現できる。
This method does not directly detect the irradiated light, so it can be realized with a simple device.

いずれの方法を採るにせよ、原稿紙面に光を照射し、操
作者は自分で位置を確かめながら翻訳開始点の決定を行
うことができる。
Whichever method is used, the operator can determine the translation starting point by shining light onto the surface of the manuscript and checking the position himself.

〔実施例〕〔Example〕

以下、本発明の電子翻訳機について実施例にもとづいて
詳細に説明する。
EMBODIMENT OF THE INVENTION Hereinafter, the electronic translation machine of this invention will be explained in detail based on an Example.

第1図は、本発明の電子観訳機の基本構成について示し
た図である。
FIG. 1 is a diagram showing the basic configuration of an electronic translation machine of the present invention.

原稿紙面上の文字列は、カメラなどを使′用した画像入
力手段1により画像として取り込まれ、電気信号に変換
されて一時的に記憶される。
A character string on the manuscript paper is captured as an image by an image input means 1 using a camera or the like, converted into an electrical signal, and temporarily stored.

一方、原稿紙面上に光を照射し、照射光の位置より翻訳
開始箇所を決定する(抽出開始点検出手段2)。
On the other hand, light is irradiated onto the surface of the manuscript, and a translation start point is determined from the position of the irradiated light (extraction start point detection means 2).

取り込まれ記憶された文字画像と求められた抽出開始点
をもとに、目的の翻訳を行う文字列を文字画像から抽出
する(文字列抽出手段3)。
Based on the captured and stored character image and the determined extraction start point, a character string for the purpose of translation is extracted from the character image (character string extraction means 3).

次に抽出した文字画像の文字列を、文字認識手段4で1
つ1つの文字として認識する。また文字認識手段4には
、認識に必要なデータも収められている。このようにし
て得られた文字に対する翻訳を、翻訳手段5で行う、こ
こには、翻訳に必要なデータも収められている。
Next, the character string of the extracted character image is
Recognize each character as a single character. The character recognition means 4 also stores data necessary for recognition. The characters thus obtained are translated by the translation means 5, which also contains data necessary for translation.

以上のようにして得られた認識結果、翻訳や画像入力状
態や抽出開始点の検出具合など装置の内部状態などは表
示手段6で表示される。
The recognition results obtained as described above, the internal state of the apparatus such as the translation, image input state, extraction start point detection state, etc. are displayed on the display means 6.

第2図は、本発明の電子翻訳機の外観の一例を示した図
である。
FIG. 2 is a diagram showing an example of the external appearance of the electronic translation machine of the present invention.

本発明の電子翻訳機では、文字画像の入力を行うカメラ
と光線の照射を行う、カメラと照射光の位置関係は重要
であるため本実施例では、カメラと光の照射装置を載せ
た眼鏡形式の部分と、各種の制御や表示を行う部分の大
きく二つの部分から構成される。
In the electronic translator of the present invention, the positional relationship between the camera that inputs character images, the camera that irradiates the light beam, and the irradiation light is important, so in this embodiment, the camera and the light irradiation device are installed in the form of glasses. It consists of two main parts: a part that performs various controls and displays, and a part that performs various controls and displays.

照射光の検出を光の波長により行わないならば、光の照
射装置は特にカメラと一体化する必要はなく全く別に用
意して外から光を照射しても構わない。
If the irradiation light is not detected based on the wavelength of the light, the light irradiation device does not need to be integrated with the camera, and may be prepared completely separately and irradiate the light from outside.

眼鏡形式の保持機構7には、文字画像の入力を行うカメ
ラ8、原稿紙面に光線を照射する照射器9が備えられて
いる。照射器9は、波長がそろっていて光束が広がらな
いレーザー光を発するものが適している。また保持機構
7には、各種情報を音声にて出力するイヤホン17がつ
ながっている。
The glasses-type holding mechanism 7 is equipped with a camera 8 for inputting character images, and an irradiator 9 for irradiating a light beam onto the surface of the document. The irradiator 9 is suitably one that emits a laser beam that has a uniform wavelength and whose luminous flux does not spread. Further, the holding mechanism 7 is connected to an earphone 17 that outputs various information in the form of audio.

また保持機構7は、カメラ8やその他の機構用の電源、
信号のコードの保持も兼ねている。
The holding mechanism 7 also has a power source for the camera 8 and other mechanisms.
It also holds the signal code.

一方各種の制御や表示は、翻訳機本体10で行われる。On the other hand, various controls and displays are performed in the translator body 10.

翻訳機本体lO上には、各種の表示を行う表示器°f1
と読み取りキー12、翻訳キー13、機能キー14があ
り、それぞれカメラからの画像入力、翻訳表示と原文表
示の切り替え、入力方法等の選択を行う、また、−船釣
なアルファベット・数字キー15があり、通常のキー入
力も可能である。他に画面上のカーソル等の移動や訳語
等のスクロールなどを行うカーソルキー16がある。
On the main body of the translator, there is a display °f1 that displays various information.
There are a reading key 12, a translation key 13, and a function key 14, which are used to input images from the camera, switch between translation display and original text display, select input methods, etc. Yes, normal key input is also possible. There are also cursor keys 16 for moving a cursor on the screen, scrolling translations, etc.

第2図に示しである翻訳機本体は、小型の一体化した形
態をとっているが、汎用のパーソナルコンピューター等
を使用してもよい、または、第2図に示したような小型
の翻訳機本体を、汎用のパーソナルコンピューター等に
接続して機能の拡充を図ることも可能である。
The main body of the translator shown in Figure 2 has a compact integrated form, but a general-purpose personal computer or the like may be used, or a small translator as shown in Figure 2 may be used. It is also possible to expand the functions by connecting the main body to a general-purpose personal computer or the like.

更に、翻訳機本体は一般的なキー入力が可能なので、本
体単体でも十分電子lft訳機として使用可能である。
Furthermore, since the main body of the translator allows general key input, the main body alone can be used as an electronic LFT translator.

第3図は、本発明の電子−舅訳機の回路構成の一例を示
したブロック図である。
FIG. 3 is a block diagram showing an example of the circuit configuration of the electronic-to-voice translator of the present invention.

カメラ8は、レンズ20とCCDエリアセンサー21で
構成されており、センサーに必要な駆動信号等は、CC
D制御部22より出力される。CCDエリアセンサー2
1からの信号は、コンパレーター23で、リファレンス
電圧Refを基準に二値化され、二値化された画像デー
タは、CCD制御部22に同期して、メモリー制御部2
4によりフィールドメモリー25に書き込まれる。
The camera 8 is composed of a lens 20 and a CCD area sensor 21, and drive signals etc. necessary for the sensor are sent to the CC
It is output from the D control section 22. CCD area sensor 2
The signal from 1 is binarized by the comparator 23 based on the reference voltage Ref, and the binarized image data is sent to the memory control unit 2 in synchronization with the CCD control unit 22.
4 is written into the field memory 25.

照射器9より発する光線(本実施例ではレーザー光を用
いるとする)を、カメラ8の画角に対し一定に保つ場合
は、カメラ8からの画像は単純な白黒で済むが、照射光
を波長の違いにより検出する場合は、CCDエリアセン
サー21はカラー用のものが必要で、各色別にコンパレ
ーター23を用意しなければならない、またフィールド
メモリー25も各色に対応できるように、容量を大きく
する必要がある。または複数個必要である。
If the light beam emitted from the irradiator 9 (laser light is used in this embodiment) is kept constant with respect to the angle of view of the camera 8, the image from the camera 8 can be a simple black and white image, but if the irradiation light is In order to detect the difference in color, the CCD area sensor 21 must be for color, and a comparator 23 must be prepared for each color, and the field memory 25 must also have a large capacity so that it can handle each color. There is. Or multiple pieces are required.

CPo 26は、フィールドメモリー25から画像デー
タを読み出したり、フィールドメモリー25への画像デ
ータ書き込みの要求、中止をメモリー制御部24に行う
The CPo 26 requests the memory control unit 24 to read image data from the field memory 25 or to request or cancel writing of image data to the field memory 25 .

光の波長の違いによる、照射光の位置検出は、CPU2
8により、フィールドメモリー25上の各色別の画像デ
ータを比較することで行う、これはソフトウェア的に実
行される。
The position detection of the irradiated light due to the difference in the wavelength of the light is performed by the CPU2.
8, this is done by comparing the image data for each color on the field memory 25, and this is executed by software.

光線の照射は、CPU26がレーザー光制御部27に命
令を出して照射器9より行われる。CPUにより制御す
るので、必要な時にのみ照射を行うことができる。
The irradiation of the light beam is performed by the irradiator 9 by the CPU 26 issuing a command to the laser light control section 27 . Since it is controlled by the CPU, irradiation can be performed only when necessary.

光の波長の違いによる照射光の位置検出すなわち、文字
列の抽出開始点の検出や文字列の抽出、文字認識、翻訳
等の作業は、フィールドメモリー25の他に、RAM3
1上で行う、また各作業に必要なデータやプログラムは
ROM32に収められている。
In addition to the field memory 25, the RAM 3 is used to detect the position of the irradiated light based on the difference in the wavelength of the light, that is, detect the starting point of character string extraction, extract the character string, recognize characters, and translate the characters.
The data and programs necessary for each work performed on the ROM 32 are stored in the ROM 32.

表示は、例えば液晶表示器(以下LCDとする)で行う
場合、LCD30に必要な信号やキャラクタを発生させ
るLCD制御部28と、表示するキャラクタのもとにな
るデータが収められているキャラクタROM29で発生
、表示を行う。
For example, when displaying is performed using a liquid crystal display (hereinafter referred to as LCD), an LCD control unit 28 generates signals and characters necessary for the LCD 30, and a character ROM 29 stores data that is the source of the characters to be displayed. Generate and display.

一方、lfl訳などの結果を、表示ではなく音声で知ら
せる場合は、結果を音声合成部33にて音声信号に変換
して増幅器34で出力を高め、スピーカー35より音声
として出力させる。第2図では、音声出力にイヤホンを
用いているが、−船釣なスピーカーを翻訳機本体10に
内蔵してもよい。
On the other hand, when the result of lfl translation etc. is to be announced by voice instead of display, the result is converted into a voice signal by the voice synthesis section 33, the output is increased by the amplifier 34, and the result is output as voice from the speaker 35. In FIG. 2, earphones are used for audio output, but a similar speaker may be built into the translator main body 10.

キー入力については、多数のキー37の状態をキーマト
リックス回路36を介しCPU26がどのキーがオンし
ているか知ることができる。
Regarding key input, the CPU 26 can know which key is on by checking the states of the many keys 37 via the key matrix circuit 36.

第4図は、本発明の電子翻訳機を実際に装着して使用し
ている様子を示した図である。
FIG. 4 is a diagram showing how the electronic translator of the present invention is actually installed and used.

使用者は、眼鏡形式の保持機構を丁度眼鏡をかけるのと
同じように装着する。またイヤホン17が備えられてい
れば、耳にはめる。
The user puts on the eyeglass-style retention mechanism just as one would put on eyeglasses. Also, if earphones 17 are provided, they are placed in the ears.

原稿40上の斜線で示した領域41が、カメラ8で実際
に取り込まれる範囲である。また照射器9から照射され
るレーザー光43は原稿40上に当たり光斑42を生ず
る。照射器9の位置を調整すれば任意に抽出開始点を設
定できる。そのため保持機構を装着して正面を向いてカ
メラの画角の中心と、使用者の眼の向いている位置を合
わせて、光斑42が領域41の左隅近くにあるようにし
ておく0通常横書きの文では左から読むのでこのような
設定にしておくと入力したい文字画像をざっと見るだけ
で容易に入力できる。
A shaded area 41 on the original 40 is the range that is actually captured by the camera 8. Further, the laser beam 43 irradiated from the irradiator 9 hits the original 40 and produces light spots 42 . By adjusting the position of the irradiator 9, the extraction starting point can be set arbitrarily. For this reason, attach the holding mechanism, face forward, align the center of the camera's angle of view with the position where the user's eyes are facing, and make sure that the light spot 42 is near the left corner of the area 41. Text is read from the left, so if you set it like this, you can easily input the text by just looking at the image of the character you want to input.

また、照射光を波長の違いで検出する場合、照射器9を
保持機構7に必ずしも載せる必要はない。
Moreover, when detecting irradiated light by different wavelengths, it is not necessarily necessary to place the irradiator 9 on the holding mechanism 7.

光斑42ができればよいので、照射器9を別にして別方
向から照射しても構わない。
Since it is sufficient to form a light spot 42, a separate irradiator 9 may be used to irradiate from another direction.

第5図は、取り込んだ文字画像から特定の文字列を抽出
する方法の一例を示した図である。
FIG. 5 is a diagram showing an example of a method for extracting a specific character string from a captured character image.

第5図(a)は、カメラで取り込んだ画像の一部を示し
たもので、複数の文字列が並んでいる。
FIG. 5(a) shows part of an image captured by a camera, in which a plurality of character strings are lined up.

なお図の中のr、1は、途中の文字を省略したもので以
下このような意味で使用するものとする。
In addition, r and 1 in the figure are used with intermediate characters omitted, and will be used hereinafter with this meaning.

第5図(a)上の始点50は、照射光のある位置である
6文字列はこの照射光の位置にある文字を先頭に、文を
抽出する場合は、文の最後を示すピリオド51がある部
分までの範囲を文字列として抽出する。第5図(a)の
例では、 rThelからrGamelまでの部分であ
る0文字列の切り出しは前後の空白部分の長さから判定
して行われる。
The starting point 50 in FIG. 5(a) is the position where the irradiation light is located. In a six-character string, the character at the position of the irradiation light is the first character. When extracting a sentence, the period 51 indicating the end of the sentence is the starting point 50. Extract a range up to a certain part as a string. In the example of FIG. 5(a), the 0 character string from rThel to rGamel is extracted based on the length of the preceding and following blank parts.

次に、始点50からピリオド51までを抽出する手順の
一例を説明する。
Next, an example of a procedure for extracting from the starting point 50 to the period 51 will be explained.

まず本型子11訳機の眼鏡形式の保持機構を装着調整後
、レーザー光を原稿紙面上に照射する0例えば、第5図
(a)のrThe  first3から翻訳をさせたい
時、一番先頭の文字である「The3の°T”の付近に
レーザー光が当たるようにする。照射位置が定まったと
ころで、読み取りキー12を押す。
First, after attaching and adjusting the glasses-like holding mechanism of the Honmata 11 translation machine, a laser beam is irradiated onto the manuscript paper.For example, when you want to translate from rThe first 3 in Figure 5 (a), Make sure that the laser beam hits the vicinity of the letters "The3°T". When the irradiation position is determined, the reading key 12 is pressed.

抽出開始点を、光の波長でレーザー光で検出する場合は
、この時点で取り込んだ画像からレーザー光による光斑
を捜し、光斑の位置と文字画像を重ねることで抽出開始
をすべき先頭文字を決める。
When detecting the extraction start point using a laser beam based on the wavelength of the light, search for a light spot caused by the laser light in the image captured at this point, and determine the first character to start extraction by overlapping the position of the light spot and the character image. .

また、画角のどの位置を開始点にするか決まっている方
法では、取り込んだ文字画像と事前に決めた座標の値を
重ねて抽出開始をすべき先頭文字を決める。どの方法で
も、操作者の指定した位置と実際の文字画像とはズレが
生ずるが、指定した位置付近の文字画像の周辺分布を調
べることで、どの文字か推測することができる。
In addition, in a method in which the position in the angle of view is determined as the starting point, the first character to start extraction is determined by overlapping the captured character image with predetermined coordinate values. Regardless of the method, there will be a discrepancy between the position specified by the operator and the actual character image, but by examining the peripheral distribution of the character image near the specified position, it is possible to infer which character it is.

このようにして取り込んだ文字画像で、検出した抽出開
始点より順に文字列を追ってゆき、最後のピリオドを見
つけた時点で、そこを終点とする。
In the character image captured in this way, the character strings are traced in order from the detected extraction start point, and when the last period is found, that is set as the end point.

つまり一度始点を指定すれば、−文の抽出が自動的に行
われる0以上のようにして、第5図(b)のように目的
の文字列を抽出することできる。
In other words, once the starting point is specified, the target character string can be extracted as shown in FIG. 5(b) by automatically extracting - sentences such as 0 or more.

第6図は、取り込んだ文字画像からある単語を抽出する
方法の一例を示した図である。
FIG. 6 is a diagram showing an example of a method for extracting a certain word from an imported character image.

まず、単語抽出をこれから行うので、第5図で説明した
文の抽出と異なるので、機能を切り換える必要がある。
First, since word extraction is now to be performed, it is different from the sentence extraction described in FIG. 5, so it is necessary to switch the function.

これは機能キー14で行ってもよいし、画像入力時の読
み取りキー12を押す時間などの方法をとってもよい。
This may be done by using the function keys 14, or by determining the amount of time the reading key 12 is pressed during image input.

単語抽出は、レーザー光を抽出したい単語の先頭付近に
当てる(第6図(a))、  今は、 rwhenJの
“W”に光斑52がある。抽出は“W”を先頭とし、順
に文字を追ってゆき前後の空白部分の長さから単語を切
り出す、このようにして、IWhervlが抽出される
(第6図(b))。
To extract a word, a laser beam is applied to the vicinity of the beginning of the word to be extracted (FIG. 6(a)). There is now a light spot 52 on the "W" of rwhenJ. For extraction, start with "W", follow the letters in order, and cut out the word based on the length of the blank space before and after it. In this way, IWhervl is extracted (FIG. 6(b)).

以上のようにして、長い文でも単語でも抽出を開始した
い部分を、レーザー光を当てて指定することにより、目
的の文字列を自動的に抽出することができる。抽出後は
、抽出した文字列を個々の文字として認識し、後処理が
容易なようにコード化される。
As described above, by specifying the part of a long sentence or word from which you want to start extraction by shining a laser beam on it, the desired character string can be automatically extracted. After extraction, the extracted character strings are recognized as individual characters and encoded for easy post-processing.

第7図は、認識した文と翻訳文の表示例を示した図であ
る。なお単語の場合は、認識単語と和訳・用例の表示と
なる。
FIG. 7 is a diagram showing a display example of recognized sentences and translated sentences. In the case of words, the recognized word, Japanese translation, and usage examples are displayed.

まず、認識した文は一度全文が表示される(第7図(a
))、  操作者は、表示された文を見て誤認識がない
か確認する。もし誤りがあれば、訂正箇所にブリンク5
3をカーソルキー16などを使って移動し、アルファベ
ット・数字キー15で訂正するか再入力・認識を行う。
First, the entire text of the recognized sentence is displayed once (Figure 7 (a)
)), the operator looks at the displayed sentence and confirms that there are no misrecognitions. If there is an error, please click 5 on the corrected part.
3 using the cursor keys 16, etc., and use the alphabet/numeric keys 15 to correct or re-enter/recognize.

誤りがない正しい文が得られたら、翻訳キー13を押す
と翻訳が行われその結果が表示される(第7図(b))
、  この状態で、もう−度翻訳キー13を押すと認識
した元の文(第7図(a))の表示にもどる。
When a correct sentence with no errors is obtained, press the translation key 13 to perform the translation and display the result (Figure 7(b))
In this state, if the translation key 13 is pressed again, the display returns to the original recognized sentence (FIG. 7(a)).

本実施例では、英語の文を入力し日本語に翻訳する場合
について述べたが、読み取る文字は他の欧文や日本語で
も可能であり、翻訳する言語もいろいろ変えることがで
きる。これは認識や翻訳のためのデータ・プログラム、
キャラクタROMを変更したり、外部からの情報(通信
、外部記憶装置、例えばハードディスク、CD−ROM
など)を与えることで対応できる。
In this embodiment, a case has been described in which an English sentence is input and translated into Japanese, but the characters to be read can be other European languages or Japanese, and the language to be translated can also be changed. This is a data program for recognition and translation,
You can change the character ROM or receive information from outside (communications, external storage devices such as hard disks, CD-ROMs, etc.)
etc.).

また、音声出力により結果を知ることができれば、いち
いち結果を見るため目をそらせる必要がなく原稿を継続
的に読むことができる。これは分らない単語を次々と調
べていく場合に有効で、文章の大意を速くつかむことが
可能である。
Furthermore, if the results can be known through audio output, the manuscript can be read continuously without the need to look away to see the results one by one. This is effective when looking up unknown words one after another, and allows you to quickly grasp the gist of the text.

第2図の例のように、レーザー光照射装置とカメラは眼
鏡形式の保持機構で一体化されているが先に述べたよう
に目的の文字列が抽出できるならば、カメラと照射装置
は一体型でも分離型でもよい、また必ずしもカメラを顔
の正面に位置させることもない。
As shown in the example in Figure 2, the laser beam irradiation device and camera are integrated using a glasses-like holding mechanism, but if the desired character string can be extracted as described above, the camera and the irradiation device can be integrated. It can be a body type or a separate type, and the camera is not necessarily positioned in front of the face.

〔発明の効果〕〔Effect of the invention〕

以上述べたように、本発明の電子翻訳機は画像入力をカ
メラで行い、抽出したい文字列の指定を原稿紙面に光線
を照射して行うことで行うので、長い文から短い単語ま
で容易に抽出することができる。
As described above, the electronic translator of the present invention inputs images using a camera, and specifies the character string to be extracted by shining a light beam onto the manuscript paper, making it easy to extract everything from long sentences to short words. can do.

画像入力はカメラで行うため広範囲の画像入力が可能で
あり、特に文の入力に向いている。また文字列の抽出は
、−旦入力した画像を見て範囲指定する前処理が不用で
あり、ただ抽出開始点を指定するだけなので、文字列の
高速入力、処理が実現できる。
Since image input is performed using a camera, a wide range of image input is possible, and it is particularly suitable for inputting sentences. In addition, character string extraction does not require preprocessing of specifying a range by looking at an input image, and only specifies an extraction start point, making it possible to realize high-speed input and processing of character strings.

一方、抽出開始点の検出には、カメラと光線の照射装置
のみで、機構的部分が非常に少なく構造も単純なので安
価でつくることができる。
On the other hand, detection of the extraction starting point requires only a camera and a light beam irradiation device, and the structure is simple and has very few mechanical parts, so it can be manufactured at low cost.

また、位置は光線で知らせるので、操作者はその都度表
示を見るために、目を原稿紙面からそらせる必要がなく
なり疲労が軽減される。
In addition, since the position is notified by light beams, the operator does not have to turn his eyes away from the document surface to see the display each time, which reduces fatigue.

本機は、入力した画像を認識してその文や単語の翻訳や
訳を得るものだが、前処理が不用な画像入力の方法を採
っているので、各種端末の文字入力専用機としても使用
することが可能という効果を得る。
This machine recognizes the input image and obtains the translation of the sentence or word, but since it uses an image input method that does not require pre-processing, it can also be used as a dedicated character input machine for various terminals. This has the effect of making it possible.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の電子翻訳機の基本構成について示し
た図。 第2図は、本発明の電子翻訳機の外観の一例を示した図
。 第3図は、本発明の電子翻訳機の回路構成の一例を示し
たブロック図。 第4図は、本発明の電子II翻訳機実際に装着して使用
している様子を示した図。 第5図は、取り込んだ文字画像から特定の文字列を抽出
する方法の一例を示した図。 第6図(a)(b)は、取り込んだ文字画像からある単
語を抽出する方法の一例を示した図。 第7図(a)(b)は、認識した文と翻訳文の表示例を
示した図である。 1・・・画像入力手段 2・・・抽出開始点検出手段 3・・・文字列抽出手段 4・・・文字認識手段 5・・・翻訳手段 6・・・表示手段 7・・・保持機構 8・・・カメラ 9・・・照射器 10・・・■羽訳機本体 11・・・表示器 12・・・読み取りキー 13・・・翻訳キー 14・・・81能キー 15・・・アルファベット・数字キー 16・・・カーソルキー 17・・・イヤホン 20・・・レンズ 21・・・CODエリアセンサー 22・・・COD制御部 23・・・コンパレーター 24・・・メモリー制御部 25・・・フィールドメモリー 26・・・CPU 27・・・レーザー光制御部 28・・・LCD制御部 29・・・キャラクタROM 30・・・LCD 31・・・RAM 32・・・ROM 33・・・音声合成部 34・・・増幅器 35・・・スピーカー 36・・・キーマトリックス回路 37・・・キー 40・・・原稿 41・・・領域 42・・・光斑 43・・・レーザー光 50・・・始点 51・・・ピリオド 52・・・光斑 53・・・プリンク 以  上
FIG. 1 is a diagram showing the basic configuration of an electronic translator according to the present invention. FIG. 2 is a diagram showing an example of the external appearance of the electronic translator of the present invention. FIG. 3 is a block diagram showing an example of the circuit configuration of the electronic translator of the present invention. FIG. 4 is a diagram showing the electronic II translator of the present invention being actually installed and used. FIG. 5 is a diagram showing an example of a method for extracting a specific character string from an imported character image. FIGS. 6(a) and 6(b) are diagrams showing an example of a method for extracting a certain word from an imported character image. FIGS. 7(a) and 7(b) are diagrams showing display examples of recognized sentences and translated sentences. 1... Image input means 2... Extraction start point detection means 3... Character string extraction means 4... Character recognition means 5... Translation means 6... Display means 7... Holding mechanism 8 ... Camera 9 ... Irradiator 10 ... ■ Feather translation machine body 11 ... Display 12 ... Reading key 13 ... Translation key 14 ... 81 Function key 15 ... Alphabet Numeric key 16...Cursor key 17...Earphone 20...Lens 21...COD area sensor 22...COD control section 23...Comparator 24...Memory control section 25...Field Memory 26...CPU 27...Laser light control unit 28...LCD control unit 29...Character ROM 30...LCD 31...RAM 32...ROM 33...Speech synthesis unit 34 ... Amplifier 35 ... Speaker 36 ... Key matrix circuit 37 ... Key 40 ... Document 41 ... Region 42 ... Light spot 43 ... Laser light 50 ... Starting point 51 ...・Period 52...Light spot 53...Plink or more

Claims (3)

【特許請求の範囲】[Claims] (1)原稿紙面上の文字列を画像データとして読み取る
画像入力手段と、原稿紙面上に光線を投射し原稿紙面上
の文字列の抽出開始点を検出する抽出開始点検出手段と
、前記画像入力手段による画像データと前記抽出開始点
検出手段からの情報から必要な文字列を取り出す文字列
抽出手段と、前記文字列抽出手段で取り出された文字列
に対し、個々の文字として認識を行いかつ認識に必要な
データ等記憶している文字認識手段と、前記文字列抽出
手段と文字認識手段で得られた単語や文に対する訳や翻
訳を行い、かつ訳や翻訳に必要なデータ等記憶している
翻訳手段と、前記文字認識手段と翻訳手段の結果及び前
記画像入力手段や抽出開始点検出手段や文字列抽出手段
の状態について表示を行う表示手段とから構成されるこ
とを特徴とする電子翻訳機。
(1) An image input means for reading a character string on the manuscript surface as image data; an extraction start point detection means for projecting a light beam onto the manuscript surface to detect the extraction start point of the character string on the manuscript surface; and the image inputting means. character string extraction means for extracting a necessary character string from the image data obtained by the means and information from the extraction start point detection means; and character string extraction means for recognizing and recognizing the character string extracted by the character string extraction means as individual characters. a character recognition means that stores data necessary for the translation, and translates and translates the words and sentences obtained by the character string extraction means and the character recognition means, and stores data necessary for the translation and translation. An electronic translation machine comprising: a translation means; and a display means for displaying the results of the character recognition means and the translation means and the states of the image input means, extraction start point detection means, and character string extraction means. .
(2)認識・翻訳結果や内部状態等を音声にて操作者に
知らせる音声合成手段を備えたことを特徴とする請求項
1記載の電子翻訳機。
(2) The electronic translator according to claim 1, further comprising a voice synthesizing means for notifying the operator of the recognition/translation result, internal state, etc. by voice.
(3)文字列の取り込みが画像入力のほかにキー入力も
可能なキー入力手段を備えたことを特徴とする請求項1
記載の電子翻訳機。
(3) Claim 1 characterized in that the device is equipped with a key input means capable of inputting a character string by key input in addition to inputting an image.
Electronic translator as described.
JP1031604A 1989-02-10 1989-02-10 electronic translator Pending JPH02211580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1031604A JPH02211580A (en) 1989-02-10 1989-02-10 electronic translator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1031604A JPH02211580A (en) 1989-02-10 1989-02-10 electronic translator

Publications (1)

Publication Number Publication Date
JPH02211580A true JPH02211580A (en) 1990-08-22

Family

ID=12335805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1031604A Pending JPH02211580A (en) 1989-02-10 1989-02-10 electronic translator

Country Status (1)

Country Link
JP (1) JPH02211580A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0435349A2 (en) * 1989-12-28 1991-07-03 Fujitsu Limited Document revising system for use with document reading and translating system
JPH04344581A (en) * 1991-05-21 1992-12-01 Sharp Corp Optical character reader

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0435349A2 (en) * 1989-12-28 1991-07-03 Fujitsu Limited Document revising system for use with document reading and translating system
US5222160A (en) * 1989-12-28 1993-06-22 Fujitsu Limited Document revising system for use with document reading and translating system
JPH04344581A (en) * 1991-05-21 1992-12-01 Sharp Corp Optical character reader

Similar Documents

Publication Publication Date Title
JP2758952B2 (en) Display Method for Japanese Document Reading and Translation System at Correction
CN104966084A (en) OCR (Optical Character Recognition) and TTS (Text To Speech) based low-vision reading visual aid system
US4962432A (en) Selective retrieval of data from microfilm images of different forms by reading a memory index form cord (bar code) recorded on each image frame
CN112836703B (en) Method for portable electronic device and portable electronic device
US20180107872A1 (en) Microform Word Search Method and Apparatus
JPH02211580A (en) electronic translator
US11756320B2 (en) High-speed OCR decode using depleted centerlines
CN204856534U (en) System of looking that helps is read to low eyesight based on OCR and TTS
CN114138112A (en) Efficient polymerization OCR input method of head-mounted intelligent equipment product
JPH10177623A (en) Document recognizing device and language processor
JPH03172965A (en) electronic translator
JP6458358B2 (en) Image processing apparatus and program
JPS61150081A (en) Character recognizing device
JPS62179075A (en) On-line based handwritten character recognition device
Velmurugan et al. A Next-Gen Automated Reading Companion for the Visually Impaired
KR100582514B1 (en) Character recognition device and method
JP2005267380A (en) Display character translation apparatus and computer program
JP2011186945A (en) Image processing device, image processing method and program
JPH09218918A (en) Character recognition device and control method therefor
WO2021084761A1 (en) Image reading device
JPH1078844A (en) Information inputting device by camera and medium for recording program for the same
JPH05189614A (en) Optical character reader
TWI386823B (en) Portable wireless language real-time recognition and translation apparatus and method thereof
JP2001034706A (en) Braille reader
JPH02194470A (en) Electronic translation machine