JPH0155507B2 - - Google Patents
Info
- Publication number
- JPH0155507B2 JPH0155507B2 JP56039077A JP3907781A JPH0155507B2 JP H0155507 B2 JPH0155507 B2 JP H0155507B2 JP 56039077 A JP56039077 A JP 56039077A JP 3907781 A JP3907781 A JP 3907781A JP H0155507 B2 JPH0155507 B2 JP H0155507B2
- Authority
- JP
- Japan
- Prior art keywords
- memory
- information
- audio
- voice
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 238000007906 compression Methods 0.000 description 15
- 230000006835 compression Effects 0.000 description 15
- 239000002245 particle Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 235000016496 Panda oleosa Nutrition 0.000 description 4
- 240000000220 Panda oleosa Species 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 241000102542 Kara Species 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
【発明の詳細な説明】
本発明は異なる言語間で言語翻訳を行なう電子
式翻訳機に係り、特に入力した言語、或いは翻訳
した結果を音声出力することのできる電子式翻訳
機に関するものである。DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an electronic translator that performs language translation between different languages, and particularly to an electronic translator that can output an input language or a translated result as a voice.
従来、外部入力した文章或いは翻訳した結果を
音声出力できる電子式翻訳機が提供されている。
例えば、予め例文と、それを音声出力するための
情報を幾つもの例文について単にメモリーに記憶
しておき、キー操作によつて所望の例文を検索
し、相当する音声情報によつて音声報知を行なう
もの、などがある。 2. Description of the Related Art Conventionally, electronic translators have been provided that can output externally input sentences or translated results as audio.
For example, example sentences and information for outputting them aloud are simply stored in memory for a number of example sentences in advance, a desired example sentence is retrieved by key operation, and audio notification is performed using the corresponding audio information. There are things, etc.
この方法は少ないメモリー容量に多くの例文を
貯えることができないばかりか、メモリーに音声
情報が記憶されていない例文を音声出力できない
といつた欠点があつた。 This method not only cannot store a large number of example sentences in a small memory capacity, but also has the disadvantage that example sentences for which audio information is not stored in the memory cannot be output as audio.
本発明は上述の従来の電子式翻訳機の諸欠点に
基づいてなされたもので、特に音声情報がメモリ
ーに記憶されていない例文や単語についても簡易
的に音声報知できる電子式翻訳機を得るようにし
たものである。 The present invention has been made based on the above-mentioned drawbacks of conventional electronic translators, and particularly aims to provide an electronic translator that can easily notify voice information even for example sentences and words for which voice information is not stored in memory. This is what I did.
本発明による電子式翻訳機の特徴事項を列挙す
れば次の通りである。 The features of the electronic translator according to the present invention are listed below.
(1) メモリーに予め記憶される文や語の各種文字
に対応する音声情報をメモリーに貯え、完全な
音声出力の不可能な文や語でも、その綴りを音
声できるようにすることである。(1) It is possible to store in memory audio information corresponding to various characters of sentences and words that are stored in advance in memory, and to be able to pronounce the spelling of sentences and words that cannot be completely output aloud.
この方法によれば少ない音声情報でも文や語
の音声報知が可能となる。また翻訳結果を転記
する場合にも音声出力を聞きながら容易に行な
うことができる。 According to this method, voice notification of sentences and words can be made even with a small amount of voice information. Furthermore, when transcribing the translation result, it can be easily done while listening to the audio output.
(2) また前記各種文字に対応する音声情報を基
に、文字キーの操作による文字入力時に、その
文字に対応する音声を出力することである。(2) Also, based on the audio information corresponding to the various characters, when a character is input by operating a character key, the audio corresponding to the character is output.
電子式翻訳機に於て、音声報知が必要な場合
は、翻訳語つまり他国語に対してであるが母国
語のキー入力時に於いても、キー操作の確認が
できる。また特に日本語の場合は、そのまま言
葉として発音されることになり、確認を容易に
行うことができる。また盲人用としても使用す
ることができる。 If voice notification is required in an electronic translator, key operations can be confirmed not only for the translated language, that is, a foreign language, but also when inputting keys in the native language. Furthermore, especially in the case of Japanese, the words are pronounced as they are, making it easy to confirm. It can also be used for blind people.
(3) キーより入力した語や文を各文字ごとに、或
いはある程度のつながりをもつてしかも繰返え
して音声出力できることである。(3) It is possible to output words and sentences entered using the keys character by character or repeatedly with some degree of connection.
一般に、カナ文字を入力する場合、濁音や半
濁音の文字は清音キーと濁音キーや半濁音キー
とを組み合わせて入力するが、音声報知をする
場合は普通に発音することができる。 Generally, when inputting kana characters, voiced or semi-voiced characters are input using a combination of a clear sound key and a voiced sound key or a semi-voiced sound key, but when making a voice notification, they can be pronounced normally.
また、ドイツ語のウムラウト等に関しても同
様である。 The same applies to German umlauts, etc.
また、日本語のテ、ニ、ヲ、ハ、ノ、ガ、
ト、ヘ、ヨリ、カラ等の助詞を発音する場合
は、その前の語に続けて音声出力することが普
通であり自然である。本発明によれば予めメモ
リーに記憶されている文章を音声出力する場
合、助詞と助詞が付く語を連続的に音声出力さ
せることができる。これはキーより入力した文
章に関しても同様である。 Also, the Japanese words te, ni, wo, ha, no, ga,
When pronouncing particles such as ``to'', ``he'', ``yori'', and ``kara'', it is normal and natural to output the words following the previous word. According to the present invention, when a sentence that has been stored in a memory in advance is to be outputted as a voice, it is possible to continuously output particles and words with particles attached thereto. This also applies to sentences input using the keys.
上記助詞で特に“ハ”は“ワ”、“ヘ”は
“エ”と発音されるが、この様な場合でも本発
明によれば、より自然な発音で音声出力が行わ
れる。さらに、メモリーに予め記憶されている
例文、或いはキー入力した文章に対しても、つ
ながりの多い文字の組み合せに対しては圧縮コ
ードに変換された後、音声出力するが、例えば
“マスカ”や“デスカ”等の音声情報を圧縮コ
ードに対応させて、予めメモリーに記憶してい
るため、少ないメモリー容量でつながりの良い
言葉を音声出力することができる。 Among the particles mentioned above, in particular, "ha" is pronounced as "wa" and "he" is pronounced as "e", but even in such cases, according to the present invention, audio output is performed with more natural pronunciation. Furthermore, for example sentences pre-stored in memory or sentences input using the keypad, combinations of characters with many connections are converted into compressed codes and then output as audio. Since audio information such as "Deska" is stored in memory in advance in correspondence with a compressed code, it is possible to output well-connected words as audio with a small memory capacity.
以下、実施例に基づいて本発明の電子式翻訳機
を詳細に説明する。 EMBODIMENT OF THE INVENTION Hereinafter, the electronic translation machine of this invention will be explained in detail based on an Example.
第1図は本発明の一実施例の外観を示す平面図
である。 FIG. 1 is a plan view showing the appearance of an embodiment of the present invention.
図に於て、1はキー部であり、該キー部1はア
ルフアベツト、カタカナまたは記号等を入力する
キー及び翻訳等の各種機能を実行させるフアンク
シヨンキー、から成る。また2は表示部であり、
該表示部2は文字表示部3、現在指定されている
母国語(入力言語)及び他国語(出力言語)を示
すシンボルを表示する言語表示部4、並びに設定
状態等を示す各種シンボルを表示する各種シンボ
ル表示部5からなる。また17はモード切換え及
び電源スイツチである。 In the figure, 1 is a key section, and the key section 1 is composed of keys for inputting alphabets, katakana, symbols, etc., and function keys for executing various functions such as translation. Further, 2 is a display section,
The display section 2 displays a character display section 3, a language display section 4 that displays symbols indicating the currently designated native language (input language) and foreign language (output language), and various symbols indicating setting status, etc. It consists of various symbol display sections 5. Further, 17 is a mode changeover and power switch.
所望の例文を呼び出し、その訳文を出力させる
ためには次の様に操作する。 To call up a desired example sentence and output its translation, proceed as follows.
スイツチ17を文モードとし、所望のカテゴリ
ーキーを操作する。カテゴリーキーはキー部1の
L字状に配置されているキー(「ラ」〜「オ」及
び「スペース」キー)であり、「食事」のカテゴ
リーであれば「ロ」のキーを押す。このキーを何
度か押すことによつて、次々と「食事」のカテゴ
リーに属する例文が表示される。所望の例文が表
示されれば「翻訳」キーを押すことによつて、そ
の訳文を表示させ、しかもその対応する音声が出
力される。単語について行なう場合はスイツチ1
7を語モードとする。また、スイツチ17を辞書
モードとすれば、文字キーより単語や文章を入力
しその翻訳を行うことができる。この場合前記カ
テゴリーキーは文字キーとして動作する。また、
文字キー入力時毎にその文字の発音が行われ、発
声キーの操作によつて入力した単語や文章の綴り
を一音ごとに連続的に発声する。 Set the switch 17 to sentence mode and operate the desired category key. The category keys are keys arranged in an L-shape on the key part 1 ("A" to "O" and "Space" keys), and if the category is "Meals", the "B" key is pressed. By pressing this key several times, example sentences belonging to the "meal" category are displayed one after another. When the desired example sentence is displayed, by pressing the "translation" key, the translated sentence is displayed and the corresponding audio is output. If you want to do this about words, switch 1.
7 is set to word mode. Furthermore, if the switch 17 is set to dictionary mode, words or sentences can be input and translated using the character keys. In this case, the category key operates as a character key. Also,
Each time a character key is input, the character is pronounced, and the spelling of the word or sentence input by operating the voice key is continuously uttered sound by sound.
第2図は同実施例のシステム構成を示すブロツ
ク図である。 FIG. 2 is a block diagram showing the system configuration of the same embodiment.
2は、第1図に示した表示部であり、該表示部
2に於ける文字表示、各シンボルの点灯、非点灯
等は表示駆動制御用IC6よりの出力信号によつ
て制御される。7は、第1図に示したキー部1を
構成するキーマトリツクス回路であり、9,10
及び11はそれぞれROMモジユールであり、電
子式翻訳機に於ける文章、単語等の言語及び音声
の情報を収容している。 Reference numeral 2 denotes the display section shown in FIG. 1, and character display, lighting and non-lighting of each symbol, etc. on the display section 2 are controlled by an output signal from the display drive control IC 6. 7 is a key matrix circuit constituting the key unit 1 shown in FIG. 1;
and 11 are ROM modules, respectively, which accommodate linguistic and audio information such as sentences and words in the electronic translator.
これら言語ROM9,10及び11は、アドレ
スバス12及びデータバス13によつて、1チツ
プマイクロコンピユータ8と結合されており、
CE1,CE2,CE3,CE5,CE6,CE7のチツプセレ
クト信号によつて所定のROMを選択すれば、該
選択されたROMより各種情報を読み出すことが
できる。なお、CE4は表示駆動制御用IC6のチツ
プセレクト信号である。9は、その内部に4つの
ROMを持つモジユールであり、10は音声情報
を記憶しない言語のみの情報を記憶する一つの
ROMを持つモジユール、11は音声情報を記憶
するROM、或いは言語情報を記憶するROMを
一つ内蔵するモジユールである。14は音声信号
出力またはキーストローブ信号を出力するための
ラツチ回路であり、信号Pによつてデータバス1
3のデータをラツチする。15は14のラツチ回
路出力をD/A変換しスピーカ16を駆動するた
めの駆動回路である。またキー読み込みの場合は
14のラツチ出力をキーストローブ信号としてキ
ーマトリツクス回路7へ出力する。ラツチ出力は
またCE5,CE6,CE7のチツプセレクト信号を出
力するためにも使用される。信号PUは駆動回路
15の電源のON/OFFを切換えると共にチツプ
セレクト信号を作成するためのゲートに入力され
る。ラツチ回路14は音声出力中にその内容が変
化するため、この様にして得られたチツプセレク
ト信号CE5,CE6,CE7は言語ROMのチツプセレ
クト信号として使用される。例えば、モジユール
9には日本語の言語ROM、英語の言語ROM、
英語の音声ROM、アルフアベツトとカナの単音
の音声ROMが内蔵されている。モジユール10
には例えばドイツ語の言語ROMが、モジユール
11にはドイツ語の音声ROMが内蔵されてい
る。第3図は、前記モジユール内のROMフオー
マツトを示す図である。 These language ROMs 9, 10 and 11 are connected to a one-chip microcomputer 8 by an address bus 12 and a data bus 13.
By selecting a predetermined ROM using the chip select signals CE 1 , CE 2 , CE 3 , CE 5 , CE 6 , and CE 7 , various information can be read from the selected ROM. Note that CE4 is a chip select signal of the display drive control IC6. 9 has four inside it
It is a module with ROM, and 10 is a module that stores only language information without storing voice information.
A module 11 having a ROM is a module having a built-in ROM for storing voice information or language information. 14 is a latch circuit for outputting an audio signal or a key strobe signal;
Latch the data of 3. Reference numeral 15 denotes a drive circuit for D/A converting the output of the latch circuit 14 and driving the speaker 16. In the case of key reading, the latch output of 14 is outputted to the key matrix circuit 7 as a key strobe signal. The latch outputs are also used to output the CE 5 , CE 6 , and CE 7 chip select signals. The signal PU is input to a gate for switching ON/OFF of the power supply of the drive circuit 15 and for generating a chip select signal. Since the contents of the latch circuit 14 change during audio output, the chip select signals CE 5 , CE 6 and CE 7 obtained in this way are used as chip select signals for the language ROM. For example, module 9 has a Japanese language ROM, an English language ROM,
It has built-in English voice ROM, Alphabet and kana voice ROM. module 10
For example, the module 11 has a built-in German language ROM and a German voice ROM. FIG. 3 is a diagram showing the ROM format within the module.
言語ROMは、大きく分けて、文章データ、単
語データ圧縮テーブルから成り立つている。 Language ROM is broadly divided into text data and word data compression tables.
単語は、綴がそのまま記憶されているのではな
く、圧縮されて言語ROM内に収容されている。
例えば、日本語ROMの場合であれば、ギヤとい
う綴(文字列)は1つの圧縮コード(1バイトの
コード)CC1に変換されて、またギヤという綴は
圧縮コードCC2に変換されて記憶されている。同
様に、英単語に於てその現出頻度の高い綴をいく
つか選定し、該選定された綴はそれぞれ対応する
圧縮コードに変換して記憶させている。そして、
上記選定された各綴と圧縮コードとの対応が、上
記圧縮テーブル領域に記憶されている。更に述べ
るならば、入力文字と言語ROMに記憶された単
語との一致をとる場合には、上記入力単語を上記
圧縮テーブルに基づいて圧縮コードを含むコード
列に変換した後、言語ROMに記憶された単語
(圧縮コードを含むコード列の形で記憶されてい
る)と順次比較していく構成となつている。ま
た、言語ROM内に記憶されている単語を表示さ
せるため、元の綴に戻す場合も、上記圧縮テーブ
ルが用いられる。 Words are not stored in their original spellings, but are compressed and stored in the language ROM.
For example, in the case of Japanese ROM, the spelling ``Giya'' (character string) is converted to one compression code (1-byte code) CC 1 , and the spelling ``Giya'' is converted to the compression code CC 2 and stored. has been done. Similarly, some frequently occurring spellings of English words are selected, and each of the selected spellings is converted into a corresponding compressed code and stored. and,
The correspondence between each of the selected spellings and the compression code is stored in the compression table area. More specifically, when matching input characters with words stored in the language ROM, the input words are converted into a code string including a compressed code based on the compression table, and then the words are stored in the language ROM. The structure is such that the words (stored in the form of a code string including compressed codes) are sequentially compared. The compression table is also used when restoring words stored in the language ROM to their original spelling in order to display them.
圧縮テーブルは、各言語によつて異なつてい
て、各言語毎に最も圧縮率が高くなるように決め
られている。 The compression table differs depending on each language, and is determined to give the highest compression rate for each language.
また単語と文章はカテゴリー別に分類され、各
カテゴリー毎に順次配置されている。一方音声
ROMは、第3図2に示す様に大別すると文字テ
ーブル、単語テーブル、文章テーブル、音声デー
タを記憶する領域より成り立つている。文字テー
ブルはアルフアベツトや50音等の各文字及び圧縮
コードに対応する発音を行なうため、音声データ
を検索するためのテーブル、単語テーブルは各単
語に対応する発音を行うため音声データを検索す
るためのテーブル、同じく文章テーブルは各例文
に対応する発音を行なうためのテーブルである。
これらのテーブルは、各文字、各単語、或いは各
例文ごとに音声情報の存在の有無を記憶すると共
に、存在する場合は対応する音声データのアドレ
ス情報が記憶されている。尚、識別コードはその
ROMが言語ROMなのか音声ROMなのかの区別
や言語の種類を識別するためのコードが予め記憶
されているものである。 In addition, words and sentences are classified into categories and arranged in order for each category. On the other hand audio
As shown in FIG. 3, the ROM is roughly divided into a character table, a word table, a sentence table, and an area for storing audio data. The character table is a table for searching audio data in order to perform the pronunciation corresponding to each character and compression code such as alphabets and 50 sounds, and the word table is a table for searching audio data in order to perform the pronunciation corresponding to each word. The table and the sentence table are tables for pronunciation corresponding to each example sentence.
These tables store the presence or absence of audio information for each character, each word, or each example sentence, and if so, address information of the corresponding audio data is stored. In addition, the identification code is
Codes are stored in advance to distinguish whether the ROM is a language ROM or a voice ROM and to identify the type of language.
第4図は本発明実施例である電子式翻訳機の動
作を示すフローチヤートである。 FIG. 4 is a flowchart showing the operation of an electronic translator according to an embodiment of the present invention.
以下その動作説明を行なう。 The operation will be explained below.
電源がONされれば、先ずモードスイツチ16
の状態つまり、文章モードであるか、単語モード
であるかを読み込み、続いて、キーの状態を読み
込む。今、所望のカテゴリーキーが押されていれ
ば、そのカテゴリーに属する例文又は単語がメモ
リーより読み出される(n5→n7→n8)。また、こ
の時読み出された例文又は単語が音声情報を持つ
ているかどうか、前述の音声ROMより検索す
る。つまり、先ず装着されているモジユール内に
母国語の音声ROMが存在するかどうかを判別す
る。存在すれば、前述の文章テーブル或いは単語
テーブルを検索し、音声情報を記憶しているか否
か判別する。読み出された例文又は単語が表示さ
れる。その後発生キーを押せば、その内容が音声
出力される。音声情報がROMに記憶されていた
ならば完全声出力が行われる(n10→n11)。つま
り、前述の文章テーブル或いは単語テーブルに基
づいて音声情報が読み出され音声出力が行われ
る。音声情報が記憶されておらず、文字に対する
音声情報を記憶している場合は、読み出された文
章又は単語を一音ごとに者声する(n12→n13)。
また、何れの音声情報も記憶されていなければ
“ピピピ”などの特定音が出力される(n12→
n14)。次に同一のカテゴリーキーを押せば、同一
カテゴリーの次の例文或いは単語がメモリーより
読み出される(n7→n15→n8)。この様にして、所
望の文章或いは単語を呼び出した後翻訳キーを押
せば他国語として指定されているROMより訳文
或いは訳語が読み出され表示され(n3→n16→
n17)、更に、その内容が音声出力される。前述と
同様に音声報知が行なわれる。また、音声情報が
記憶されている場合であつても各文字に対する音
声情報が記憶されていれば、綴りキーを押すごと
によつてその綴りが音声出力される(n18→n19→
n20)。文字キーより文字を入力すれば、バツフア
に入力されその内容が表示され、またその文字に
対応する音声情報が記憶されていればキー押圧時
点でその文字の発音が行なわれる。更に入力され
た文字列は前述の圧縮テーブルに基づいて圧縮コ
ードに変換される。従つて、この様に所望の単語
や文章を入力した後、発声キーを押せば、圧縮さ
れたコードを基にして、音声出力されるため、例
えば「ギヤ」「ギユ」「ギヨ」等の文字が通常読む
のと同様に音声出力される。文字キーの押圧時の
発声は、例えば「デンシ」という語を入力する場
合濁音キーを押した時は発音されず従つて「テ〓
ンシ」となる。また例えば「ギヤング」という語
を入力する場合「キ〓ヤンク〓」となるが、圧縮
コードに変換した後音声報知する様にすれば「ギ
ヤング」は「キギヤンクグ」と発音される様にな
る。第5図は前記説明した単音発生の制御を示す
フローチヤートである。以下その説明を行なう。
音声出力すべき内容は表示用バツフアに記憶され
ていてP及びgはそのポインターでありB(P)
という表現は上記バツフアのP文字目の内容を意
味する。この全体の処理としてはバツフアに入力
された内容を圧縮テーブルに基づいて圧縮コード
化しつつ音声報知を行ない、一文字だけがスペー
スとスペースの間に挾まれていることを判別し、
それを助詞と見做して、前の語と連続的に発音す
ると共に、その文字が“ハ”であれば“ワ”、
“ヘ”であれば“エ”と発音させるものである。
先ずバツフアの先頭桁より文字コードを判別し、
スペースコード或いは、エンドコードが入つてい
る桁までを一区切りとして圧縮テーブルに基づい
て圧縮コード化する(n1→n2→n3→n4→n5→)。
例えばバツフアの内容として第6図1に示す様な
内容が入力されている場合、“アナタ”で一区切
りとなるがこれは圧縮コードが存在せず、そのま
ま一音づつ発音される(n6)。その後、次の文字
が一文字であるかどうか判別され、例の様に
“ハ”一文字であれば(つまり、次の2桁目がス
ペースであれば)その文字の発音が行なわれる。
この場合“ハ”であれば“ワ”と発音される(n9
→n10→n11)。また“ヘ”であれば“エ”と発音
され(n12→n13)、その他は、そのままのコード
に対応する発音が行なわれる(n14)。その語、次
の語が一文字であるかどうか判別される(n15→
n7→n8)。第6図の例では一文字ではなく、前述
と同様に圧縮化される(n16→n17→n18→n19)。第
6図に示す様に“テ”と濁音コードが一組となり
“デ”というコードに、また“マ”“ス”“カ”は
“マスカ”という一つの圧縮コードに変換され音
声出力される。この場合数m〜数十m秒時間待ち
が行われた後出力される(n18→n20→n21)。従つ
てアナタワとデキマスカがある程度分離されて自
然に聞こえる様になる。以上説明した例はスペー
スとスペースとの間に一文字が存在すればその前
の語の発声に続けて発音し、しかも助詞としの発
音に言い換えるものであつたが、例外を少なくす
るため、例えば名詞の次の一文字を助詞と見做し
て処理をすることが可能である。つまり、単語単
位でその単語が名詞となり得るかをメモリ−に記
憶しておき、目的の単語が名詞であるかどうかに
よつてその後ろに続く一文字の処理を決定するこ
とができる。また助詞として“より”や“から”
等、一文字でないものもあるが、これらに対して
も例外なく処理をする為には、スペ−スとスペ−
スの間にこれらの助詞が存在するかを更に判別す
ることによつて行なうことができる。更に他の問
題として、長音記号に対する発音をどの様にする
かがある。例えば「空航」や「行」は「ク−コ
−」や「ギヨ−」と表現しキー入力する場合があ
る。前述の様にこれらの長音記号も含めた文字の
組み合わせを圧縮コードとし、各々音声情報を記
憶しておいてもよいが、メモリ−容量を低減させ
るために、次に説明する様に構成することができ
る。つまり「ク−コ−」は「クウコオ」、「ギヨ
−」は「ギヨウ」と発音させる様に長音記号のコ
−ドをアイウエオの母音のコードに変換する。第
5図で説明したものに適用すれば、バツフアBの
内容を1文字づつ判別して長音記号であればその
一つ前の文字に付加すべき母音のコ−ドに変換
し、その後前述の如く圧縮テーブルに基づいて圧
縮化を行なう(第7図参照)。一つ前の文字に付
加すべき母音のコ−ドは、カナ文字のコ−ド表を
カナ文字順になる様に定めておくことによつて容
易に選択することができる。 When the power is turned on, first press the mode switch 16.
The state of the key is read, that is, whether it is in sentence mode or word mode, and then the state of the key is read. If a desired category key is currently pressed, example sentences or words belonging to that category are read from the memory (n 5 →n 7 →n 8 ). Also, the above-mentioned audio ROM is searched to see if the example sentence or word read at this time has audio information. That is, first, it is determined whether or not there is a native language audio ROM in the installed module. If it exists, the aforementioned sentence table or word table is searched to determine whether or not voice information is stored. The read example sentence or word is displayed. If you then press the generation key, the contents will be output audibly. If the voice information is stored in the ROM, complete voice output is performed (n 10 →n 11 ). That is, audio information is read out and audio output is performed based on the sentence table or word table described above. If voice information is not stored but voice information for characters is stored, the read sentence or word is pronounced one by one (n 12 →n 13 ).
Also, if no audio information is stored, a specific sound such as “pipipi” will be output (n 12 →
n14 ). Next, when the same category key is pressed, the next example sentence or word in the same category is read out from the memory (n 7 →n 15 →n 8 ). In this way, if you call up the desired sentence or word and press the translation key, the translated sentence or translated word will be read out from the ROM specified as a foreign language and displayed (n 3 → n 16 →
n 17 ), and the contents are also output as audio. Audio notification is performed in the same manner as described above. Furthermore, even if audio information is stored, if the audio information for each character is stored, the spelling will be output aloud each time the spelling key is pressed (n 18 → n 19 →
n20 ). When a character is input using a character key, the character is input on the buffer and its contents are displayed, and if audio information corresponding to the character is stored, the character is pronounced at the time the key is pressed. Furthermore, the input character string is converted into a compressed code based on the aforementioned compression table. Therefore, if you press the voice key after entering the desired word or sentence in this way, the voice will be output based on the compressed code, such as "Giya", "Giyu", "Giyo", etc. Text is output aloud in the same way as it would normally be read. For example, when inputting the word "denshi", the sound produced when pressing a letter key is not pronounced when the voiced sound key is pressed;
'. For example, when inputting the word "Gi-young", it will be pronounced "ki-yanku", but if the word is converted into a compressed code and then announced by voice, "gi-young" will be pronounced as "ki-giyanku-gu". FIG. 5 is a flowchart showing the control of single tone generation described above. The explanation will be given below.
The content to be output as audio is stored in the display buffer, and P and g are its pointers, and B(P)
The expression means the content of the Pth character of the buffer. The overall process involves compressing and encoding the content input to the buffer based on a compression table, and then making a voice notification, and determining that only one character is sandwiched between spaces.
Treat it as a particle and pronounce it consecutively with the previous word, and if that letter is “ha” then “wa”,
If it is “he”, it is pronounced as “e”.
First, determine the character code from the first digit of the batshua,
The digit up to the space code or end code is compressed as one segment and converted into a compression code based on the compression table (n 1 →n 2 →n 3 →n 4 →n 5 →).
For example, when the content shown in FIG. 6 is input as the content of a buffer, the word is separated by "anata", but there is no compressed code for this, and the sound is pronounced one by one (n 6 ). Thereafter, it is determined whether the next character is a single character or not, and if it is a single character "ha" as in the example (that is, if the next second digit is a space), that character is pronounced.
In this case, “ha” is pronounced as “wa” (n 9
→n 10 →n 11 ). Also, if it is "he", it is pronounced as "e" (n 12 →n 13 ), and other chords are pronounced as they are (n 14 ). It is determined whether that word or the next word is a single character (n 15 →
n 7 → n 8 ). In the example of FIG. 6, it is not a single character, but is compressed in the same way as described above (n 16 →n 17 →n 18 →n 19 ). As shown in Figure 6, "te" and the voiced sound code are combined into the code "de", and "ma", "su", and "ka" are converted into one compressed code called "maska" and output as audio. . In this case, the signal is output after waiting for several meters to several tens of milliseconds (n 18 →n 20 →n 21 ). Therefore, anatawa and dekimasuka are separated to a certain extent and can be heard naturally. In the example explained above, if a character exists between two spaces, it is pronounced following the utterance of the previous word, and is also pronounced as a particle, but in order to reduce the number of exceptions, for example, noun It is possible to treat the next character as a particle. In other words, whether or not a word can be a noun is stored in a memory for each word, and the processing of a character following the target word can be determined depending on whether or not the target word is a noun. Also, as particles “yori” and “kara”
There are some characters that are not a single character, such as, but in order to process these without exception, you need to use a space and a space.
This can be done by further determining whether these particles exist between the sentences. Another problem is how to pronounce the long sound symbol. For example, ``kuko'' or ``row'' may be expressed as ``kuko'' or ``giyo'' and entered using the keypad. As mentioned above, a combination of characters including these long sound symbols may be used as a compressed code, and audio information may be stored in each code, but in order to reduce the memory capacity, it is possible to configure the code as described below. Can be done. In other words, the long sound symbol code is converted to the vowel code of Aiueo so that ``Ku-ko-'' is pronounced as ``Ku-koo'' and ``Gi-yo'' is pronounced as ``Gi-yo.'' If applied to what was explained in Figure 5, the content of buffer B is identified character by character, and if it is a long sound symbol, it is converted into the code of the vowel that should be added to the previous character, and then the above-mentioned Compression is performed based on the compression table as shown in FIG. 7. The vowel code to be added to the previous character can be easily selected by setting a code table for kana characters in order of kana characters.
以上のように本発明の電子式翻訳機によれば、
音声情報の記憶容量を少なくすることができ、こ
の音声情報でもつて、文書や単語等の言諸情報を
音声出力を効果的に行うことができ、音声による
確認が非常に容易に行える。 As described above, according to the electronic translator of the present invention,
The storage capacity of audio information can be reduced, and with this audio information, verbal information such as documents and words can be effectively output as audio, and confirmation by audio can be performed very easily.
特に、文書や単語等を、ある程度のつながりを
もつて、判りやすく音声出力でき、また完全な音
声出力が不可能な場合でも、その綴りを音声出力
するため、音声出力をされた内容を容易に把握す
ることができる。 In particular, it is possible to output documents, words, etc. in an easy-to-understand manner with a certain degree of connection, and even when complete audio output is not possible, the spelling can be outputted, making it easy to read the contents of the audio output. can be grasped.
第1図は本発明の電子式翻訳機の一実施例の外
観を示す平面図、第2図は同実施例のシステム構
成を示すブロツク図、第3図は同ブロツク図のモ
ジユール内のROMフオーマツトを示す図、第4
図は同実施例の動作を示すフローチヤート、第5
図は同実施例の単音発生の制御を示すフローチヤ
ート、第6及び7図は同説明に供する図である。
図中、1:キー部、2:表示部、6:表示駆動
制御用IC、7:キーマトリツクス回路、9〜1
1:ROMモジユール、14:ラツチ回路、1
5:駆動回路、16:スピーカ、17:モード切
換/電源スイツチ。
Fig. 1 is a plan view showing the external appearance of an embodiment of the electronic translator of the present invention, Fig. 2 is a block diagram showing the system configuration of the embodiment, and Fig. 3 is a ROM format in the module in the block diagram. Figure 4 showing
The figure is a flowchart showing the operation of the same embodiment.
The figure is a flowchart showing control of single tone generation in the same embodiment, and FIGS. 6 and 7 are diagrams for explaining the same. In the figure, 1: key section, 2: display section, 6: display drive control IC, 7: key matrix circuit, 9-1
1: ROM module, 14: Latch circuit, 1
5: Drive circuit, 16: Speaker, 17: Mode switching/power switch.
Claims (1)
情報を複数記憶する第1のメモリと、該第1のメ
モリの内容に対応する音声情報を記憶する第2の
メモリとを有し、これら第1のメモリと第2のメ
モリとの内容を対応させて読み出すことによつて
翻訳と共に音声出力可能な電子式翻訳機であつ
て、 音声情報として第1のメモリの内容である文書
や単語等の言語情報を音声表現するための第1の
音声情報記憶部、上記言語情報を構成する綴りを
発音するための第2の音声情報記憶部とを有する
第2のメモリ、 音声出力するための文書や単語等の言語情報が
上記第2のメモリの第1の音声情報記憶部に記憶
されているか否かを判別する判別手段、 該判別手段より第2のメモリの第1の音声情報
記憶部に記憶されていることが判別されると、そ
の言語情報に対応する音声情報を読み出す手段、 上記判別手段により第2のメモリの第1の音声
記憶部に記憶されていないことが判別されると、
第2のメモリの第2の音声情報記憶部により文書
や単語等の言語情報を構成する綴りに対応する音
声情報を読み出す手段、 上記第1の音声情報記憶部又は第2の音声情報
部より読み出された音声情報を単独又はそれらの
組合せにより音声出力する音声出力制御手段、 とを備えたことを特徴とする電子式翻訳機。[Claims] 1. A first memory that stores a plurality of linguistic information such as documents and words that are retrieved when performing translation, and a second memory that stores audio information corresponding to the contents of the first memory. An electronic translator capable of outputting voice along with translation by reading out the contents of the first memory and second memory in correspondence, the contents of the first memory being read as the voice information. a second memory having a first voice information storage section for vocally expressing linguistic information such as a document or a word, and a second voice information storage section for pronouncing spellings constituting the linguistic information; Discrimination means for discriminating whether or not linguistic information such as documents and words to be outputted as voice is stored in the first voice information storage section of the second memory; means for reading the voice information corresponding to the language information when it is determined that the language information is stored in the first voice information storage section of the second memory; is determined,
means for reading audio information corresponding to spellings constituting linguistic information such as documents and words from a second audio information storage section of a second memory; An electronic translator characterized by comprising: audio output control means for outputting the output audio information singly or in a combination thereof.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56039077A JPS57153373A (en) | 1981-03-17 | 1981-03-17 | Electronic interpreter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56039077A JPS57153373A (en) | 1981-03-17 | 1981-03-17 | Electronic interpreter |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS57153373A JPS57153373A (en) | 1982-09-21 |
JPH0155507B2 true JPH0155507B2 (en) | 1989-11-24 |
Family
ID=12543042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP56039077A Granted JPS57153373A (en) | 1981-03-17 | 1981-03-17 | Electronic interpreter |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS57153373A (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58146933A (en) * | 1982-02-26 | 1983-09-01 | Canon Inc | Pronouncing device |
JPS6162999A (en) * | 1984-09-04 | 1986-03-31 | トヨタ自動車株式会社 | Abnormality alarm |
JPS61235986A (en) * | 1985-04-11 | 1986-10-21 | Tatsuo Go | Uttered voice output machine dictionary |
JPS62209600A (en) * | 1986-03-11 | 1987-09-14 | 株式会社東芝 | Voice synthesizer |
JPH0242526A (en) * | 1989-06-22 | 1990-02-13 | Sanyo Electric Co Ltd | Voice generating system for voice synthesizing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS4843205A (en) * | 1971-09-30 | 1973-06-22 | ||
JPS5510694A (en) * | 1978-02-17 | 1980-01-25 | Son Jung Eui | Portable translation machine |
JPS5621231A (en) * | 1979-07-27 | 1981-02-27 | Nec Corp | Audio synthesizer for kana character input |
-
1981
- 1981-03-17 JP JP56039077A patent/JPS57153373A/en active Granted
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS4843205A (en) * | 1971-09-30 | 1973-06-22 | ||
JPS5510694A (en) * | 1978-02-17 | 1980-01-25 | Son Jung Eui | Portable translation machine |
JPS5621231A (en) * | 1979-07-27 | 1981-02-27 | Nec Corp | Audio synthesizer for kana character input |
Also Published As
Publication number | Publication date |
---|---|
JPS57153373A (en) | 1982-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5164900A (en) | Method and device for phonetically encoding Chinese textual data for data processing entry | |
US5091950A (en) | Arabic language translating device with pronunciation capability using language pronunciation rules | |
JPS5843783B2 (en) | portable translation device | |
US4328562A (en) | Means for displaying at least two different words and for providing independent pronunciations of these words | |
JPH0228877B2 (en) | ||
JPS6217793B2 (en) | ||
US4455615A (en) | Intonation-varying audio output device in electronic translator | |
JPH0155507B2 (en) | ||
JPS634206B2 (en) | ||
JPS6024503B2 (en) | electronic translator | |
JPS5995639A (en) | Keyboard device | |
US20210407501A1 (en) | Phonetic keyboard and system to facilitate communication in english | |
JPS58123129A (en) | Converting device of japanese syllabary to chinese character | |
JP2002189490A (en) | Method of pinyin speech input | |
JPS635792B2 (en) | ||
JPS63259686A (en) | voice input device | |
JPS59121425A (en) | Chinese phonetic alphabet of kanji converter | |
KR200212381Y1 (en) | Ortho phonic hangul inputting apparatus | |
JPH0319005Y2 (en) | ||
Omotayo | A microcomputer-based reading aid for blind students | |
JP3183686B2 (en) | Language input device | |
JPS6349799A (en) | Voice output device | |
JPH0414168A (en) | Word processor | |
JP2000330998A (en) | Pronouncing electronic dictionary | |
JPS6217266B2 (en) |