[go: up one dir, main page]

JPS63105557A - Data communication equipment - Google Patents

Data communication equipment

Info

Publication number
JPS63105557A
JPS63105557A JP61250897A JP25089786A JPS63105557A JP S63105557 A JPS63105557 A JP S63105557A JP 61250897 A JP61250897 A JP 61250897A JP 25089786 A JP25089786 A JP 25089786A JP S63105557 A JPS63105557 A JP S63105557A
Authority
JP
Japan
Prior art keywords
data
information
communication
voice
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61250897A
Other languages
Japanese (ja)
Other versions
JP2568183B2 (en
Inventor
Kazuhiko Yoshioka
和彦 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61250897A priority Critical patent/JP2568183B2/en
Publication of JPS63105557A publication Critical patent/JPS63105557A/en
Application granted granted Critical
Publication of JP2568183B2 publication Critical patent/JP2568183B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Communication Control (AREA)

Abstract

PURPOSE:To make the titled equipment to be communicated with any equipment by providing a function converting voice information into a digital data to be visualized and sending the result when an opposite terminal equipment has a function for receiving voice information. CONSTITUTION:In sending a voice data, a signal inputted by a microphone 19 is amplified by an amplifier 18 and digitized by an A/D converter 16 through a filter 17. When the opposite terminal equipment has a function receiving voice information, the voice data is recognized by a voice recognition unit 6, where the data is converted into character code information corresponding to the inputted voice information and the result is sent while being converted into a transmission block data. Thus, even when the opposite terminal equipment has not a capability to receive the voice information, the voice information is converted into character coding information so as to attain the communication with any opposite terminal equipment.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、通信媒体を介して他の通信装置との間でデー
タの通信を行うデータ通信装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a data communication device that communicates data with other communication devices via a communication medium.

[従来の技術] 従来、この種の装置、例えばミクストモード端末装置で
は、キャラクタ符号化方式を用いるテキストと、ファク
シミリ符号化方式を用いるテキストが混在でき、ブロッ
ク(ページの辺と平行な辺をもつページ内の矩形領域を
言い、ブロック内のテキストは単一の符号化方式を用い
て符号化される)構造(ページ内にブロックの存在する
構造)を使用できる文書を作成、および、送受信できる
ものと想定されているが、その様な装置に音声情報の送
信あるいは受信の機能を付加することを考えた場合、全
ての端末装置に音声情報の送/受信機能があるわけでは
なく、全ての端末装置間で音声情報の送/受信を行うこ
とは不可能であった。
[Prior Art] Conventionally, in this type of device, for example, a mixed-mode terminal device, text using a character encoding method and text using a facsimile encoding method can coexist, and blocks (with sides parallel to the sides of the page) can coexist. This is a rectangular area within a page, and the text within the block is encoded using a single encoding method. However, when considering adding the function of transmitting or receiving voice information to such a device, it is important to note that not all terminal devices have the function of transmitting and receiving voice information. It was not possible to send/receive audio information between devices.

[発明が解決しようとする問題点〕 本発明は、上述従来例の欠点を除去すると同時に、相手
端末が音声情報を受信する機能を持たない場合には、音
声情報を音声認識で文字符号化して送信することも可能
にしたデータ通信装置を提供することにある。
[Problems to be Solved by the Invention] The present invention eliminates the drawbacks of the conventional example described above, and at the same time, when the other party's terminal does not have the function of receiving voice information, the voice information is encoded into characters using voice recognition. An object of the present invention is to provide a data communication device that also enables data transmission.

[問題点を解決するための手段] 上述の問題点を解決する一手段として、本実施例は以下
の構成を備える。
[Means for Solving the Problems] As a means for solving the above-mentioned problems, this embodiment has the following configuration.

即ち、可視化可能な情報を表わすディジタルデータ又は
音声データの通信を行う通信手段と、音声データを可視
化可能な情報を表わすディジタルデータに変換する変換
手段と、相手先通信装置が音声データ通信可能か否かを
判別する判別手段と、該判別手段が音声データ通信可能
と判別すると、通信手段による音声データの通信を行わ
せ、判別手段が音声データ通信不可を判別すると、通信
すべき音声データを変換手段で可視化可能な情報を表わ
すディジタルデータに変換して、通信手段による通信を
行うよう制御する制御手段とを備える。
That is, a communication means for communicating digital data or voice data representing visualizeable information, a conversion means for converting voice data into digital data representing visualizeable information, and whether or not the other party's communication device is capable of voice data communication. If the determining means determines that voice data communication is possible, the determining means causes the communication means to communicate voice data, and if the determining means determines that voice data communication is not possible, a converting means converts the voice data to be communicated. and control means for controlling the digital data to be converted into digital data representing information that can be visualized by the communication means and to be communicated by the communication means.

[作用コ 以上の構成において、画像情報および文字符号情報等の
ディジタルデータに加えて音声情報を送受信することが
でき、相手端末装置に音声情報の受信機能がない場合に
、音声情報を可視化可能なディジタルデータに変換して
送信する機能をもつことにより、あらゆる装置と通信す
ることができる。
[Operation] In the above configuration, it is possible to send and receive voice information in addition to digital data such as image information and character code information, and it is possible to visualize voice information when the other party's terminal device does not have a function to receive voice information. By having the function of converting and transmitting digital data, it is possible to communicate with any device.

[実施例] 以下、図面を参照して本発明に係る一実施例を詳細に説
明する。
[Example] Hereinafter, an example according to the present invention will be described in detail with reference to the drawings.

第1図は本発明に係る一実施例のブロック図であり、図
中、1はシステム全体の制御をつかさどるマイクロプロ
セッサにて構成されるCPU、2はデータおよびプログ
ラムを格納しておくハードディスク装置、3は同じくデ
ータおよびプログラムを格納しておくフロッピーディス
ク装置、4は表示データを格納するVRAM (ビデオ
用ランダムアクセスメモリ)、5はデータ表示用CRT
、6は音声情報の認識処理を実行し、文字符号情報に変
換する音声認識ユニット、7はA/Dコンバータ16に
よって符号化された音声データを格納するのに用いるI
CRAMより構成される音声メモリ、8はプログラム等
の格納に用いるRAMより構成されるプログラムメモリ
、9はリーダ12によって読み込まれたイメージデータ
を格納するのに用いるRAMより構成されるイメージメ
モリ、10はバス、11はリーダ12およびプリンタ1
3と、CPUIとのインターフェースをつかさどるリー
ダ/プリンタインターフェース、14はキー人力を行う
キーボード、15はポインティングデバイスの1つであ
るマウス、16はマイク19で音声を電気信号に変換し
、アンプ18でその電気信号を増幅し、濾波器17を通
ったアナログ信号をディジタルデータに変換するサンプ
リング回路を含んだA/Dコンバータ、20はディジタ
ルデータをアナログ音声信号に変換するD/Aコンバー
タ、21は濾波器、22はアナログ信号を増幅するアン
プ、23は音響信号を発生するスピーカ、24は通信回
線25に対する通信制御を行い、所定の通信制御手順に
従ったデータの送/受信を行うコミュニケーションコン
トロールユニット、26はイメージデータの拡大/縮小
、8勤等を行うビットムーブユニット、27はイメージ
データを圧縮または伸長するイメージコンプレッション
ユニットである。
FIG. 1 is a block diagram of one embodiment of the present invention, in which 1 is a CPU composed of a microprocessor that controls the entire system, 2 is a hard disk device for storing data and programs; 3 is a floppy disk device for storing data and programs, 4 is a VRAM (video random access memory) for storing display data, and 5 is a CRT for displaying data.
, 6 is a voice recognition unit that executes recognition processing of voice information and converts it into character code information, and 7 is an I used to store voice data encoded by the A/D converter 16.
8 is a program memory consisting of a RAM used to store programs, etc.; 9 is an image memory consisting of a RAM used to store image data read by the reader 12; 10 is an image memory consisting of a RAM; bus, 11 is reader 12 and printer 1
3 and a reader/printer interface that handles the interface with the CPU, 14 a keyboard that performs manual key control, 15 a mouse that is one of the pointing devices, and 16 a microphone 19 that converts audio into electrical signals, and an amplifier 18 that converts the audio into electrical signals. An A/D converter including a sampling circuit that amplifies the electrical signal and converts the analog signal passed through the filter 17 into digital data; 20 is a D/A converter that converts digital data into an analog audio signal; 21 is a filter , 22 is an amplifier that amplifies an analog signal, 23 is a speaker that generates an acoustic signal, 24 is a communication control unit that controls communication with respect to the communication line 25, and transmits/receives data according to a predetermined communication control procedure, 26 27 is a bit move unit for enlarging/reducing image data, octagonal processing, etc., and 27 is an image compression unit for compressing or expanding image data.

第2図は(a)〜(d)は本実施例による通信回線25
を介して他の通信装置の間で送/受信される伝送フレー
ム構成を示した図である。
In FIG. 2, (a) to (d) are communication lines 25 according to this embodiment.
FIG. 2 is a diagram showing a transmission frame structure transmitted/received between other communication devices via the communication device.

第2図(a)は伝送フレームの全体構成を示した図であ
る。
FIG. 2(a) is a diagram showing the overall structure of a transmission frame.

図中、Aは送信元の名称、送信日時、原稿枚数等の送信
情報データを格納する送信情報データ部、Bはベージデ
ータ部であり、ベージデータ部Bは1ペ一ジ分の原稿デ
ータ(ブロックデータ)がすべてキャラクタデータであ
るか、すべてイメージデータであるか、すべて音声デー
タであるか、キャラクタデータとイメージデータの混在
0データであるか、キャラクタデータ音声データの混在
データであるか、イメージデータと音声データのン昆在
データであるか、キャラクタデータとイメージデータと
音声データの混在データであるかを示す識別コードと、
続いて送られる1ページの原稿データがいくつのブロッ
クデータより構成されているかを示すコードより成る。
In the figure, A is a transmission information data section that stores transmission information data such as the sender's name, transmission date and time, number of manuscripts, etc., and B is a page data section. block data) is all character data, all image data, all audio data, a mixture of character data and image data, 0 data, a mixture of character data and audio data, or image data. an identification code indicating whether the data is a combination of data and audio data or a mixture of character data, image data, and audio data;
It consists of a code that indicates how many blocks of data constitute one page of document data that is subsequently sent.

Cはそれ以降ブロックデータが続くことを示すコードで
ある。次のり、E、Fはそれぞれ送信すべきデータの格
納されているブロックデータ部である。
C is a code indicating that block data continues thereafter. Next, E and F are block data sections in which data to be transmitted is stored, respectively.

上記送信情報データ部A、ベージデータ部B、ブロック
データ指示コードCは送信側の装置によって生成付加さ
れる。
The above-mentioned transmission information data section A, page data section B, and block data instruction code C are generated and added by the transmitting side device.

第2図(b)はブロックデータ部がキャラクタデータの
場合の構成を示した図である。
FIG. 2(b) is a diagram showing the configuration when the block data portion is character data.

第2図(b)においてaはブロックの位置情報、bはブ
ロックの大きさ情報、C1はこのブロックのデータがキ
ャラクタデータであることを示す情報である。dlはキ
ャラクタの書式を示す情報であり、たとえばキャラクタ
の大きさ、キャラクタの配列、方向等を示す情報である
。eは送信されるキャラクタデータの領域を示す。
In FIG. 2(b), a is block position information, b is block size information, and C1 is information indicating that the data in this block is character data. dl is information indicating the format of the character, such as the size of the character, the arrangement of the characters, the direction, etc. e indicates the area of character data to be transmitted.

第2図(C)はブロックデータ部がイメージデータの場
合の構成を示した図である。第2図(b)と同符号は同
一構成である。
FIG. 2(C) is a diagram showing the configuration when the block data portion is image data. The same reference numerals as in FIG. 2(b) indicate the same configuration.

第2図(C)において、C2はこのブロックのデータが
イメージデータであることを示す情報、d2はイメージ
データの符号化の種別を示した情報であり、例えば、こ
のブロックのイメージデータが、MH%MR,MMRの
うちのどの符号化方式によって符号化されているかを示
すものである。ただし、符号化方式は上記3方式に限る
ものではない。fはイメージデータの平行、垂直方向の
走査密度を示す情報、gは送信されるイメージデータの
領域を示す情報。
In FIG. 2(C), C2 is information indicating that the data of this block is image data, and d2 is information indicating the type of encoding of the image data. For example, if the image data of this block is MH This shows which encoding method out of %MR and MMR is used for encoding. However, the encoding method is not limited to the above three methods. f is information indicating the scanning density of image data in parallel and perpendicular directions, and g is information indicating an area of image data to be transmitted.

第2図(d)はブロックデータ部が音声データの場合の
構成を示した図である。第2図(b)と同符号は同一構
成である。
FIG. 2(d) is a diagram showing the configuration when the block data section is audio data. The same reference numerals as in FIG. 2(b) indicate the same configuration.

第2図(d)において、c3はこのブロックのデータが
音声データであることを示す情報、d3はアナログ音声
をディジタル化した場合のディジタル化方式を示すもの
である。また、hは送信される音声データの領域である
In FIG. 2(d), c3 is information indicating that the data in this block is audio data, and d3 is information indicating the digitization method when analog audio is digitized. Further, h is an area of audio data to be transmitted.

第3図は本実施例で作成される文書の一例の1ページを
CRT5に表示した画像を示したものである。
FIG. 3 shows an image of one page of an example of a document created in this embodiment displayed on the CRT 5.

図中、31はデータがキャラクタデータであるブロック
、32はデータがイメージデータであるブロック、33
はキャラクタブロック31の開始座標位置を示し、34
はキャラクタブロック31の大きさを示している。
In the figure, 31 is a block whose data is character data, 32 is a block whose data is image data, and 33 is a block whose data is character data.
indicates the starting coordinate position of the character block 31, and 34
indicates the size of the character block 31.

第4図(A)、(B)は、本実施例におけるデータ通信
制御を示すフローチャートであり、以下、第4図(A)
、CB)に基づき本実施例のデータ通信手順を説明する
FIGS. 4(A) and 4(B) are flowcharts showing data communication control in this embodiment.
, CB), the data communication procedure of this embodiment will be explained.

まず、第4図(A)を参照して本実施例のデータ送信処
理を説明する。
First, the data transmission process of this embodiment will be explained with reference to FIG. 4(A).

オペレータはステップS1で送信すべき文書データの作
成処理を実行する。例えば第3図に示す文書データを作
成する場合には、キーボード14より入力された文字符
号化データ、例えばブロック31をVRAM4に格納す
る。これは、順次キーボード14より入力してもよく、
ハードディスク装置2、又は、フロッピーディスク装置
3に予め記憶しておき、ここから読み出してきてもよい
The operator executes processing for creating document data to be transmitted in step S1. For example, when creating the document data shown in FIG. 3, encoded character data input from the keyboard 14, for example block 31, is stored in the VRAM 4. This may be entered sequentially from the keyboard 14,
It may be stored in advance in the hard disk device 2 or floppy disk device 3 and read from there.

またイメージデータブロック32は、リーダ12より読
み取らせ、イメージメモリ9に格納されているデータを
読み出してきて、これらのデータをCRT5の画像を見
ながら、マウス15とキーボード14とを用いて、これ
らのブロック(キャラクタブロック、イメージブロック
)の位置及び大きさを入力して合成する。そして、送信
文書の作成が終了するとステップS2に進み、送信すべ
き伝送フォーマット中の、第2図(b)及び(c)に示
す位置情報a、大きさ情報すがブロックデータの先頭部
分の所定位置に付加される。
The image data block 32 is read by the reader 12, reads out the data stored in the image memory 9, and is read out using the mouse 15 and keyboard 14 while viewing the image on the CRT 5. Input the position and size of blocks (character blocks, image blocks) and synthesize them. When the creation of the transmission document is completed, the process proceeds to step S2, and the position information a and the size information shown in FIGS. appended to the position.

更に、位置情報a、大きさ情報すをブロックのキャラク
タデータ、イメージデータに付加する。
Further, position information a and size information a are added to the character data and image data of the block.

キャラクタデータにはキャラクタの書式情報d1が付加
され、また、リーダ12によって読み取られたイメージ
データはイメージコンプレッションユニット27により
圧縮符号化されるが、この符号化方式を示す情報d2と
、イメージデータの水平、垂直方向の走査密度を示す情
報fも付加される。
Character format information d1 is added to the character data, and the image data read by the reader 12 is compressed and encoded by the image compression unit 27, but information d2 indicating the encoding method and the horizontal , information f indicating the scanning density in the vertical direction is also added.

一方音声データを送信する場合には、ステップS1とス
テップS2の処理において、マイク19によって入力さ
れた信号をアンプ18で増幅し、濾波器17を通し、A
/Dコンバータ16でディジタル化される。モしてディ
ジタル化の方式を示す情報であるd3が生成付加される
On the other hand, when transmitting audio data, in the processing of steps S1 and S2, the signal input by the microphone 19 is amplified by the amplifier 18, passed through the filter 17, and then
/D converter 16 digitizes the data. Then, d3, which is information indicating the digitization method, is generated and added.

また、キャラクタデータ、イメージデータ、音声データ
には、キャラクタデータであることを示す情報c1、イ
メージデータであることを示す情報C2、音声データで
あることを示す情報C3がそれぞれ先頭位買に付加され
る。
Furthermore, information c1 indicating that it is character data, information C2 indicating that it is image data, and information C3 indicating that it is voice data are added to the top of the character data, image data, and audio data, respectively. Ru.

上述した各付加情報は、CPU 1によって生成付加さ
れ、送信文書が作成され、ハードディスク装置2に格納
される。そしてステップS3で文書作成が終了したか否
かを調べ、終了していなければ再びステップS1に戻り
、次の文書を作成する。文書作成が終了し、送信を行う
場合にはステップS4に進み、オペレータはキーボード
14を操作し、CPUIに指示して送信原稿データをハ
ードディスク装置2から読み出させる。この時送信する
データにはキーボード8により入力された第2図(a)
の送信元情報データA、ページデータBが付加される。
Each of the above-mentioned additional information is generated and added by the CPU 1, a transmission document is created, and the document is stored in the hard disk device 2. Then, in step S3, it is checked whether the document creation has been completed, and if it has not been completed, the process returns to step S1 again and the next document is created. When the document creation is completed and the document is to be sent, the process proceeds to step S4, where the operator operates the keyboard 14 and instructs the CPUI to read the transmission document data from the hard disk device 2. The data to be transmitted at this time is shown in Figure 2 (a), which was input using the keyboard 8.
Source information data A and page data B are added.

次にCPUIはステップS5でコミュニケーションコン
トロールユニット24と回線25を介し、送信する相手
側受信端末を呼び出して、互いに接続し、続くステップ
S6で相手先の端末機能の確認を行う。次にステップS
7でその結果相手端末に音声情報を受信する機能がある
か否かを判断し、受信する機能がある場合はステップS
8で予め作成した音声情報を含む送信文書をそのまま送
信する。しかし、相手端末に音声情報を受信する機能が
ない場合は、ステップS7よりステップS9に進み、音
声データを音声認識ユニット6で音声認識し、入力され
た音声情報に対応する文字符号情報に変換し、CPUI
で第2図(a)に示すページの位置データa、大きさケ
ータb、キャラクタであることを示す情報C1、キャラ
クタの書式を示す情報d1を付加し、文字符号情報は書
式に合う形に変換され、変換されたデータはキャラクタ
データeの送信ブロックデータに変換されて送信される
Next, in step S5, the CPUI calls the destination receiving terminal to which the data is to be sent via the communication control unit 24 and the line 25, and connects them to each other, and in the subsequent step S6, confirms the terminal function of the destination. Next step S
As a result, in step 7, it is determined whether or not the other party's terminal has a function to receive voice information, and if it has a function to receive voice information, the process proceeds to step S.
The transmission document containing the audio information created in advance in step 8 is transmitted as is. However, if the other party's terminal does not have a function to receive voice information, the process proceeds from step S7 to step S9, where the voice recognition unit 6 recognizes the voice data and converts it into character code information corresponding to the input voice information. , CPUI
Add the page position data a, size indicator b, information C1 indicating that it is a character, and information d1 indicating the character format shown in Figure 2 (a), and convert the character code information to a format that matches the format. The converted data is converted into transmission block data of character data e and transmitted.

なお、ステップS6における端末機能ネゴシェーション
は、送信側端末装置より受信側端末装置に、該受信側端
末装置の備える全ての機能を示す制御フレーム送信要求
を出力し、受信側端末装置はこれに対する応答として自
装置の備える機能を含む伝送制御フレームを送出するこ
とにより行う。ここでは、相手側装置に音声情報の受信
機能があるか否かの確認のみでもよい。
Note that in the terminal function negotiation in step S6, the transmitting terminal device outputs a control frame transmission request indicating all the functions of the receiving terminal device to the receiving terminal device, and the receiving terminal device responds to the control frame transmission request. This is done by sending out a transmission control frame that includes the functions of the device itself as a response. Here, it is sufficient to simply check whether the other party's device has a function to receive audio information.

次に第4図(B)を参照して本実施例の受信処理を説明
する。
Next, the reception processing of this embodiment will be explained with reference to FIG. 4(B).

受信においては、まずステップS20でコミュニケーシ
ョンコントロールユニット24が回線25よりの受信を
検出したか否かを調べ、回線25よりの受信がなければ
ステップS21に進み、キーボード14より出力指示人
力があるか否かを調べる。ここで指示人力がない場合に
は再びステップS20に戻り、この指示入力か回線25
よりの受信があるのを待つ。
In receiving, first, in step S20, the communication control unit 24 checks whether or not reception is detected from the line 25. If there is no reception from the line 25, the process proceeds to step S21, and whether or not there is an output command from the keyboard 14 is determined. Find out. Here, if there is no instruction manpower, the process returns to step S20 again, and whether this instruction input or line 25
Wait for more information to be received.

回線25よりのデータ受信があるとステップS20より
ステップ322に進み、送信側装置よりの前述した端末
機能ネゴシェーション処理を行う。そして、ステップS
23で続いて送られてくるデータの受信を行う。受信デ
ータはステップS24でハードディスク装置2にそのま
ま格納され、全てのデータの受信が終了し、ハードディ
スク装置2に格納されるとステップS25に進み、CR
T5の表示面上に“受信有”の表示を行う。
When data is received from the line 25, the process proceeds from step S20 to step 322, where the above-described terminal function negotiation process from the transmitting side device is performed. And step S
At step 23, the subsequently sent data is received. The received data is stored as it is in the hard disk device 2 in step S24, and when all the data has been received and stored in the hard disk device 2, the process proceeds to step S25, where the CR
``Received'' is displayed on the display screen of T5.

そしてデータの受信処理を終了し、次のステップS26
で回線25を復旧し、ステップS20に戻る。
Then, the data reception process is completed, and the next step S26 is
The line 25 is restored and the process returns to step S20.

一方、オペレータはCRT5への“受信有”表示により
データが受信されたことを認識し、受信データをCRT
5に表示する場合、あるいはプリンタ13によって印刷
する場合、あるいは音声データなスピーカ23から音声
として出力する場合にはキーボード14より受信した原
稿データを指定し、表示、印刷、音声出力の実行指示を
行う。このキー人力があるとステップS21よりステッ
プS30に進み、ステップS30でハードディスク装置
2に受信データがあることを確認していから続くステッ
プS31で指定データをハードディスク装置2より読出
す。なお、ここで受信データがないのに誤まって出力指
示入力を行った場合には、キー人力を無効としてそのま
まステップS20に戻る。
On the other hand, the operator recognizes that data has been received by the "received" display on the CRT5, and transfers the received data to the CRT.
5, or when printing using the printer 13, or when outputting audio data as audio from the speaker 23, specify the received manuscript data from the keyboard 14 and instruct execution of display, printing, and audio output. . If this key power is present, the process advances from step S21 to step S30, and after confirming that there is received data in the hard disk drive 2 in step S30, the designated data is read out from the hard disk drive 2 in the following step S31. Incidentally, if the output instruction input is made by mistake even though there is no received data, the key manual input is invalidated and the process returns to step S20.

CPU 1は指定データをハードディスク装置2より読
出すと、ステップS32でブロックに付加されているデ
ータ識別情報C1、C2、C3によって、そのブロック
のデータがキャラクタデータであるか、イメージデータ
であるか、音声データであるかを判別する。そして、判
別の結果、音声データの出力指示であればステップS3
3よりステップS34に進み、ディジタル化情報d3と
伴に音声データhを音声メモリ7に格納する。そして続
くステップS35において音声データを音声メモリ7か
ら読み出し、ディジタル化情報d3にもとづいてD/A
コンバータ20でアナログ化され、濾波器21を通って
アンプ22で増幅され、スピーカ23により出力される
。なお、音声データは一度音声認識ユニット6で、文字
符号化情報に変換してCRT5に表示、又は、プリンタ
13で印刷することも可能である。
When the CPU 1 reads the designated data from the hard disk device 2, it determines whether the data in the block is character data or image data based on the data identification information C1, C2, and C3 added to the block in step S32. Determine whether it is audio data. As a result of the determination, if the instruction is to output audio data, step S3
3, the process proceeds to step S34, where the audio data h is stored in the audio memory 7 together with the digitized information d3. Then, in the subsequent step S35, the audio data is read out from the audio memory 7, and is D/A based on the digitized information d3.
The signal is converted into analog by a converter 20, passed through a filter 21, amplified by an amplifier 22, and outputted by a speaker 23. Note that the voice data can be converted into character encoded information by the voice recognition unit 6 and then displayed on the CRT 5 or printed by the printer 13.

出力指示が音声データでない場合にはステップS33よ
りステップS36に進み、出力指示がキャラクタデータ
の場合にはキャラクタの書式情報にもとづいて、キャラ
クタコードをプログラムメモリ8に格納されているフォ
ントデータで展開し、位置情報aと大きさ情報すによっ
て定められたイメージメモリ9の領域にドツトデータと
して展開する。ブロックのデータがイメージデータの場
合は、符号化情報d2、画素密度データfにもとづいて
、イメージ・コンプレッション・ユニット27によって
圧縮化されているイメージデータを伸長化させ、位置情
報aと大きさ情報すによって定められるイメージメモリ
qの領或にドツトデータとして格納する。そして続くス
テップS37で出力光がプリンタ13か、又はCRT5
への出力かを判断し、CRT5にデータを表示する場合
にはステップ33Bに進み、イメージメモリ9から表示
データを読み出し、VRAM4に格納し表示する。一方
、プリンタ13よる印刷する場合はステップS37より
ステップS39に進み、イメージメそす9よりデータを
読み出し、プリンタ13に出力するそして共に出力終了
後ステップS20に戻り、次の受信処理又は出力指示入
力に備える。
If the output instruction is not audio data, the process advances from step S33 to step S36, and if the output instruction is character data, the character code is developed with font data stored in the program memory 8 based on the character format information. , is developed as dot data in the area of the image memory 9 determined by the position information a and the size information I. If the block data is image data, the image data compressed by the image compression unit 27 is decompressed based on the encoded information d2 and the pixel density data f, and the position information a and size information are expanded. It is stored as dot data in the area of image memory q defined by . Then, in the following step S37, the output light is output from the printer 13 or from the CRT 5.
If the data is to be displayed on the CRT 5, the process proceeds to step 33B, where the display data is read from the image memory 9, stored in the VRAM 4, and displayed. On the other hand, when printing is to be performed by the printer 13, the process advances from step S37 to step S39, where the data is read from the image processor 9 and output to the printer 13. After the output is finished, the process returns to step S20 and the next reception process or output instruction input is performed. Be prepared.

なお、相手端末が文字符号化情報を受信する能力もない
、純粋なファクシミリ装置等である場合は一度文字符号
化したデータをフォント展開して、全てイメージデータ
として送信してもよい。
Note that if the other party's terminal is a pure facsimile machine or the like that does not have the ability to receive character-encoded information, the character-encoded data may be expanded into a font and sent entirely as image data.

なお、以上の説明において、ハードディスク装置2より
受信データを読出すときに、例えば第3図に示すデータ
を全て一括してイメージデータに変換して、イメージメ
モリ9中に展開し、しかる後に指定データのみを抽出し
て指定部分に出力する様制御してもよい。
In the above explanation, when reading the received data from the hard disk device 2, for example, all the data shown in FIG. It may also be possible to control the extraction and output of only the specified part.

以上説明した様に本実施例によれば、データ通信装置、
例えばミクストモード端末装置においてキャラクタ符号
化方式を用いるテキストや、ファクシミリ符号化方式を
用いるテキストだけでなく、音声情報を持つテキスト、
および音声情報のみの作成、送受信が可能となり、加え
て相手端末に音声情報を受信する能力がない場合には、
音声情報をキャラクタ符号化情報に変換できることによ
って、どのような相手端末とも通信が可能になるという
効果がある。
As explained above, according to this embodiment, the data communication device,
For example, in a mixed-mode terminal device, not only text using a character encoding method or text using a facsimile encoding method, but also text with audio information,
It becomes possible to create, send and receive only audio information, and in addition, if the other party's terminal does not have the ability to receive audio information,
The ability to convert voice information into character encoded information has the effect of allowing communication with any partner terminal.

[発明の効果] 以上説明した様に本発明によれば、通信相手先装置の備
える機能に従ったデータ形式でデータ通信が行え、音声
情報を含むデータ通信をも可能となる。
[Effects of the Invention] As described above, according to the present invention, data communication can be performed in a data format that conforms to the functions provided by the communication destination device, and data communication including voice information is also possible.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る一実施例のブロック図、第2図(
a)〜(d)は本実施例で用いられるデータ伝送フレー
ムのフォーマット構成図、第3図は本実施例で用いられ
る文書情報の一構成例を示す図、 第4図(A)、(B)は本実施例のデータ通信制御フロ
ーチャートである。 図中、1・・・CPU、2・・・ハードディスク装置、
4・・・VRAM、5・・・CRT、6・・・音声認識
ユニット、7・・・音声メモリ、8・・・プログラムメ
モリ、9・・・イメージメモリ、12・・・リーダ、1
3・・・プリンタ、14・・・キーボード、16・・・
A/Dコンバータ、20・・・D/Aコンバータ、17
.21・・・濾波器、18.22・・・アンプ、19・
・・マイク、23・・・スピーカ、24・・・コミュニ
ケーションコントロールユニット、25・・・回線であ
る。 特許出願人  キャノン株式会社 第1図 第 2図(G)
FIG. 1 is a block diagram of an embodiment according to the present invention, and FIG. 2 (
a) to (d) are format configuration diagrams of data transmission frames used in this embodiment, FIG. 3 is a diagram showing an example of the structure of document information used in this embodiment, and FIGS. ) is a data communication control flowchart of this embodiment. In the figure, 1...CPU, 2...Hard disk device,
4... VRAM, 5... CRT, 6... Voice recognition unit, 7... Voice memory, 8... Program memory, 9... Image memory, 12... Reader, 1
3...Printer, 14...Keyboard, 16...
A/D converter, 20...D/A converter, 17
.. 21...Filter, 18.22...Amplifier, 19.
...Microphone, 23...Speaker, 24...Communication control unit, 25...Line. Patent applicant: Canon Co., Ltd. Figure 1 Figure 2 (G)

Claims (1)

【特許請求の範囲】[Claims] 通信媒体を介して他の通信装置との間でデータの通信を
行うデータ通信装置であつて、可視化可能な情報を表わ
すディジタルデータ又は音声データの通信を行う通信手
段と、音声データを可視化可能な情報を表わすディジタ
ルデータに変換する変換手段と、相手先通信装置が音声
データ通信可能か否かを判別する判別手段と、該判別手
段が音声データ通信可能と判別すると前記通信手段によ
る音声データの通信を行わせ、前記判別手段が音声デー
タ通信不可を判別すると通信すべき音声データを前記変
換手段で可視化可能な情報を表わすディジタルデータに
変換して前記通信手段による通信を行うよう制御する制
御手段とを備えることを特徴とするデータ通信装置。
A data communication device that communicates data with another communication device via a communication medium, including a communication means that communicates digital data or audio data representing information that can be visualized, and a communication device that can visualize the audio data. a converting means for converting into digital data representing information; a determining means for determining whether or not the destination communication device is capable of voice data communication; and when the determining means determines that voice data communication is possible, the communication means communicates the voice data. control means for controlling the converting means to convert the audio data to be communicated into digital data representing visualizeable information and to perform communication by the communication means when the determining means determines that voice data communication is not possible; A data communication device comprising:
JP61250897A 1986-10-23 1986-10-23 Data communication method Expired - Fee Related JP2568183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61250897A JP2568183B2 (en) 1986-10-23 1986-10-23 Data communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61250897A JP2568183B2 (en) 1986-10-23 1986-10-23 Data communication method

Publications (2)

Publication Number Publication Date
JPS63105557A true JPS63105557A (en) 1988-05-10
JP2568183B2 JP2568183B2 (en) 1996-12-25

Family

ID=17214652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61250897A Expired - Fee Related JP2568183B2 (en) 1986-10-23 1986-10-23 Data communication method

Country Status (1)

Country Link
JP (1) JP2568183B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162558A (en) * 1993-12-07 1995-06-23 Nec Corp Personal computer
US6226361B1 (en) 1997-04-11 2001-05-01 Nec Corporation Communication method, voice transmission apparatus and voice reception apparatus
JP2001145103A (en) * 1999-11-18 2001-05-25 Oki Electric Ind Co Ltd Transmission device and communication system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6386655A (en) * 1986-09-30 1988-04-18 Toshiba Corp Meida converting system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6386655A (en) * 1986-09-30 1988-04-18 Toshiba Corp Meida converting system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162558A (en) * 1993-12-07 1995-06-23 Nec Corp Personal computer
US6226361B1 (en) 1997-04-11 2001-05-01 Nec Corporation Communication method, voice transmission apparatus and voice reception apparatus
JP2001145103A (en) * 1999-11-18 2001-05-25 Oki Electric Ind Co Ltd Transmission device and communication system

Also Published As

Publication number Publication date
JP2568183B2 (en) 1996-12-25

Similar Documents

Publication Publication Date Title
JP3169815B2 (en) Image communication device and image communication method
JPH0620244B2 (en) Communication terminal
JPS60105367A (en) Facsimile communication system
JPH07105892B2 (en) Data communication device
JPH11161568A (en) Communication device and storage medium
JPS63105557A (en) Data communication equipment
JP2525377B2 (en) Data processing method
JP2931307B2 (en) Image communication method
JP3096134B2 (en) Document creation / editing apparatus and method
JPH10164301A (en) Bidirectional interactive communication equipment
JP2772683B2 (en) Image communication apparatus and method
JP2931306B2 (en) Image communication method
JPH0785084A (en) Picture storage system and picture retrieval system
JP2515058B2 (en) Compound fax machine
JP3029108B2 (en) Data communication device
JP2517627B2 (en) Data communication method
JPS6029087A (en) Compound facsimile equipment
JPS62150482A (en) Picture information processor
JPH01251873A (en) Communication equipment
JP2001028652A (en) Communication device its method and storage medium
JPH08125845A (en) Device and method for processing image
JPS63208354A (en) Facsimile equipment
JPH0442355A (en) Mixed mode terminal equipment
JPH0715553A (en) Picture transmission system
JPH0654108A (en) Facsimile equipment

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees