[go: up one dir, main page]

JP2001014307A - Document processing apparatus, document processing method, and recording medium - Google Patents

Document processing apparatus, document processing method, and recording medium

Info

Publication number
JP2001014307A
JP2001014307A JP11189157A JP18915799A JP2001014307A JP 2001014307 A JP2001014307 A JP 2001014307A JP 11189157 A JP11189157 A JP 11189157A JP 18915799 A JP18915799 A JP 18915799A JP 2001014307 A JP2001014307 A JP 2001014307A
Authority
JP
Japan
Prior art keywords
document
voice
image
signal
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11189157A
Other languages
Japanese (ja)
Inventor
Katashi Nagao
確 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11189157A priority Critical patent/JP2001014307A/en
Publication of JP2001014307A publication Critical patent/JP2001014307A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【課題】 複数のキャラクタによる読み上げと、それに
応じた表示の実現。 【解決手段】 例えば複数の人物等にそれぞれ対応した
複数の種別の音声を選択的に用いて電子文書データにつ
いての読み上げ音声となる音声信号を発生させるととも
に、発生されている音声信号の種別に応じて発声者画像
信号を出力する。これにより、例えば説明文の文書デー
タの途中で話者を切り換えたり、会話文としての文書デ
ータにおいて、会話状態での提示を実現する。
(57) [Summary] [Problem] To realize reading out by a plurality of characters and display according to the reading out. SOLUTION: For example, a plurality of types of voices respectively corresponding to a plurality of persons are selectively used to generate a voice signal serving as a reading voice for electronic document data, and according to a type of the generated voice signal. To output a speaker image signal. Thereby, for example, the speaker can be switched in the middle of the document data of the explanatory sentence, and the presentation in the conversation state is realized in the document data as the conversation sentence.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は電子文書処理に関
し、特に電子文書についての読み上げ音声を出力するこ
とのできる文書処理装置に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to electronic document processing, and more particularly to a document processing apparatus capable of outputting a reading voice of an electronic document.

【0002】[0002]

【従来の技術】従来、インターネットにおいて、ウィン
ドウ形式でハイパーテキスト型情報を提供するアプリケ
ーションサービスとしてWWW(World Wide Web)が提
供されている。
2. Description of the Related Art Conventionally, WWW (World Wide Web) has been provided as an application service for providing hypertext information in a window format on the Internet.

【0003】WWWは、文書の作成、公開または共有化
の文書処理を実行し、新しいスタイルの文書の在り方を
示したシステムである。しかし、文書の実際上の利用の
観点からは、文書の内容に基づいた文書の分類や要約と
いった、WWWを越える高度な文書処理が求められてい
る。このような高度な文書処理には、文書の内容の機械
的な処理が不可欠である。
[0003] The WWW is a system for executing document processing for creating, publishing, or sharing a document, and showing the way of a new style document. However, from the viewpoint of practical use of documents, advanced document processing beyond WWW, such as classification and summarization of documents based on the contents of the documents, is required. For such advanced document processing, mechanical processing of the contents of the document is indispensable.

【0004】しかしながら、文書の内容の機械的な処理
は、以下のような理由から依然として困難である。第1
に、ハイパーテキストを記述する言語であるHTML
(Hyper Text Markup Language)は、文書の表現につい
ては規定するが、文書の内容についてはほとんど規定し
ない。第2に、文書間に構成されたハイパーテキストの
ネットワークは、文書の読者にとって文書の内容を理解
するために必ずしも利用しやすいものではない。第3
に、一般に文章の著作者は読者の便宜を念頭に置かずに
著作するが、文書の読者の便宜が著作者の便宜と調整さ
れることはない。
However, mechanical processing of the contents of a document is still difficult for the following reasons. First
HTML, a language that describes hypertext
(Hyper Text Markup Language) specifies the expression of a document, but hardly specifies the content of the document. Second, a network of hypertexts formed between documents is not always easy for a reader of the document to understand the contents of the document. Third
In general, the author of a document writes without considering the convenience of the reader, but the convenience of the reader of the document is not adjusted to the convenience of the author.

【0005】このように、WWWは新しい文書の在り方
を示したシステムであるが、文書を機械的に処理しない
ので、高度な文書処理をおこなうことができなかった。
換言すると、高度な文書処理を実行するためには、文書
を機械的に処理することが必要となる。
[0005] As described above, the WWW is a system showing the way of a new document. However, since the document is not mechanically processed, advanced document processing cannot be performed.
In other words, in order to perform advanced document processing, it is necessary to process the document mechanically.

【0006】そこで、文書の機械的な処理を目標とし
て、文書の機械的な処理を支援するシステムが自然言語
研究の成果に基づいて開発されている。自然言語研究に
よる文書処理として、文書の著作者等による文書の内部
構造についての属性情報、いわゆるタグの付与を前提と
した、文書に付与されたタグを利用する機械的な文書処
理が提案されている。
Therefore, a system for supporting mechanical processing of documents has been developed based on the results of natural language research, with the goal of mechanical processing of documents. As a document processing based on natural language research, mechanical document processing using tags attached to a document has been proposed on the assumption that attribute information about the internal structure of the document by the author of the document, so-called tags are added. I have.

【0007】[0007]

【発明が解決しようとする課題】ところで、近年のコン
ピュータの普及や、ネットワーク化の進展に伴い、文章
処理や、文書の内容に依存した索引などで、テキスト文
書の作成、ラベル付け、変更などをおこなう文書処理の
高機能化が求められている。たとえば、ユーザの要望に
応じた文書の要約や、文書の分類、文書の読み上げ等が
望まれる。また、文書やその要約を表示する文書ビュー
ワや表示部の形態に適した表示スタイルや、表示ととも
に行われる読み上げ機能、さらには文書や画像の表示と
読み上げの連動など、よりユーザーにとって好適な処理
が求められている。
By the way, with the recent spread of computers and the progress of networking, text processing, creation of text documents, labeling, change, and the like have been performed by using an index depending on the contents of the documents. There is a demand for enhanced document processing to be performed. For example, it is desired to summarize a document according to a user's request, classify the document, read out the document, and the like. In addition, processing more suitable for the user, such as display styles suitable for the form of the document viewer or display unit that displays documents and their summaries, read-aloud functions performed with display, and interlocking of display of documents and images with read-aloud. It has been demanded.

【0008】[0008]

【課題を解決するための手段】本発明は、このような事
情に鑑みて提案されたものであって、文書処理装置にお
いて、表示出力と音声出力を有効に使って文書の読み上
げを行うことを目的とする。
SUMMARY OF THE INVENTION The present invention has been proposed in view of the above-described circumstances, and it is an object of the present invention to provide a document processing apparatus that reads out a document by effectively using a display output and a voice output. Aim.

【0009】このため本発明の文書処理装置は、複数の
種別の音声を選択的に用いて電子文書データについての
読み上げ音声となる音声信号を発生させることのできる
読み上げ音声発生手段と、読み上げ音声発生手段により
発生されている音声信号の種別に応じて特定の種別の発
声者画像信号を出力する画像発生手段とを備えるように
する。また特に表示手段と、音声出力手段と、制御手段
とをさらに備えるようにし、制御手段は、読み上げ音声
発生手段により発生された音声信号を音声出力手段から
出力させるとともに、読み上げ音声発生手段により発生
されている音声信号の種別に応じて画像発生手段から出
力される発声者画像信号を用いて表示手段での表示動作
が行われるように制御を行うようにする。即ち本発明で
は、電子文書を読み上げるとともに、その話者としての
キャラクタ画像等が表示できるようにするとともに、複
数の種別の音声や話者画像を出力することで、より電子
文書内容に適した読み上げ動作を実現できるようにす
る。
For this reason, the document processing apparatus according to the present invention comprises: a read-out voice generating means capable of selectively using a plurality of types of voices to generate a voice signal serving as a read-out voice for electronic document data; Image generating means for outputting a specific type of speaker image signal according to the type of the audio signal generated by the means. In particular, the apparatus further includes a display unit, a voice output unit, and a control unit. The control unit causes the voice output unit to output the voice signal generated by the read-out voice generation unit, and generates the voice signal generated by the read-out voice generation unit. Control is performed so that the display operation on the display means is performed using the speaker image signal output from the image generation means according to the type of the sound signal being output. That is, according to the present invention, in addition to reading out an electronic document, a character image or the like as the speaker can be displayed, and a plurality of types of voices and speaker images are output, so that the reading out more suitable for the contents of the electronic document can be performed. Make the action possible.

【0010】また読み上げ音声発生手段は、電子文書デ
ータに付加されている音声種別情報に基づいて、発生す
る音声信号の種別を選択するようにする。また画像発生
手段は、読み上げ音声発生手段から或る種別の音声信号
が出力されている期間に、その種別に対応する発声者画
像信号としての、静止画像信号、又は動画像信号、又は
擬似動画像信号を出力するようにする。
[0010] The reading voice generating means selects the type of the generated voice signal based on the voice type information added to the electronic document data. Further, the image generating means is a still image signal, a moving image signal, or a pseudo moving image as a speaker image signal corresponding to the type during a period when a certain type of audio signal is output from the reading voice generating means. Output a signal.

【0011】本発明の文書処理方法は、電子文書データ
について、複数の種別の音声を選択的に使い分けた読み
上げ音声となる音声信号を発生させ、音声出力部から出
力させる読み上げ音声発生手順と、読み上げ音声発生手
順により発生されている音声信号の種別に応じた発声者
画像信号を出力し、表示部で表示されるようにする画像
発生手順とが行われるようにする。さらに本発明の記録
媒体は、このような各手順を有する動作制御プログラム
が記録されているものとする。
According to the document processing method of the present invention, there is provided a reading voice generating procedure for generating a voice signal as a reading voice by selectively using a plurality of types of voices for electronic document data, and outputting the voice signal from a voice output unit; An image generating procedure for outputting a speaker image signal corresponding to the type of the audio signal generated by the voice generating procedure and displaying the signal on the display unit is performed. Further, it is assumed that the recording medium of the present invention has recorded therein an operation control program having such procedures.

【0012】また本発明の文書処理装置は、電子文書デ
ータに付加されている音声種別情報に基づいて、複数の
種別の音声から一の音声を選択し、選択した音声を用い
て電子文書データについての読み上げ音声となる音声信
号を発生させることのできる読み上げ音声発生手段と、
音声種別情報に基づいて複数の種別の発声者画像から一
の発声者画像を選択し、選択した発声者画像による画像
信号を出力する画像発生手段とを備えるようにする。さ
らに本発明の文書処理方法は、電子文書データに付加さ
れている音声種別情報に基づいて、複数の種別の音声か
ら一の音声を選択し、選択した音声を用いて電子文書デ
ータについての読み上げ音声となる音声信号を発生さ
せ、音声出力部から出力させる読み上げ音声発生手順
と、音声種別情報に基づいて複数の種別の発声者画像か
ら一の発声者画像を選択し、選択した発声者画像による
画像信号を出力し、表示部で表示されるようにする画像
発生手順と、が行われるようにする。さらに本発明の記
録媒体は、このような各手順を有する動作制御プログラ
ムが記録されているものとする。
Further, the document processing apparatus of the present invention selects one voice from a plurality of types of voices based on voice type information added to the electronic document data, and uses the selected voice to process the electronic document data. A read-out voice generating means capable of generating a voice signal serving as a read-out voice of
Image generating means for selecting one speaker image from a plurality of types of speaker images based on the voice type information and outputting an image signal based on the selected speaker image. Further, according to the document processing method of the present invention, one voice is selected from a plurality of types of voices based on voice type information added to the electronic document data, and the read-out voice of the electronic document data is selected using the selected voice. A speech signal generating procedure for generating a speech signal to be output from the speech output unit, and selecting one speaker image from a plurality of types of speaker images based on the speech type information, and an image based on the selected speaker image And an image generating procedure for outputting a signal and displaying the signal on the display unit. Further, it is assumed that the recording medium of the present invention has recorded therein an operation control program having such procedures.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態につい
て次の順序で説明する。 1.文書処理装置の構成 2.文書データ構造 3.文書データに対する手動分類処理 3−1 処理手順 3−2 インデックス作成 3−3 文書閲覧/分類作成/分類操作 3−4 分類モデル作成/登録 4.文書データに対する自動分類処理 4−1 処理手順 4−2 自動分類 5.要約作成処理 6.読み上げ処理
Embodiments of the present invention will be described below in the following order. 1. 1. Configuration of document processing device 2. Document data structure 3. Manual classification process for document data 3-1 Processing procedure 3-2 Index creation 3-3 Document browsing / classification creation / classification operation 3-4 Classification model creation / registration 4. Automatic classification processing for document data 4-1 Processing procedure 4-2 Automatic classification Summary creation processing Speech processing

【0014】1.文書処理装置の構成 本発明の実施の形態としての文書処理装置1は、図1に
示すように、制御部11およびインターフェース12を
備える本体10と、ユーザからの入力を受けて本体10
に送る入力部20と、外部との信号の送受信を行う通信
部21と、本体10からの出力を表示する表示部30
と、記録媒体32に対して情報を記録/再生する記録/
再生部31と、音声出力部33と、HDD(ハードディ
スクドライブ)34を有している。
1. 1. Configuration of Document Processing Apparatus As shown in FIG. 1, a document processing apparatus 1 according to an embodiment of the present invention includes a main body 10 having a control unit 11 and an interface 12, and a main body 10 which receives an input from a user.
, An input unit 20 for sending and receiving signals to and from the outside, and a display unit 30 for displaying an output from the main body 10
Recording / reproduction for recording / reproducing information on / from the recording medium 32
It has a reproduction unit 31, an audio output unit 33, and an HDD (hard disk drive).

【0015】本体10は、制御部11、インターフェー
ス12、画像メモリ16を有し、この文書処理装置1の
主要な部分を構成している。制御部11は、この文書処
理装置1における処理を実行するCPU13と、揮発性
のメモリであるRAM14と、不揮発性のメモリである
ROM15とを有している。CPU13は、たとえばR
OM15に記録された手順にしたがって、必要な場合に
はデータを一時的にRAM14に格納して、プログラム
を実行するための制御をおこなう。この制御部11の動
作としては、詳しくはそれぞれ後述していくが、供給さ
れた文書データに関する分類処理、要約作成処理、読み
上げ動作のための音声読み上げ用ファイルの生成処理、
及びこれらの処理に必要な文書解析などがある。そして
これらの動作のために必要なプログラムやアプリケーシ
ョンソフトが、ROM15や、HDD34、あるいは記
録媒体32に記憶されている。なお、制御部11が用い
る文書処理プログラムは上記のようにあらかじめROM
15に格納されたり、あるいは、記録媒体32やHDD
34から取り込むことが考えられるが、例えば通信部2
1を介してインターネット等のネットワークから、外部
サーバ等が提供する文書処理プログラムをダウンロード
することも考えられる。
The main body 10 has a control unit 11, an interface 12, and an image memory 16, and constitutes a main part of the document processing apparatus 1. The control unit 11 has a CPU 13 that executes processing in the document processing apparatus 1, a RAM 14 that is a volatile memory, and a ROM 15 that is a non-volatile memory. For example, the CPU 13
According to the procedure recorded in the OM 15, if necessary, the data is temporarily stored in the RAM 14 and control for executing the program is performed. The operation of the control unit 11 will be described in detail later, but includes a classification process for the supplied document data, a summary creation process, a process of generating a speech reading file for a reading operation,
And document analysis required for these processes. The programs and application software necessary for these operations are stored in the ROM 15, the HDD 34, or the recording medium 32. The document processing program used by the control unit 11 is stored in a ROM
15 or a recording medium 32 or HDD
34, for example, the communication unit 2
It is also conceivable to download a document processing program provided by an external server or the like from a network such as the Internet via the Internet.

【0016】画像メモリ16は、後述する読み上げ動作
の際に表示部30で話者の画像を表示するために、人物
画像等の各種の画像を記憶している部位である。制御部
11は、この画像メモリ16に記憶された各画像データ
を用いて、ウインドウ画像を構成し、表示部30に表示
させることができる。なお画像メモリ16は、制御部1
1の内部メモリとしてもよい。あるいは、画像メモリ1
6を設けず、画像メモリ16の機能をHDD34やRO
M15にもたせてもよい。
The image memory 16 is a part for storing various images such as a human image in order to display a speaker image on the display unit 30 during a reading operation described later. The control unit 11 can configure a window image using the respective image data stored in the image memory 16 and display the window image on the display unit 30. It should be noted that the image memory 16 is
1 internal memory. Alternatively, the image memory 1
6 is not provided, and the function of the image memory 16 is
M15 may be provided.

【0017】インターフェース12は、制御部11、入
力部20、通信部21、表示部30、記録/再生部3
1、音声出力部33、HDD34に接続される。そして
インターフェース12は、制御部11の制御の下に、入
力部20からのデータの入力、通信部21との間のデー
タの入出力、表示部30へのデータの出力、記録/再生
部31に対するデータの入出力、音声出力部33へのデ
ータの出力、HDD34に対するデータの入出力の各動
作をを行う。具体的には制御部11と上記各部の間での
データの入出力のタイミングを調整したり、データの形
式を変換することなどを行う。
The interface 12 includes a control unit 11, an input unit 20, a communication unit 21, a display unit 30, and a recording / reproducing unit 3.
1. Connected to the audio output unit 33 and HDD. Under the control of the control unit 11, the interface 12 inputs data from the input unit 20, inputs and outputs data to and from the communication unit 21, outputs data to the display unit 30, and controls the recording / reproducing unit 31. Each operation of data input / output, data output to the audio output unit 33, and data input / output to the HDD 34 is performed. More specifically, it adjusts the timing of data input / output between the control unit 11 and each of the above units, converts the format of data, and the like.

【0018】入力部20は、この文書処理装置1に対す
るユーザの入力を受ける部分である。この入力部20
は、たとえばキーボードやマウスにより構成される。ユ
ーザは、この入力部20を用い、キーボードによリキー
ワード等の文字を入力したり、マウスにより表示部30
に表示されている電子文書のエレメントを選択すること
などができる。なお、以下では文書処理装置1で扱う電
子文書を、「文書データ」又は単に「文書」と称するこ
とにする。また「エレメント」とは文書を構成する要素
であって、たとえば文書、文および語が含まれる。
The input section 20 is a section for receiving an input from the user to the document processing apparatus 1. This input unit 20
Is composed of, for example, a keyboard and a mouse. The user uses the input unit 20 to input characters such as keywords using a keyboard, or to display the display unit 30 using a mouse.
For example, the user can select an element of the electronic document that is displayed in. Hereinafter, an electronic document handled by the document processing apparatus 1 is referred to as “document data” or simply “document”. The “element” is an element constituting a document, and includes, for example, a document, a sentence, and a word.

【0019】通信部21は、この文書処理装置1に外部
からたとえば通信回線を介して送信される信号を受信し
たり、通信回線に信号を送信する部位である。この通信
部21は、外部から送信された1又は複数の文書等のデ
ータを受信し、受信したデータを本体10に送る。もち
ろん通信回線を介して外部装置にデータを送信すること
も行われる。
The communication unit 21 is a unit that receives a signal transmitted from the outside to the document processing apparatus 1 via, for example, a communication line or transmits a signal to the communication line. The communication unit 21 receives one or a plurality of data such as documents transmitted from the outside, and sends the received data to the main body 10. Of course, data is transmitted to an external device via a communication line.

【0020】表示部30は、この文書処理装置1の出力
としての文字や画像情報を表示する部位である。この表
示部30は、たとえば陰極線管(cathode ray tube;CR
T)や液晶表示装置(Liquid crystal display;LCD)な
どにより構成され、たとえば単数または複数のウィンド
ウを表示し、このウィンドウ上に文字、図形等を表示す
る。
The display section 30 is a section for displaying characters and image information as an output of the document processing apparatus 1. The display unit 30 is, for example, a cathode ray tube (CR).
T), a liquid crystal display (LCD), or the like, for example, displays one or more windows, and displays characters, figures, and the like on these windows.

【0021】記録/再生部31は、たとえばいわゆるフ
ロッピーディスクのような記録媒体32に対してデータ
の記録/再生をおこなう。なお、ここでは記録媒体32
の例としてフロッピーディスク(磁気ディスク)を例を
あげているが、もちろん光ディスク、光磁気ディスク、
メモリカードなど、可搬性メディアであれば記録媒体3
2の例として適用できる。そして記録/再生部31は、
メディアに応じた記録再生装置(ディスクドライブ、カ
ードドライブなど)であればよい。
The recording / reproducing section 31 records / reproduces data on / from a recording medium 32 such as a so-called floppy disk. Here, the recording medium 32
An example of a floppy disk (magnetic disk) is given as an example of an optical disk, a magneto-optical disk,
Recording medium 3 if it is a portable medium such as a memory card.
2 can be applied as an example. Then, the recording / reproducing unit 31
Any recording / reproducing device (disk drive, card drive, etc.) according to the media may be used.

【0022】記録媒体32が、文書を処理するための文
書処理プログラムが記録されているものである場合は、
記録/再生部31は、その記録媒体32から文書処理プ
ログラムを読み出して制御部11に供給することができ
る。また記録媒体32に文書データが記録されていれ
ば、記録/再生部31でそれを読み出して制御部11に
供給することができる。即ち文書処理装置1にとって、
通信部21による文書データの受信とは別の文書データ
の入力態様となる。さらに、制御部11は当該文書処理
装置1で処理した文書データを記録/再生部31におい
て記録媒体32に記録させることもできる。
When the recording medium 32 has recorded therein a document processing program for processing a document,
The recording / reproducing unit 31 can read out the document processing program from the recording medium 32 and supply it to the control unit 11. If document data is recorded on the recording medium 32, the recording / reproducing unit 31 can read it out and supply it to the control unit 11. That is, for the document processing apparatus 1,
This is an input mode of the document data different from the reception of the document data by the communication unit 21. Further, the control unit 11 can cause the recording / reproducing unit 31 to record the document data processed by the document processing apparatus 1 on the recording medium 32.

【0023】音声出力部33は、文書処理装置1の出力
としての文書を、読み上げ音声として出力する部位であ
る。即ち音声出力部33は、制御部11が文書情報(後
述する読み上げ用ファイル)に基づいた音声合成処理に
より生成した音声信号が供給された際に、その音声信号
の出力処理を行うことで、表示部30とともに文書処理
装置1の出力手段として機能する。
The voice output unit 33 is a part for outputting a document as an output of the document processing apparatus 1 as a reading voice. That is, when a voice signal generated by a voice synthesis process based on document information (a reading file to be described later) is supplied by the control unit 11, the voice output unit 33 performs output processing of the voice signal to perform display. Together with the unit 30, it functions as an output unit of the document processing apparatus 1.

【0024】HDD34は、文書処理装置1における大
容量の記録領域を提供する。HDD34は、制御部11
の制御に基づいて情報の記録/再生を行う。このHDD
34は、制御部11で実行される各種処理のためのアプ
リケーションプログラム、例えば音声合成のためのプロ
グラムなどの格納するために用いられたり、例えば当該
文書処理装置1に取り込まれた文書データ等を格納して
おく部位として用いることなどが可能となる。
The HDD 34 provides a large-capacity recording area in the document processing apparatus 1. The HDD 34 includes the control unit 11
The recording / reproduction of information is performed based on the control of. This HDD
Reference numeral 34 denotes an application program for various processes executed by the control unit 11, for example, a program for speech synthesis, and the like, and stores, for example, document data and the like taken into the document processing apparatus 1. It can be used as a part to be kept.

【0025】2.文書データ構造 続いて、本例における文書データの構造について説明す
る。本例においては、文書処理は、文書に付与された属
性情報であるタグを参照しておこなわれる。本例で用い
られるタグには、文書の構造を示す統語論的(syntacti
c)タグと、多言語間で文書の機械的な内容理解を可能
にするような意味的(semantic)・語用論的タグとがあ
る。
2. Document Data Structure Next, the structure of document data in this example will be described. In this example, document processing is performed with reference to a tag that is attribute information assigned to the document. The tags used in this example include syntactic
c) There are tags and semantic / pragmatic tags that enable mechanical understanding of the content of documents between multiple languages.

【0026】統語論的なタグとしては、文書の内部構造
を記述するものがある。タグ付けによる内部構造は、図
2に示すように、文書、文、語彙エレメント等の各エレ
メントが互いに、通常リンク、参照・被参照リンクによ
りリンクされて構成されている。図中において、白丸
“○”はエレメントを示し、最下位の白丸は文書におけ
る最小レベルの語に対応する語彙エレメントである。ま
た、実線は文書、文、語彙エレメント等のエレメント間
のつながり示す通常リンク(normal link)であり、破
線は参照・被参照による係り受け関係を示す参照リンク
(reference link)である。文書の内部構造は、上位か
ら下位への順序で、文書(documemt)、サブディビジョ
ン(subdivision)、段落(paragraph)、文(sentenc
e)、サブセンテンシャルセグメント(subsentential s
egment)、・・・、語彙エレメントから構成される。こ
のうち、サブディビジョンと段落はオプションである。
Some syntactic tags describe the internal structure of a document. As shown in FIG. 2, the internal structure by tagging is configured such that each element such as a document, a sentence, and a vocabulary element is linked to each other by a normal link and a reference / referenced link. In the figure, a white circle “○” indicates an element, and the lowest white circle is a vocabulary element corresponding to the minimum level word in the document. The solid line is a normal link indicating a connection between elements such as a document, a sentence, and a vocabulary element, and the dashed line is a reference link indicating a dependency relationship by reference / reference. The internal structure of a document is document (documemt), subdivision (subdivision), paragraph (paragraph), sentence (sentenc
e), subsentential segment (subsentential s
egment), ..., vocabulary elements. Of these, subdivisions and paragraphs are optional.

【0027】一方、意味論・語用論的なタグ付けとして
は、多義語の意味のように意味等の情報を記述するもの
がある。本例におけるタグ付けは、HTML(Hyper Te
xt Markup Language)と同様なXML(Extensible Mar
kup Language)の形式によるものである。
On the other hand, as the semantic / pragmatic tagging, there is a method of describing information such as a meaning like a meaning of a polysemy. Tagging in this example is performed by HTML (Hyper Te
XML (Extensible Mar) similar to xt Markup Language
kup Language).

【0028】タグ付けの一例を次に示すが、文書へのタ
グ付けはこの方法に限られない。また、以下では英語と
日本語の文書の例を示すが、タグ付けによる内部構造の
記述は他の言語にも同様に適用することができる。
An example of tagging is shown below, but tagging a document is not limited to this method. In the following, examples of English and Japanese documents are shown, but the description of the internal structure by tagging can be similarly applied to other languages.

【0029】たとえば、“Time flies like an arro
w.”という文については、下記のようなタグ付けをする
ことができる。< >が、文書に対して付与されたタグ
である。
For example, "Time flies like an arro
The sentence "w." can be tagged as follows. <> is a tag added to the document.

【0030】 <文><名詞句 語義=“time0”>time</名詞句> <動詞句><動詞 語義=“fly1”>flies</動詞> <副詞句><副詞 語義=like0>like</副詞> <
名詞句>an <名詞 語義=“arrow0”>arrow</名詞></名詞
句> </副詞句></動詞句>.</文>
<Sentence><noun phrase meaning = “time0”> time </ noun phrase><verbphrase><verb meaning = “fly1”> flies <// verb><adverbphrase><adverb meaning = like0> like < / Adverb><
Noun phrase> an <noun meaning = “arrow0”> arrow </ noun></ noun phrase></ adverb phrase></ verb phrase>. </ Sentence>

【0031】ここで<文>、<名詞>、<名詞句>、<
動詞>、<動詞句>、<副詞>、<副詞句>は、それぞ
れ文、名詞、名詞句、動詞、動詞句、形容詞/副詞(前
置詞句または後置詞句を含む)、形容詞句/副詞句、を
示している。つまり文の統語構造(syntactic structur
e)を表している。
Here, <sentence>, <noun>, <noun phrase>, <
Verbs, <verb phrases>, <adverbs>, <adverb phrases> are sentences, nouns, noun phrases, verbs, verb phrases, adjectives / adverbs (including prepositional or postpositional phrases), adjective phrases / adverbial phrases, respectively. Is shown. In other words, the syntactic structur of a sentence
e).

【0032】これらのタグは、エレメントの先端の直前
および終端の直後に対応して配置される。エレメントの
終端の直後に配置されるタグは、記号“ /”によりエ
レメントの終端であることを示している。エレメントと
は統語的構成素、すなわち句、節、および文のことであ
る。なお、語義(word sense)=“time0”は、語“ti
me”の有する複数の意味、すなわち複数の語義のうちの
第0番目の意味を指している。具体的には、語“time”
には少なくとも名詞、形容詞、動詞の意味があるが、こ
こでは語“time”が名詞(=第0番目の意味)であるこ
とを示している。同様に、語“オレンジ”は少なくとも
植物の名前、色、果物の意味があるが、これらも語義に
よって区別することができる。
These tags are arranged immediately before the front end and immediately after the end of the element. The tag placed immediately after the end of the element indicates that it is the end of the element by the symbol "/". Elements are syntactic constructs: phrases, clauses, and sentences. Note that the meaning (word sense) = “time0” corresponds to the word “ti”.
It refers to the plural meanings of “me”, that is, the 0th meaning of the plural meanings.
Has at least the meanings of a noun, adjective, and verb. Here, it indicates that the word "time" is a noun (= the 0th meaning). Similarly, the word "orange" has at least the meaning of plant name, color, and fruit, but these can also be distinguished by their meaning.

【0033】本例では、文書データについては、図3に
示すように、表示部30上のウィンドウ101におい
て、その統語構造を表示することができる。このウィン
ドウ101においては、右半面103に語彙エレメント
が、左半面102に文の内部構造がそれぞれ表示されて
いる。
In this example, the syntactic structure of the document data can be displayed in the window 101 on the display unit 30 as shown in FIG. In this window 101, vocabulary elements are displayed on the right half 103, and the internal structure of the sentence is displayed on the left half 102.

【0034】例えば図示するようにこのウィンドウ10
1には、タグ付けにより内部構造が記述された文章「A
氏のB会が終わったC市で、一部の大衆紙と一般紙がそ
の写真報道を自主規制する方針を紙面で明らかにし
た。」の一部が表示されている。この文書のタグ付けの
例は次のようになる。
For example, as shown in FIG.
1 has a sentence “A” in which the internal structure is described by tagging.
In C City, where his B meeting was over, some popular and general newspapers have stated on paper that they will voluntarily regulate their photographic coverage. Is displayed. An example of tagging this document is as follows:

【0035】 <文書><文><副詞句 関係=“場所”><名詞句>
<副詞句 場所=“C市”> <副詞句 関係=“主語”><名詞句 識別子=“B
会”><副詞句 関係=“所属”><人名 識別子=
“A氏”>A氏</人名>の</副詞句><組織名識別
子=“B会”>B会</組織名></名詞句>が</副
詞句> 終わった</副詞句><地名 識別子=“C市”>C市
</地名></名詞句>で、</副詞句><副詞句 関
係=“主語”><名詞句 識別子=“press”統語=
“並列”><名詞句><副詞句>一部の</副詞句>大
衆紙</名詞句>と<名詞>一般紙</名詞></名詞
句>が</副詞句> <副詞句 関係=“目的語”><副詞句 関係=“内
容” 主語=“press”><副詞句 関係=“目的語”
><名詞句><副詞句><名詞 共参照=“B会”>そ
</名詞>の</副詞句>写真報道</名詞句>を</
副詞句> 自主規制する</副詞句>方針を</副詞句> <副詞句 間係=“位置”>紙面で</副詞句> 明らかにした。</文></文書>
<Document><sentence><adverb phrase relation = “place”><nounphrase>
<Adverb Phrase Location = "C City"><Adverb Phrase Relation = "Subject"><Noun Phrase Identifier = "B
Kai ”><adverb phrase relation =“ affiliation ”><person name identifier =
"Mr. A"> Mr. A </ personal name></ adverb phrase><organization name identifier = "B association"> B association </ organization name></ noun phrase></ adverb phrase> finished </ adverb Phrase><place name identifier = “C city”> C city </ place name></ noun phrase>, </ adverb phrase><adverb phrase relation = “subject”><noun phrase identifier = “press” syntactic =
“Parallel”><nounphrase><adverbphrase> Some </ adverb phrase> popular paper </ noun phrase> and <noun> general paper </ noun></ noun phrase></ adverb phrase><adverb Phrase relation = “object”><adverb phrase relation = “contents” subject = “press”><adverb phrase relation = “object”
><Nounphrase><adverbphrase><noun co-reference = "B-kai"></ adverb phrase of </ noun></ photo ad </ noun phrase>
Adverb phrase> Self-regulated </ adverb phrase> Policy </ adverb phrase><adverb phrase interrelation = "position"></ adverb phrase> on paper. </ Text></text>

【0036】このようにタグ付されることで、各一対の
タグ< >〜</ >によって文書の構造が表現され
る。例えば<文書>〜</文書>で1つの文書の範囲が
示され、同様に<文>〜</文>で1つの文の範囲が示
される。また例えば、<名詞句 識別子=“B会”>〜
</名詞句>により、「A氏のB会」という部分が「B
会」を識別子とする名詞句として表現される。即ち上記
タグ付により、図3の左半面102に示した文の内部構
造が表現される。
By being tagged in this way, the structure of the document is represented by each pair of tags <> to </>. For example, <document> to </ document> indicates the range of one document, and similarly, <sentence> to </ sentence> indicates the range of one sentence. Also, for example, <Noun phrase identifier = “B meeting”>
According to </ noun phrase>, the part "Mr. A's B meeting"
It is expressed as a noun phrase with "kai" as the identifier. That is, the internal structure of the sentence shown on the left half surface 102 in FIG. 3 is expressed by the tagging.

【0037】さらに、この文書においては、「一部の大
衆紙と一般紙」は、統語=“並列”というタグにより並
列であることが表されている。並列の定義は、係り受け
関係を共有するということである。特に何も指定がない
場合、たとえば、<名詞句関係=x><名詞>A</名
詞><名詞>B</名詞></名詞句>は、AがBに依
存関係のあることを表す。関係=xは関係属性を表す。
Further, in this document, "part of popular paper and general paper" is expressed in parallel by the tag "syntax =" parallel ". The definition of parallel is to share a dependency relationship. If nothing is specified, for example, <noun phrase relation = x><noun> A </ noun><noun> B </ noun></ noun phrase> indicates that A has a dependency on B Represent. Relation = x represents a relation attribute.

【0038】関係属性は、統語、意味、修辞についての
相互関俵を記述する。主語、目的語、間接目的語のよう
な文法機能、動作主、被動作者、受益者などのような主
題役割、および理由、結果などのような修辞関係はこの
関係属性により記述される。本例では、主語、目的語、
間接目的語のような比較的容易な文法機能について関係
属性を記述する。
The relation attribute describes an interaction between syntactic, meaning, and rhetorical. Grammar functions such as subjects, objects, and indirect objects, subject roles such as an actor, a subject, a beneficiary, etc., and rhetorical relations such as a reason and a result are described by the relation attributes. In this example, the subject, object,
Describe relative attributes for relatively easy grammar functions such as indirect objects.

【0039】また、この文書においては、“A氏”、
“B会”、“C市”のような固有名詞について、地名、
人名、組織名等のタグにより属性が記述されている。こ
れら地名、人名、組織名等のタグが付与されることで、
その語が固有名詞であることが表現される。
In this document, "Mr. A",
For proper nouns such as "B Association" and "C City", place names,
Attributes are described by tags such as person names and organization names. By adding tags such as place name, person name, organization name, etc.,
It is expressed that the word is a proper noun.

【0040】3.文書データに対する手動分類処理 3−1 処理手順 本例の文書処理装置1では、例えば通信部21(又は記
録/再生部31)により外部から文書データが取り込ま
れると、その文書データを内容に応じて分類する処理を
行う。なお、以下の説明では、外部からの文書データは
通信部21を介して取り込まれるとして述べていくが、
その説明は、外部からフロッピーディスク等の可搬性メ
ディアの形態で供給され、記録/再生部31から文書デ
ータが取り込まれる場合も同様となるものである。
3. Manual Classification Processing on Document Data 3-1 Processing Procedure In the document processing apparatus 1 of this example, when document data is taken in from the outside by, for example, the communication unit 21 (or the recording / reproducing unit 31), the document data is converted according to the content. Perform classification processing. In the following description, it is described that document data from the outside is taken in via the communication unit 21.
The description is the same when the document data is supplied from the outside in the form of a portable medium such as a floppy disk and the document data is taken in from the recording / reproducing unit 31.

【0041】分類処理としては、文書データ内容に応じ
てユーザーが手動で分類する手動分類処理と、文書処理
装置1が自動的に分類する自動分類処理がある。これら
の分類処理は、後述する分類モデルに基づいて行われる
わけであるが、文書処理装置1においては、初期状態で
は分類モデルは存在しない。そのため初期状態にある時
点では、手動分類処理として、分類モデルの作成を含む
分類処理が必要になる。そして、分類モデルが生成され
た後においては、入力された文書データに対して自動分
類処理が可能となるものである。まずここでは、最初に
実行することが必要とされる手動分類処理について説明
する。即ちこの手動分類処理とは、初期状態にある文書
処理装置1が外部から送られた文書データを受信した際
に、ユーザーの操作に基づいて、制御部11が分類モデ
ルの作成及び文書データの分類を行う動作となる。
As the classification process, there are a manual classification process in which the user manually classifies according to the contents of the document data, and an automatic classification process in which the document processing apparatus 1 automatically classifies. These classification processes are performed based on a classification model described later. However, in the document processing apparatus 1, no classification model exists in an initial state. Therefore, at the time of the initial state, a classification process including creation of a classification model is required as a manual classification process. After the classification model is generated, the input document data can be automatically classified. First, a manual classification process that needs to be performed first will be described. That is, the manual classification process means that when the document processing apparatus 1 in the initial state receives document data sent from the outside, the control unit 11 creates a classification model and classifies the document data based on a user operation. Is performed.

【0042】まず手動分類処理としての全体の処理手順
を図4に示す。なお、各処理ステップの詳細な処理につ
いては後述する。
FIG. 4 shows the overall processing procedure as the manual classification processing. The detailed processing of each processing step will be described later.

【0043】図4のステップF11は、文書処理装置1
の受信部21による文書受信処理を示している。このス
テップF11では、受信部21は、たとえば通信回線を
介して送信された1又は複数の文書を受信する。受信部
21は、受信した文書を文書処理装置の本体10に送
る。制御部11は供給された1又は複数の文書データを
RAM14又はHDD34に格納する。
Step F11 in FIG.
2 shows a document receiving process by the receiving unit 21 of FIG. In step F11, the receiving unit 21 receives one or a plurality of documents transmitted via, for example, a communication line. The receiving unit 21 sends the received document to the main body 10 of the document processing device. The control unit 11 stores the supplied document data or document data in the RAM 14 or the HDD 34.

【0044】ステップF12では、文書処理装置1の制
御部11は、受信部21から送られた複数の文書の特徴
を抽出し、それぞれの文書の特徴情報すなわちインデッ
クスを作成する。制御部11は、作成したインデックス
を、たとえばRAM14又はHDD34に記憶させる。
後述するがインデックスは、その文書に特徴的な、固有
名詞、固有名詞以外の語義などを含むものであり、文書
の分類や検索に利用できるものである。
In step F12, the control section 11 of the document processing apparatus 1 extracts the features of the plurality of documents sent from the receiving section 21 and creates feature information, that is, an index of each document. The control unit 11 stores the created index in, for example, the RAM 14 or the HDD 34.
As will be described later, the index includes proper nouns, meanings other than proper nouns, and the like, which are characteristic of the document, and can be used for document classification and search.

【0045】ステップF13の文書閲覧は、ユーザーの
必要に応じて実行される処理である。つまりユーザーの
操作に応じて行われる。なお、このステップF13や次
のステップF14は、ユーザ操作に基づく処理である。
入力された文書データに対しては、ユーザーは所要の操
作を行うことにより、表示部30の画面上で、その文書
内容を閲覧することができる。そして文書閲覧中は、ユ
ーザーは画面上のアイコン等に対する操作により、例え
ば後述する要約作成などの各種処理を指示できるが、こ
の手動分類処理に関しては、ステップF14として示す
ように、分類項目の作成及び分類操作としての処理に進
むことになる。ステップF14では、ユーザーが分類項
目(なお本明細書では、分類項目のことをカテゴリとも
いう)を設定する操作を行うことに応じて、制御部11
は分類項目を生成/表示していく。またユーザーが文書
データを、設定された分類項目に振り分けていく操作も
行うことになり、それに応じて制御部11は文書データ
の振り分け/表示を行うことになる。
The document browsing in step F13 is a process executed as required by the user. That is, it is performed according to a user operation. Step F13 and the next step F14 are processes based on a user operation.
The user can view the content of the input document data on the screen of the display unit 30 by performing a required operation. While browsing the document, the user can instruct various processes such as summarization, which will be described later, by operating the icons and the like on the screen. The process will proceed to the classification operation. In step F14, in response to the user performing an operation of setting a classification item (the classification item is also referred to as a category in this specification), the control unit 11
Generates / displays classification items. The user also performs an operation of sorting the document data into the set classification items, and the control unit 11 sorts and displays the document data accordingly.

【0046】ステップF15では、制御部11は、ステ
ップF14でユーザーが行った分類項目作成及び分類操
作に応じて、分類モデルを作成する。分類モデルは、文
書を分類する複数の分類項目(カテゴリ)から構成され
るとともに、各カテゴリに対して各文書のインデックス
(ステップF12で作成した各文書のインデックス)を
対応づけることで、分類状態を規定するデータである。
このような分類モデルを生成したら、ステップF16
で、その分類モデルを登録する。即ち制御部11は、分
類モデルをたとえばRAM14に記憶させることで登録
を行う。以上の図4の処理により、文書処理状態1が初
期状態にある時に入力された1又は複数の各文書データ
について、手動分類及び分類モデルの作成が行われたこ
とになる。この図4のステップF12以下の処理につい
て詳しく述べていく。
In step F15, the control unit 11 creates a classification model according to the classification item creation and classification operation performed by the user in step F14. The classification model includes a plurality of classification items (categories) for classifying documents, and associates each document index with each category index (index of each document created in step F12) to change the classification state. This is the specified data.
After generating such a classification model, step F16
Then, the classification model is registered. That is, the control unit 11 performs the registration by storing the classification model in, for example, the RAM 14. By the processing of FIG. 4 described above, manual classification and creation of a classification model have been performed for one or a plurality of pieces of document data input when the document processing state 1 is in the initial state. The processing of step F12 and subsequent steps in FIG. 4 will be described in detail.

【0047】3−2 インデックス作成 ステップF14では、制御部11は入力された文書デー
タについてインデックスの作成を行う。まず、或る1つ
の文書データに対して作成されたインデックスの具体例
を示す。
3-2 Index Creation In step F14, the control section 11 creates an index for the input document data. First, a specific example of an index created for certain document data will be described.

【0048】<インデックス 日付=“AAAA/BB/CC”
時刻=“DD:EE:FF” 文書アドレス=“1234”> <ユーザの操作履歴 最大要約サイズ=“100”> <選択 エレメントの数=“10”>ピクチャーテル</
選択> ・・・ </ユーザの操作履歴> <要約>減税規模、触れず−X首相の会見</要約> <語 語義=“0003” 中心活性値=“140.6”>触れ
ず</語> <語 語義=“0105” 識別子=“X” 中心活性値=
“67.2”>首相</語><人名 識別子=“X” 語
語義=“6103” 中心活性値=“150.2”>X首相</
語 /人名> <語 語義=“5301” 中心活性値=“120.6”>求め
た</語> <語 語義=“2350” 識別子=“X” 中心活性値=
“31.4”>首相</語> <語 語義=“9582” 中心活性値=“182.3”>強調
した</語> <語 語義=“2595” 中心活性値=“93.6”>触れる
</語> <語 帝義=“9472” 中心活性値=“12.0”>予告し
た</語> <語 語義=“4934” 中心活性値=“46.7”>触れな
かった</語> <語 語義=“0178” 中心活性値=“175.7”>釈明
した</語> <語 語義=“7248” 識別子=“X” 中心活性値=
“130.6”>私</語> <語 語義=“3684” 識別子=“X” 中心活性値=
“121.9”>首相</語> <語 語義=“1824” 中心活性値=“144.4.”>訴え
た</語> <語 語義=“7289” 中心活性値=“176.8”>見せ
た</語> </インデックス>
<Index date = "AAAA / BB / CC"
Time = “DD: EE: FF” Document address = “1234”><User operation history Maximum summary size = “100”><Number of selected elements = “10”> Picturetel </
Selection> ... </ User operation history><Summary> Tax reduction scale, not touching-Prime Minister X's interview </ Summary><Word Meaning = "0003" Central activity value = "140.6"> No touch </ word><Word meaning = “0105” identifier = “X” central activity value =
“67.2”> Prime Minister </ word><person name identifier = “X” word
Meaning = "6103" Central activity value = "150.2"> Prime Minister X /
Word / person name><word meaning = “5301” central activity value = “120.6”> determined </ word><word meaning = “2350” identifier = “X” central activity value =
“31.4”> Prime Minister </ word><word meaning = “9582” Central activity value = “182.3”> emphasized </ word><word meaning = “2595” Central activity value = “93.6”> touch </ word><Word Teijin = “9472” Central activity value = “12.0”> foretold </ word><word Sense = “4934” Central activity value = “46.7”> not touched </ word><word Sense = “0178” Central activity value = "175.7"> Explained </ word><word Meaning = "7248" Identifier = "X" Central activity value =
“130.6”> I </ word><word Meaning = “3684” Identifier = “X” Central activity value =
“121.9”> Prime Minister </ word><word meaning = “1824” Central activity value = “144.4.”> Appealed </ word><word meaning = “7289” Central activity value = “176.8”> showed Word></index>

【0049】このインデックスにおいては、<インデッ
クス>および</インデックス>は、インデックスの始
端および終端を、<日付>および<時刻>はこのインデ
ックスが作成された日付および時刻を、<要約>および
</要約>はこのインデックスの内容の要約の始端およ
び終端を、それぞれ示している。また、<語>および<
/語>は語の始端および終端を示している。さらに例え
ば、語義=“0003”は、第3番目の語義であることを示
している。他についても同様である。上述したように、
同じ語でも複数の意味を持つ場合があるので、それを区
別するために語義ごとに番号が予め決められており、そ
の該当する語義が番号で表されているものである。
In this index, <index> and </ index> indicate the start and end of the index, <date> and <time> indicate the date and time when this index was created, <summary> and </ Summary> indicates the start and end of the summary of the contents of this index, respectively. Also, <word> and <
/ Word> indicates the beginning and end of the word. Further, for example, the meaning = “0003” indicates that it is the third meaning. The same applies to other cases. As mentioned above,
Since the same word may have a plurality of meanings, a number is predetermined for each meaning in order to distinguish them, and the corresponding meaning is represented by a number.

【0050】また、<ユーザの操作履歴>および</ユ
ーザの操作履歴>は、ユーザの操作履歴の始端および終
端を、<選択>および</選択>は、適訳されたエレメ
ントの始端および終端を、それぞれ示している。最大要
約サイズ=“100”は、要約の最大のサイズが100文
字であることを、エレメントの数=“10”は、選択され
たエレメントの数が10であることを示している。
<User operation history> and </ User operation history> are the start and end of the user's operation history, and <Select> and </ Select> are the start and end of the translated element. Are respectively shown. The maximum summary size = “100” indicates that the maximum size of the summary is 100 characters, and the number of elements = “10” indicates that the number of selected elements is 10.

【0051】この例のように、インデックスは、その文
書に特徴的な、固有名詞、固有名詞以外の語義などを含
むものである。例えばこのようなインデックスを作成す
るステップF12の処理を、図5〜図8で説明する。な
お、図5は1つの文書データに対するインデックス作成
処理を示しており、従って複数の文書データについて処
理を行う場合は、各文書データについてこの図5の処理
が行われることになる。また図5のステップF31の詳
細な処理を図7に示し、さらに図7のステップF43の
詳細な処理を図8に示している。
As in this example, the index includes proper nouns, meanings other than proper nouns, and the like, which are characteristic of the document. For example, the process of step F12 for creating such an index will be described with reference to FIGS. FIG. 5 shows an index creation process for one document data. Therefore, when a process is performed for a plurality of document data, the process of FIG. 5 is performed for each document data. Further, FIG. 7 shows a detailed process of step F31 in FIG. 5, and FIG. 8 shows a detailed process of step F43 in FIG.

【0052】上述した図4のステップF12のインデッ
クス作成処理としては、まず図5のステップF31の活
性拡散が行われる。この活性拡散とは、文書データにつ
いて、エレメントの中心活性値を文書の内部構造に基づ
いて拡散することで、中心活性値の高いエレメントと関
わりのあるエレメントにも高い中心活性値を与えるよう
な処理である。即ち、文書を構成する各エレメントに対
して初期値としての中心活性値を与えた後、その中心活
性値を、文書の内部構造、具体的にはリンク構造に基づ
いて拡散する。この中心活性値は、タグ付けによる内部
構造に応じて決定されるので、文書の特徴の抽出等に利
用されるものである。制御部11は、このステップF3
1として、活性拡散を行い、活性拡散の結果として得ら
れた各エレメントの中心活性値を、たとえばRAM14
に記憶させることになる。
In the index creation processing in step F12 in FIG. 4 described above, first, active diffusion in step F31 in FIG. 5 is performed. This active diffusion is a process in which the central activity value of an element is spread based on the internal structure of a document with respect to document data, so that an element related to an element having a high central activity value also has a high central activity value. It is. That is, after giving a central activity value as an initial value to each element constituting the document, the central activity value is diffused based on the internal structure of the document, specifically, the link structure. Since this central activity value is determined according to the internal structure by tagging, it is used for extracting features of a document. The control unit 11 determines in step F3
As 1, the active diffusion is performed, and the central active value of each element obtained as a result of the active diffusion is stored in, for example, the RAM 14.
Will be stored.

【0053】ステップF31の活性拡散について、図6
〜図8で詳しく説明していく。まずエレメントとエレメ
ントのリンク構造の例を図6に示す。図6においては、
文書を構成するエレメントとリンクの構造の一部とし
て、エレメントE1、E2の周辺を示している。E1〜
E8はエレメントの例であり、この中でエレメントE
1、E2に注目して説明する。
FIG. 6 shows the active diffusion in step F31.
8 will be described in detail. First, an example of a link structure between elements is shown in FIG. In FIG.
The periphery of elements E1 and E2 is shown as part of the structure of the elements and links that make up the document. E1
E8 is an example of an element, in which element E
1 and E2 will be described.

【0054】エレメントE1の中心活性値はe1である
とし、またエレメントE2の中心活性値はe2であると
する。このエレメントE1,E2は、リンクL12(上
述した通常リンクもしくは参照リンク)にて接続されて
いる。リンクL12のエレメントE1に接続する端点を
T12、エレメントE2に接続する端点をT21とす
る。エレメントE1は、さらにエレメントE3,E4,
E5と、それぞれリンクL13,L14,L15で接続
されている。各リンクL13,L14,L15における
エレメントE1側の端点をそれぞれT13,T14,T
15とする。またエレメントE2は、エレメントE6,
E7,E8とも、それぞれリンクL26,L27,L2
8で接続されている。各リンクL26,L27,L28
におけるエレメントE2側の端点をそれぞれT26,T
27,T28とする。このようなリンク構造の例を用い
ながら、図7、図8の活性拡散処理を説明していく。
It is assumed that the central activity value of the element E1 is e1, and the central activity value of the element E2 is e2. The elements E1 and E2 are connected by a link L12 (the normal link or the reference link described above). The end point of the link L12 connected to the element E1 is T12, and the end point of the link L12 connected to the element E2 is T21. Element E1 further includes elements E3, E4,
E5 is connected to links L13, L14, and L15, respectively. The end points of the links L13, L14, and L15 on the element E1 side are denoted by T13, T14, and T, respectively.
It is assumed to be 15. Element E2 is composed of elements E6 and E6.
Links L26, L27, L2 for E7 and E8 respectively
8 are connected. Each link L26, L27, L28
At the element E2 side are denoted by T26 and T26, respectively.
27 and T28. The active diffusion processing of FIGS. 7 and 8 will be described using an example of such a link structure.

【0055】図7のステップF41で制御部11は、イ
ンデックス作成対象としての文書データについて活性拡
散を開始するにあたり、まず文書データの全エレメント
について中心活性値の初期設定を行う。中心活性値の初
期値としては、例えば固有名詞や、ユーザーが選択(ク
リック)したエレメント等に高い値を与えるようにす
る。また制御部11は、参照リンクと通常リンクに関し
て、エレメントを連結するリンクの端点T(xx)の端点活
性値を0に設定する。制御部11は、このように付与し
た端点活性値の初期値を、たとえばRAM14に記憶さ
せる。
In step F41 of FIG. 7, when starting the active diffusion for the document data to be indexed, the control unit 11 first initializes the central active value for all elements of the document data. As the initial value of the central activity value, for example, a high value is given to a proper noun, an element selected (clicked) by a user, or the like. Further, the control unit 11 sets the end point activation value of the end point T (xx) of the link connecting the elements to 0 for the reference link and the normal link. The control unit 11 stores, for example, the RAM 14 with the initial value of the endpoint activation value thus assigned.

【0056】ステップF42においては、制御部11
は、文書を構成するエレメントEiを計数するカウンタ
の初期化をおこなう。すなわち、エレメントを計数する
カウンタのカウント値iを1に設定する。i=1の場
合、このカウンタは、第1番目のエレメント(例えば図
6のエレメントE1)を参照することになる。
In step F42, the control unit 11
Initializes a counter for counting the elements Ei constituting the document. That is, the count value i of the counter for counting elements is set to one. If i = 1, this counter will refer to the first element (eg, element E1 in FIG. 6).

【0057】ステップF43においては、制御部11
は、カウンタが参照するエレメントについて、新たな中
心活性値を計算する中心活性値更新処理を実行する。こ
の中心活性値更新処理について、エレメントE1につい
ての処理を例に挙げながら、図8で詳しく説明する。こ
の中心活性値更新処理は、エレメントについての端点活
性値を更新し、さらに更新された端点活性値と現在の中
心活性値を用いて、新たな中心活性値を算出する処理と
なる。
In step F43, the control unit 11
Executes a central activation value update process for calculating a new central activation value for the element referenced by the counter. This center activation value update process will be described in detail with reference to FIG. 8 by taking the process for the element E1 as an example. The center activation value updating process is a process of updating the end point activation value of the element, and calculating a new center activation value using the updated end point activation value and the current center activation value.

【0058】図8のステップF51では、制御部11
は、文書を構成するエレメントEi(例えばこの場合E
1)に一端が接続されたリンクの数を計数するカウンタ
の初期化をおこなう。すなわち、リンクを計数するカウ
ンタのカウント値jを1に設定する。j=1の場合、こ
のカウンタは、エレメントEiと接続された第1番目の
リンクL(yy)を参照することになる。図6の例では、
エレメントE1についての第1のリンクとして例えばリ
ンクL12を参照する。
In step F51 of FIG.
Is an element Ei (for example, in this case E
In 1), a counter for counting the number of links having one end connected thereto is initialized. That is, the count value j of the counter for counting the links is set to one. When j = 1, this counter refers to the first link L (yy) connected to the element Ei. In the example of FIG.
For example, the link L12 is referred to as the first link for the element E1.

【0059】ステップF52で制御部11は、参照中の
リンク、つまりエレメントE1とE2を接続するリンク
L12について、関係属性のタグを参照することにより
通常リンクであるか否かを判断する。制御部11は、リ
ンクL12が通常リンクであればステップF53に、一
方リンクL12が参照リンクであればステップF54に
処理を進める。
In step F52, the control unit 11 determines whether or not the link being referred to, that is, the link L12 connecting the elements E1 and E2, is a normal link by referring to the tag of the related attribute. If the link L12 is a normal link, the control unit 11 proceeds to step F53, and if the link L12 is a reference link, proceeds to step F54.

【0060】リンクL12が通常リンクと判断されてス
テップF53に進んだ場合は、制御部11は、エレメン
トE1の通常リンクL12に接続された端点T12の新
たな端点活性値を計算する処理をおこなう。端点T12
の端点活性値t12は、リンク先のエレメントE2の端
点活性値のうち、リンクL12以外のリンクに接続する
すべての端点の各端点活性値(この場合T26、T2
7、T28の各端点活性値t26、t27,t28)
と、エレメントE2の中心活性値e2を加算し、この加
算で得た値を、文書に含まれるエレメントの総数で除す
ることにより求められる。制御部11は、この様な演算
を、RAM14から読み出した各端点活性値および各中
心活性値を用いて行うことで、通常リンクと接続された
端点についての新たな端点活性値を算出し、算出した端
点活性値を、RAM14に記憶させる。つまり端点T1
2の端点活性値t12を更新する。
If the link L12 is determined to be a normal link and the process proceeds to step F53, the control section 11 performs a process of calculating a new endpoint activation value of the endpoint T12 connected to the normal link L12 of the element E1. Endpoint T12
Are the endpoint activation values of all the endpoints connected to the link other than the link L12 among the endpoint activation values of the linked element E2 (in this case, T26 and T2).
7, each end point activation value t26, t27, t28 of T28)
And the central activation value e2 of the element E2, and the value obtained by this addition is divided by the total number of elements included in the document. The control unit 11 performs such an operation using each endpoint activity value and each center activity value read from the RAM 14, thereby calculating a new endpoint activity value for the endpoint connected to the normal link. The calculated end point activation value is stored in the RAM 14. That is, the end point T1
The end point activation value t12 of No. 2 is updated.

【0061】一方、ステップF52でリンクL12が参
照リンクであると判断され、ステップF54に進んだ場
合は、同じく制御部11は、通常リンクL12に接続さ
れたエレメントE1の端点T12の新たな端点活性値を
計算する処理をおこなうことになるが、端点活性値の算
出のための演算は次のようになる。即ちこの場合は、端
点T12の端点活性値t12は、リンク先のエレメント
E2の端点活性値のうち、リンクL12以外のリンクに
接続するすべての端点の各端点活性値(この場合T2
6、T27、T28の各端点活性値t26、t27,t
28)と、エレメントE2の中心活性値e2を加算した
値とする。(つまり除算がない点が上記通常リンクの場
合と異なるものとなる) そして制御部11は、この様な演算を、RAM14から
読み出した各端点活性値および各中心活性値を用いて行
うことで、参照リンクと接続された端点についての新た
な端点活性値を算出し、算出した端点活性値を、RAM
14に記憶させる。つまり端点T12の端点活性値t1
2を更新する。
On the other hand, when it is determined in step F52 that the link L12 is a reference link and the process proceeds to step F54, the control unit 11 similarly sets a new end point activation of the end point T12 of the element E1 connected to the normal link L12. The processing for calculating the value is performed. The calculation for calculating the end point activity value is as follows. That is, in this case, the endpoint activation values t12 of the endpoint T12 are the endpoint activation values of all the endpoints connected to the link other than the link L12 among the endpoint activation values of the linked element E2 (in this case, T2
6, each end point activation value t26, t27, t of T27, T28
28) and the central activation value e2 of the element E2. (That is, the point where there is no division is different from the case of the above-mentioned normal link.) The control unit 11 performs such an operation using each of the end point activation values and each of the center activation values read from the RAM 14, A new endpoint activity value is calculated for the endpoint connected to the reference link, and the calculated endpoint activity value is stored in the RAM.
14 is stored. That is, the end point activation value t1 of the end point T12
Update 2.

【0062】このようなステップF53又はF54の処
理を行なったら、制御部11はステップF55での判別
処理を介して(判別結果がNOであれば)ステップF5
7に進み、カウント値jをインクリメントしてステップ
F52に戻る。即ち続いて、カウント値j=2とされる
ことにより、エレメントE1についての第2のリンク
(例えばリンクL13)が参照されることになるため、
上記同様にステップF52以降の処理でリンクL13に
接続される端点T13の端点活性値t13が算出/更新
されることになる。
After performing the processing in step F53 or F54, the control unit 11 performs the processing in step F5 through the determination processing in step F55 (if the determination result is NO).
Proceeding to 7, the count value j is incremented, and the process returns to step F52. That is, subsequently, by setting the count value j = 2, the second link (for example, link L13) for the element E1 is referred to.
In the same manner as described above, the end point activation value t13 of the end point T13 connected to the link L13 is calculated / updated in the processing after step F52.

【0063】ステップF55では、制御部11は、現在
カウント値iで参照中のエレメントEi(E1)につい
て、全てのリンクについての新たな端点活性値が計算さ
れたか否かを判別して処理を分岐するものであるため、
端点活性値の更新処理は、参照中のエレメントEiの全
ての端点活性値が更新されるまで行われる。つまりステ
ップF57でカウント値jがインクリメントされながら
処理が繰り返されることで、例えばエレメントE1につ
いては、端点T12,T13,T14,T15について
それぞれ端点活性値t12,t13,t14,t15が
更新されていき、その全てが更新された時点で、処理は
ステップF55からF56に進むことになる。
In step F55, the control unit 11 determines whether or not a new endpoint activation value has been calculated for all the links for the element Ei (E1) currently referred to by the count value i, and branches the processing. Because
The process of updating the endpoint activation values is performed until all endpoint activation values of the element Ei being referred to are updated. That is, by repeating the process while incrementing the count value j in step F57, for the element E1, for example, the endpoint activation values t12, t13, t14, and t15 are updated for the endpoints T12, T13, T14, and T15, respectively. When all of them have been updated, the process proceeds from step F55 to F56.

【0064】エレメントEiについての全ての端点活性
値が求められたことに応じて、ステップF56では、更
新された端点活性値を用いて、エレメントEiの新たな
中心活性値eiを算出する。エレメントEiの新たな中
心活性値eiは、エレメントEiの現在の中心活性値e
iとエレメントEiのすべての端点の新たな端点活性値
の和で求められる。例えば図6のエレメントE1の場合
は、新たな中心活性値e1(new)は、 e1(new)=e1+t12+t13+t14+t15 となる。
In step F56, a new central activity value ei of the element Ei is calculated by using the updated endpoint activity values in response to the determination of all the endpoint activity values for the element Ei. The new central activation value ei of the element Ei is the current central activation value e of the element Ei.
It is determined by the sum of new endpoint activation values of all endpoints of i and element Ei. For example, in the case of the element E1 in FIG. 6, the new central activation value e1 (new) is e1 (new) = e1 + t12 + t13 + t14 + t15.

【0065】制御部11は、このようにして現在カウン
ト値iで参照中のエレメントEiの中心活性値eiを算
出する。そして、制御部11は、計算した新たな中心活
性値eiをRAM14に記憶させる。つまりエレメント
Eiの中心活性値eiを更新する。(但しこの時点で
は、後述するステップF45の処理で用いるため、旧中
心活性値も保持しておく)
The control unit 11 calculates the central activation value ei of the element Ei being referred to by the current count value i in this way. Then, the control unit 11 causes the RAM 14 to store the calculated new central activation value ei. That is, the central activation value ei of the element Ei is updated. (However, at this point, the old center activation value is also held because it is used in the process of step F45 described later.)

【0066】図7のステップF43の中心活性値更新処
理として、以上図8に示したような処理が行われるた
ら、制御部11の処理は図7のステップF44に進み、
制御部11は、文書中のすべてのエレメントについて中
心活性値更新処理が完了したか否かを判断する。具体的
には、制御部11は、カウント値iが、文書に含まれる
エレメントの総数に達したか否かを判断する。制御部1
1は、すべてのエレメントについて中心活性値更新処理
が完了していないときは、ステップF47に処理を進
め、カウント値iをインクリメントしてステップF43
に戻る。例えば上記のようにエレメントE1についての
処理が終わった後であれば、カウント値i=2とされ
て、今度はエレメントE2が参照されることになる。そ
してエレメントE2について、ステップF43の中心活
性値更新処理(即ち図8の処理)が上記同様に行われ
る。重複説明となるため詳細は述べないが、図6のリン
ク例でいえば、エレメントE2の場合は、図8の処理に
おいて端点T21,T26,T27,T28の各端点活
性値t21,t26,t27,t28が更新された後、
新たな中心活性値e2(new)が、 e2(new)=e2+t21+t26+t27+t28 として算出され、更新されることになる。
When the processing shown in FIG. 8 is performed as the central activation value updating processing in step F43 in FIG. 7, the processing of the control unit 11 proceeds to step F44 in FIG.
The control unit 11 determines whether or not the central activation value update processing has been completed for all elements in the document. Specifically, control unit 11 determines whether or not count value i has reached the total number of elements included in the document. Control unit 1
When the central activation value update processing has not been completed for all the elements, the process proceeds to step F47, where the count value i is incremented, and
Return to For example, after the processing for the element E1 is completed as described above, the count value i is set to 2 and the element E2 is referred to this time. Then, for the element E2, the central activation value update processing of step F43 (that is, the processing of FIG. 8) is performed in the same manner as described above. Although the details will not be described because they are redundant description, in the case of the link example of FIG. 6, in the case of the element E2, the end point activation values t21, t26, t27 of the end points T21, T26, T27, T28 in the processing of FIG. After t28 is updated,
A new central activity value e2 (new) is calculated as e2 (new) = e2 + t21 + t26 + t27 + t28, and is updated.

【0067】図7の処理においては、このようにステッ
プF47でカウント値iがインクリメントされて参照エ
レメントが変更されながらステップF43の中心活性値
更新処理が繰り返されることで、文書に含まれる全ての
エレメントの中心活性値が更新されていくことになる。
In the process shown in FIG. 7, the count value i is incremented in step F47, and the central activation value updating process in step F43 is repeated while changing the reference element. Will be updated.

【0068】文書中のすべてのエレメントについて中心
活性値の更新が完了したときは、処理はステップF44
からF45に進むことになる。ステップF45において
は、制御部11は、文書に含まれるすべてのエレメント
の中心活性値の変化分、すなわち新たに計算された中心
活性値の元の中心活性値に対する変化分について平均値
を計算する。例えば制御部11は、RAM14に記憶さ
れた旧中心活性値と、更新した新たな中心活性値を、文
書に含まれるすべてのエレメントについて読み出す。そ
して各エレメントについて新中心活性値と旧中心活性値
の差分を求め、その差分の総和をエレメントの総数で除
することにより、すべてのエレメントの中心活性値の変
化分の平均値を計算する。制御部11は、このように計
算したすべてのエレメントの中心活性値の変化分の平均
値を、たとえばRAM14に記憶させる。
When the updating of the central activation value has been completed for all the elements in the document, the processing is terminated at step F44.
To F45. In step F45, the control unit 11 calculates the average value of the change in the central activity values of all the elements included in the document, that is, the change in the newly calculated central activity value from the original central activity value. For example, the control unit 11 reads the old central activation value stored in the RAM 14 and the updated new central activation value for all elements included in the document. Then, for each element, the difference between the new central activity value and the old central activity value is obtained, and the sum of the differences is divided by the total number of elements to calculate the average value of the change in the central activity value of all elements. The control unit 11 causes the RAM 14 to store, for example, the average value of the change in the central activity value of all elements calculated in this way.

【0069】続いてステップF46において制御部11
は、ステップF45で計算した平均値が、あらかじめ設
定された閾値以内であるか否かを判断する。そして、制
御部11は、上記平均値が閾値以内である場合は、活性
拡散処理としての一連の行程を終了するが、上記平均値
が閾値以内でないときには、ステップF42にもどっ
て、上述した一連の行程を再び実行する。
Subsequently, at step F46, the control unit 11
Determines whether the average calculated in step F45 is within a preset threshold. When the average value is within the threshold value, the control unit 11 ends a series of steps as the active diffusion process. When the average value is not within the threshold value, the control unit 11 returns to step F42 and performs the above-described series of processes. Perform the process again.

【0070】この一連の活性拡散処理は、中心活性値が
高いエレメントに関連のある(リンクする)エレメント
について、その中心活性値を引き上げていく処理といえ
るものである。ところが、この活性拡散を1回行うのみ
では、インデックス作成処理の目的を考えたときに、本
来中心活性値を引き上げられるべきエレメントの中で、
中心活性値が十分に引き上げられないものが発生する場
合もありうる。例えば、1回の活性拡散では、中心活性
値の初期値が高く設定されたエレメントに直接リンクす
るエレメントについては、或る程度中心活性値が引き上
げられるが、直接リンクしていないエレメントは、それ
がインデックスとして重要なエレメントであっても十分
に中心活性値が引き上げられないことが生ずる。そこ
で、ステップF46の判断を介して、必要に応じて活性
拡散処理を複数回行うようにすることで、全体的に中心
活性値が収束されるようにし、中心活性値が引き上げら
れない重要なエレメントがなるべく生じないようにする
ものである。なお、複数回の活性拡散で、全体的に中心
活性値が収束されていくのは、活性拡散処理で更新され
た各エレメントの中心活性値に基づいて、さらに次の活
性拡散処理で各エレメントの中心活性値が更新されてい
くためである。但し、このような活性拡散処理が多数回
行われすぎると、全エレメントの中心活性値が収束しき
ってほぼ同値となるような事態となり、不適切である。
このため、ステップF45,F46の処理として、中心
活性値の変化分の平均値を求めるように、その変化分に
基づいて活性拡散処理の終了タイミングを判断すること
で、インデックス作成に好適な活性拡散が実現されるこ
とになる。
This series of active diffusion processing can be said to be processing for raising the central activity value of an element related (linked) to an element having a high central activity value. However, by performing this activation diffusion only once, when considering the purpose of the index creation processing, among the elements that should be able to raise the central activation value,
In some cases, the central activity value may not be sufficiently raised. For example, in one activation diffusion, for an element directly linked to an element for which the initial value of the central activation value is set high, the central activation value is raised to some extent, but for an element that is not directly linked, it is Even if the element is important as an index, the central activity value may not be sufficiently raised. Therefore, by performing the active diffusion process a plurality of times as necessary based on the determination in step F46, the central activity value can be converged as a whole, and important elements that cannot be increased in the central activity value As much as possible. The reason why the central activity value is converged as a whole in the active diffusion process a plurality of times is that the central active value of each element updated in the active diffusion process is based on the central activity value of each element, and further the active activity diffusion process is performed for each element. This is because the central activity value is updated. However, if such activation diffusion processing is performed too many times, the central activation values of all the elements converge and become almost the same, which is inappropriate.
For this reason, in the processing of steps F45 and F46, the end timing of the active diffusion process is determined based on the change so as to obtain the average value of the change of the central active value, so that the active diffusion suitable for index creation is performed. Will be realized.

【0071】以上の図7、図8のような活性拡散処理
(即ち図5のステップF31)が完了したら、制御部1
1の処理は図5のステップF32に進むことになる。ス
テップF32においては、制御部11は、ステップF3
1で得られた各エレメントの中心活性値に基づいて、中
心活性値があらかじめ設定された閾値を超えるエレメン
トを抽出する。制御部11は、このように抽出したエレ
メントをRAM14に記憶させる。
When the active diffusion processing as shown in FIGS. 7 and 8 (ie, step F31 in FIG. 5) is completed, the controller 1
The process 1 proceeds to step F32 in FIG. In step F32, the control unit 11 determines in step F3
Based on the central activity value of each element obtained in step 1, an element whose central activity value exceeds a preset threshold is extracted. The control unit 11 causes the RAM 14 to store the extracted elements.

【0072】続いてステップF33においては、制御部
11は、ステップF32にて抽出したエレメントをたと
えばRAM14から読み出す。そして制御部11は、こ
の抽出したエレメントの中からすべての固有名詞を取り
出してインデックスに加える。固有名詞は語義を持た
ず、辞書に載っていないなどの特殊の性質を有するので
固有名詞以外の語とは別に扱うものである。なお語義と
は、前述したように、語の有する複数の意味のうちの各
意味に対応したものである。各エレメントが固有名詞で
あるか否かは、文書に付されたタグに基づいて判断する
ことができる。たとえば、図3に示したタグ付けによる
内部構造においては、“A氏”、“B会”および“C
市”は、タグによる関係属性がそれぞれ“人名”、“組
織名”および“地名”であるので固有名詞であることが
分かる。そして、制御部11は、取り出した固有名詞を
インデックスに加え、その結果をRAM14に記憶させ
る。
Subsequently, in step F33, the control section 11 reads out the elements extracted in step F32, for example, from the RAM 14. Then, the control unit 11 extracts all proper nouns from the extracted elements and adds them to the index. Proper nouns have special properties such as having no meaning and not appearing in dictionaries, and are therefore treated separately from words other than proper nouns. As described above, the word meaning corresponds to each of a plurality of meanings of the word. Whether or not each element is a proper noun can be determined based on a tag attached to the document. For example, in the internal structure by tagging shown in FIG. 3, "A", "B" and "C"
“City” is a proper noun since the related attributes of the tags are “person name”, “organization name”, and “place name”, and the control unit 11 adds the extracted proper noun to the index, and The result is stored in the RAM 14.

【0073】次のステップF34においては、制御部1
1は、ステップF32にて抽出したエレメントの中か
ら、固有名詞以外の語義を取り出してインデックスに加
え、その結果をRAM14に記憶させる。
In the next step F34, the control unit 1
1 extracts the meanings other than proper nouns from the elements extracted in step F32, adds them to the index, and stores the result in the RAM 14.

【0074】以上の処理により、例えば上記した具体例
のようなインデックスが生成される。即ちインデックス
は、タグ付けされた文書の特徴を発見して、その特徴を
配列したものとなり、その文書の特徴は、文書の内部構
造に応じて拡散処理された中心活性値に基づいて判断さ
れるものとなる。そしてこのようなインデックスは、文
書を代表するような特徴を表す語義および固有名詞を含
むので、所望の文書を参照する際に用いることができ
る。なお、インデックスには、文書の特徴を表す語義お
よび固有名詞とともに、その文書がRAM14(又はH
DD34)において記憶された位置を示す文書アドレス
を含めておく。
By the above processing, for example, an index as in the above specific example is generated. That is, the index finds the features of the tagged document and arranges the features, and the features of the document are determined based on the central activity value diffused according to the internal structure of the document. It will be. Since such an index includes meanings and proper nouns representing features representative of a document, it can be used when referring to a desired document. The index includes, in addition to the meanings and proper nouns representing the characteristics of the document, the document in the RAM 14 (or H
The document address indicating the position stored in DD34) is included.

【0075】3−3 文書閲覧/分類作成/分類操作 以上の図5〜図8で説明したインデックス作成処理は図
4のステップF12で行われるものとなる。従って図4
の手動分類処理としては、続いてステップF13,F1
4の処理、即ち上述したようにユーザーによる閲覧及び
手動分類の処理に移る。
3-3 Document Browsing / Category Creation / Category Operation The index creation processing described above with reference to FIGS. 5 to 8 is performed in step F12 of FIG. Therefore, FIG.
As for the manual classification processing of step F13 and step F1
The process proceeds to the process of No. 4, that is, the process of browsing and manual classification by the user as described above.

【0076】上述のように、図4のステップF13にお
いては、ユーザーは表示部30に表示される文書を閲覧
することができる。またステップF14においては、ユ
ーザーが分類項目を設定する操作や、文書データを、設
定された分類項目に振り分けていく操作を行うことがで
きる。このステップF13,F14で行われる操作や、
それに対応する制御部11の処理及び表示部30の表示
例は以下のようになる。
As described above, in step F13 of FIG. 4, the user can browse the document displayed on the display unit 30. In step F14, the user can perform an operation of setting a classification item and an operation of sorting document data into the set classification item. The operations performed in steps F13 and F14,
The corresponding process of the control unit 11 and a display example of the display unit 30 are as follows.

【0077】図9、図10は表示部30における表示の
具体例を示している。まず図9は、詳しくは後述する分
類モデルに対応した文書分類ウインドウ201の表示例
である。即ち、文書分類の表示に用いられるグラフィッ
クユーザインターフェース(graphic user interface;
GUI)の具体例となる。この文書分類ウィンドウ201
には、操作用のボタン表示202として、画面のウィン
ドウの状態を初期の位置にもどすポジションリセット
(position reset)ボタン202aと、文書の内容を閲
読するブラウザ(browser)を呼び出すブラウザボタン
202bと、このウィンドウからの脱出(exit)ボタン
202cとが表示される。
FIGS. 9 and 10 show specific examples of the display on the display unit 30. FIG. First, FIG. 9 is a display example of a document classification window 201 corresponding to a classification model described later in detail. That is, a graphic user interface (graphic user interface) used for displaying a document classification.
GUI). This document classification window 201
The operation button display 202 includes a position reset button 202a for returning a screen window state to an initial position, a browser button 202b for calling a browser (browser) for reading the contents of a document, An exit button 202c is displayed.

【0078】また、この文書分類ウィンドウ301は、
分類モデルに対応する分類項目に応じた小ウインドウと
して、文書分類エリア203,204,205・・・が
形成される。文書分類エリア203は、“他のトピック
ス”を表示するエリアとされる。この”他のトピック
ス”の文書分類エリア203は、まだ分類されていない
文書が提示される領域となる。例えば図4のステップF
11で受信された各文書(つまりこれから分類しようと
する文書)は、この”他のトピックス”の文書分類エリ
ア203に提示される。文書分類エリア204は、例え
ば”ビジネスニュース”に分類された文書が提示される
領域となる。文書分類エリア205は、例えば”政治ニ
ュース”に分類された文書が提示される領域となる。こ
れら以外にも、図中で符号を付していない文書分類エリ
アは、それぞれ特定の分類項目に応じた文書が提示され
る領域となる。
The document classification window 301
Document classification areas 203, 204, 205,... Are formed as small windows corresponding to the classification items corresponding to the classification model. The document classification area 203 is an area for displaying “other topics”. The “other topics” document classification area 203 is an area where documents that have not been classified yet are presented. For example, step F in FIG.
Each document received at 11 (that is, a document to be classified) is presented in the "other topics" document classification area 203. The document classification area 204 is an area where documents classified as, for example, “business news” are presented. The document classification area 205 is an area in which documents classified as, for example, “political news” are presented. In addition to these, document classification areas without reference numerals in the figure are areas where documents corresponding to specific classification items are presented.

【0079】これらの各文書分類エリア203,204
・・・では、その各文書分類エリアに設定された分類項
目(カテゴリ)に分類された文書が、その文書のアイコ
ンと文書のタイトルにより提示される。タイトルがない
場合には、一文の要約が表示される。また各文書分類エ
リア203,204・・・の大きさは固定的ではなく、
ユーザーがドラッグ操作などにより各文書分類エリアを
区切る区切枠211,212,213・・・を移動させ
ることにより、各文書分類エリア203,204・・・
の面積を任意に変更させることができる。文書分類エリ
アの数もユーザーが任意に増減できる。
Each of these document classification areas 203 and 204
.., The documents classified into the classification items (categories) set in the respective document classification areas are presented by the icon of the document and the title of the document. If there is no title, a summary of one sentence is displayed. Also, the size of each of the document classification areas 203, 204,... Is not fixed,
When the user moves the delimiting frames 211, 212, 213,... Separating the document classification areas by a drag operation or the like, the document classification areas 203, 204,.
Can be arbitrarily changed. The user can arbitrarily increase or decrease the number of document classification areas.

【0080】また各文書分類エリア203,204・・
・のタイトル(例えば「政治ニュース」など)は、ユー
ザーが任意に設定、変更できるものである。なお、この
文書分類エリアの数及び各タイトルは、後述する分類モ
デルの分類項目に応じたものとなる。言い換えれば、ユ
ーザーがこの分類ウインドウ201においてマウスやキ
ーボード等による入力部20からの操作で、文書分類エ
リアの設定や削除、或いはタイトル設定を行うことで、
分類モデルの分類項目の数やタイトルが設定されること
になる。
Each of the document classification areas 203, 204,.
The title (for example, "political news") can be arbitrarily set and changed by the user. Note that the number of document classification areas and each title correspond to the classification items of the classification model described later. In other words, the user sets or deletes a document classification area or performs a title setting in the classification window 201 by operating the input unit 20 using a mouse, a keyboard, or the like.
The number and title of the classification items of the classification model are set.

【0081】図10は、ユーザーが文書データの内容を
閲覧する閲覧ウインドウ301の例を示している。例え
ばユーザーが、図9の分類ウインドウ201において或
る文書をクリックして選択した状態としたうえで、ブラ
ウザボタン202bをクリックすることで、制御部11
は図10のように選択された文書を表示する閲覧ウイン
ドウ301を開くようにする。
FIG. 10 shows an example of a browsing window 301 for a user to browse the contents of document data. For example, the user clicks on a certain document in the classification window 201 of FIG. 9 to select the document, and then clicks the browser button 202b, so that the control unit 11
Opens a browsing window 301 for displaying the selected document as shown in FIG.

【0082】この閲覧ウインドウ301には、文書デー
タファイルのファイル名を表示するファイル名表示部3
02、そのファイル名の文書データを表示する文書表示
部303、文書表示部303に表示された文書の要約文
を表示する要約表示部304、キーワードの入力/表示
を行うキーワード表示部305が設けられる。また操作
用のボタン表示306として、要約文の作成を指示する
ための要約作成ボタン306a、アンドゥ操作(操作取
消)を行うためのアンドゥボタン306b、読み上げ動
作を実行させるための読み上げボタン306cなどが表
示される。
In the browsing window 301, a file name display section 3 for displaying the file name of the document data file
02, a document display unit 303 for displaying the document data of the file name, a summary display unit 304 for displaying a summary of the document displayed on the document display unit 303, and a keyword display unit 305 for inputting / displaying a keyword. . As the operation button display 306, a summary creation button 306a for instructing creation of a summary sentence, an undo button 306b for performing an undo operation (operation cancellation), a reading button 306c for executing a reading operation, and the like are displayed. Is done.

【0083】この様な閲覧ウインドウ301において、
ユーザーは文書表示部303に表示される文書を閲覧す
ることができる。なお、文書の全体を表示しきれないと
きは、文書の一部が表示される。もちろんスクロール操
作を行うことで、全文を閲覧できる。また、ユーザーは
要約作成ボタン306aをクリックすることで、文書表
示部303に表示される文書についての要約文を作成さ
せ、要約表示部304に表示させることができる。な
お、要約文作成のための制御部11の処理については後
述する。さらにユーザーは、読み上げボタン306cを
クリックすることで、文書表示部303に表示されてい
る文書の本文又は要約文についての読み上げを実行させ
ることができる。この読み上げ動作についても後述す
る。
In such a browsing window 301,
The user can browse the document displayed on the document display unit 303. If the entire document cannot be displayed, a part of the document is displayed. Of course, you can browse the full text by scrolling. In addition, by clicking the summary creation button 306a, the user can cause a summary sentence for the document displayed on the document display unit 303 to be created and displayed on the summary display unit 304. The process of the control unit 11 for creating the summary sentence will be described later. Further, by clicking the read-aloud button 306c, the user can cause the text or the summary of the document displayed on the document display section 303 to be read aloud. This reading operation will also be described later.

【0084】以上のような分類ウインドウ201、閲覧
ウインドウ301は、図4の手動分類処理の際に限ら
ず、ユーザーの操作に応じて随時表示部20に表示され
るものであるが、図4の手動分類処理に関していえば、
ユーザーは受信した文書の種類や内容を、分類ウインド
ウ201、閲覧ウインドウ301で確認することができ
るものである。具体的には、図4のステップF11で受
信された1又は複数の文書は、ステップF12でのイン
デックス作成処理の後、図9のような分類ウインドウ2
01における”他のトピックス”の文書分類エリア20
3に表示される。この分類ウインドウ201において、
ユーザーは、文書分類エリア203に表示された各文書
を手動で分類していくことになるが、例えば文書のタイ
トルだけ等では内容がわからない場合は、図10の閲覧
ウインドウ301により文書内容を確認する。そのよう
にユーザの必要に応じて行われる閲覧が図4のステップ
F13の処理となる。
The classification window 201 and the browsing window 301 as described above are displayed on the display unit 20 at any time according to the user's operation, not limited to the manual classification processing in FIG. As for the manual classification process,
The user can confirm the type and content of the received document in the classification window 201 and the browsing window 301. Specifically, one or a plurality of documents received in step F11 in FIG. 4 are subjected to the index creation processing in step F12, and then the classification window 2 shown in FIG.
01 "other topics" document classification area 20
3 is displayed. In this classification window 201,
The user manually classifies each of the documents displayed in the document classification area 203. If, for example, the content is not known only by the title of the document, the user checks the content of the document by using the browsing window 301 in FIG. . The browsing performed as needed by the user in this manner is the process of step F13 in FIG.

【0085】ステップF14としては、ユーザーは分類
ウインドウ201上において分類項目の追加、更新、削
除等を任意に行うことができ、その操作に応じて、制御
部11は表示される文書分類エリア203、204・・
・の表示態様(数、面積、タイトル等)を変更させてい
く。なお、ユーザーによる分類項目(文書分類エリアの
タイトル)の設定/変更は、それが後述する分類モデル
に反映されることになる。
In step F14, the user can arbitrarily add, update, or delete a classification item on the classification window 201. In response to the operation, the control unit 11 causes the displayed document classification area 203, 204 ...
・ Change the display mode (number, area, title, etc.). The setting / change of the classification item (title of the document classification area) by the user is reflected in the classification model described later.

【0086】ユーザーは必要に応じて分類項目の設定を
行った後、文書分類エリア203に表示されている各文
書を、各文書分類エリアに振り分けていく。つまりユー
ザーの手動により、文書を分類する。具体的には、”他
のトピックス”の文書分類エリア203に表示されてい
る文書のアイコンを、例えば入力部20のマウスを用
い、所望の分類項目(カテゴリ)に対応する文書分類エ
リアにドラッグすることによりおこなう。例えばユーザ
ーは、「スポーツ」というタイトルの文書分類エリアを
設定したうえで、”他のトピックス”の文書分類エリア
203に表示されているスポーツ関連の文書のアイコン
を、“スポーツ”の文書分類エリアにドラッグするよう
な操作を行う。このようにして手動で分類された各文書
のアイコンやタイトルは、以降、そのドラッグされた先
の文書分類エリア内で表示される。
After setting the classification items as necessary, the user sorts the documents displayed in the document classification area 203 into the respective document classification areas. That is, the documents are classified manually by the user. Specifically, the icon of the document displayed in the document classification area 203 of “other topics” is dragged to the document classification area corresponding to a desired classification item (category) using, for example, the mouse of the input unit 20. Do it by doing. For example, the user sets a document classification area titled “Sports”, and changes the icon of a sports-related document displayed in the document classification area 203 of “Other topics” to the document classification area of “Sports”. Perform an operation like dragging. The icons and titles of the documents that have been manually classified in this manner are thereafter displayed in the dragged destination document classification area.

【0087】3−4 分類モデル作成/登録 以上のようにユーザーによる手動分類操作が行われた
ら、制御部11は図4のステップF15において、ユー
ザの分類操作に基づいた複数のカテゴリからなる分類モ
デルを作成する。すなわち制御部11は、各カテゴリに
分類された上記複数の文書のインデックスを集めて、分
類モデルを生成する。そして、分類モデルの各カテゴリ
に上記複数の文書を分類する。
3-4 Creation / Registration of Classification Model As described above, when the user performs the manual classification operation, the control unit 11 determines in step F15 in FIG. 4 that the classification model is composed of a plurality of categories based on the user's classification operation. Create That is, the control unit 11 collects indices of the plurality of documents classified into each category and generates a classification model. Then, the plurality of documents are classified into each category of the classification model.

【0088】分類モデルは、文書を分類する複数の分類
項目(カテゴリ)から構成される。そして各カテゴリに
ついて、分類された文書が示されるデータ形態となる。
各文書については、上記ステップF12などでインデッ
クスが形成されるが、分類モデルは例えば図11(a)
に示すように、各カテゴリについて分類された文書のイ
ンデックスが対応づけられたようなデータ構造となる。
この図11(a)では、カテゴリとして「スポーツ」
「会社」「コンピュータ」・・・等が設定されている
が、これらは上記のように分類ウインドウ201におい
てユーザーが設定した分類項目となる。なお、もちろん
ユーザーが設定しなくとも、予め設定されている(つま
り分類ウインドウで文書分類エリアとして表示される)
カテゴリがあってもよい。そして各分類項目にはインデ
ックスIDX1、IDX2・・・が対応づけられるが、
即ち各分類項目には、ユーザーが上記のように分類した
文書のインデックスが対応づけられるものとなる。
The classification model is composed of a plurality of classification items (categories) for classifying documents. Then, for each category, a data format is provided in which the classified documents are shown.
An index is formed for each document in step F12 and the like, and the classification model is, for example, as shown in FIG.
As shown in (1), the data structure is such that the indexes of the documents classified for each category are associated with each other.
In FIG. 11A, the category is “sports”.
“Company”, “Computer”, etc. are set, but these are the classification items set by the user in the classification window 201 as described above. Of course, even if the user does not set, it is set in advance (that is, displayed as a document classification area in the classification window).
There may be categories. Each of the classification items is associated with an index IDX1, IDX2,.
That is, the index of the document classified by the user as described above is associated with each classification item.

【0089】各分類項目に対応づけられるインデックス
は、分類ウインドウ201においてその分類項目の文書
分類エリアに表示されている文書のインデックスであ
る。例えばインデックスIDX1がカテゴリ「スポー
ツ」に対応づけられているのは、ユーザーが、分類ウイ
ンドウ201において「スポーツ」をタイトルとする文
書分類エリアを作成し、さらにインデックスIDX1の
文書のアイコンを、その「スポーツ」をタイトルとする
文書分類エリアにドラッグするという手動分類を行った
ことに基づくものとなる。
The index associated with each classification item is the index of a document displayed in the document classification area of the classification item in the classification window 201. For example, the index IDX1 is associated with the category "sports" because the user creates a document classification area with the title "sports" in the classification window 201, and furthermore, sets the icon of the document of the index IDX1 to "sports". Is manually dragged to a document classification area having a title of "".

【0090】ところで上述のように各文書のインデック
スは、固有名詞、固有名詞以外の語義や文書アドレス等
を含んでいる。そして、例えば図11(a)のように1
つの分類項目には1又は複数のインデックスが対応づけ
られるが、インデックスとして固有名詞、語義、文書ア
ドレス等が含まれるため、分類モデルは図11(b)の
ようにも表すことができる。
As described above, the index of each document includes proper nouns, meanings other than proper nouns, document addresses, and the like. Then, for example, as shown in FIG.
One or a plurality of indices are associated with one classification item. Since the indexes include proper nouns, meanings, document addresses, and the like, the classification model can be represented as shown in FIG. 11B.

【0091】即ち図11(b)に示すように、分類モデ
ルは、各カテゴリに対応するカテゴリインデックスとし
て、固有名詞、固有名詞以外の語義、文書アドレスの欄
を有する構造となる。そして分類モデルにおいては、各
カテゴリ「スポーツ」「社会」「コンピュータ」「植
物」「美術」「イベント」に対して、固有名詞“A氏、
・・・”、“B氏、・・・”、“C社、G社、・・
・”、“D種、・・・”、“E氏、・・・”および“F
氏”等の固有名詞が割り当てられる。また、“野球(4
546)、グランド(2343)、・・・”、“労働
(3112)、固有(9821)、・・・”、“モパイ
ル(2102)、・・・”、“桜1(11111)、オ
レンジ1(9911)”、“桜2(11112)、オレ
ンジ2(9912)”および“桜3(11113)”等
の語義も各カテゴリに割り当てられる。さらに文書アド
レス“SP1、SP2、SP3、・・・”、“S01、
S02、S03、・・・”、“CO1、CO2、CO
3、・・・”、“PL1、PL2、PL3、・・・”、
“AR1、AR2、AR3、・・・”および“EV1、
EV2、EV3、・・・”も各カテゴリに割り当てられ
る。
That is, as shown in FIG. 11B, the classification model has a structure having columns of proper nouns, meanings other than proper nouns, and document addresses as category indexes corresponding to each category. Then, in the classification model, the proper noun “Mr. A” for each category “sports” “society” “computer” “plant” “art” “event”
... "," Mr. B, ... "," Company C, Company G, ...
"," D type, ... "," Mr. E, ... "and" F
A proper noun such as "Mr." is also assigned.
546), ground (2343), ... "," labor (3112), unique (9821), ... "," mopile (2102), ... "," cherry blossom 1 (11111), orange 1 ( 9911) "," Sakura 2 (11112), Orange 2 (9912) ", and" Sakura 3 (11113) "are also assigned to each category. Further, the document addresses" SP1, SP2, SP3,... " “S01,
S02, S03,... "," CO1, CO2, CO
3, ... "," PL1, PL2, PL3, ... ",
"AR1, AR2, AR3, ..." and "EV1,
EV2, EV3,... "Are also assigned to each category.

【0092】なお、“桜1”“桜2”“桜3”は、
“桜”の第1の語義(11111)、第2の語義(11
112)、第3の語義(11113)を示している。ま
た、“オレンジ1”“オレンジ2”は、“オレンジ”の
第1の語義(9911)、第2の語義(9912)を示
している。たとえば“オレンジ1”は植物のオレンジを
表し、“オレンジ2”はオレンジ色を表す。固有名詞以
外の場合に語そのものではなく語義を用いるのは、この
様に、同じ語でも複数の意味を有することがあるからで
ある。
Note that "Sakura 1", "Sakura 2" and "Sakura 3"
The first meaning (11111) and the second meaning (1111)
112) and the third meaning (11113). “Orange 1” and “Orange 2” indicate the first meaning (9911) and the second meaning (9912) of “orange”. For example, "orange 1" represents a plant orange, and "orange 2" represents an orange color. The reason that the meaning is used instead of the word itself in cases other than proper nouns is that the same word may have a plurality of meanings.

【0093】図4のステップF15では、ユーザーの手
動分類操作に応じて例えばこの様な分類モデルが生成さ
れる。そしてステップF16として分類モデルが登録、
即ちRAM15(又はHDD34)に記録される。この
ように分類モデルが生成/登録されることにより、文書
の分類が行われたことになる。
In step F15 in FIG. 4, for example, such a classification model is generated according to the manual classification operation by the user. Then, the classification model is registered as Step F16,
That is, it is recorded in the RAM 15 (or the HDD 34). The generation / registration of the classification model in this way means that the classification of the document has been performed.

【0094】なお、このように図4におけるステップF
15、F16として分類モデルの作成/登録が行われた
後は、後述する自動分類処理や、ユーザーの分類項目の
編集、或いは手動分類操作などに応じて、分類モデルは
逐次更新されていくことになる。分類モデルが更新され
ると、分類モデルに更新日時が記録される。図11に
は、更新日時として“1998年12月10日19時5
6分10秒”が記録されている。
Note that step F in FIG.
After the creation / registration of the classification model is performed as F15 and F16, the classification model is sequentially updated in accordance with automatic classification processing described later, editing of a classification item by a user, or manual classification operation. Become. When the classification model is updated, the update date and time are recorded in the classification model. FIG. 11 shows that the update date and time “19:05 on December 10, 1998
6 minutes and 10 seconds "are recorded.

【0095】4.文書データに対する自動分類処理 4−1 処理手順 本例の文書処理装置1では、上記のように一旦分類モデ
ルが作成された後は、例えば通信部21により外部から
取り込まれた文書データを、自動的に分類していく自動
分類処理が可能となる。即ち以下説明する自動分類処理
とは、文書処理装置1が外部から送られた文書データを
受信した際に、その文書データを分類モデルに対して分
類していく処理となる。なお、この例では、一つの文書
を受信する毎に以下説明する自動分類処理をおこなうこ
ととするか、複数の所定数の文書を受信する度におこな
ってもよいし、ユーザが図9の画面を開く操作をしたと
きにそれまでに受信した全文書に対して自動分類処理を
おこなうようにしてもよい。
4. 4. Automatic Classification Processing for Document Data 4-1 Processing Procedure In the document processing apparatus 1 of the present example, after the classification model is once created as described above, for example, the document data taken in from the outside by the communication unit 21 is automatically converted. The automatic classification process of classifying into is possible. That is, the automatic classification process described below is a process of, when the document processing apparatus 1 receives document data sent from the outside, classifying the document data with respect to a classification model. In this example, the automatic classification process described below may be performed each time one document is received, or may be performed each time a plurality of predetermined documents are received. The automatic classification process may be performed on all the documents received so far when the operation of opening is performed.

【0096】自動分類処理としての全体の処理手順を図
12に示す。図12のステップF21は、文書処理装置
1の受信部21による文書受信処理を示している。この
ステップF21では、受信部21は、たとえば通信回線
を介して送信された1又は複数の文書を受信する。受信
部21は、受信した文書を文書処理装置の本体10に送
る。制御部11は供給された1又は複数の文書データを
RAM14又はHDD34に格納する。
FIG. 12 shows the entire processing procedure as the automatic classification processing. Step F21 in FIG. 12 illustrates a document receiving process by the receiving unit 21 of the document processing apparatus 1. In this step F21, the receiving section 21 receives one or a plurality of documents transmitted via a communication line, for example. The receiving unit 21 sends the received document to the main body 10 of the document processing device. The control unit 11 stores the supplied document data or document data in the RAM 14 or the HDD 34.

【0097】続いてステップF22に進み、制御部11
は、ステップF21で取り込まれた文書についてインデ
ックスを作成する。
Subsequently, the process proceeds to step F22, where the control unit 11
Creates an index for the document taken in step F21.

【0098】ステップF23では、制御部11は、分類
モデルに基づいて、インデックスを付された各文書を、
分類モデルのいずれかのカテゴリに自動分類する。そし
て、制御部11は、分類の結果をたとえばRAM14に
記憶させる。自動分類の詳細については後述する。
In step F23, the control unit 11 converts each indexed document based on the classification model into
Automatic classification into one of the categories of the classification model. Then, the control unit 11 causes the RAM 14 to store the result of the classification, for example. Details of the automatic classification will be described later.

【0099】ステップF24では、制御部11は、ステ
ップF23での新たな文書の自動分類の結果に基づい
て、分類モデルを更新する。そしてステップF25で
は、制御部11は、ステップF24で更新された分類モ
デルを登録する。例えば分類モデルをRAM14に記憶
させる。
In step F24, the control unit 11 updates the classification model based on the result of the automatic classification of the new document in step F23. Then, in step F25, the control unit 11 registers the classification model updated in step F24. For example, the classification model is stored in the RAM 14.

【0100】以上の図12の処理により、文書処理状態
1に入力された文書データが、分類モデル上で分類され
るように自動分類処理が行われることになる。すなわち
この自動分類処理においては、受信した文書に対しては
インデックスが作成され、さらに自動分類が行われた
後、そのインデックスを構成している固有名詞、語義、
文書アドレス等が、上記図11のように分類モデル上で
或るカテゴリーに対応づけられることになる(分類モデ
ルが更新される)。
By the above-described processing of FIG. 12, automatic classification processing is performed so that the document data input to the document processing state 1 is classified on the classification model. That is, in this automatic classification process, an index is created for the received document, and after the automatic classification is performed, proper nouns, meanings,
The document address and the like are associated with a certain category on the classification model as shown in FIG. 11 (the classification model is updated).

【0101】ステップF21、F22の処理は、上述し
た手動分類処理におけるステップF11,F12と同様
である。即ちステップF22のインデックス作成処理と
しては、図5〜図8で説明した処理が行われるものであ
り、ここでの繰り返しの説明は避ける。また、ステップ
F24の分類モデルの更新は、ステップF23の自動分
類の分類結果に応じてものとなる。以下、上述の手動分
類処理とは異なる処理として、ステップF23の自動分
類について詳細に説明する。
The processes in steps F21 and F22 are the same as steps F11 and F12 in the above-described manual classification process. That is, as the index creation processing in step F22, the processing described with reference to FIGS. 5 to 8 is performed, and a repeated description thereof will be omitted. The update of the classification model in step F24 depends on the classification result of the automatic classification in step F23. Hereinafter, automatic classification in step F23 will be described in detail as processing different from the above-described manual classification processing.

【0102】4−2 自動分類 図12のステップF23での自動分類の詳しい処理を図
13に示す。図13のステップF61では、制御部11
は、分類モデルのカテゴリCiに含まれる固有名詞の集
合と、ステップF21で受信した文書から抽出されイン
デックスに入れられた語のうちの固有名詞の集合とにつ
いて、これらの共通集合の数をP(Ci)とする。そし
て制御部11は、このようにして算出した数P(Ci)
をRAM14に記憶させる。
4-2 Automatic Classification FIG. 13 shows the detailed processing of the automatic classification in step F23 in FIG. In step F61 of FIG.
Defines the number of intersections of the set of proper nouns included in the category Ci of the classification model and the set of proper nouns among the words extracted from the document received in step F21 and put into the index by P ( Ci). Then, the control unit 11 calculates the number P (Ci) thus calculated.
Is stored in the RAM 14.

【0103】ステップF62においては、制御部11
は、その文書のインデックス中に含まれる全語義と、各
カテゴリCiに含まれる全語義との語義間関連度を、後
述する図15に示す語義間関連度の表を参照して、語義
間関連度の総和R(Ci)を演算する。すなわち制御部
11は、分類モデルにおける固有名詞以外の語につい
て、全語義間関連度の総和R(Ci)を演算する。そし
て制御部11は、演算した語義間関連度の総和R(C
i)をRAM14に記憶させる。
In step F62, the control unit 11
Refers to the degree of association between all meanings included in the index of the document and all the meanings included in each category Ci by referring to the table of association between meanings shown in FIG. The total sum R (Ci) of the degrees is calculated. That is, the control unit 11 calculates the total sum R (Ci) of the degrees of association between all the meanings of words other than the proper noun in the classification model. The control unit 11 then calculates the total sum R (C
i) is stored in the RAM 14.

【0104】ここで語義間関連度について説明してお
く。語義間関連度は、図14の処理により文書処理装置
1が備える電子辞書に含まれる語義について予め算出
し、その結果を図15のように保持しておけばよい。つ
まり、制御部11が予め一度だけ図14の処理を実行し
ておくようにすることで、図13の自動分類処理の際に
用いることができる。
Here, the degree of association between meanings will be described. The degree of association between meanings may be calculated in advance for the meanings included in the electronic dictionary included in the document processing apparatus 1 by the processing in FIG. 14 and the result may be stored as shown in FIG. That is, if the control unit 11 executes the process of FIG. 14 once in advance, it can be used in the automatic classification process of FIG.

【0105】制御部11が予め実行しておく図15の処
理は次のようになる。まずステップF71において、制
御部11は、電子辞書内の語の語義の説明を用いて、こ
の辞書を使って語義のネットワークを作成する。すなわ
ち、辞書における各語義の説明とこの説明中に現れる語
義との参照関係から、語義のネットワークを作成する。
ネットワークの内部構造は、上述したようなタグ付けに
より記述される。文書処理装置の制御部11は、たとえ
ばRAM14に記憶された電子辞書について、語義とそ
の説明を順に読み出して、ネットワークを作成する。制
御部14は、このようにして作成した語義のネットワー
クをRAM14に記憶させる。
The processing of FIG. 15 which is executed in advance by the control unit 11 is as follows. First, in step F71, the control unit 11 uses the description of the meaning of a word in the electronic dictionary and creates a meaning network using this dictionary. That is, a meaning network is created from the reference relation between the explanation of each meaning in the dictionary and the meaning appearing in the explanation.
The internal structure of the network is described by tagging as described above. For example, the control unit 11 of the document processing apparatus sequentially reads meanings and descriptions of the electronic dictionary stored in the RAM 14 and creates a network. The control unit 14 causes the RAM 14 to store the meaning network created in this manner.

【0106】なお、上記ネットワークは、文書処理装置
の制御部11が辞書を用いて作成する他に、受信部21
にて外部から受信したリ、記録/再生部31にて記録媒
体32から再生したりすることにより得ることもでき
る。また上記電子辞書は、受信部21にて外部から受信
したり、記録/再生部31にて記録媒体32から再生し
たりすることにより得ることができる。
The above network is not only created by the control unit 11 of the document processing apparatus using a dictionary, but also by the receiving unit 21.
The recording / reproducing section 31 reproduces the data received from the outside from the recording medium 32. Further, the electronic dictionary can be obtained by receiving from the outside by the receiving unit 21 or by reproducing from the recording medium 32 by the recording / reproducing unit 31.

【0107】ステップF72においては、ステップF7
1で作成された語義のネットワーク上で、各語義のエレ
メントに対応する中心活性値の拡散処理をおこなう。こ
の活性拡散により、各語義に対応する中心活性値は、上
記辞書により与えられたタグ付けによる内部構造に応じ
て与えられる。中心活性値の拡散処理は、図7で説明し
た処理となる。
In Step F72, Step F7
The central activity value corresponding to each semantic element is spread on the semantic network created in step 1. By this activity diffusion, the central activity value corresponding to each meaning is given according to the internal structure by tagging given by the dictionary. The diffusion processing of the central activity value is the processing described with reference to FIG.

【0108】ステップF73においては、ステップF7
1で作成された語義のネットワークを構成するある一つ
の語義Siを選択し、続くステップF74においては、
この語義Siに対応する語彙エレメントEiの中心活性
値eiの初期値を変化させ、このときの中心活性値の差
分△eiを計算する。
In Step F73, Step F7
One semantic Si constituting the semantic network created in 1 is selected, and in the subsequent step F74,
The initial value of the central activity value ei of the vocabulary element Ei corresponding to this meaning Si is changed, and the difference △ ei of the central activity value at this time is calculated.

【0109】さらにステップF75においては、ステッ
プF74におけるエレメントEiの中心活性値eiの差
分△eiに対応する、他の語義Sjに対応するエレメン
トEjの中心活性値ejの差分△ejを求める。ステッ
プF76においては、ステップF75で求めた差分△e
jを、ステップF74で求めた△eiで除した商△ej
/△eiを、語義Siの語義sjに対する語義間関連度
とする。
Further, in step F75, a difference Δej of the central activation value ej of the element Ej corresponding to another meaning Sj corresponding to the difference Δei of the central activation value ei of the element Ei in step F74 is determined. In step F76, the difference Δe obtained in step F75
quotient jej obtained by dividing j by △ ei obtained in step F74
/ △ ei is the degree of association between meanings of the meaning Si with respect to the meaning sj.

【0110】ステップF77においては、一の語義Si
と他の語義Sjとのすべての対について語義間関連度の
演算が終了したか否かについて判断する。すべての語義
の対について語義間関連度の演算が終了していないとき
には、ステップF73にもどり、語義間関連度の演算が
終了していない対について語義間関連度の演算を継続す
る。このようなステップF73からステップF77のル
ープにおいて、制御部11は、必要な値をたとえばRA
M14から順に読み出して、上述したように語義間関連
度を計算する。制御部11は、計算した語義間関連度を
たとえばRAM14に順に記憶させる。そして、すべて
の語義の対について語義間関連度の演算が終了したとき
には、ステップF77から、この一連の処理を終了す
る。
In step F77, one meaning Si
It is determined whether or not the calculation of the degree of association between meanings has been completed for all pairs of the word and another meaning Sj. When the calculation of the relevance between meanings is not completed for all pairs of meanings, the process returns to step F73, and the calculation of the relevance between meanings is continued for the pairs for which the calculation of the relevance is not completed. In the loop from step F73 to step F77, the control unit 11 sets a necessary value to, for example, RA
M14 is sequentially read out, and the degree of association between meanings is calculated as described above. The control unit 11 causes the RAM 14 to sequentially store the calculated meaning-to-sense associations, for example. Then, when the calculation of the degree of inter-word meaning is completed for all the word-sense pairs, this series of processing is ended from step F77.

【0111】このような語義間関連度の算出は、或る1
つの語義の中心活性値を変化させた時に、それにつられ
て中心活性値が変化する語義を、関連度が高いものとす
る処理といえる。つまりステップF74で或る語義の中
心活性値を変化させると、それに応じて関連する(リン
クされた)語義の中心活性値が変化するものとなるた
め、その変化の度合いを調べれば、或る語義に対する他
の各語義の関連度がわかるものである。(或るエレメン
トEiの中心活性値は、上述した活性拡散の説明におい
て述べたように、リンク先のエレメントの中心活性値と
端点活性値が反映されて、そのエレメントEi端点活性
値が更新されたうえで、そのエレメントEiの端点活性
値と現在の中心活性値の和から求められるため、リンク
先との関連度が大きいほど中心活性値の変化量は大きく
なる) このような処理を各語義から他の全ての語義に対して行
っていくことで、すべての語義の対(組み合わせ)につ
いて、関連度を算出することができる。
The calculation of the degree of association between meanings is performed by a certain one.
It can be said that, when the central activity value of one meaning is changed, the meaning in which the central activity value changes along with the meaning has a high degree of relevance. That is, if the central activity value of a certain meaning is changed in step F74, the central activity value of the related (linked) meaning changes accordingly, and if the degree of the change is examined, a certain meaning is obtained. The degree of relevance of each other meaning with respect to is understood. (The central activation value of an element Ei reflects the central activation value and the endpoint activation value of the linked element as described in the above description of the activity diffusion, and the element Ei endpoint activation value is updated. In addition, since the value is obtained from the sum of the end point activity value of the element Ei and the current center activity value, the larger the degree of association with the link destination is, the larger the amount of change of the center activity value is.) By performing the processing for all other meanings, it is possible to calculate the degree of association for all pairs (combinations) of meanings.

【0112】このように計算された語義間関連度は、図
15に示すように、それぞれの語義と語義の間に定義さ
れる。この図15の表においては、語義間関連度は0か
ら1までの値をとるように正規化されている。そしてこ
の表においては一例として“コンピュータ”、“テレ
ビ”、“VTR”の間の相互の語義間関連度が示されて
いる。“コンピュータ”と“テレビ”の語義間関連度は
0.55、“コンピュータ” と“VTR”の語義間関
連度は0.25、“テレビ”と“VTR”の語義間関連
度は0.60である。
The calculated degree of association between meanings is defined between each meaning as shown in FIG. In the table of FIG. 15, the degree of association between meanings is normalized to take a value from 0 to 1. In this table, as an example, the degree of inter-semantic association between “computer”, “television”, and “VTR” is shown. The relevance between meanings of "computer" and "television" is 0.55, the relevance between meanings of "computer" and "VTR" is 0.25, and the relevance between meanings of "television" and "VTR" is 0.60. It is.

【0113】以上のように予め算出されていた語義間関
連度を用いて図13のステップF62の処理が行われた
ら、続いて制御部11は、ステップF63として、カテ
ゴリCiに対する文書の文書分類間関連度Rel(C
i)を Rel(Ci)=m1P(Ci)+n1R(Ci) として算出する。ここで、係数m1、n1は定数で、そ
れぞれの値の文書分類間関連度への寄与の度合いを表す
ものである。制御部11は、ステップF61で算出した
共通集合の数P(Ci)およびステップF62で算出し
た語義間関連度の総和R(Ci)を用いて、上記式の演
算を行い、文書分類間関連度Rel(Ci)を算出す
る。制御部11は、このように算出した文書分類間関連
度Rel(Ci)をRAM14に記憶させる。
When the processing in step F62 in FIG. 13 is performed using the degree of association between the meanings calculated in advance as described above, the control unit 11 subsequently proceeds to step F63, where the inter-document classification for the category Ci is performed. Relevance Rel (C
i) is calculated as Rel (Ci) = m1P (Ci) + n1R (Ci). Here, the coefficients m1 and n1 are constants and represent the degree of contribution of the respective values to the inter-document-class relevance. The control unit 11 performs the calculation of the above expression using the number P (Ci) of common sets calculated in step F61 and the sum R (Ci) of the degree of association between meanings calculated in step F62, and calculates the degree of association between document classifications. Calculate Rel (Ci). The control unit 11 causes the RAM 14 to store the thus calculated inter-document-class relevance Rel (Ci).

【0114】なお、これらの係数m1、n1の値として
は、たとえばm1=10、n1=1とすることができ
る。また係数m1、n1の値は、統計的手法を使って推
定することもできる。すなわち、制御部11は、複数の
係数mおよびnの対について文書分類間関連度Rel
(Ci)が与えられることで、上記係数を最適化により
求めることができる。
The values of these coefficients m1 and n1 can be, for example, m1 = 10 and n1 = 1. The values of the coefficients m1 and n1 can also be estimated using a statistical method. That is, the control unit 11 determines the degree of association Rel between document classifications for a plurality of pairs of coefficients m and n.
Given (Ci), the coefficient can be obtained by optimization.

【0115】ステップF64においては、制御部11
は、カテゴリCiに対する文書分類間関連度Rel(C
i)が最大で、その文書分類間関連度Rel(Ci)の
値がある閾値を越えているとき、そのカテゴリCiに文
書を分類する。すなわち制御部11は、複数のカテゴリ
に対してそれぞれ文書分類間関連度を作成し、最大の文
書分類間関連度が閣値を越えているときには、文書を最
大の文書分類間関連度を有する上記カテゴリCiに分類
する。これにより文書が自動的に所要のカテゴリに分類
されることになる。なお最大の文書分類間関連度が閾値
を越えていないときには、文書の分類はおこなわない。
In Step F64, the control unit 11
Is the document class relevance Rel (C
When i) is the largest and the value of the degree of association Rel (Ci) between the document classifications exceeds a certain threshold, the documents are classified into the category Ci. That is, the control unit 11 creates the inter-document-class relevance for each of the plurality of categories, and when the maximum inter-document-class relevance exceeds the cabinet value, the control unit 11 assigns the document with the maximum inter-document-class relevance. Classify into category Ci. As a result, the document is automatically classified into a required category. If the maximum degree of association between document classifications does not exceed the threshold value, no document classification is performed.

【0116】以上のような図13の処理として、図12
のステップF23の自動分類が行われたら、ステップF
24、F25で、それに応じて分類モデルを更新し、登
録することで、一連の自動分類が完了する。即ち文書処
理装置1に受信された文書データは、自動的に分類され
たことになり、ユーザーは例えば図9の分類ウインドウ
201において、所要の文書分類エリアにおいて、受信
された文書データを確認できることになる。
The processing shown in FIG.
If the automatic classification in step F23 is performed,
The series of automatic classification is completed by updating and registering the classification model accordingly at 24 and F25. That is, the document data received by the document processing apparatus 1 is automatically classified, and the user can confirm the received document data in a required document classification area, for example, in the classification window 201 of FIG. Become.

【0117】5.要約作成処理 続いて、文書データについての要約文を作成する処理に
ついて述べる。上述したようにユーザーは、文書を選択
して図10のような閲覧ウインドウ301を開くことに
より、文書の本文を閲覧することができる。例えば上述
した手動分類処理におけるステップF13の時点や、そ
の他任意の時点において、図9で説明した分類ウインド
ウ201から、閲覧ウインドウ301を開くことができ
る。
5. Summary Creation Processing Next, processing for creating a summary sentence for document data will be described. As described above, the user can browse the text of the document by selecting the document and opening the browse window 301 as shown in FIG. For example, the viewing window 301 can be opened from the classification window 201 described with reference to FIG.

【0118】例えば分類ウインドウ201において或る
文書を選択した状態でブラウザボタン202bをクリッ
クすることで、図16のように、文書表示部303に選
択された文書の本文が表示された閲覧ウインドウ301
が開かれる。なお文書表示部303に文書全文が表示で
きないときには、その文書の一部が表示される。また要
約文が作成されていない時点では、図16のように要約
表示部304は空白とされる。
For example, when a browser button 202b is clicked while a certain document is selected in the classification window 201, a browsing window 301 in which the text of the selected document is displayed in the document display unit 303 as shown in FIG.
Is opened. When the entire text of the document cannot be displayed on the document display unit 303, a part of the document is displayed. At the time when the summary sentence has not been created, the summary display section 304 is blank as shown in FIG.

【0119】この閲覧ウインドウ301において要約作
成ボタン306aがクリックされると、文書表示部30
3に表示されている文書についての要約文が作成され、
図17に示すように要約表示部304に表示される。つ
まり制御部11は、ユーザーの要約作成操作に応じて、
以下説明するような要約文作成処理を行い、作成後、そ
れを表示する制御を行うものとなる。文書から要約を作
成する処理は、文書のタグ付けによる内部構造に基づい
て実行される。なお要約文は、要約表示部304のサイ
ズに応じて生成される。そして本文表示部303と要約
表示部304の面積は、ユーザーが仕切枠312を移動
させることで変化させることができる。つまり要約文
は、要約作成が指示された時点での要約表示部304の
サイズに応じたサイズ(文書長)で作成されることにな
る。
When the user clicks the summary creation button 306a in the browsing window 301, the document display unit 30
A summary sentence for the document displayed in 3 is created,
It is displayed on the summary display section 304 as shown in FIG. That is, the control unit 11 responds to the user's summary creation operation by
A summary sentence creation process as described below is performed, and after creation, control for displaying the summary sentence is performed. The process of creating an abstract from a document is performed based on the internal structure of the document by tagging. The summary sentence is generated according to the size of the summary display unit 304. The area of the text display unit 303 and the summary display unit 304 can be changed by moving the partition frame 312 by the user. In other words, the summary sentence is created in a size (document length) according to the size of the summary display unit 304 at the time when the summary creation is instructed.

【0120】要約作成ボタン306aがクリックされる
とにより開始される、制御部11の要約作成処理を図1
8に示す。
FIG. 1 shows a summary creation process of the control unit 11, which is started when the summary creation button 306a is clicked.
FIG.

【0121】図18のステップF81では、制御部11
は活性拡散を行う。本例においては、活性拡散により得
られた中心活性値を重要度として採用することにより、
文書の要約を行うものである。すなわち、タグ付けによ
る内部構造を与えられた文書においては、活性拡散を行
うことにより、各エレメントにタグ付けによる内部構造
に応じた中心活性値を付与することができる。ステップ
F81で行う活性拡散処理は、図6〜図8で説明したも
のと同様の処理となるが、上述したように活性拡散は、
中心活性値の高いエレメントと関わりのあるエレメント
にも高い中心活性値を与えるような処理である。すなわ
ち、活性拡散は、照応(共参照)表現とその先行詞の間
で中心活性値が等しくなり、それ以外では中心活性値が
減衰するような中心活性値についての演算である。この
中心活性値は、タグ付けによる内部構造に応じて決定さ
れるので、タグ付けによる内部構造を考慮した文書の分
析に利用することができる。
At step F81 of FIG.
Performs active diffusion. In this example, by adopting the central activity value obtained by the active diffusion as the importance,
Summarizes the document. That is, in a document given an internal structure by tagging, by performing active diffusion, a central activation value corresponding to the internal structure by tagging can be given to each element. The active diffusion process performed in step F81 is the same process as that described with reference to FIGS. 6 to 8, but the active diffusion is performed as described above.
This is a process of giving a high central activity value to an element related to an element having a high central activity value. That is, the active diffusion is an operation on the central activity value such that the central activity value is equal between the anaphor (co-reference) expression and its antecedent, and the central activity value attenuates otherwise. Since the central activity value is determined according to the internal structure by tagging, it can be used for analyzing a document in consideration of the internal structure by tagging.

【0122】次にステップF82では、制御部11は、
表示部30に表示されている閲覧ウィンドウ301の要
約表示部304のサイズ、具体的にはこの要約表示部3
04に表示可能な最大文字数をwsと設定する。また制
御部11は、要約の文字列(要約文を保持する内部レジ
スタ)sを初期化して初期値s(0)=””と設定す
る。制御部11は、このように設定した、最大文字数w
sおよび文字列sの初期値s(0)を、RAM14に記
録する。
Next, at step F82, the control unit 11
The size of the summary display section 304 of the browsing window 301 displayed on the display section 30, specifically, the summary display section 3
The maximum number of characters that can be displayed in 04 is set as ws. Further, the control unit 11 initializes a summary character string (an internal register holding a summary sentence) and sets an initial value s (0) = “”. The control unit 11 sets the maximum number of characters w
The s and the initial value s (0) of the character string s are recorded in the RAM 14.

【0123】ステップF83では、制御部11は、要約
の骨格の順次の作成をカウントするカウンタのカウント
値iを「1」に設定する。そしてステップF84で制御
部11は、カウンタのカウント値iにに基づいて、文章
からi番目に平均中心活性値の高い文の骨格を抽出す
る。平均中心活性値とは、一つの文を構成する各エレメ
ントの中心活性値を平均したものである。制御部11
は、たとえばRAM14に記録した文字列s(i−1)
を読み出し、この文字列s(i−1)に対して、抽出し
た文の骨格の文字列を加えて、S(i)とする。そして
制御部11は、このようにして得た文字列s(i)をR
AM14に記録する。初回は、文字列s(i−1)は初
期値s(0)であるので、今回抽出した文の骨格が文字
列S(i)としてRAM14に記憶されることになる。
また以降においてステップF84の処理が行われる場合
は、抽出された文の骨格が文字列S(i)に、それまで
の文字列S(i)(つまりその時点では文字列S(i−
1))に追加されていくものとなる。また同時に、制御
部11はこのステップF84において、上記文の骨格に
含まれないエレメントの中心活性値順のリストL(i)
を作成し、このリストL(i)をRAM14に記録す
る。
In step F83, the control section 11 sets the count value i of a counter for counting the sequential creation of the skeleton of the digest to "1". Then, in step F84, the control unit 11 extracts a skeleton of a sentence having the ith highest average central activity value from the sentence based on the count value i of the counter. The average central activity value is the average of the central activity values of the elements constituting one sentence. Control unit 11
Is, for example, a character string s (i-1) recorded in the RAM 14.
Is read out, and the character string of the skeleton of the extracted sentence is added to this character string s (i-1) to obtain S (i). Then, the control unit 11 converts the character string s (i) thus obtained into R
Record in AM14. In the first time, since the character string s (i-1) has the initial value s (0), the skeleton of the sentence extracted this time is stored in the RAM 14 as the character string S (i).
When the process of step F84 is performed thereafter, the skeleton of the extracted sentence is changed to the character string S (i), and the character string S (i) up to that point (that is, the character string S (i-
1)). At the same time, the control unit 11 determines in this step F84 a list L (i) of the elements not included in the skeleton of the sentence in the order of the central activation value.
And the list L (i) is recorded in the RAM 14.

【0124】すなわち、このステップF84において
は、要約のアルゴリズムは、活性拡散の結果を用いて、
平均中心活性値の大きい順に文を選択し、選択された文
の骨格の抽出する。文の骨格は、文から抽出した必須要
素により構成される。必須要素になりうるのは、エレメ
ントの主辞(head)と、主語(subject)、目的語(obj
ect)、間接目的語(indirect object)、所有者(poss
essor)、原因(cause)、条件(condition)または比
較(comparison)の関係属性を有する要素と、等位構造
が必須要素のときにはそれに直接含まれるエレメントと
が必須要素を構成するものである。そして、文の必須要
素をつなげて文の骨格を生成し、要約に加える。
That is, in step F84, the summarization algorithm uses the result of activity diffusion to
The sentences are selected in descending order of the average central activity value, and the skeleton of the selected sentence is extracted. The skeleton of a sentence is composed of essential elements extracted from the sentence. Required elements can be the head of the element, the subject, the object (obj
ect), indirect object, owner (poss
An element having a relationship attribute of essor, cause, condition, or comparison, and an element directly included when the coordination structure is an essential element, constitute an essential element. Then, by connecting the essential elements of the sentence, a skeleton of the sentence is generated and added to the summary.

【0125】ステップF85では制御部11は、文字列
s(i)の長さが、閲覧ウィンドウ301の要約表示部
104の最大文字数wsより大きいか否かを判断する。
このステップF85は、要約表示部304のサイズに応
じた要約文を作成するための判断処理となる。
At step F85, the control section 11 determines whether or not the length of the character string s (i) is larger than the maximum number of characters ws of the summary display section 104 of the browsing window 301.
This step F85 is a determination process for creating a summary sentence according to the size of the summary display unit 304.

【0126】制御部11は、文字列s(i)の長さが最
大文字数wsに達していないときは、処理をステップF
86に進める。ステップF86では制御部11は、文書
中で、(i+1)番目に平均中心活性値が高い文のエレ
メントの中心活性値と、上記ステップF84で作成した
リストL(i)の最も中心活性値が高いエレメントの中
心活性値を比較する。つまり、上記ステップF84にお
いて要約として採用された文の次に平均中心活性値が高
い文(即ち次に要約文に付加する候補となる文)と、ス
テップF84において要約として採用された文の中で骨
格ではないとして要約からは排除されたエレメントの中
心活性値を比較する。
If the length of the character string s (i) has not reached the maximum number of characters ws, the control unit 11 executes the processing in step F
Proceed to 86. In step F86, the control unit 11 determines in the document the central activity value of the element of the sentence having the (i + 1) -th highest average central activity value and the highest central activity value of the list L (i) created in step F84. Compare the central activity values of the elements. That is, a sentence having the second highest average central activity value after the sentence adopted as the summary in step F84 (that is, a sentence which is a candidate to be added to the next summary sentence) and a sentence adopted as the summary in step F84 The central activity values of elements excluded from the summary as not scaffolds are compared.

【0127】このステップF86の処理は、要約文とし
ての文字列に次に加える部位を、その直前のステップF
84で採用した文において骨格として採用されなかった
ものから選ぶか、或いは他の文から選ぶかを判断する処
理となる。
In the process of step F86, the part to be added next to the character string as the summary sentence is set in the immediately preceding step F86.
In the sentence adopted in S84, the process is to determine whether to select from those not adopted as a skeleton or to select from other sentences.

【0128】(i+1)番目に平均中心活性値が高い文
におけるエレメントの中心活性値よりも、リストL
(i)における最も高い中心活性値の方が、中心活性値
が高い値であった場合は、要約文としての文字列に次に
加える部位を、その直前のステップF84で採用した文
において骨格として採用されなかったものから選ぶよう
にする。このため制御部11の処理はステップF88に
進み、リストL(i)における最も中心活性値が高いエ
レメントを、その時点で記憶されている文字列S(i)
に加え、文字列SS(i)とする。またこのとき、文字
列SS(i)に加えたエレメントをリストL(i)から
削除する。そして、ステップF89において、文字列S
S(i)が、最大文字数wsより大きいか否かを判断
し、大きくなければステップF86に戻る。
The list L is higher than the central activity value of the element in the (i + 1) -th sentence having the highest average central activity value.
In the case where the highest central activity value in (i) is a higher central activity value, the portion to be added next to the character string as the summary sentence is set as the skeleton in the sentence adopted in the immediately preceding step F84. Try to choose from those that have not been adopted. For this reason, the process of the control unit 11 proceeds to step F88, in which the element having the highest central activity value in the list L (i) is stored in the character string S (i) stored at that time.
And a character string SS (i). At this time, the element added to the character string SS (i) is deleted from the list L (i). Then, in a step F89, the character string S
It is determined whether S (i) is greater than the maximum number of characters ws. If not, the process returns to step F86.

【0129】ステップF86において、(i+1)番目
に平均中心活性値が高い文のエレメントとして、リスト
L(i)における最も高い中心活性値よりも中心活性値
が高いエレメントがあった場合は、要約文としての文字
列に次に加える部位を、その直前のステップF84で採
用した文とは別の文から選ぶこととしてステップF87
でカウント値iをインクリメントしてステップF84に
戻ることになる。つまりステップF86で、(i+1)
番目に平均中心活性値が高い文とされた文について、ス
テップF84で骨格を抽出し、それを文字列S(i)に
加えるようにする。
In step F86, if the (i + 1) -th element having the highest central activity value is higher than the highest central activity value in the list L (i), the summary sentence The part to be added next to the character string as is selected from a sentence different from the sentence adopted in step F84 immediately before that step F87.
, The count value i is incremented, and the process returns to step F84. That is, in step F86, (i + 1)
For the sentence having the second highest average central activity value, the skeleton is extracted in step F84 and added to the character string S (i).

【0130】以上のように、ステップF84又はステッ
プF88で文の骨格となるエレメントやその他のエレメ
ントとして、中心活性値の高いものを基準として文字列
に加えていきながら、ステップF85又はステップF8
9で、文字列S(i)又はSS(i)を最大文字数ws
と比較していくことで、最大文字数wsに近いが最大文
字数wsを越えない文字列を作成していくことになる。
As described above, in step F84 or step F88, while adding elements to the character string based on the element having the higher central activation value as the element or other element serving as the skeleton of the sentence in step F84 or step F88,
9, the character string S (i) or SS (i) is converted to the maximum number of characters ws
By comparing with, a character string close to the maximum number of characters ws but not exceeding the maximum number of characters ws is created.

【0131】例えばステップF85で文字列S(i)が
最大文字数wsを越えた場合は、制御部11の処理はス
テップF90に進み、直前のステップF84で骨格を加
える前の文字列S(i−1)を、要約文とする。つま
り、これはステップF84で文の骨格を加えたことによ
り、最大文字数wsを越えてしまったことになるため、
その骨格を加える前の文字列S(i−1)が、最大文字
数wsに近いが最大文字数wsを越えない文字列である
と判断して、それを要約文とするものである。
For example, if the character string S (i) exceeds the maximum number of characters ws in step F85, the processing of the control unit 11 proceeds to step F90, and the character string S (i- 1) is a summary sentence. In other words, this means that the maximum number of characters ws has been exceeded by adding the skeleton of the sentence in step F84.
The character string S (i-1) before adding the skeleton is determined to be a character string that is close to the maximum number of characters ws but does not exceed the maximum number of characters ws, and is used as a summary sentence.

【0132】なお、このため初めてステップFで文字列
S(i)を生成した時点(i=1の時点)で、ステップ
F85で、文字列S(i)が最大文字数wsを越えた場
合は、文字列S(i−1)は、ステップF82で設定し
た初期値としての文字列S(0)となるため、実質的に
要約文は作成できなかったことになる。これは、要約表
示部304のサイズが小さすぎたことに起因するため、
ユーザーは画面上で要約表示部304の面積を広げた上
で、再度、要約作成ボタン306aをクリックして、図
18の処理が開始されるようにすればよい。
If the character string S (i) exceeds the maximum number of characters ws at step F85 when the character string S (i) is first generated at step F (i = 1) at step F85, Since the character string S (i-1) becomes the character string S (0) as the initial value set in step F82, a summary sentence could not be created substantially. This is because the size of the summary display unit 304 is too small.
The user may enlarge the area of the summary display unit 304 on the screen, and then click the summary creation button 306a again to start the processing in FIG.

【0133】ステップF85で文字列S(i)が最大文
字数wsを越えていない場合は、上述のように制御部1
1の処理はステップF86に進み、次に文字列に加える
部分を判断することになる。そして上記のようにステッ
プF88に進んだ場合は、文字列SSiが最大文字数w
sを越えたか否かを判別する。ここで文字列SSiが最
大文字数wsを越えた場合は、制御部11の処理はステ
ップF91に進み、直前のステップF88で或るエレメ
ントを加える前の文字列S(i)を、要約文とすること
になる。つまり、これはステップF88でエレメントを
加えたことにより、最大文字数wsを越えてしまったこ
とになるため、そのエレメントを加える前の文字列S
(i)が、最大文字数wsに近いが最大文字数wsを越
えない文字列であると判断して、それを要約文とするも
のである。
If it is determined in step F85 that the character string S (i) does not exceed the maximum number of characters ws, as described above, the control unit 1
The process of step 1 proceeds to step F86, where a portion to be added to the next character string is determined. When the process proceeds to step F88 as described above, the character string SSi is
s is determined. Here, if the character string SSi exceeds the maximum number of characters ws, the process of the control unit 11 proceeds to step F91, and the character string S (i) before adding a certain element in the immediately preceding step F88 is used as a summary sentence. Will be. In other words, this means that the maximum number of characters ws has been exceeded by adding an element in step F88.
It is determined that (i) is a character string that is close to the maximum number of characters ws but does not exceed the maximum number of characters ws, and is used as a summary sentence.

【0134】以上のような処理により、その時点の要約
表示部304のサイズに適合した要約文が作成されるこ
とになる。そしてその要約文の内容は、平均中心活性値
の高い1又は複数の文の骨格、及び骨格以外の中心活性
値の高いエレメントが用いられたものとなる。そしてこ
の様に作成された要約文は、RAM14に記憶されると
ともに、図17のように要約表示部304に表示され
る。
By the above processing, a summary sentence suitable for the size of the summary display unit 304 at that time is created. The contents of the summary sentence include the skeleton of one or more sentences having a high average central activity value and elements having a high central activity value other than the skeleton. The summary sentence thus created is stored in the RAM 14 and displayed on the summary display unit 304 as shown in FIG.

【0135】なお、表示された要約文を見てユーザーが
より詳しい要約文を見たいと思った場合、或いはより短
い要約文を見たいと思った場合は、閲覧ウインドウ30
1の要約表示部304のサイズ(面積)を増減した上
で、再度要約作成ボタン306aをクリックすればよ
い。すると、上述した図18の処理により、その時点の
要約表示部304のサイズに応じた文書長の要約書が作
成され、表示されることになる。
When the user looks at the displayed summary and wants to see a more detailed summary, or wants to see a shorter summary, the viewing window 30 is displayed.
After increasing or decreasing the size (area) of the first summary display unit 304, the user may click the summary creation button 306a again. Then, a summary having a document length corresponding to the size of the summary display unit 304 at that time is created and displayed by the processing of FIG. 18 described above.

【0136】6.読み上げ処理 文書処理装置1は、以上のようにタグ付けされた文書を
受信すると、その本文や要約文を表示してユーザーに提
示できるが、さらに受信した文書を音声でユーザーに提
示することもできる。即ちCPU13により、ROM1
5やHDD34に記録されている電子文書処理プログラ
ムのうちの音声読み上げプログラムを起動することで、
図19に示すような一連の工程を経ることによって、文
書の読み上げを行うことができる。また読み上げの際に
は、表示部30において読み上げを行っている話者のイ
メージとして、人物等のキャラクタの画像を表示すると
ともに、文書によっては、複数種類の音声による読み上
げ及びそれに応じたキャラクタ表示を実行することがで
きるようにしている。まずここでは、簡略化した各工程
の説明を行い、その後、具体的な文書例を用いて、各工
程の説明を詳細に行う。
6. Read-aloud processing When the document processing apparatus 1 receives a document tagged as described above, the document processing apparatus 1 can display the body and the summary sentence to the user, and can also present the received document to the user by voice. . That is, the ROM 13
5 or an electronic document processing program recorded in the HDD 34 to activate a speech reading program,
The document can be read aloud through a series of steps as shown in FIG. In addition, at the time of reading out, an image of a character such as a person is displayed on the display unit 30 as the image of the speaker who is reading out, and depending on the document, reading out by a plurality of types of voices and character display corresponding thereto are performed. Have to be able to run. First, here, a simplified description of each step is given, and thereafter, each step is explained in detail using a specific document example.

【0137】制御部11の処理として、図19のステッ
プF101は、図4のステップF11(又は図12のス
テップF21)と同様の文書受信/記憶処理である。上
述ののように、受信した文書(タグ付文書)については
手動又は自動での分類処理が行われるが、それと同様
に、受信した文書について読み上げ処理も実行可能とい
う意味で図19にステップF101を記したものであ
る。ここでは特に処理手順として、分類処理と読み上げ
処理の順序その他を規定するものではない。
As the processing of the control section 11, step F101 in FIG. 19 is the same document receiving / storing processing as step F11 in FIG. 4 (or step F21 in FIG. 12). As described above, the received document (tagged document) is subjected to manual or automatic classification processing. Similarly, in step S101, FIG. It is written. Here, the order of the classification process and the reading process and the like are not particularly defined as the processing procedure.

【0138】なお、文書読み上げ処理の対象となる文書
(受信文書)には、後述するように、音声合成を行うた
めに必要なタグが付与されていることが必要である。但
し、文書処理装置1は、タグ付けされた文章を受信した
うえで、その文書に音声合成を行うために必要なタグを
新たに付与して文書を作成することもできる。以下で
は、このようにして受信又は作成されて用意されたタグ
付き文書を、タグファイルと記す。
It should be noted that a document (reception document) to be subjected to the text-to-speech process needs to be provided with a tag necessary for performing speech synthesis, as described later. However, after receiving the tagged text, the document processing apparatus 1 can also create a document by newly adding a tag necessary for performing speech synthesis to the document. Hereinafter, the tagged document prepared by receiving or creating in this manner is referred to as a tag file.

【0139】文書処理装置1の文書読み上げ処理として
は続いてステップF102において、CPU13の制御
のもとに、タグファイルに基づいて読み上げ用ファイル
を生成する。この読み上げ用ファイルは、後述するよう
に、タグファイル中のタグから、読み上げのための属性
情報を導出し、この属性情報を埋め込むことにより生成
される。
In the document reading process of the document processing apparatus 1, a reading file is generated based on the tag file under the control of the CPU 13 in step F102. As will be described later, the reading file is generated by deriving attribute information for reading from a tag in the tag file and embedding the attribute information.

【0140】続いてステップF103において文書処理
装置1は、CPU13の制御のもとに、読み上げ用ファ
イルを用いて、音声合成エンジンに適した処理を行う。
なお、この音声合成エンジンは、ハードウェアで構成し
てもよいし、ソフトウェアで実現するようにしてもよ
い。音声合成エンジンをソフトウェアで実現する場合に
は、そのアプリケーションプログラムは、ROM15や
HDD34等に予め記憶されている。
Subsequently, in step F103, under the control of the CPU 13, the document processing apparatus 1 performs a process suitable for the speech synthesis engine using the reading file.
The speech synthesis engine may be configured by hardware or may be realized by software. When the speech synthesis engine is realized by software, the application program is stored in the ROM 15 or the HDD 34 in advance.

【0141】続いて文書処理装置1はステップF104
において、ユーザが後述するユーザインターフェースを
用いて行う操作に応じて処理を行う。文書処理装置1
は、このような処理を行うことによって、与えられた文
書を読み上げることができる。これらの各工程につい
て、以下詳細に説明する。
Subsequently, the document processing apparatus 1 proceeds to step F104.
In, processing is performed according to an operation performed by a user using a user interface described later. Document processing device 1
Can read out a given document by performing such processing. Each of these steps will be described in detail below.

【0142】まず、ステップF101におけるタグ付け
された文書の受信又は作成について説明する。文書処理
装置1は、例えば通信部21から文書(音声合成を行う
ために必要なタグが既に付与されている文書)を受信す
る。または、文書処理装置1は、タグ付けされた文書を
受信し、その文書に音声合成を行うために必要なタグを
新たに付与して文書を作成する。
First, reception or creation of a tagged document in step F101 will be described. The document processing apparatus 1 receives, for example, a document (a document to which a tag required for performing speech synthesis has already been added) from the communication unit 21. Alternatively, the document processing apparatus 1 receives a tagged document, and newly adds a tag necessary for performing speech synthesis to the document to create the document.

【0143】説明上の例として、以下のような、日本
語、及び英語の文書にタグ付けがなされたタグファイル
が、受信又は作成されものとする。
As an illustrative example, it is assumed that the following tag file in which Japanese and English documents are tagged is received or created.

【0144】まずタグファイルの元となる日本語文書
は、次のような文書とする。 「[素敵にエイジング]/8ガン転移、抑えられる!? がんはこの十数年、わが国の死因第一位を占めている。
そめ死亡率は年齢が進むとともに増加傾向にある。高齢
者の健康を考えるとき、がんの問題を避けて通れない。
がんを特徴づけるのは、細胞増殖と転移である。人間の
細胞には、自動車でいえばアクセルに当たり、がんをど
んどん増殖する「がん遺伝子」と、ブレーキ役の「がん
抑制遺伝子」がある。双方のバランスが取れていれば問
題はない。正常な調節機能が失われ、細胞内でブレーキ
が利かない変異が起こると、がんの増殖が始まる。高齢
者の場合、長い年月の間にこの変異が蓄積し、がん化の
条件を備えた細胞の割合が増え、がん多発につながるわ
けだ。ところで、もう一つの特徴、転移という性質がな
ければ、がんはそれほど恐れる必要はない。切除するだ
けで、完治が可能になるからである。転移を抑制するこ
との重要性がここにある。この転移、がん細胞が増える
だけでは発生しない。がん細胞が細胞と細胞の間にある
蛋白(たんぱく)質などを溶かし、自分の進む道をつく
って、血管やリンパ管に入り込む。循環しながら新たな
“住み家”を探して潜り込む、といった複雑な動きをす
ることが、近年解明されつつある。」
First, a Japanese document serving as a source of a tag file is as follows. "[Nice aging] / 8 cancer metastases can be suppressed! Cancer has been the leading cause of death in Japan for more than a decade.
Reed mortality is increasing with age. When thinking about the health of the elderly, you cannot avoid cancer.
Characterizing cancer is cell proliferation and metastasis. There are two types of human cells: "cancer genes", which act as accelerators in automobiles and rapidly grow cancer, and "cancer suppressing genes" that act as brakes. There is no problem if both are balanced. Loss of normal regulatory function and nonbreaking mutations in the cell initiate cancer growth. In the elderly, the mutation accumulates over the years, increasing the proportion of cells with cancerous conditions, leading to more cancers. By the way, without the other characteristic, metastasis, cancer doesn't have to be so afraid. This is because a complete cure is possible just by resection. Here is the importance of suppressing metastasis. This metastasis does not occur simply by increasing the number of cancer cells. Cancer cells dissolve proteins (proteins) between cells, create their own way, and enter blood vessels and lymph vessels. In recent years, it has been elucidated that complicated movements such as searching for a new “dwelling house” while circulating are performed. "

【0145】タグファイルの元となる英語の文書の例は
次のようなものとする 「During its centennial year, The Wall Street Jour
nal will report events of the past century that st
and as milestones of American business history. TH
REE COMPUTERS THAT CHANGED the face of personal co
mputing were Iaunched in 1977. That year the Apple
II, Commodore Pet and Tendy TRS came to market. T
he computers were crude by today's standerds. Appl
e ll owners, for example,had to use their televisi
on sets as screens and storeddata on audiocassette
s.」
The following is an example of an English document serving as a tag file: "During its centennial year, The Wall Street Jour"
nal will report events of the past century that st
and as milestones of American business history.TH
REE COMPUTERS THAT CHANGED the face of personal co
mputing were Iaunched in 1977. That year the Apple
II, Commodore Pet and Tendy TRS came to market.T
he computers were crude by today's standerds.Appl
e ll owners, for example, had to use their televisi
on sets as screens and storeddata on audiocassette
s. "

【0146】文書処理装置1は、このような日本語又は
英語の文書についてタグが付された文書を受信すると、
分類処理や、図16、図17等で説明したようにその本
文を表示したり、要約文を作成して表示することができ
る。
When the document processing apparatus 1 receives a document with a tag attached to such a Japanese or English document,
As described with reference to FIG. 16 and FIG. 17 and the like, it is possible to display the main text or create and display a summary sentence.

【0147】ここで上記の日本語又は英語の文書は、そ
れそれ、図21又は図22に示すようなタグファイルと
して構成されている。日本語文書のタグファイルとして
は、図21(a)に見出しの部分である「〔素敵にエイ
ジング〕/8ガン転移、抑えられる!?」を抜粋したも
のを示し、図21(b)に、文書中の最後の段落である
「この転移、がん細胞が・・・・近年解明されつつあ
る。」を抜粋したものを示している。残りの段落につい
ては省略してある。なお、実際のタグファイルは、見出
し部分から最後の段落までが1つのファイルとして構成
されている。
Here, the above-mentioned Japanese or English documents are each constituted as a tag file as shown in FIG. 21 or FIG. As a tag file of a Japanese document, FIG. 21 (a) shows an excerpt of the heading “[nicely aging] / 8 cancer metastasis, suppressed !?”, and FIG. 21 (b) It shows an excerpt from the last paragraph in the document, "This metastasis, cancer cells are being elucidated in recent years." The remaining paragraphs have been omitted. It should be noted that the actual tag file is composed of one file from the heading to the last paragraph.

【0148】図21(a)に示す見出し部分において、
<見出し>というタグは、この部分が見出しであること
を示している。なお、この例では実際には<見出し 話
者=“sp1”>となっているが、これについては後述
する。この図21(a)(b)に示すタグファイルは基
本的には、図2を用いて文書データ構造を説明した際に
用いたタグファイル例と同様にタグが付されているもの
であり、上述した各タグについての細かい説明は省略す
るが、所要各所に、音声合成を行うために必要なタグが
付与されているものである。
In the heading shown in FIG.
The tag <heading> indicates that this part is a heading. In this example, actually <header speaker = “sp1”>, which will be described later. The tag files shown in FIGS. 21A and 21B are basically attached with tags in the same manner as the tag file example used when the document data structure was described with reference to FIG. Although a detailed description of each of the above-described tags is omitted, tags required for performing speech synthesis are added to required locations.

【0149】音声合成を行うために必要なタグとして
は、例えばまず、図中「例1」の部分に示すように、
「蛋白(たんぱく)」のように元の文書に読み仮名を示
す情報が与えられているときに付与されるものがある。
すなわち、この場合では、「たんぱくたんぱく」と重複
して読み上げてしまうことを防ぐために、発音=“nul
l”という読み属性情報が記述されており、「(たんぱ
く)」の部分読み上げを禁止するタグが付与されてい
る。また、音声合成を行うために必要なタグとしては、
図中「例2」「例3」に示すように、「リンパ管」のよ
うな専門用語や「住み家」のように、誤った読み上げを
行う可能性のある難訓部分に付与されるものがある。す
なわち、この場合では、「りんぱくだ」や「すみいえ」
と読み上げてしまうことを防ぐために、それぞれ、発音
=“りんぱかん”、発音=“すみか”という読み仮名を
示す読み属性情報が記述されている。
For example, as a tag necessary for performing speech synthesis, first, as shown in the portion of “Example 1” in the figure,
Some are given when information indicating a reading pseudonym is given to the original document, such as “protein”.
In other words, in this case, the pronunciation = “nul
Reading attribute information “l” is described, and a tag for prohibiting partial reading of “(tanpaku)” is added. Also, the tags required to perform speech synthesis include:
As shown in the "Example 2" and "Example 3" in the figure, technical terms such as "lymphatic vessels" and difficult-to-read parts such as "dwelling house" that may be read aloud incorrectly There is. In other words, in this case, "Rinpakuda" or "Sumie"
In order to prevent the pronunciation from being read out, pronunciation attribute information indicating the pronunciation pseudonym of pronunciation = “Rinkan” and pronunciation = “Sumika” is described.

【0150】一方、図22に示すタグファイルにおける
音声合成を行うために必要なタグとしては、図中「例
4」として示す部分のように、「II」というローマ数
字に対して、発音=“two”という読み属性情報が記述
されている。これは、「II」を「トゥ(two)」と読
み上げさせたい場合に、「セカンド(second)」と読み
上げてしまうことを防ぐために記述されているものであ
る。
On the other hand, as a tag necessary for performing speech synthesis in the tag file shown in FIG. 22, as shown in a portion shown as “Example 4” in the figure, for the Roman numeral “II”, the pronunciation = “ Two ”reading attribute information is described. This is described in order to prevent "II" from being read out as "second" when it is desired to be read out as "two".

【0151】なお、この図21や図22のタグファイル
においては図示していないが、例えば文書内に引用文が
含まれている場合、その文が引用文であることを示すタ
グが付与される。さらに、タグファイルには、例えば文
書内に疑問文がある場合、図示しないが、その文が疑問
文であることを示すタグが付与される。
Although not shown in the tag files of FIGS. 21 and 22, for example, when a document includes a quote, a tag indicating that the sentence is a quote is added. . Further, when there is a question sentence in the document, for example, a tag indicating that the sentence is a question sentence is added to the tag file, though not shown.

【0152】さらに音声合成を行うために必要なタグと
して、音声合成の際の話者、つまり出力される読み上げ
音声の種別を指定するタグ(音声種別情報)が付加され
ている。ここでいう音声の種別とは、例えば各種の人物
設定に沿った音質設定のようなものをいう。例えば読み
上げを行う話者として、青年女性、青年男性、男子、女
子、壮年男性、壮年女性など、各種の人物設定に応じた
音質設定である。音声合成エンジンでは、このような複
数の人物設定のそれぞれに応じた音質で読み上げ音声を
出力できるようにされており、音声の種別(話者)を指
定するタグは、文書中の各部分で、どの人物設定(話
者)で読み上げ音声出力を行うかを指定するものとな
る。説明上、例えば設定される各音声の種別(話者)毎
に“sp1”“sp2”・・・というコードが付され、
タグでは、このコードで読み上げ音声の種別を指定する
ものとする。
Further, as a tag necessary for performing voice synthesis, a tag (voice type information) for specifying a speaker at the time of voice synthesis, that is, a type of a read-out voice to be output is added. The voice type here refers to, for example, a sound quality setting according to various person settings. For example, sound quality settings according to various person settings, such as a young woman, a young man, a boy, a girl, a middle-aged man, and a middle-aged woman, as speakers who read aloud. The speech synthesis engine is capable of outputting a read-aloud voice with a sound quality corresponding to each of such a plurality of person settings, and a tag for specifying a type of voice (speaker) is included in each part of the document, This specifies the person setting (speaker) at which the voice output is performed. For the sake of explanation, for example, codes “sp1”, “sp2”,.
In the tag, this code specifies the type of the voice to be read.

【0153】即ち図21の場合は、「例11」として示
すように、上述した<見出し>というタグは、ここでは
<見出し 話者=“sp1”>とされており、これによ
り<見出し 話者=“sp1”>〜</見出し>の範囲
では、読み上げの際の話者が「sp1」というキャラク
タで行われることが指示されるものとなっている。また
「例12」として示すように、図21(b)は、その段
落を示すタグ<段落>は、ここでは<段落 話者=“s
p2”>とされており、これにより<段落話者=“sp
2”>〜</段落>の範囲(つまり図21(b)の全
文)では、読み上げの際の話者が「sp2」というキャ
ラクタで行われることが指示されるものとなっている。
That is, in the case of FIG. 21, as shown in “Example 11”, the tag of <heading> described above is set to <heading speaker = “sp1”>. = “Sp1”> to </ headline>, it is instructed that the speaker at the time of reading out is performed by the character “sp1”. As shown as “Example 12,” FIG. 21B shows that the tag <paragraph> indicating the paragraph is <paragraph speaker = “s” here.
p2 ">, whereby <paragraph speaker =“ sp ”
In the range of 2 ″> to </ paragraph> (that is, the whole sentence of FIG. 21B), it is instructed that the speaker at the time of reading out is performed by the character “sp2”.

【0154】また図22において読み上げ音声の種別
(話者)を指定するタグ(音声種別情報)としては、
「例13」〜「例17」として示すように、それぞれ文
の先頭に付されるタグが<文 話者=“sp1”>、又
は<文 話者=“sp2”>とされている。即ちこの例
では、1つの文毎(<文>〜</文>)に、それぞれ話
者がsp1とsp2で交互に指定されているものとなっ
ている。つまり読み上げ音声の音質が1文毎に交互に切
り換えられることが指定されている。
In FIG. 22, the tag (voice type information) for specifying the type (speaker) of the read-out voice includes:
As shown in “Example 13” to “Example 17”, the tag added to the head of the sentence is <speaker = “sp1”> or <speaker = “sp2”>. That is, in this example, the speaker is alternately designated by sp1 and sp2 for each sentence (<sentence> to </ sentence>). That is, it is specified that the sound quality of the read-out voice is switched alternately for each sentence.

【0155】なお、図21の例では段落単位で、また図
22の例では文単位で、話者が指定される例をあげた
が、これはあくまで説明上の一例であり、話者を指定す
るタグは、文章単位、段落単位、文単位、さらに場合に
よっては文節単位等、任意に付加することができる。実
際には、文書の内容に応じて適切な各部分毎に話者が設
定されることが好ましい。
In the example of FIG. 21, the speaker is specified in paragraph units, and in the example of FIG. 22, the speaker is specified in sentence units. However, this is merely an example for explanation, and the speaker is specified. The tag to be added can be arbitrarily added in units of sentences, units of paragraphs, units of sentences, and in some cases, units of phrases. In practice, it is preferable that a speaker is set for each appropriate portion according to the contents of the document.

【0156】文書処理装置1は、先に図19に示したス
テップF101において、例えば以上の例のように、音
声合成を行うために必要なタグが付与された文書を受信
又は作成するものとなる。
In step F101 shown in FIG. 19, the document processing apparatus 1 receives or creates a document to which a tag necessary for performing speech synthesis has been added, for example, as in the above example. .

【0157】つぎに、図19のステップF102におけ
る読み上げ用ファイルの生成について説明する。文書処
理装置1は、タグファイル中のタグから、読み上げめた
めの属性情報を導出し、この属性情報を埋め込むことに
よって読み上げ用ファイルを生成する。具体的には、文
書処理装置1は、文書の段落、文、句の先頭を示すタグ
を見つけ出し、これらのタグに対応して読み上げのため
の属性情報を埋め込む。また文書処理装置は、文書の要
約文を作成した場合には、その要約文に含まれる部分の
先頭を文書から見つけ出し、読み上げの際に音量を増大
させる属性情報を埋め込み、要約文に含まれる部分であ
ることを強調することなどもできる。
Next, the generation of a reading file in step F102 in FIG. 19 will be described. The document processing device 1 derives attribute information for reading out from a tag in the tag file, and generates a reading-out file by embedding the attribute information. Specifically, the document processing apparatus 1 finds tags indicating the beginning of a paragraph, a sentence, or a phrase of a document, and embeds attribute information for reading aloud in correspondence with these tags. When the document processing apparatus prepares the summary of the document, the head of the part included in the summary is found from the document, and the attribute information for increasing the volume at the time of reading out is embedded. Can be emphasized.

【0158】文書処理装置1は、図21又は図22に示
したタグファイルから図23又は図24に示すような読
み上げ用ファイルを生成する。なお、図23(a)
(b)は図21(a)(b)に示した部分に対応するも
のである。実際の読み上げ用ファイルは、上述した見出
し部分から最後の段落までが1つのファイルとして構成
されていることは勿論である。
The document processing apparatus 1 generates a reading file as shown in FIG. 23 or 24 from the tag file shown in FIG. 21 or FIG. FIG. 23 (a)
(B) corresponds to the portion shown in FIGS. 21 (a) and (b). It goes without saying that the actual reading file is composed of one file from the above-mentioned heading portion to the last paragraph.

【0159】図23に示す読み上げ用ファイルには、文
書の先頭に対応してCom=Lang***という属性情報が埋め
込まれている。この属性情報は、文書を記述している言
語を示す。ここでは、Com=Lang=JPNという属性情報であ
り、文書を記述している言語が日本語であることを示し
ている。文書処理装置においては、この属性情報を参照
することで、文書毎に言語に応じた適切な音声合成エン
ジンを選択することができる。
In the reading file shown in FIG. 23, attribute information of Com = Lang *** is embedded corresponding to the head of the document. This attribute information indicates the language describing the document. Here, the attribute information is Com = Lang = JPN, indicating that the language describing the document is Japanese. In the document processing apparatus, by referring to the attribute information, it is possible to select an appropriate speech synthesis engine corresponding to the language for each document.

【0160】また、この読み上げ用ファイルには各所
に、Com=begin_p、Com=begin_s、Com=begin_phという属
性情報が埋め込まれている。これらの属性情報は、それ
ぞれ、文書の段落、文及び句の先頭を示す。文書処理装
置1は、上述したタグファイル中のタグに基づいて、こ
れらの段落、文及び句の先頭を識別する。なお、読み上
げ用ファイルにおいて、例えば上述したタグファイル中
の<副詞句><名詞句>のように、同じレベルの統語構
造を表すタグが連続して表れる部分に対しては、それぞ
れに対応する数のCom=begin_phが埋め込まれずに、まと
められて1つのCom=begin_phが埋め込まれる。
In addition, attribute information such as Com = begin_p, Com = begin_s, and Com = begin_ph is embedded in this reading file at various places. These pieces of attribute information indicate the beginnings of paragraphs, sentences, and phrases of the document, respectively. The document processing device 1 identifies the beginning of these paragraphs, sentences, and phrases based on the tags in the tag file described above. In the reading file, for example, for portions where tags representing syntactic structures of the same level appear continuously, such as <adverb phrase><nounphrase> in the above-described tag file, the corresponding numbers are used. Are not combined, and one Com = begin_ph is embedded.

【0161】さらに、読み上げ用ファイルには、Com=be
gin_p、Com=begin_s、及びCom=begin_phに対応して、そ
れぞれ、Pau=500、Pau=100及びPau=50という属性情報が
埋め込まれている。これらの属性情報は、それぞれ、読
み上げの際に500ミリ秒、100ミリ秒及び50ミリ
秒の休止期間を設けることを示す。すなわち文書処理装
置1が、文章の段落、文及び句の先頭こおいて、それぞ
れ、500ミリ秒、100ミリ秒及び50ミリ秒の休止
期間を設けて文書を音声合成エンジンにより読み上げる
ようにするための情報である。なお、これらの属性情報
は、Com=begin_p、Com=begin_s及びCom=begin_phに対応
して埋め込まれる。そのため、例えばタグファイル中の
<副詞句><名詞句>のように、同じレベルの統語構造
を表すタグが連続して表れる部分は、1つの句として捉
えられ、それぞれに対応する数のPau=50が埋め込まれず
に、まとめられて1つのPau=50が埋め込まれる。また、
例えばタグファイル中の<段落><文><名詞句>のよ
うに、異なるレベルの統語構造を表すタグが連続して表
れる部分については、それぞれに対応するPau=***が埋
め込まれる。そのため文書処理装置1は、このような部
分を読み上げる際には、例えば文書の段落、文及び句の
それぞれの休止期間を加算して得られる650ミリ秒の
休止期間を設けて読み上げるようにする。このように、
文書処理装置1は、段落、文及び句に対応した休止期間
を設けることで、段落、文及び句の切れ目を考慮した違
和感のない読み上げを行うことができる。なお、この休
止期間は、文書の段落、文及び句の先頭において、それ
ぞれ、600ミリ秒、100ミリ秒及び50ミリ秒であ
る必要はなく、適宜変更することができる。
Further, the read-out file includes Com = be
Attribute information of Pau = 500, Pau = 100, and Pau = 50 is embedded corresponding to gin_p, Com = begin_s, and Com = begin_ph, respectively. These pieces of attribute information indicate that pause periods of 500 ms, 100 ms, and 50 ms are provided for reading out. That is, the document processing apparatus 1 provides pauses of 500 ms, 100 ms, and 50 ms at the beginning of a paragraph, a sentence, and a phrase of a sentence, respectively, so that the document is read out by the speech synthesis engine. Information. Note that these pieces of attribute information are embedded corresponding to Com = begin_p, Com = begin_s, and Com = begin_ph. Therefore, for example, a portion where tags representing the same level of syntactic structure appear continuously, such as <adverb phrase><nounphrase> in the tag file, is regarded as one phrase, and the corresponding number of Pau = One Pau = 50 is embedded together without being embedded. Also,
For example, Pau = *** is embedded in portions where tags representing different levels of syntactic structure appear continuously, such as <paragraph><sentence><nounphrase> in the tag file. Therefore, when reading out such a portion, the document processing apparatus 1 provides a pause period of 650 milliseconds obtained by adding the pause periods of the paragraphs, sentences, and phrases of the document, for example. in this way,
By providing a pause period corresponding to a paragraph, a sentence, and a phrase, the document processing apparatus 1 can perform reading without discomfort in consideration of a break between the paragraph, the sentence, and the phrase. This pause period does not need to be 600 ms, 100 ms, and 50 ms at the beginning of the paragraph, sentence, and phrase of the document, respectively, and can be changed as appropriate.

【0162】さらにまた、読み上げ用ファイルにおいて
は、タグファイル中で記述されている発音=“null”と
いう読み属性情報に対応して、「(たんぱく)」が除か
れているとともに、発音=“りんぱかん”、発音=“す
みか”という読み属性情報に対応して、「リンパ管」、
「住み家」が、それぞれ、「りんぱかん」、「すみか」
に置換されている。文書処理装置1は、このような読み
属性情報を埋め込むことで、音声合成エンジンが参照す
る辞書の不備による読み誤りをすることがないようにし
ている。
Further, in the reading-out file, “(protein)” is removed and the pronunciation = “rin” corresponding to the pronunciation attribute information of pronunciation = “null” described in the tag file. According to the reading attribute information of "kan" and pronunciation = "Sumika", "lymphatic vessels"
"Dwellers" are "Rinkan" and "Sumika", respectively.
Has been replaced by By embedding such reading attribute information, the document processing device 1 prevents reading errors due to inadequate dictionaries referenced by the speech synthesis engine.

【0163】また、読み上げ用ファイルにおいては、タ
グファイル中で記述されている話者=“sp*”という
音声種別情報に対応して、読み上げ用ファイル上での音
声種別情報として「Chara=sp*」が埋め込まれる。即
ち、図23(a)に示す見出し部分の先頭(Com=Lang=J
PNの次)には、Chara=sp1が埋め込まれ、また図23
(b)に示す段落の先頭には、Chara=sp2が埋め込まれ
る。
In the reading file, "Chara = sp *" is used as the voice type information in the reading file in correspondence with the voice type information "speaker =" sp * "described in the tag file. Is embedded. That is, the head (Com = Lang = J) of the heading shown in FIG.
In the field next to PN, Chara = sp1 is embedded.
At the beginning of the paragraph shown in (b), Chara = sp2 is embedded.

【0164】また、読み上げ用ファイルには、文書内に
含まれた引用文であることを示すタグに基づいて、この
引用文のみを別の音声合成エンジンを用いるように指定
するための属性情報が埋め込まれてもよい。さらに、読
み上げ用ファイルには、疑問文であることを示すタグに
基づいて、その文の語尾のイントネーションを上げるた
めの属性情報が埋め込まれるようにしてもよい。さらに
また、読み上げ用ファイルには、必要に応じて、いわゆ
る「である調」の文体を「ですます調」の文体に変換す
るための属性情報を埋め込むこともできる。なお、この
場合、文書処理装置1は、このような属性情報を読み上
げ用ファイルに埋め込むのではなく、「である調」の文
体を「ですます調」の文体に変換して音声読み上げ用フ
ァイルを生成するようにしてもよい。
In the reading file, attribute information for designating only this quotation to use another speech synthesis engine based on a tag indicating that the quotation is included in the document is included. It may be embedded. Further, attribute information for raising the intonation of the ending of the sentence may be embedded in the reading-out file based on a tag indicating that the sentence is a question sentence. Furthermore, in the reading-out file, if necessary, attribute information for converting a so-called "Dama-tona" style to a "Dama-tona" style can be embedded. In this case, instead of embedding such attribute information in the reading-out file, the document processing apparatus 1 converts the style of "Dana-tona" into the style of "Dan-Ma-tona" and converts the speech reading-out file. You may make it generate | occur | produce.

【0165】一方、図24に示す読み上げ用ファイルに
は、文書の先頭に対応してCom=Lang=ENGという属性情報
が埋め込まれており、文書を記述している言語が英語で
あることを示している。また、読み上げ用ファイルに
は、Com=Vol=***という属性情報が埋め込まれている。
この属性情報は、読み上げの時の音量を示す。例えば、
Com=Vol=0は、文書処理装置のデフォルトの音量で読み
上げることを示している。また、Com=Vol=80は、デフォ
ルトの音量を80%増量した音量で読み上げることを示
している。任意の、Com=Vol=***は、次のCom=Vol=***ま
で有効である。さらに、読み上げ用ファイルにおいて
は、タグファイル中で記述されている発音=“two”と
いう読み属性情報に対応して、「II」が「two」に置
換されている。
On the other hand, in the reading file shown in FIG. 24, attribute information of Com = Lang = ENG is embedded corresponding to the head of the document, indicating that the language describing the document is English. ing. The attribute information of Com = Vol = *** is embedded in the file for reading out.
This attribute information indicates the volume at the time of reading. For example,
Com = Vol = 0 indicates that the text is read out at the default volume of the document processing apparatus. Com = Vol = 80 indicates that the default volume is read out at a volume increased by 80%. Any Com = Vol = *** is valid until the next Com = Vol = ***. Further, in the reading file, "II" is replaced by "two" in accordance with the reading attribute information of pronunciation = "two" described in the tag file.

【0166】さらに、この読み上げ用ファイルにおいて
も、タグファイル中で記述されている話者=“sp*”
という音声種別情報に対応して、読み上げ音声の種別を
指定する情報(読み上げファイル上での音声種別情報)
となる「Chara=sp*」が埋め込まれる。即ち、図24に
おける各文の先頭には、Chara=sp1、又は、Chara=sp2が
埋め込まれる。
Further, also in this reading-out file, the speaker described in the tag file = “sp *”
Information that specifies the type of speech to be read, corresponding to the speech type information (speech type information in the file)
"Chara = sp *" is embedded. That is, Chara = sp1 or Chara = sp2 is embedded at the beginning of each sentence in FIG.

【0167】文書処理装置1は、図20に示す一連の工
程を経ることによって、このような読み上げ用ファイル
を生成する。まず文書処理装置1は、ステップF201
において、CPU13によって、受信又は作成したタグ
ファイルを解析する。ここで文書処理装置1は、文書を
記述している言語を判別するとともに、文書の段落、文
及び句の先頭や、読み属性情報をタグに基づいて探し出
す。続いて文書処理装置1は、ステップF202におい
て、CPU13によって、文書を記述している言語に応
じて文書の先頭にCom=Lang=***という属性情報を埋め込
む。
The document processing apparatus 1 generates such a reading file through a series of steps shown in FIG. First, the document processing apparatus 1 executes step F201.
The CPU 13 analyzes the received or created tag file. Here, the document processing apparatus 1 determines the language in which the document is described, and searches for the head of the paragraph, sentence, and phrase of the document, and the reading attribute information based on the tag. Subsequently, in step F202, the document processing apparatus 1 embeds attribute information Com = Lang = *** at the head of the document by the CPU 13 in accordance with the language in which the document is described.

【0168】次に文書処理装置1は、ステップF203
において、CPU13によって、文書の段落、文及び句
の先頭を読み上げ用ファイルにおける属性情報に置換す
る。すなわち文書処理装置1は、タグファイル中の<段
落>、<文>及び<***句>を、それぞれ、Com=begi
n_p、Com=begin_s及びCom=begin_phに置換する。
Next, the document processing apparatus 1 executes step F203.
, The CPU 13 replaces the head of the paragraph, sentence and phrase of the document with the attribute information in the reading file. That is, the document processing apparatus 1 replaces <paragraph>, <sentence>, and <*** phrase> in the tag file with Com = begi
Replace with n_p, Com = begin_s and Com = begin_ph.

【0169】さらに文書処理装置1は、ステップF20
4において、CPU13によって、同じレベルの統語構
造が表れて同じCom=begin_***が重複しているものを、
1つのCom=begin_***にまとめる。続いて文書処理装置
1は、ステップF205において、CPU13によっ
て、Com=begin_***に対応してPau=***を埋め込む。すな
わち文書処理装置1は、Com=begin_pの前にPau=500を埋
め込み、Com=begin_sの前にPau=100を埋め込み、Com=be
gin_phの前にPau=50を埋め込む。そして文書処理装置1
は、ステップF206において、CPU13によって、
読み属性情報に基づいて、正しい読みに置換する。すな
わち文書処理装置1は、発音=“null”という読み属性
情報に基づいて、「(たんぱく)」を除去するととも
に、発音=“りんぱかん”、発音=“すみか”という読
み属性情報に基づいて、「リンパ管」、「住み家」を、
それぞれ、「りんぱかん」、「すみか」に置換する。
Further, the document processing apparatus 1 executes step F20.
In 4, the same level of syntactic structure appears by the CPU 13 and the same Com = begin _ ***
Combine into one Com = begin _ ***. Subsequently, in step F205, the document processing apparatus 1 embeds Pau = *** in correspondence with Com = begin _ *** by the CPU 13. That is, the document processing apparatus 1 embeds Pau = 500 before Com = begin_p, embeds Pau = 100 before Com = begin_s,
Embed Pau = 50 before gin_ph. And the document processing device 1
Is determined by the CPU 13 in step F206.
Replace with correct reading based on reading attribute information. That is, the document processing apparatus 1 removes “(protein)” based on the pronunciation attribute information “pronunciation =“ null ”, and based on the pronunciation attribute information“ pronunciation = “Rinkan” and pronunciation = “Sumika”. "Lymphatic vessels", "houses"
Substitute “Rinkan” and “Sumika”, respectively.

【0170】さらに文書処理装置1は、ステップF20
7において、CPU13によって、タグファイル中で記
述されている話者=sp*という情報に対応して、「Ch
ara=sp*」を埋め込む。
Further, the document processing apparatus 1 executes step F20.
7, the CPU 13 responds to the information “speaker = sp *” described in the tag file by using “Ch
ara = sp * ”.

【0171】文書処理装置1は、先に図19に示したス
テップF102において、この図20に示す処理を行う
ことによって、読み上げ用ファイルを自動的に生成す
る。文書処理装置1は、生成した読み上げ用ファイルを
RAM14に記憶させる。
In step F102 shown in FIG. 19, the document processing apparatus 1 automatically generates a reading file by performing the processing shown in FIG. The document processing device 1 causes the RAM 14 to store the generated reading file.

【0172】つぎに、図19のステップF103におけ
る読み上げ用ファイルを用いた処理について説明する。
文書処理装置1は、読み上げ用ファイルを用いて、RO
M15やHDD34等に予め記憶されている音声合成エ
ンジンに適した処理をCPU13の制御のもとに行う。
具体的には、文書処理装置1は、読み上げ用ファイルに
埋め込まれているCom=Lang=***という属性情報に基づい
て、使用する音声合成エンジンを選択する。音声合成エ
ンジンは、言語等に応じて識別子が付されており、その
情報が例えば初期設定ファイルとしてHDD34に記録
されている。文書処理装置1は、初期設定ファイルを参
照し、言語に対応した識別子の音声合成エンジンを選択
する。また音声合成エンジンは、上述のように各種の話
者としての音質での音声合成出力が可能とされており、
従って、読み上げ用ファイルで指定されている1又は複
数の話者に対応した音声で、各部分(段落、文等)の読
み上げが行われるように設定される。
Next, the processing using the reading file in step F103 of FIG. 19 will be described.
The document processing device 1 uses the read-out file to
Under the control of the CPU 13, processing suitable for the speech synthesis engine stored in advance in the M15, the HDD 34, or the like is performed.
Specifically, the document processing apparatus 1 selects a speech synthesis engine to be used based on the attribute information of Com = Lang = *** embedded in the reading file. The speech synthesis engine is provided with an identifier according to a language or the like, and the information is recorded in the HDD 34 as, for example, an initialization file. The document processing device 1 refers to the initialization file and selects a speech synthesis engine having an identifier corresponding to the language. In addition, the speech synthesis engine is capable of outputting speech synthesis with sound quality as various speakers as described above,
Therefore, it is set so that each part (paragraph, sentence, or the like) is read aloud by voice corresponding to one or a plurality of speakers specified in the reading file.

【0173】また文書処理装置1は、読み上げ用ファイ
ルに埋め込まれているCom=begin_***を音声合成エンジ
ンに適した形式に変換する。例えば文書処理装置1は、
Com=begin_phをMark=10000のように10000番台の番
号でマーク付けする。またCom=begin_sをMark=1000のよ
うに1000番台の番号でマーク付けし、Com=begin_p
をMark=100のように100番台の番号でマーク付けす
る。これは、<句>、<文>、<段落>の先頭が、それ
ぞれ10000番台、1000番台、100番台の番号
で示されることを意味し、このマークによって<句>、
<文>、<段落>の先頭が識別できるようになる。さら
に、読み上げ用ファイルにおいては、音量の属性情報が
Voll=***のようにデフォルトの音量の百分率で表されて
いることから、文書処理装置1は、この属性情報に基づ
いて、百分率の情報を絶対値の情報に変換して求める。
The document processing device 1 converts Com = begin _ *** embedded in the file for reading out into a format suitable for the speech synthesis engine. For example, the document processing device 1
Mark Com = begin_ph with a number in the 10000s, such as Mark = 10000. Also mark Com = begin_s with a number in the 1000s, such as Mark = 1000, and Com = begin_p
Is marked with a number in the 100s, such as Mark = 100. This means that the heads of <phrase>, <sentence>, and <paragraph> are indicated by numbers in the 10000s, 1000s, and 100s, respectively.
The head of <sentence> and <paragraph> can be identified. Furthermore, in the reading file, the volume attribute information is
Since the volume is represented by the default volume percentage such as Voll = ***, the document processing apparatus 1 converts the percentage information into absolute value information based on the attribute information and obtains the absolute value information.

【0174】文書処理装置1は、先に図19に示したス
テップF103において、このような読み上げ用ファイ
ルを用いた処理を行うことによって、読み上げ用ファイ
ルを音声合成エンジンが文書を読み上げることが可能な
形式に変換するものとなる。
In step F103 shown in FIG. 19, the document processing apparatus 1 performs the processing using such a file for reading out, so that the speech synthesis engine can read out the document for reading out the file. Format.

【0175】つぎに、図19のステップF104におけ
るユーザインターフェースを用いた操作について説明す
る。文書処理装置1は、ユーザが例えば入力部20のマ
ウス等を操作して先に図16又は図17に示した読み上
げボタン306cをクリックすることによって、音声合
成エンジンを起動する。そして文書処理装置1は、図2
5に示すようなユーザインターフェース用の読み上げウ
インドウ401を表示部30に表示する。
Next, the operation using the user interface in step F104 of FIG. 19 will be described. The document processing device 1 activates the speech synthesis engine when the user operates the mouse or the like of the input unit 20 and clicks on the reading button 306c shown in FIG. 16 or FIG. Then, the document processing apparatus 1
A reading window 401 for a user interface as shown in FIG. 5 is displayed on the display unit 30.

【0176】この読み上げウインドウ401は、図示す
るように、文書を読み上げさせるための再生ボタン42
0と、読み上げを停止させるための停止ボタン421
と、読み上げを一時停止させるための一時停止ボタン4
22とを有する。また、この読み上げウインドウ401
は、文単位で頭出し、早戻し及び早送りさせるための頭
出しボタン411、早戻しボタン412及び早送りボタ
ン413と、段落単位で頭出し、早戻し及び早送りさせ
るための頭出しボタン414、早戻しボタン415及び
早送りボタン416と、句単位で頭出し、早戻し及び早
送りさせるための頭出しボタン417、早戻しボタン4
18及び早送りボタン419とを有する。
[0176] As shown in the figure, the read-out window 401 has a play button 42 for reading out a document.
0 and a stop button 421 for stopping reading out
And pause button 4 to pause reading aloud
22. In addition, the reading window 401
Are a cue button 411, a fast rewind button 412, and a fast forward button 413 for cueing, fast rewinding, and fast forwarding in sentence units, a cueing button 414 for cueing, fast rewinding, and fast forwarding in paragraph units, and a fast rewinding button. A button 415 and a fast forward button 416, and a cue button 417 and a fast reverse button 4 for cueing, fast rewinding, and fast forwarding in phrase units
18 and a fast forward button 419.

【0177】さらに、読み上げウインドウ401は、読
み上げる対象を全文とするか、上述したようにして作成
された要約文とするかを選択するための選択スイッチ4
23,424を有する。
Further, the reading window 401 is provided with a selection switch 4 for selecting whether to read the whole sentence or the summary sentence created as described above.
23,424.

【0178】また、読み上げ時に話者としての画像を表
示する画像表示エリア403が設定され、読み上げてい
る人のイメージが表示される。またテロップ表示エリア
402が設けられ、読み上げ音声に対応して文字がテロ
ップ表示できるようにされている。
Further, an image display area 403 for displaying an image as a speaker at the time of reading out is set, and an image of a person who is reading out is displayed. In addition, a telop display area 402 is provided so that characters can be displayed in telop corresponding to the reading voice.

【0179】なお、ここでは図示しないが、例えば、音
声を増減させるためのボタンや読み上げの速さを増減さ
せるためのボタン等を有していてもよい。
Although not shown here, for example, a button for increasing / decreasing the voice, a button for increasing / decreasing the reading speed, and the like may be provided.

【0180】文書処理装置1は、ユーザがこれらの各種
ボタン/スイッチを例えば入力部20のマウス等を操作
してクリック/選択することに応じて、音声合成エンジ
ンによる読み上げ動作を行う。例えば、文書処理装置1
は、ユーザが再生ボタン420をクリックすることによ
って、文書の読み上げを開始する。具体的には制御部1
1は音声合成処理により生成した音声信号を音声出力部
33に供給し、音声として出力する。また文書処理装置
1は、停止ボタン421、一時停止ボタン422のクリ
ックにおいて、読み上げ処理の停止や一時停止を行う。
The document processing apparatus 1 performs a reading operation by the speech synthesis engine in response to the user clicking / selecting these various buttons / switches by operating the mouse or the like of the input unit 20, for example. For example, the document processing device 1
Starts reading the document by clicking the play button 420 by the user. Specifically, the control unit 1
1 supplies the audio signal generated by the audio synthesis processing to the audio output unit 33 and outputs it as audio. In addition, the document processing apparatus 1 stops or pauses the reading process when the stop button 421 and the pause button 422 are clicked.

【0181】また、読み上げの途中でユーザが頭出しボ
タン411を押すことによって、現在読み上げている文
の先頭にジャンプして再び読み上げる。頭出しボタン4
14、417についても同様に、それぞれ現在読み上げ
ている段落や句の先頭にジャンプして再び読み上げを行
う。制御部11は、この頭出しボタン411、414、
417の操作に関しては、上記したマーク付により、ジ
ャンプ先を認識するものとなる。即ち、文に関する頭出
しボタン411が操作された際には、制御部11は、現
在読み上げている文の途中位置から文を遡っていき、1
000番台のマークをサーチする。そして1000番台
のマークが検出されたら、そこから読み上げを再開する
ものとなる。段落や句の場合は、それぞれ100番台、
10000番台のマークを探して読み上げを再開するも
のとなる。この様な処理によって、例えば文書中でユー
ザが所望の部分を繰り返し再生させたいといった要求に
応えることができる。
Further, when the user presses the cue button 411 during the reading, the user jumps to the head of the currently read sentence and reads the sentence again. Cue button 4
In the same manner, for 14 and 417, the program jumps to the beginning of the currently read paragraph or phrase, and is read again. The control unit 11 controls the cue buttons 411, 414,
Regarding the operation 417, the jump destination is recognized by the above-mentioned marking. In other words, when the cue button 411 relating to a sentence is operated, the control unit 11 traces the sentence back from the middle position of the sentence currently being read out.
Search for 000's mark. When a mark in the 1000's range is detected, reading out is resumed from there. In the case of paragraphs and phrases,
Reading is resumed by looking for a mark in the 10000s range. By such processing, for example, it is possible to respond to a request that a user wants to repeatedly reproduce a desired portion in a document.

【0182】文書処理装置1は、図19のステップF1
04において、ユーザがこのような読み上げウインドウ
401でのユーザインターフェースを用いた操作を行う
ことに応じて、音声合成エンジンにより文書を読み上げ
る。このようにして文書処理装置1は、所望の文書を音
声合成エンジンにより違和感なく読み上げることができ
る。
The document processing device 1 executes the processing in step F1 in FIG.
At 04, in response to the user performing an operation using the user interface in the reading window 401, the text-to-speech engine reads the document. In this manner, the document processing apparatus 1 can read out a desired document by the speech synthesis engine without any discomfort.

【0183】さらに、読み上げの際には、画像表示部4
03で表示されている話者のイメージに沿った音質で、
読み上げが行われる。言い換えれば、上述のように文書
中の各部分(段落、文等)毎に、タグによって指定され
る話者の声として読み上げ音声が出力され、また読み上
げを実行する話者の種別によって画像表示部403の表
示が切り換えられる。このような、読み上げ音声と表示
画像の切換処理について説明する。
Further, at the time of reading, the image display unit 4
With the sound quality according to the speaker image displayed in 03,
Reading is performed. In other words, as described above, for each part (paragraph, sentence, etc.) in the document, a reading voice is output as the voice of the speaker specified by the tag, and the image display unit is performed according to the type of the speaker performing the reading. The display of 403 is switched. A description will be given of such a switching process between the reading voice and the display image.

【0184】説明上仮に、上記Chara=sp1として指定さ
れる音声の種別は青年女性であり、Chara=sp2として指
定される音声の種別は青年男性であるとする。図23の
読み上げ用ファイルを読み上げる際の動作を例にあげる
と、この場合、見出し部分である「素敵にエイジング/
8 ガン転移、抑えられる」は、Chara=sp1として青年
女性が指定されているため、音声合成エンジンでは、こ
の部分を青年女性として設定された音質(声質)での読
み上げ音声信号を発生させる。従って青年女性の声とし
ての読み上げ音声がユーザーに対して出力されるととも
に、表示部30における読み上げウインドウ401とし
ては、図25のように、青年女性のイメージ画像が画像
表示部403に表示される。
It is assumed that the type of voice specified as Chara = sp1 is a young woman and the type of voice specified as Chara = sp2 is a young man. As an example of the operation when reading out the reading file in FIG. 23, in this case, the heading “Nicely Aging /
Since "8 cancer metastasis can be suppressed" specifies a young woman as Chara = sp1, the speech synthesis engine generates a reading voice signal in the sound quality (voice quality) set as the young woman. Therefore, the reading voice as the voice of the young woman is output to the user, and the image window of the young woman is displayed on the image display section 403 as the reading window 401 on the display section 30 as shown in FIG.

【0185】また、図23(b)に示す段落部分では、
Chara=sp2として青年男性が指定されているため、音声
合成エンジンでは、この部分を青年男性として設定され
た音質(声質)での読み上げ音声信号を発生させる。従
って青年男性の声としての読み上げ音声がユーザーに対
して出力されるとともに、表示部30における読み上げ
ウインドウ401としては、図26のように、青年男性
のイメージ画像が画像表示部403に表示される。
In the paragraph shown in FIG.
Since a young man is specified as Chara = sp2, the speech synthesis engine generates a reading voice signal in the sound quality (voice quality) set as this young man. Therefore, the read-aloud voice as the voice of the young man is output to the user, and the read-aloud window 401 on the display unit 30 displays the image image of the young man on the image display unit 403 as shown in FIG.

【0186】このような表示動作が、制御部11の図2
7の処理により実現される。この図27は上記図19の
ステップF104として、ユーザーが読み上げ開始を指
示した際の処理となる。制御部11は、図27のステッ
プF301として、音声合成エンジンによる読み上げ音
声の出力を開始させる。このとき、音声合成エンジンは
読み上げ用ファイルに記されたポーズ時間に応じて各段
落、文、句を読み上げていくとともに、話者の指定(Ch
ara=sp*)に応じて、出力される音質を切り換えてい
く。
Such a display operation is performed by the control unit 11 shown in FIG.
7 is realized. FIG. 27 shows the process when the user instructs the start of the reading as step F104 in FIG. The control unit 11 causes the speech synthesis engine to start outputting the read-aloud voice as Step F301 in FIG. At this time, the speech synthesis engine reads out each paragraph, sentence, and phrase according to the pause time described in the reading-out file, and specifies the speaker (Ch
The output sound quality is switched according to ara = sp *).

【0187】制御部11による表示制御としてはステッ
プF302で、読み上げ用ファイルにおける話者の指定
(Chara=sp*)に応じて、対応するキャラクタ画像デー
タ、例えば上記の青年女性のイメージ画像等を画像メモ
リ16から読みだし、読み上げウインドウ401におけ
る画像表示部403に表示させるようにする。
As display control by the control unit 11, in step F302, corresponding character image data, for example, the above-mentioned image of a young woman, etc., is displayed in accordance with the speaker's designation (Chara = sp *) in the reading-out file. Data is read from the memory 16 and displayed on the image display unit 403 in the reading window 401.

【0188】音声合成エンジンによっては、Chara=sp*
で指定される部分(段落、文等)の読み上げが完了する
までは、その指定された声質での音声出力が行われるた
め、或る声質での音声出力が所要期間継続することにな
るが、その際、制御部11の表示制御としては、ステッ
プF303で、話者の画像の表情を変化させるような制
御を行う。これについては後述する。
Depending on the voice synthesis engine, Chara = sp *
Until the reading of the part (paragraph, sentence, etc.) specified by is completed, the voice output with the specified voice quality is performed, so that the voice output with a certain voice quality continues for a required period. At this time, as display control of the control unit 11, in step F303, control is performed to change the expression of the speaker image. This will be described later.

【0189】音声合成エンジンによって出力される声質
が切り換えられる際、即ち読み上げが、読み上げ用ファ
イルにおける次のChara=sp*で指定される部分(段落、
文等)に達し、出力される声質が切り換えられる際に
は、制御部11の表示制御はステップF304からF3
02に戻る。即ち制御部11は、そのChara=sp*に対応
するキャラクタ画像データ、例えば上記の青年男性のイ
メージ画像等を画像メモリ16から読みだし、読み上げ
ウインドウ401における画像表示部403に表示させ
るようにする。
When the voice quality output by the speech synthesis engine is switched, that is, when the speech is read, the portion (paragraph,
When the voice quality to be output is switched after the sentence is reached, the display control of the control unit 11 is performed in steps F304 to F3.
Return to 02. That is, the control unit 11 reads out the character image data corresponding to the Chara = sp *, for example, the above-mentioned image image of a young man from the image memory 16 and displays it on the image display unit 403 in the reading-out window 401.

【0190】以上のような処理をステップF305で読
み上げ終了が検出されるまで、即ち音声合成エンジンに
よる読み上げ用ファイルに基づく音声合成出力が全て完
了されるか、もしくはユーザーが読み上げ停止の操作を
行ったことが検出されるまで、実行されることで、読み
上げウインドウ401には、読み上げ音声に対応する話
者イメージの画像が表示されていくことになる。即ち上
述のように、図23の例でいえば、見出し部分では図2
5の表示状態とともの青年女性の声質での読み上げが行
われ、また図23(b)の段落の部分では、図26の表
示状態とともの青年男性の声質での読み上げが行われ
る。
The above processing is performed until the completion of the reading is detected in step F305, that is, all the speech synthesis output based on the reading file by the speech synthesis engine is completed, or the user performs the operation of stopping the reading. Until this is detected, the image of the speaker image corresponding to the reading voice is displayed in the reading window 401 by being executed. That is, as described above, in the example of FIG.
Speaking is performed with the voice quality of the young woman with the display state of 5, and in the paragraph section of FIG. 23B, the reading is performed with the voice quality of the young man with the display state of FIG.

【0191】また、図24の読み上げ用ファイルの読み
上げが行われる際には、1文づつ、青年女性と、青年男
性の声が切り換えられていくとともに、表示状態はそれ
に対応して図25、図26のような話者イメージの表示
が切り換えられていくことになる。
When the reading file of FIG. 24 is read out, the voices of the young woman and the young man are switched one sentence at a time, and the display state is correspondingly shown in FIGS. The display of the speaker image such as 26 is switched.

【0192】ところで、図27のステップF303での
話者の表情制御とは例えば次のように実行される。例え
ばChara=sp2に対応する青年男性のイメージ画像として
は、図28(a)〜(d)のように複数の画像データを
画像メモリ16に用意しておく。そして制御部11は、
ステップF303として、所定時間毎(例えば0.1〜
1秒程度毎)に、図28の各画像データを切り換えて読
み上げウインドウ401としての画像を生成するように
する。すると、青年男性の声による読み上げが行われて
いる期間は、読み上げウインドウ401の画像表示部4
03において、青年男性が実際に表情を変えながら話し
ているような画像をユーザーに提示できることになる。
即ち複数の静止画像を短時間で切り換えていって擬似的
な動画像を実現することで、読み上げの際の表示をより
現実的でかつ面白味のあるものとできる。特に、読上音
声のインターバル、即ちPau=***で規定される期間は、
図28(c)のように口を閉じている画像を表示し、読
上音声が出力されている期間は図28(a)(b)
(c)(d)を切り換えていくことで、より読上音声に
合った表示(つまり実際に話しているような表示)が可
能となる。
By the way, the expression control of the speaker in step F303 of FIG. 27 is executed, for example, as follows. For example, as an image of a young man corresponding to Chara = sp2, a plurality of image data are prepared in the image memory 16 as shown in FIGS. And the control unit 11
As Step F303, every predetermined time (for example, 0.1 to
Every one second), the image data of FIG. 28 is switched to generate an image as the reading-out window 401. Then, during a period in which the reading is performed by the voice of the young man, the image display unit 4 of the reading window 401 is displayed.
In 03, an image can be presented to the user as if the young man were actually talking while changing facial expressions.
That is, by switching a plurality of still images in a short time to realize a pseudo moving image, the display at the time of reading out can be made more realistic and interesting. In particular, the reading voice interval, that is, the period defined by Pau = ***,
An image in which the mouth is closed as shown in FIG. 28 (c) is displayed, and a period during which the reading voice is output is shown in FIGS.
By switching between (c) and (d), a display more suitable for the reading voice (that is, a display as if actually speaking) becomes possible.

【0193】このような表示される話者の表情を制御す
るための処理例を図29に示す。上記図27の表示制御
処理では、或る話者としての音質で音声出力がされてい
る期間(話者が切り替わるまでの期間)は、ステップF
302としての話者画像の表情制御が行われるものとな
るが、この表情制御として制御部11は図29の処理を
行う。まずステップF401で制御部11は音声出力中
であるか否かを判断する。ここでいう音声出力中とは、
合成音声が実際に出力されている期間、つまり上述の<
段落>、<文>、<***句>とされた部分を読み上げ
ている期間のことである。そしてここでいう音声出力中
ではない期間というのは、上述したPau=500、Pau=100、
Pau=50により、音声出力が一時的に停止される期間のこ
と、つまり出力音声として段落、文、句の切れ目となる
期間をいう。
FIG. 29 shows an example of processing for controlling such a displayed expression of a speaker. In the display control process of FIG. 27, the period during which the sound is output with the sound quality as a certain speaker (the period until the speaker is switched) is determined by step F
The expression control of the speaker image as 302 is performed, and the control unit 11 performs the processing of FIG. 29 as the expression control. First, in step F401, the control unit 11 determines whether or not audio is being output. Here, the audio output is in progress.
The period during which the synthesized speech is actually output, that is, <
This is the period during which the portions marked as "paragraph", "sentence", and "<**** phrase" are read out. And the period during which the voice is not being output here is Pau = 500, Pau = 100,
According to Pau = 50, this refers to a period during which the audio output is temporarily stopped, that is, a period in which the output audio is a break between paragraphs, sentences, and phrases.

【0194】音声出力中は制御部11の処理はステップ
F402に進み、現在の画像データの表示が例えば0.
5秒経過したか否かを判断する(なお、もちろん0.5
秒に限定されるものではない)。そして経過していなけ
れば、そのままステップF401に戻り、一方経過して
いれば、ステップF403に進んで、表示する画像デー
タを、同一の話者の他の画像データに切り換える。
During the audio output, the process of the control section 11 proceeds to step F402, and the display of the current image data is, for example, 0.
It is determined whether or not five seconds have elapsed (of course, 0.5 seconds).
Seconds). If the time has not elapsed, the process returns to step F401. If the time has elapsed, the process proceeds to step F403 to switch the image data to be displayed to another image data of the same speaker.

【0195】またステップF401で音声出力中でない
とされた期間は、制御部11はステップF404で、表
示する画像データを、同一の話者の画像データのうちの
非発声状態の画像データ(つまり口を閉じた表情の画像
データ)とする。
During the period in which it is determined that the voice is not being output in step F401, the control unit 11 determines in step F404 that the image data to be displayed is the image data of the same speaker in the non-speech state (ie, the mouth). Is closed image data).

【0196】例えば以上の処理により、上記のとおり、
例えば青年男性の声による読み上げが行われている期間
は、画像表示部403において図28(a)(b)
(c)(d)が0.5秒ごとに切り換えられることで、
実際に青年男性が話しているような画像となり、一方、
段落、文、句の切れ目となる瞬間は、図28(c)のよ
うな口を閉じている画像が表示される。従って、読上音
声に合わせて、実際に話しているような表示が実現され
る。
For example, by the above processing,
For example, during the period in which the voice is read out by the voice of a young man, the image display unit 403 shown in FIGS.
By switching (c) and (d) every 0.5 seconds,
The image actually looks like a young man talking,
At the moment of a break between a paragraph, a sentence, and a phrase, an image with the mouth closed as shown in FIG. 28C is displayed. Therefore, a display as if actually speaking is realized according to the reading voice.

【0197】なお、以上は擬似的な動画を表示する例で
あるが、擬似的な動画ではなく、数秒程度の実際の動画
映像信号を画像メモリ16に記憶しておき、それを繰り
返し再生することで話者をよりリアルに表現することも
できる。また、動画、擬似動画ではなく、静止画像とし
て青年男性等を表示させることも考えられ、その場合は
制御部11の処理負担の軽減が実現される。
Although the above description is an example of displaying a pseudo moving image, it is not a pseudo moving image but an actual moving image video signal of about several seconds is stored in the image memory 16 and is reproduced repeatedly. The speaker can be expressed more realistically. It is also conceivable to display a young man or the like as a still image instead of a moving image or a pseudo moving image. In this case, the processing load on the control unit 11 can be reduced.

【0198】ところでこれら話者イメージとしての画像
データ(静止画像、又は擬似動画のための複数の静止画
像、又は動画像)は、文書処理装置1内に予め記憶して
おくほか、通信部21や記録媒体32等から入手した文
書データに付随されるようにして、それを利用できるよ
うにしてもよい。もちろん文書データとは独立して、通
信回線を介して提供を受けたり、記録媒体32から取り
込むことも考えられる。また、HDD34に各種話者の
画像を記録しておいて、読み上げ時に、必要な画像デー
タをRAM14に取り込んで表示制御に用いるようにし
てもよい。さらに、ユーザーが任意の画像を入力して、
話者画像として登録もしくは変更できるようにしてもよ
い。また上述してきた話者としてのデータ設定は、人物
に限られず、動物や機械或いは空想上の生物など、いか
なるものでもよい。
By the way, the image data (still images or a plurality of still images or moving images for the pseudo moving image) as the speaker images are stored in the document processing apparatus 1 in advance, and the communication unit 21 and the The data may be attached to the document data obtained from the recording medium 32 or the like so that it can be used. Of course, independently of the document data, it is also conceivable that the data is provided via a communication line or fetched from the recording medium 32. Alternatively, images of various speakers may be recorded in the HDD 34, and necessary image data may be fetched into the RAM 14 and used for display control when reading out. In addition, the user can enter any image,
You may enable it to be registered or changed as a speaker image. Further, the data setting as the speaker described above is not limited to a person, and may be any setting such as an animal, a machine, or a fantasy creature.

【0199】ここで図25,図26とは異なる表示例を
図30、図31に示す。図25、図26では、読み上げ
音声に応じて画像表示部403で表示される話者が切り
換えられるようにしたが、現在実行中の読み上げ用ファ
イルで指定されている話者が、常に表示されるようにし
てもよい。例えば上記各読み上げ用ファイルの例におい
ては、いずれもChara=sp1、Chara=sp2の二人のキャラク
タが指定されている。そこで、それらの読み上げ用ファ
イルの読み上げが行われている期間は、図30、図31
のように、画像表示部403a、403bとして各話者
を常に表示するようにする。そして、Chara=sp1とされ
ている部分の読み上げが実行されている期間は、図30
のように画像表示部403aの青年女性の画像に対して
図27のステップF303として表情制御を行うように
し、その間画像表示部403bの青年男性の画像は、静
止画像とし、もしくはさらに多少画像を暗くするなどの
処理を施す。逆にChara=sp2とされている部分の読み上
げが実行されている期間は、図31のように画像表示部
403bの青年男性の画像に対して図27のステップF
303として表情制御を行うようにし、その間画像表示
部403aの青年女性の画像は、静止画像とし、もしく
はさらに多少画像を暗くするなどの処理を施す。
Here, display examples different from those in FIGS. 25 and 26 are shown in FIGS. In FIGS. 25 and 26, the speaker displayed on the image display unit 403 is switched according to the reading voice, but the speaker specified in the currently executing reading file is always displayed. You may do so. For example, in each of the above examples of the reading file, two characters, Chara = sp1 and Chara = sp2, are specified. Therefore, the period during which these reading files are being read is shown in FIGS.
, Each speaker is always displayed as the image display units 403a and 403b. The period in which the reading of the portion where Chara = sp1 is being executed is shown in FIG.
As shown in FIG. 27, the facial expression control is performed on the image of the young woman on the image display unit 403a as step F303 in FIG. 27, during which the image of the young man on the image display unit 403b is a still image, or the image is slightly darkened. And other processing. Conversely, during the period in which the reading of the portion where Char = sp2 is being executed, the image of the young man on the image display unit 403b as shown in FIG.
Expression control is performed as 303, during which the image of the young woman on the image display unit 403a is subjected to processing such as a still image or a slightly darker image.

【0200】このようにすると、ユーザーは、現在読み
上げ実行中の読み上げ用ファイル(文書データ)には二
人のキャラクタが出演し、かつ現在話しているのがその
キャラクタのうちの誰であるかを的確に認識できる。
[0200] In this way, the user can find out which two characters appear in the reading file (document data) currently being read, and which of those characters is currently talking. Can be accurately recognized.

【0201】なお、以上の説明は1つの文書データの読
み上げに、二人のキャラクタ(話者)が指定されて読み
上げを行う例をあげたが、もちろん3人以上のキャラク
タが指定されてもよく、それぞれChara=sp*に従って、
所定の話者の声質による音声出力及びその話者のイメー
ジ画像の表示が行われるものである。
In the above description, an example in which two characters (speakers) are specified for reading out one piece of document data and reading out is performed. Of course, three or more characters may be specified. , According to Chara = sp *,
The voice output based on the voice quality of a predetermined speaker and the display of an image of the speaker are performed.

【0202】以上のような本例の読み上げ処理、即ち話
者を指定するタグに基づいて各話者のキャラクタとして
の音声出力及び表示が行われることで、ユーザーにとっ
てわかりやすくしかも面白味のある文書提示が実現でき
る。上記例は、ニュース等の説明文について説明した
が、実際には、会話文が含まれる文書データにおいて、
各キャラクターに会話をさせるような提示を実現した
り、或いは説明文としての文書データで基本説明部分と
詳細解説部分で話者を変えたり、プレゼンテーション用
の文書データについて各話者が分担して説明を行うよう
な提示を実現するなど、その応用範囲は多岐にわたるも
のとなる。
As described above, the reading process of this example, that is, voice output and display as a character of each speaker is performed based on the tag specifying the speaker, thereby presenting a document which is easy for the user to understand and interesting. Can be realized. In the above example, explanation text such as news was explained. However, in actuality, in document data including a conversation text,
Realize presentations that make each character have a conversation, or change the speaker in the basic explanation part and the detailed explanation part with the document data as the explanation, and explain the document data for presentation by sharing each speaker The application range is wide, such as realizing the presentation that performs.

【0203】ところで以上のような本例の読み上げ動作
における、読み上げる対象の文書としては文書データの
本文でもよいし、要約文であってもよい。本文か要約文
かは、選択スイッチ423,424のクリックにより選
択されるが、いずれにしても、本文又は要約文としての
タグファイルについて、図19のステップF102,F
103の処理が行われることで、上述のような音声合成
エンジンによる文書読み上げが可能となる。
In the above-described reading operation of the present example, the document to be read may be the text of the document data or a summary sentence. Whether the text or the summary is selected by clicking the selection switches 423 and 424, in any case, the tag file as the text or the summary is read in steps F102 and F102 in FIG.
By performing the process of 103, the text-to-speech process by the above-described speech synthesis engine becomes possible.

【0204】なお本例では、受信又は作成したタグファ
イルから読み上げ用ファイルを生成するものとしたが、
このような読み上げ用ファイルを生成せずに、タグファ
イルに基づいて直接読み上げを行うようにしてもよい。
この場合、文書処理装置1は、タグファイルを受信又は
作成した後、音声合成エンジンを用い、タグファイルに
付与されている段落、文及び句を示すタグに基づいて、
段落、文及び句の先頭に所定の休止期間を設けて読み上
げる。またタグファイルにおける話者の指定に基づい
て、音声及び表示にかかる話者を選択するものとなる。
このようにすることによって文書処理装置1は、音声読
み上げ用ファイルを生成することなく、タグファイルに
基づいて直接読み上げることができる。
In this example, the reading file is generated from the received or created tag file.
Instead of generating such a reading file, reading may be directly performed based on the tag file.
In this case, after receiving or creating the tag file, the document processing device 1 uses a speech synthesis engine and, based on tags indicating paragraphs, sentences, and phrases attached to the tag file,
A certain pause is provided at the beginning of a paragraph, sentence or phrase to read out. Further, based on the designation of the speaker in the tag file, the speaker for voice and display is selected.
By doing so, the document processing apparatus 1 can directly read out aloud based on the tag file without generating a voice reading out file.

【0205】以上本発明の実施の形態について説明して
きたが、これはあくまで一例であり、文書処理装置1と
しての構成及び処理例は多様に考えられる。例えば文書
処理装置1は、据置型や携帯型の、汎用パーソナルコン
ピュータで実現できるほか、専用機器としての文書処理
装置であってもよい。また文書処理装置1を構成する具
体的なデバイス例は多様であり、例えば文書処理装置1
における入力部20を例に挙げれば、キーボードやマウ
スだけでなく、タブレット、ライトペン、赤外線等を利
用した無線コマンダ装置等の他のデバイスが考えられ
る。
Although the embodiment of the present invention has been described above, this is merely an example, and various configurations and processing examples of the document processing apparatus 1 can be considered. For example, the document processing apparatus 1 can be realized by a stationary or portable general-purpose personal computer, or may be a document processing apparatus as a dedicated device. There are various specific examples of devices that constitute the document processing apparatus 1. For example, the document processing apparatus 1
As an example of the input unit 20 in, not only a keyboard and a mouse but also other devices such as a tablet, a light pen, a wireless commander device using infrared rays and the like can be considered.

【0206】また実施の形態においては、通信部22に
外部から電話回線等を介して文書が送信されるものとし
て説明したが、本発明は、これに限定されるものではな
い。例えば、衛星等を介して文書が送信される場合にも
適用できる他、記録/再生部31において記録媒体32
から読み出されたり、ROM15に予め文書が書き込ま
れていてもよい。
Further, in the embodiment, the description has been made assuming that the document is transmitted from the outside to the communication section 22 via a telephone line or the like, but the present invention is not limited to this. For example, the present invention can be applied to a case where a document is transmitted via a satellite or the like.
Or a document may be written in the ROM 15 in advance.

【0207】また実施の形態において、文書へのタグ付
けの方法の一例を示したが、本発明がこのタグ付けの方
法に限定されないことはもちろんである。さらに、上述
の実施の形態においては、日本語および英語の文章を例
示したが、本発明がこれらの言語に限られないことはい
うまでもない。このように、本発明は、その趣旨を逸脱
しない範囲で適宜変更が可能であることはいうまでもな
い。
In the embodiment, an example of a method of tagging a document has been described. However, it is needless to say that the present invention is not limited to this tagging method. Furthermore, in the above-described embodiment, Japanese and English sentences have been exemplified, but it goes without saying that the present invention is not limited to these languages. As described above, it goes without saying that the present invention can be appropriately changed without departing from the spirit of the present invention.

【0208】さらにまた、本発明においては、記録媒体
32として、上述した読み上げ処理、読み上げ時の表示
処理を含む電子文書処理プログラムが書き込まれたディ
スク状記録媒体やテープ状記録媒体等を提供することが
容易に実現できる。即ち本発明の記録媒体が実現でき
る。なお、図1に示したHDD34としても同様に本発
明の記録媒体とすることができる。そしてそのような記
録媒体32によれば、上記してきた文書処理方法を実現
するプログラムを提供できることになり、例えば汎用の
パーソナルコンピュータ等を用いて、本発明の文書処理
装置を容易に実現できる。もちろん記録媒体32として
は、フロッピーディスクの他に、光ディスク、光磁気デ
ィスク、磁気テープ、フラッシュメモリ等によるメモリ
カード、メモリチップ等としてもよい。さらに本発明の
文書処理方法を実現するプログラムは、例えばインター
ネット等のネットワーク通信を介しても提供することが
できるものであり、従って、プログラムサーバ側もしく
は通信過程における記録媒体としても本発明は適用でき
るものである。
Further, in the present invention, a disk-shaped recording medium or a tape-shaped recording medium in which the electronic document processing program including the above-described reading process and the display process at the time of reading is written is provided as the recording medium 32. Can be easily realized. That is, the recording medium of the present invention can be realized. The recording medium of the present invention can be similarly used as the HDD 34 shown in FIG. According to such a recording medium 32, a program for realizing the above-described document processing method can be provided, and the document processing apparatus of the present invention can be easily realized using, for example, a general-purpose personal computer. Of course, the recording medium 32 may be an optical disk, a magneto-optical disk, a magnetic tape, a memory card such as a flash memory, a memory chip, or the like, in addition to the floppy disk. Furthermore, the program for realizing the document processing method of the present invention can be provided also via a network communication such as the Internet. Therefore, the present invention can be applied to a program server or a recording medium in a communication process. Things.

【0209】[0209]

【発明の効果】以上の説明からわかるように本発明で
は、次のような効果が得られる。即ち本発明の文書処理
装置及び文書処理方法によれば、例えば複数の人物等に
それぞれ対応した複数の種別の音声を選択的に用いて電
子文書データについての読み上げ音声となる音声信号を
発生させるとともに、発生されている音声信号の種別に
応じて発声者画像信号を出力するようにしている。これ
により、電子文書データについての読み上げを行うこと
ができ、またその話者としてのキャラクタ画像等が表示
されるため、ユーザーにとってわかりやすく、かつ面白
味のある文書提示態様を実現できる。さらに、複数の種
別の音声や、それに応じた話者画像を順次出力すること
で、より電子文書内容に適した読み上げ動作が実現でき
る。例えば説明文の文書データの途中で話者を切り換え
たり、会話文としての文書データにおいて、会話状態で
の提示を実際に実現できることになる。これにより、ユ
ーザーにとっての文書データ内容のわかりやすさや、提
示態様のおもしろさは格段に向上する。
As will be understood from the above description, the present invention has the following effects. That is, according to the document processing apparatus and the document processing method of the present invention, for example, a plurality of types of voices respectively corresponding to a plurality of persons or the like are selectively used to generate a voice signal serving as a reading voice for electronic document data. The speaker image signal is output according to the type of the generated audio signal. As a result, the electronic document data can be read aloud, and a character image or the like as the speaker is displayed, so that a user-friendly and interesting document presentation mode can be realized. Further, by sequentially outputting a plurality of types of voices and speaker images corresponding thereto, a reading operation more suitable for the contents of the electronic document can be realized. For example, the speaker can be switched in the middle of the document data of the explanatory sentence, or the presentation in the conversation state can be actually realized in the document data as the conversation sentence. As a result, the user can easily understand the contents of the document data and the presentation mode is significantly improved.

【0210】また発生する音声信号の種別は、電子文書
データに付加されている音声種別情報(タグ)に基づい
て行われるようにすることで、電子文書の作成者の意図
したとおりの読み上げ及び表示(これらの際の人物設定
等)が可能となり、ユーザーに対してより適切な提示が
できる。さらに、発声者画像としては、出力されている
音声信号の種別に応じた静止画像信号、動画像信号、又
は擬似動画像信号として、読み上げ音声に合わせた的確
な表示ができる。
The type of the generated audio signal is determined based on the audio type information (tag) added to the electronic document data, so that reading and displaying as intended by the creator of the electronic document are performed. (Such as setting of persons in these cases) can be made, and more appropriate presentation to the user can be made. Furthermore, as the speaker image, a still image signal, a moving image signal, or a pseudo moving image signal corresponding to the type of the output audio signal can be displayed accurately in accordance with the reading voice.

【0211】さらに本発明の記録媒体によれば、本発明
の文書処理方法を実現するプログラムを提供できること
になり、例えば汎用のパーソナルコンピュータ等を用い
て、本発明の文書処理装置を容易に実現できるようにな
る。これにより、一般ユーザーは容易に上記効果を享受
できるものとなる。
Further, according to the recording medium of the present invention, a program for realizing the document processing method of the present invention can be provided, and the document processing apparatus of the present invention can be easily realized using, for example, a general-purpose personal computer. Become like Thus, the general user can easily enjoy the above effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態の文書処理装置のブロック
図である。
FIG. 1 is a block diagram of a document processing apparatus according to an embodiment of the present invention.

【図2】実施の形態で用いる文書構造の説明図である。FIG. 2 is an explanatory diagram of a document structure used in the embodiment.

【図3】実施の形態の文章構造を表示するウインドウの
説明図である。
FIG. 3 is an explanatory diagram of a window for displaying a sentence structure according to the embodiment;

【図4】実施の形態の手動分類処理のフローチャートで
ある。
FIG. 4 is a flowchart of a manual classification process according to the embodiment.

【図5】実施の形態のインデックス作成処理のフローチ
ャートである。
FIG. 5 is a flowchart of an index creation process according to the embodiment.

【図6】実施の形態のエレメントの活性値の説明図であ
る。
FIG. 6 is an explanatory diagram of an activation value of an element according to the embodiment.

【図7】実施の形態の活性拡散処理のフローチャートで
ある。
FIG. 7 is a flowchart of an active diffusion process according to the embodiment.

【図8】実施の形態の中心活性値更新処理のフローチャ
ートである。
FIG. 8 is a flowchart of a central activation value update process according to the embodiment.

【図9】実施の形態の分類ウインドウの説明図である。FIG. 9 is an explanatory diagram of a classification window according to the embodiment.

【図10】実施の形態の閲覧ウインドウの説明図であ
る。
FIG. 10 is an explanatory diagram of a browsing window according to the embodiment.

【図11】実施の形態の分類モデルの説明図である。FIG. 11 is an explanatory diagram of a classification model according to the embodiment.

【図12】実施の形態の自動分類処理のフローチャート
である。
FIG. 12 is a flowchart of an automatic classification process according to the embodiment.

【図13】実施の形態の自動分類のフローチャートであ
る。
FIG. 13 is a flowchart of automatic classification according to the embodiment.

【図14】実施の形態の語義間関連度算出処理のフロー
チャートである。
FIG. 14 is a flowchart of a word meaning association degree calculation process according to the embodiment;

【図15】実施の形態の語義間関連度の説明図である。FIG. 15 is an explanatory diagram of a degree of association between meanings according to the embodiment.

【図16】実施の形態の閲覧ウインドウの表示例の説明
図である。
FIG. 16 is an explanatory diagram of a display example of a browsing window according to the embodiment.

【図17】実施の形態の閲覧ウインドウの要約文を含む
表示例の説明図である。
FIG. 17 is an explanatory diagram of a display example including a summary of a browsing window according to the embodiment;

【図18】実施の形態の要約作成処理のフローチャート
である。
FIG. 18 is a flowchart of a summary creation process according to the embodiment.

【図19】実施の形態の文書読み上げ処理のフローチャ
ートである。
FIG. 19 is a flowchart of a document reading process according to the embodiment.

【図20】実施の形態の読み上げ用ファイル生成処理の
フローチャートである。
FIG. 20 is a flowchart of a reading file generation process according to the embodiment;

【図21】実施の形態のタグファイル例の説明図であ
る。
FIG. 21 is an explanatory diagram of an example of a tag file according to the embodiment;

【図22】実施の形態のタグファイル例の説明図であ
る。
FIG. 22 is an explanatory diagram of an example of a tag file according to the embodiment;

【図23】実施の形態の読み上げ用ファイル例の説明図
である。
FIG. 23 is an explanatory diagram of an example of a reading file according to the embodiment;

【図24】実施の形態の読み上げ用ファイル例の説明図
である。
FIG. 24 is an explanatory diagram of an example of a reading file according to the embodiment;

【図25】実施の形態の読み上げウインドウ例の説明図
である。
FIG. 25 is an explanatory diagram of an example of a reading window according to the embodiment;

【図26】実施の形態の読み上げウインドウ例の説明図
である。
FIG. 26 is an explanatory diagram of an example of a reading window according to the embodiment;

【図27】実施の形態の読み上げ時の処理のフローチャ
ートである。
FIG. 27 is a flowchart of a reading process according to the embodiment.

【図28】実施の形態の擬似動画像の例の説明図であ
る。
FIG. 28 is an explanatory diagram of an example of a pseudo moving image according to the embodiment;

【図29】実施の形態の表情制御のフローチャートであ
る。
FIG. 29 is a flowchart of expression control according to the embodiment.

【図30】実施の形態の読み上げウインドウ例の説明図
である。
FIG. 30 is an explanatory diagram of an example of a reading window according to the embodiment;

【図31】実施の形態の読み上げウインドウ例の説明図
である。
FIG. 31 is an explanatory diagram of an example of a reading window according to the embodiment;

【符号の説明】[Explanation of symbols]

1 文書処理装置、10 本体、11 制御部、12
インターフェース、13 CPU、14 RAM、15
ROM、16 画像メモリ、20 入力部、21 通
信部、22 携帯端末リーダ、30 表示部、31 記
録再生部、32記録媒体、33 音声出力部、34 H
DD、50 携帯端末、51 表示部、52 操作部、
53 リーダ端子、54 制御部、55 文書メモリ、
56受信部、57 表示ドライブ、59 音声出力部、
60 ヘッドホン端子、101 ウインドウ、201
分類ウインドウ、301 閲覧ウインドウ、303文書
表示部、304 要約表示部、401 読み上げウイン
ドウ
1 Document processing apparatus, 10 main body, 11 control unit, 12
Interface, 13 CPU, 14 RAM, 15
ROM, 16 image memory, 20 input unit, 21 communication unit, 22 portable terminal reader, 30 display unit, 31 recording / reproducing unit, 32 recording medium, 33 audio output unit, 34 H
DD, 50 mobile terminal, 51 display unit, 52 operation unit,
53 reader terminal, 54 control unit, 55 document memory,
56 receiving unit, 57 display drive, 59 audio output unit,
60 headphone terminal, 101 window, 201
Classification window, 301 reading window, 303 document display unit, 304 summary display unit, 401 reading window

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成11年7月7日(1999.7.7)[Submission date] July 7, 1999 (July 7, 1999)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0132[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0132】なお、このため初めてステップF84で文
字列S(i)を生成した時点(i=1の時点)で、ステ
ップF85で、文字列S(i)が最大文字数wsを越え
た場合は、文字列S(i−1)は、ステップF82で設
定した初期値としての文字列S(0)となるため、実質
的に要約文は作成できなかったことになる。これは、要
約表示部304のサイズが小さすぎたことに起因するた
め、ユーザーは画面上で要約表示部304の面積を広げ
た上で、再度、要約作成ボタン306aをクリックし
て、図18の処理が開始されるようにすればよい。
When the character string S (i) exceeds the maximum number of characters ws in step F85 when the character string S (i) is first generated in step F84 (i = 1) at step F85, Since the character string S (i-1) becomes the character string S (0) as the initial value set in step F82, a summary sentence could not be created substantially. This is because the size of the summary display unit 304 is too small. Therefore, the user enlarges the area of the summary display unit 304 on the screen, and then clicks the summary creation button 306a again to return to FIG. What is necessary is just to make a process start.

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0133[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0133】ステップF85で文字列S(i)が最大文
字数wsを越えていない場合は、上述のように制御部1
1の処理はステップF86に進み、次に文字列に加える
部分を判断することになる。そして上記のようにステッ
F89に進んだ場合は、文字列SS(i)が最大文字
数wsを越えたか否かを判別する。ここで文字列SS
(i)が最大文字数wsを越えた場合は、制御部11の
処理はステップF91に進み、直前のステップF88で
或るエレメントを加える前の文字列S(i)を、要約文
とすることになる。つまり、これはステップF88でエ
レメントを加えたことにより、最大文字数wsを越えて
しまったことになるため、そのエレメントを加える前の
文字列S(i)が、最大文字数wsに近いが最大文字数
wsを越えない文字列であると判断して、それを要約文
とするものである。
If it is determined in step F85 that the character string S (i) does not exceed the maximum number of characters ws, as described above, the control unit 1
The process of step 1 proceeds to step F86, where a portion to be added to the next character string is determined. When the process proceeds to step F89 as described above, it is determined whether or not the character string SS (i) has exceeded the maximum number of characters ws. Where the string SS
If (i) exceeds the maximum number of characters ws, the process of the control unit 11 proceeds to step F91, and the character string S (i) before adding a certain element in step F88 immediately before is used as a summary sentence. Become. In other words, this means that the maximum number of characters ws has been exceeded by adding the element in step F88. Therefore, the character string S (i) before the addition of the element is close to the maximum number of characters ws but the maximum number of characters ws Is determined to be a character string that does not exceed, and is used as a summary sentence.

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の種別の音声を選択的に用いて電子
文書データについての読み上げ音声となる音声信号を発
生させることのできる読み上げ音声発生手段と、 前記読み上げ音声発生手段により発生されている音声信
号の種別に応じて、特定の種別の発声者画像信号を出力
する画像発生手段と、 を備えたことを特徴とする文書処理装置。
1. A read-out voice generating unit capable of generating a voice signal serving as a read-out voice for electronic document data by selectively using a plurality of types of voices, and a voice generated by the read-out voice generating unit. A document processing apparatus, comprising: image generating means for outputting a specific type of speaker image signal according to a type of a signal.
【請求項2】 表示手段と、 音声出力手段と、 前記読み上げ音声発生手段により発生された音声信号
を、前記音声出力手段から出力させるとともに、前記読
み上げ音声発生手段により発生されている音声信号の種
別に応じて前記画像発生手段から出力される発声者画像
信号を用いて前記表示手段での表示動作が行われるよう
に制御を行う制御手段と、 をさらに備えたことを特徴とする請求項1に記載の文書
処理装置。
2. A display unit, a voice output unit, and a type of a voice signal generated by the voice output unit, wherein the voice signal generated by the voice output unit is output from the voice output unit. And control means for controlling a display operation on the display means using a speaker image signal output from the image generation means in response to the control signal. Document processing device as described.
【請求項3】 前記読み上げ音声発生手段は、電子文書
データに付加されている音声種別情報に基づいて、発生
する音声信号の種別を選択することを特徴とする請求項
1に記載の文書処理装置。
3. The document processing apparatus according to claim 1, wherein said reading voice generating means selects a type of a generated voice signal based on voice type information added to the electronic document data. .
【請求項4】 前記画像発生手段は、前記読み上げ音声
発生手段から或る種別の音声信号が出力されている期間
に、その種別に対応する発声者画像信号としての、静止
画像信号、又は動画像信号、又は擬似動画像信号を出力
することを特徴とする請求項1に記載の文書処理装置。
4. The method according to claim 1, wherein the image generating unit outputs a still image signal or a moving image as a speaker image signal corresponding to the type during a period in which the reading voice generating unit outputs a certain type of audio signal. The document processing apparatus according to claim 1, wherein the document processing apparatus outputs a signal or a pseudo moving image signal.
【請求項5】 電子文書データに付加されている音声種
別情報に基づいて、複数の種別の音声から一の音声を選
択し、選択した音声を用いて電子文書データについての
読み上げ音声となる音声信号を発生させることのできる
読み上げ音声発生手段と、 前記音声種別情報に基づいて、複数の種別の発声者画像
から一の発声者画像を選択し、選択した発声者画像によ
る画像信号を出力する画像発生手段と、 を備えたことを特徴とする文書処理装置。
5. An audio signal which is used to select one of a plurality of types of voices based on voice type information added to the electronic document data, and to use the selected voice as a reading voice for the electronic document data. A voice generating means capable of generating a voice signal, and selecting one of the plurality of types of speaker images based on the voice type information, and outputting an image signal based on the selected speaker image. Means, comprising: a document processing apparatus.
【請求項6】 電子文書データについて、複数の種別の
音声を選択的に使い分けた読み上げ音声となる音声信号
を発生させ、音声出力部から出力させる読み上げ音声発
生手順と、 前記読み上げ音声発生手順により発生されている音声の
種別に応じて、特定の種別の発声者画像信号を出力し、
表示部で表示されるようにする画像発生手順と、 が行われることを特徴とする文書処理方法。
6. A read-out voice generating step of generating a read-out voice signal which is a read-out voice in which a plurality of types of voices are selectively used for electronic document data and outputting the read-out voice signal from a voice output unit; A specific type of speaker image signal is output according to the type of audio being performed,
A document processing method, comprising the steps of: generating an image to be displayed on a display unit;
【請求項7】 前記読み上げ音声発生手順では、電子文
書データに付加されている音声種別情報に基づいて、発
生する音声信号の種別を選択することを特徴とする請求
項6に記載の文書処理方法。
7. The document processing method according to claim 6, wherein in the reading voice generating procedure, a type of the generated voice signal is selected based on voice type information added to the electronic document data. .
【請求項8】 前記画像発生手順では、前記読み上げ音
声発生手順により或る種別の音声信号が出力されている
期間に、その種別に対応する発声者画像信号としての、
静止画像信号、又は動画像信号、又は擬似動画像信号を
出力することを特徴とする請求項6に記載の文書処理方
法。
8. In the image generation procedure, during a period in which a certain type of audio signal is output by the reading voice generation procedure, a speaker image signal corresponding to the type is output.
7. The document processing method according to claim 6, wherein a still image signal, a moving image signal, or a pseudo moving image signal is output.
【請求項9】 電子文書データに付加されている音声種
別情報に基づいて、複数の種別の音声から一の音声を選
択し、選択した音声を用いて電子文書データについての
読み上げ音声となる音声信号を発生させ、音声出力部か
ら出力させる読み上げ音声発生手順と、 前記音声種別情報に基づいて、複数の種別の発声者画像
から一の発声者画像を選択し、選択した発声者画像によ
る画像信号を出力し、表示部で表示されるようにする画
像発生手順と、 が行われることを特徴とする文書処理方法。
9. An audio signal that selects one audio from a plurality of types of audio based on audio type information added to the electronic document data, and uses the selected audio as a read-out audio for the electronic document data. And a read-out voice generation procedure to be output from a voice output unit, based on the voice type information, select one speaker image from a plurality of types of speaker images, and generate an image signal based on the selected speaker image. An image generation procedure for outputting and displaying the image on a display unit.
【請求項10】 電子文書データについて、複数の種別
の音声を選択的に使い分けた読み上げ音声となる音声信
号を発生させ、音声出力部から出力させる読み上げ音声
発生手順と、 前記読み上げ音声発生手順により発生されている音声の
種別に応じて、特定の種別の発声者画像信号を出力し、
表示部で表示されるようにする画像発生手順と、 を有する動作制御プログラムが記録されていることを特
徴とする記録媒体。
10. A read-out voice generating procedure for generating a voice signal as read-out voice by selectively using a plurality of types of voices for electronic document data and outputting the voice signal from a voice output unit; A specific type of speaker image signal is output according to the type of audio being performed,
An image generation procedure to be displayed on a display unit, and an operation control program having the following.
【請求項11】 前記読み上げ音声発生手順では、電子
文書データに付加されている音声種別情報に基づいて、
発生する音声信号の種別を選択するようにした動作制御
プログラムが記録されていることを特徴とする請求項1
0に記載の記録媒体。
11. The read-out voice generating step includes the steps of: generating a read-out voice based on voice type information added to the electronic document data;
2. An operation control program for selecting a type of an audio signal to be generated is recorded.
0. The recording medium according to 0.
【請求項12】 前記画像発生手順では、前記読み上げ
音声発生手順により或る種別の音声信号が出力されてい
る期間に、その種別に対応する発声者画像信号として
の、静止画像信号、又は動画像信号、又は擬似動画像信
号を出力するようにした動作制御プログラムが記録され
ていることを特徴とする請求項10に記載の記録媒体。
12. In the image generation procedure, during a period in which a certain type of audio signal is output by the reading voice generation procedure, a still image signal or a moving image as a speaker image signal corresponding to the type. The recording medium according to claim 10, wherein an operation control program for outputting a signal or a pseudo moving image signal is recorded.
【請求項13】 電子文書データに付加されている音声
種別情報に基づいて、複数の種別の音声から一の音声を
選択し、選択した音声を用いて電子文書データについて
の読み上げ音声となる音声信号を発生させ、音声出力部
から出力させる読み上げ音声発生手順と、 前記音声種別情報に基づいて、複数の種別の発声者画像
から一の発声者画像を選択し、選択した発声者画像によ
る画像信号を出力し、表示部で表示されるようにする画
像発生手順と、 を有する動作制御プログラムが記録されていることを特
徴とする記録媒体。
13. An audio signal which selects one audio from a plurality of types of audio based on audio type information added to the electronic document data, and uses the selected audio as a read-out audio for the electronic document data. And a read-out voice generation procedure to be output from a voice output unit, based on the voice type information, select one speaker image from a plurality of types of speaker images, and generate an image signal based on the selected speaker image. An image generation procedure for outputting and displaying the image on a display unit.
JP11189157A 1999-07-02 1999-07-02 Document processing apparatus, document processing method, and recording medium Withdrawn JP2001014307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11189157A JP2001014307A (en) 1999-07-02 1999-07-02 Document processing apparatus, document processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11189157A JP2001014307A (en) 1999-07-02 1999-07-02 Document processing apparatus, document processing method, and recording medium

Publications (1)

Publication Number Publication Date
JP2001014307A true JP2001014307A (en) 2001-01-19

Family

ID=16236411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11189157A Withdrawn JP2001014307A (en) 1999-07-02 1999-07-02 Document processing apparatus, document processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP2001014307A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198641A (en) * 2010-06-04 2010-09-09 Casio Computer Co Ltd Information display control unit and program
JP2010198640A (en) * 2010-06-04 2010-09-09 Casio Computer Co Ltd Information display control device and program
DE102014212304A1 (en) 2013-06-28 2014-12-31 Canon K.K. Information processing apparatus, information processing method and storage medium
JP2020027132A (en) * 2018-08-09 2020-02-20 富士ゼロックス株式会社 Information processing device and program
JPWO2023090419A1 (en) * 2021-11-19 2023-05-25

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198641A (en) * 2010-06-04 2010-09-09 Casio Computer Co Ltd Information display control unit and program
JP2010198640A (en) * 2010-06-04 2010-09-09 Casio Computer Co Ltd Information display control device and program
DE102014212304A1 (en) 2013-06-28 2014-12-31 Canon K.K. Information processing apparatus, information processing method and storage medium
DE102014212304B4 (en) * 2013-06-28 2016-05-12 Canon K.K. Information processing apparatus, information processing method and storage medium
US9616572B2 (en) 2013-06-28 2017-04-11 Canon Kabushiki Kaisha Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium
JP2020027132A (en) * 2018-08-09 2020-02-20 富士ゼロックス株式会社 Information processing device and program
JP7200533B2 (en) 2018-08-09 2023-01-10 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JPWO2023090419A1 (en) * 2021-11-19 2023-05-25
WO2023090419A1 (en) * 2021-11-19 2023-05-25 凸版印刷株式会社 Content generation device, content generation method, and program

Similar Documents

Publication Publication Date Title
JP2001051997A (en) Document data creation device, document data creation method, and recording medium
JP4320491B2 (en) Document processing system, terminal device, document providing device, document processing method, recording medium
JP2001043215A (en) Document processing apparatus, document processing method, and recording medium
Pavel et al. Rescribe: Authoring and automatically editing audio descriptions
WO2001001390A1 (en) Electronic document processor
US20080027726A1 (en) Text to audio mapping, and animation of the text
US20080300872A1 (en) Scalable summaries of audio or visual content
Chi et al. Synthesis-assisted video prototyping from a document
JP2001014307A (en) Document processing apparatus, document processing method, and recording medium
JP2001014313A (en) Document processing apparatus, document processing method, and recording medium
JP4433532B2 (en) Document processing apparatus, document processing method, and recording medium
JP2001034384A (en) Document processing apparatus, document processing method, and recording medium
JP2001014346A (en) Mobile terminal device, document processing system
JP2010073205A (en) Document processor, document processing method and recording medium
JP2001159938A (en) Document processing method, recording medium, document processing device
JP4798150B2 (en) Document processing apparatus, document processing method, and recording medium
JP4449118B2 (en) Document processing apparatus, document processing method, and recording medium
Erçin From-ness: The identity of the practitioner in the laboratory
JP2001022774A (en) Document processing apparatus, document processing method, and recording medium
JP2001147926A (en) Document processing system, terminal device, service providing device, document processing method, recording medium
JP2001167114A (en) Document processing device, document processing method, recording medium
Bernstein Making audio visible: The lessons of visual language for the textualization of sound
Ferrete-Vázquez Bodies reappear as action: On synthetic voices in performance
JP2001147915A (en) Document processing system, authoring device, document processing method, recording medium
Kobel ‘Just a man singing’: Scott Walker and the voice of another

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905