JP2001229180A - Contents retrieval device - Google Patents
Contents retrieval deviceInfo
- Publication number
- JP2001229180A JP2001229180A JP2000039691A JP2000039691A JP2001229180A JP 2001229180 A JP2001229180 A JP 2001229180A JP 2000039691 A JP2000039691 A JP 2000039691A JP 2000039691 A JP2000039691 A JP 2000039691A JP 2001229180 A JP2001229180 A JP 2001229180A
- Authority
- JP
- Japan
- Prior art keywords
- keyword
- content
- topic
- unit
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力情報に含まれ
るキーワードを認識し、この認識したキーワードにマッ
チングするコンテンツを検索して出力するコンテンツ検
索装置に関する。[0001] 1. Field of the Invention [0002] The present invention relates to a content search device for recognizing a keyword included in input information, searching for and outputting content matching the recognized keyword.
【0002】[0002]
【従来の技術】従来、ユーザが所望のコンテンツを検索
して取り出すためには、ユーザ自身がそのコンテンツに
関するキーワードを手作業で入力し、この入力したキー
ワードに対応するコンテンツを取り出していた。2. Description of the Related Art Conventionally, in order for a user to search and retrieve desired content, the user himself manually inputs a keyword relating to the content, and retrieves content corresponding to the input keyword.
【0003】[0003]
【発明が解決しようとする課題】上述したように、従来
は、ユーザ自身が手作業でキーワードを入力して、所望
のコンテンツを取り出しているため、適切なコンテンツ
を取得するためのキーワード入力に手間取り、ユーザに
対して大きな負担がかかるという問題があった。As described above, conventionally, since the user himself manually inputs a keyword and retrieves desired content, it takes time to input a keyword for obtaining appropriate content. However, there is a problem that a great burden is imposed on the user.
【0004】本発明は、上記に鑑みてなされたもので、
その目的とするところは、音声情報や画像情報等の入力
情報を音声認識や画像認識してキーワードを抽出して、
所望の適切なコンテンツを効率的に取得し得るコンテン
ツ検索装置を提供することにある。[0004] The present invention has been made in view of the above,
The purpose is to extract keywords by voice or image recognition of input information such as voice information and image information,
An object of the present invention is to provide a content search device capable of efficiently obtaining desired appropriate content.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の本発明は、音声情報を入力する音声
入力手段と、この音声入力手段から入力される音声情報
を認識する音声認識手段と、この音声認識手段で認識さ
れた認識結果をキーワードとして出力する音声認識結果
通知手段と、複数のコンテンツを蓄積するコンテンツ蓄
積手段と、各コンテンツに定められているキーワードを
各コンテンツに対応してテーブルとして記憶管理するキ
ーワードコンテンツ対応テーブル手段と、前記音声認識
結果通知手段から出力される音声認識結果のキーワード
と前記キーワードコンテンツ対応テーブル手段において
コンテンツに対応して記憶管理されているキーワードと
を比較して、音声認識結果のキーワードに対応するキー
ワードをキーワードコンテンツ対応テーブル手段から検
出して出力するキーワード比較手段と、このキーワード
比較手段から出力されるキーワードに対応するコンテン
ツを前記キーワードコンテンツ対応テーブル手段から取
得し、このコンテンツを前記コンテンツ蓄積手段から検
索して読み出すように制御する制御手段と、この制御手
段の制御によりコンテンツ蓄積手段から読み出されたコ
ンテンツを出力するコンテンツ出力手段とを有すること
を要旨とする。According to a first aspect of the present invention, there is provided a voice input unit for inputting voice information, and a voice recognition unit for recognizing voice information input from the voice input unit. Means, a voice recognition result notifying means for outputting a recognition result recognized by the voice recognition means as a keyword, a content storage means for storing a plurality of contents, and a keyword defined for each content corresponding to each content. A keyword content correspondence table means for storing and managing as a table, and comparing a keyword of a speech recognition result output from the speech recognition result notification means with a keyword stored and managed in the keyword content correspondence table means in correspondence with the content. And the keyword corresponding to the keyword in the speech recognition result Keyword comparison means for detecting and outputting from the content correspondence table means, and content corresponding to the keyword output from the keyword comparison means is obtained from the keyword content correspondence table means, and the content is retrieved from the content storage means. The gist of the present invention is to include a control unit for controlling reading and a content output unit for outputting the content read from the content storage unit under the control of the control unit.
【0006】請求項1記載の本発明にあっては、入力音
声情報を音声認識した結果をキーワードとし、このキー
ワードとキーワードコンテンツ対応テーブル手段におい
てコンテンツに対応して記憶管理されているキーワード
とを比較して、音声認識結果のキーワードに対応するキ
ーワードをキーワードコンテンツ対応テーブル手段から
検出し、この検出したキーワードに対応するコンテンツ
をキーワードコンテンツ対応テーブル手段から取得し、
このコンテンツをコンテンツ蓄積手段から検索して読み
出して出力するため、ユーザ自身が手作業でキーワード
を入力する必要がなく、所望のコンテンツを取り出し得
る適切なキーワードを音声認識により自動的に抽出で
き、ユーザに手間をかけたり、大きな負担をかけること
なく、ユーザの操作性を効率化することができる。According to the first aspect of the present invention, the result of voice recognition of input voice information is used as a keyword, and this keyword is compared with a keyword stored and managed in correspondence with content in the keyword content correspondence table means. Then, a keyword corresponding to the keyword of the voice recognition result is detected from the keyword content correspondence table means, and a content corresponding to the detected keyword is obtained from the keyword content correspondence table means,
Since the content is retrieved from the content storage means, read out and output, the user does not need to manually input the keyword, and an appropriate keyword from which the desired content can be extracted can be automatically extracted by voice recognition. Therefore, the operability of the user can be made more efficient without burdening the user or putting a great burden on the user.
【0007】また、請求項2記載の本発明は、画像情報
を入力する画像入力手段と、この画像入力手段から入力
される画像情報を認識する画像認識手段と、この画像認
識手段で認識された認識結果をキーワードとして出力す
る画像認識結果通知手段と、複数のコンテンツを蓄積す
るコンテンツ蓄積手段と、各コンテンツに定められてい
るキーワードを各コンテンツに対応してテーブルとして
記憶管理するキーワードコンテンツ対応テーブル手段
と、前記画像認識結果通知手段から出力される画像認識
結果のキーワードと前記キーワードコンテンツ対応テー
ブル手段においてコンテンツに対応して記憶管理されて
いるキーワードとを比較して、画像認識結果のキーワー
ドに対応するキーワードをキーワードコンテンツ対応テ
ーブル手段から検出して出力するキーワード比較手段
と、このキーワード比較手段から出力されるキーワード
に対応するコンテンツを前記キーワードコンテンツ対応
テーブル手段から取得し、このコンテンツを前記コンテ
ンツ蓄積手段から検索して読み出すように制御する制御
手段と、この制御手段の制御によりコンテンツ蓄積手段
から読み出されたコンテンツを出力するコンテンツ出力
手段とを有することを要旨とする。According to a second aspect of the present invention, there is provided an image inputting means for inputting image information, an image recognizing means for recognizing image information input from the image inputting means, and an image recognizing means for recognizing the image information. Image recognition result notifying means for outputting a recognition result as a keyword, content storing means for storing a plurality of contents, and keyword content correspondence table means for storing and managing a keyword defined for each content as a table corresponding to each content And comparing the keyword of the image recognition result output from the image recognition result notifying means with the keyword stored and managed corresponding to the content in the keyword / content correspondence table means, and corresponds to the keyword of the image recognition result. Detect keywords from keyword content correspondence table Keyword comparing means for outputting the contents corresponding to the keyword outputted from the keyword comparing means from the keyword contents correspondence table means, and controlling to retrieve and read the contents from the contents storing means. And a content output unit that outputs the content read from the content storage unit under the control of the control unit.
【0008】請求項2記載の本発明にあっては、入力画
像情報を画像認識した結果をキーワードとし、このキー
ワードとキーワードコンテンツ対応テーブル手段におい
てコンテンツに対応して記憶管理されているキーワード
とを比較して、画像認識結果のキーワードに対応するキ
ーワードをキーワードコンテンツ対応テーブル手段から
検出し、この検出したキーワードに対応するコンテンツ
をキーワードコンテンツ対応テーブル手段から取得し、
このコンテンツをコンテンツ蓄積手段から検索して読み
出して出力するため、ユーザ自身が手作業でキーワード
を入力する必要がなく、所望のコンテンツを取り出し得
る適切なキーワードを画像認識により自動的に抽出で
き、ユーザに手間をかけたり、大きな負担をかけること
なく、ユーザの操作性を効率化することができる。According to the present invention, the result of image recognition of the input image information is used as a keyword, and this keyword is compared with a keyword stored and managed corresponding to the content in the keyword content correspondence table means. Then, a keyword corresponding to the keyword of the image recognition result is detected from the keyword content correspondence table means, and a content corresponding to the detected keyword is obtained from the keyword content correspondence table means,
Since the content is retrieved from the content storage means, read out, and output, the user does not need to manually input a keyword, and an appropriate keyword from which desired content can be extracted can be automatically extracted by image recognition. Therefore, the operability of the user can be made more efficient without burdening the user or putting a great burden on the user.
【0009】更に、請求項3記載の本発明は、音声情報
を入力する音声入力手段と、この音声入力手段から入力
される音声情報を認識する音声認識手段と、この音声認
識手段で認識された認識結果をキーワードとして出力す
る音声認識結果通知手段と、前記音声情報の入力に同期
して画像情報を入力する画像入力手段と、この画像入力
手段から入力される画像情報を前記音声情報の認識処理
に同期して認識する画像認識手段と、この画像認識手段
で認識された認識結果をキーワードとして出力する画像
認識結果通知手段と、前記音声認識結果通知手段から出
力されるキーワードと画像認識結果通知手段から出力さ
れるキーワードとを比較し、両キーワードが一致するか
否かを判定する比較判定手段と、両キーワードが一致す
る場合には、該キーワードを対象キーワードとし、一致
しない場合には、画像認識結果通知手段から出力される
画像認識結果のキーワードを対象キーワードとして選択
するキーワード選択手段と、複数のコンテンツを蓄積す
るコンテンツ蓄積手段と、各コンテンツに定められてい
るキーワードを各コンテンツに対応してテーブルとして
記憶管理するキーワードコンテンツ対応テーブル手段
と、前記対象キーワードと前記キーワードコンテンツ対
応テーブル手段においてコンテンツに対応して記憶管理
されているキーワードとを比較して、前記対象キーワー
ドに対応するキーワードをキーワードコンテンツ対応テ
ーブル手段から検出して出力するキーワード比較手段
と、このキーワード比較手段から出力されるキーワード
に対応するコンテンツを前記キーワードコンテンツ対応
テーブル手段から取得し、このコンテンツを前記コンテ
ンツ蓄積手段から検索して読み出すように制御する制御
手段と、この制御手段の制御によりコンテンツ蓄積手段
から読み出されたコンテンツを出力するコンテンツ出力
手段とを有することを要旨とする。Further, according to the present invention, there is provided a voice input means for inputting voice information, a voice recognition means for recognizing voice information input from the voice input means, and a voice recognition means for recognizing the voice information. Voice recognition result notifying means for outputting a recognition result as a keyword, image input means for inputting image information in synchronization with the input of the voice information, and image information input from the image input means for voice information recognition processing Image recognition means for recognizing in synchronization with the image recognition apparatus, image recognition result notifying means for outputting the recognition result recognized by the image recognition means as a keyword, keyword output from the voice recognition result notifying means, and image recognition result notifying means A comparison / decision unit that compares the keywords output from the keyword and determines whether the keywords match, and if the keywords match, the key A keyword selecting means for selecting a keyword of the image recognition result output from the image recognition result notifying means as the target keyword if the word is a target keyword, and a content storing means for storing a plurality of contents; A keyword content correspondence table means for storing and managing a keyword defined in the table as a table corresponding to each content, and a comparison between the target keyword and a keyword stored and managed corresponding to the content in the keyword content correspondence table means A keyword comparison means for detecting and outputting a keyword corresponding to the target keyword from the keyword content correspondence table means; and a content corresponding to the keyword output from the keyword comparison means, Control means for acquiring the content from the content correspondence table means and controlling the content to be retrieved and read from the content storage means; and content output means for outputting the content read from the content storage means under the control of the control means. The gist is to have.
【0010】請求項3記載の本発明にあっては、音声情
報と画像情報を同期して入力し、入力音声情報の音声認
識と入力画像情報の画像認識を同期して行い、音声認識
結果のキーワードと画像認識結果のキーワードとを比較
し、両キーワードが一致しない場合には画像認識結果の
キーワードを対象キーワードとし、この対象キーワード
とキーワードコンテンツ対応テーブル手段においてコン
テンツに対応して記憶管理されているキーワードとを比
較して、対象キーワードに対応するキーワードをキーワ
ードコンテンツ対応テーブル手段から検出し、この検出
したキーワードに対応するコンテンツをキーワードコン
テンツ対応テーブル手段から取得し、このコンテンツを
コンテンツ蓄積手段から検索して読み出して出力するた
め、ユーザ自身が手作業でキーワードを入力する必要が
なく、所望のコンテンツを取り出し得る適切なキーワー
ドを画像認識により自動的に抽出でき、ユーザに手間を
かけたり、大きな負担をかけることなく、ユーザの操作
性を効率化することができる。According to the third aspect of the present invention, voice information and image information are input in synchronization, voice recognition of input voice information and image recognition of input image information are performed in synchronization, and a voice recognition result is output. The keyword is compared with the keyword of the image recognition result. If the two keywords do not match, the keyword of the image recognition result is set as a target keyword, and the target keyword and the keyword content correspondence table are stored and managed in correspondence with the content. By comparing the keyword with the keyword, a keyword corresponding to the target keyword is detected from the keyword content correspondence table means, a content corresponding to the detected keyword is obtained from the keyword content correspondence table means, and the content is retrieved from the content storage means. To read and output, the user himself There is no need to input keywords during work, and appropriate keywords that can extract desired content can be automatically extracted by image recognition, improving efficiency of user operability without burdening the user and placing a heavy burden on the user. can do.
【0011】請求項4記載の本発明は、請求項2または
3記載の本発明において、前記画像認識手段が、入力画
像情報からテロップを画像情報として認識するテロップ
認識手段と、この認識したテロップから文字情報を切り
出し、この切り出した文字情報を認識結果として出力す
る切り出し手段とを有することを要旨とする。According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the image recognizing means includes a telop recognizing means for recognizing a telop from input image information as image information, and The gist of the present invention is to include a cutout unit that cuts out character information and outputs the cutout character information as a recognition result.
【0012】請求項4記載の本発明にあっては、入力画
像情報からテロップを画像情報として認識し、この認識
したテロップから文字情報を切り出し、この切り出した
文字情報を画像認識結果のキーワードとし、このキーワ
ードとキーワードコンテンツ対応テーブル手段のキーワ
ードとを比較して、キーワードを検出し、この検出した
キーワードに対応するコンテンツをキーワードコンテン
ツ対応テーブル手段から取得し、このコンテンツをコン
テンツ蓄積手段から検索して読み出して出力するため、
ユーザ自身が手作業でキーワードを入力する必要がな
く、所望のコンテンツを取り出し得る適切なキーワード
を画像認識により自動的に抽出でき、ユーザに手間をか
けたり、大きな負担をかけることなく、ユーザの操作性
を効率化することができる。According to the present invention, a telop is recognized as image information from input image information, character information is cut out from the recognized telop, and the cut out character information is used as a keyword of an image recognition result. The keyword is compared with the keyword in the keyword content correspondence table means to detect the keyword, the content corresponding to the detected keyword is obtained from the keyword content correspondence table means, and the content is retrieved and read from the content storage means. Output
There is no need for the user to manually input keywords, and appropriate keywords that can extract desired content can be automatically extracted by image recognition. Efficiency can be improved.
【0013】また、請求項5記載の本発明は、請求項2
または3記載の本発明において、前記画像認識手段が、
入力画像情報からキャプションを画像情報として認識す
るキャプション認識手段と、この認識したキャプション
から文字情報を切り出し、この切り出した文字情報を認
識結果として出力する切り出し手段とを有することを要
旨とする。The present invention described in claim 5 is the same as the claim 2.
In the present invention according to the third or third aspect, the image recognition means is:
The gist of the invention is to include a caption recognition unit that recognizes a caption as image information from input image information, and a cutout unit that cuts out character information from the recognized caption and outputs the cutout character information as a recognition result.
【0014】請求項5記載の本発明にあっては、入力画
像情報からキャプションを画像情報として認識し、この
認識したキャプションから文字情報を切り出し、この切
り出した文字情報を画像認識結果のキーワードとし、こ
のキーワードとキーワードコンテンツ対応テーブル手段
のキーワードとを比較して、キーワードを検出し、この
検出したキーワードに対応するコンテンツをキーワード
コンテンツ対応テーブル手段から取得し、このコンテン
ツをコンテンツ蓄積手段から検索して読み出して出力す
るため、ユーザ自身が手作業でキーワードを入力する必
要がなく、所望のコンテンツを取り出し得る適切なキー
ワードを画像認識により自動的に抽出でき、ユーザに手
間をかけたり、大きな負担をかけることなく、ユーザの
操作性を効率化することができる。According to the fifth aspect of the present invention, a caption is recognized as image information from input image information, character information is cut out from the recognized caption, and the cut out character information is used as a keyword of the image recognition result. The keyword is compared with the keyword in the keyword content correspondence table means to detect the keyword, the content corresponding to the detected keyword is obtained from the keyword content correspondence table means, and the content is retrieved and read from the content storage means. Output without the need for the user to manually input keywords, and appropriate keywords that can extract the desired content can be automatically extracted by image recognition, which is troublesome and burdens the user. And improve user operability It is possible.
【0015】更に、請求項6記載の本発明は、請求項1
乃至5のいずれかに記載の本発明において、前記コンテ
ンツ蓄積手段が、コンテンツ検索装置の外部に設けら
れ、前記制御手段は、この外部に設けられたコンテンツ
蓄積手段にアクセスして、該コンテンツ蓄積手段からコ
ンテンツを読み出す外部アクセス手段を有することを要
旨とする。Further, the present invention described in claim 6 is the first invention.
In the present invention, the content storage means is provided outside the content search device, and the control means accesses the content storage means provided outside the content search device, and The main point is to have an external access means for reading content from.
【0016】請求項6記載の本発明にあっては、コンテ
ンツ蓄積手段は外部に設けられ、この外部に設けられた
コンテンツ蓄積手段にアクセスしてコンテンツを読み出
す。According to the present invention, the content storage means is provided outside, and the content is read by accessing the content storage means provided outside.
【0017】請求項7記載の本発明は、請求項1乃至5
のいずれかに記載の本発明において、前記コンテンツ蓄
積手段が、着脱可能な記録媒体で構成されていることを
要旨とする。The present invention according to claim 7 provides the invention according to claims 1 to 5
In the present invention described in any one of the above, the gist is that the content storage means is constituted by a removable recording medium.
【0018】請求項7記載の本発明にあっては、コンテ
ンツ蓄積手段が着脱可能な記録媒体で構成されている。According to the present invention, the content storage means is constituted by a removable recording medium.
【0019】また、請求項8記載の本発明は、請求項1
乃至7のいずれかに記載の本発明において、前記キーワ
ードコンテンツ対応テーブル手段が、着脱可能な記録媒
体で構成されていることを要旨とする。Further, the present invention described in claim 8 provides the present invention according to claim 1.
The present invention according to any one of the first to seventh aspects, wherein the keyword content correspondence table means is constituted by a removable recording medium.
【0020】請求項8記載の本発明にあっては、キーワ
ードコンテンツ対応テーブル手段が着脱可能な記録媒体
で構成されている。According to the present invention, the keyword content correspondence table means is constituted by a removable recording medium.
【0021】更に、請求項9記載の本発明は、請求項1
または3記載の本発明において、前記音声認識手段で認
識された認識結果を形態素解析して、局所話題範囲を決
定し、局所話題語の抽出を行い、この抽出した局所話題
語に対して上位・下位概念関係および類義語関係に基づ
き前記認識結果が誤認識であるか否かを判定する誤認識
判定手段と、この判定の結果、誤認識と判定された認識
結果に対して一文字違いの単語の類義語関係を有する単
語を対象単語として選択し、この対象単語と局所話題語
との概念距離に基づき前記認識結果に対する訂正候補を
出力する訂正候補出力手段とを有することを要旨とす
る。Further, the present invention described in claim 9 is based on claim 1.
In the present invention according to the third or third aspect, the recognition result recognized by the voice recognition means is subjected to morphological analysis to determine a local topic range, and local topic words are extracted. Misrecognition determining means for determining whether or not the recognition result is erroneous recognition based on the lower concept relation and the synonym relation; and, as a result of the determination, a synonym of a word having a difference of one character from the recognition result determined to be erroneous recognition. The gist of the present invention is to include a correction candidate output unit that selects a word having a relationship as a target word, and outputs a correction candidate for the recognition result based on the concept distance between the target word and the local topic word.
【0022】請求項9記載の本発明にあっては、音声認
識結果を形態素解析して、局所話題範囲を決定し、局所
話題語の抽出を行い、局所話題語に対して上位・下位概
念関係および類義語関係に基づき認識結果が誤認識であ
るか否かを判定し、誤認識と判定された認識結果に対し
て一文字違いの単語の類義語関係を有する単語を対象単
語として選択し、この対象単語と局所話題語との概念距
離に基づき認識結果に対する訂正候補を出力するため、
認識結果が誤ったとしても、正しい訂正候補のキーワー
ドを取得でき、適切なコンテンツを取得することができ
る。According to the ninth aspect of the present invention, a speech recognition result is subjected to morphological analysis to determine a local topic range, a local topic word is extracted, and a superordinate / subordinate conceptual relationship with respect to the local topic word is determined. And determining whether or not the recognition result is erroneous recognition based on the synonymous relationship, and selecting a word having a synonymous relationship of a word having a difference of one character from the recognition result determined as erroneous recognition as a target word. To output correction candidates for the recognition result based on the conceptual distance between
Even if the recognition result is erroneous, it is possible to obtain a correct correction candidate keyword and obtain appropriate content.
【0023】[0023]
【発明の実施の形態】以下、図面を用いて本発明の実施
の形態を説明する。図1は、本発明の第1の実施形態に
係わるコンテンツ検索方法を実施するコンテンツ検索装
置の構成を示すブロック図である。同図に示すコンテン
ツ検索装置は、音声情報が入力される音声入力部1、こ
の音声入力部1から入力される音声情報を認識する音声
認識部2、この音声認識部2で認識された認識結果をキ
ーワードとして出力する音声認識結果通知部3、複数の
コンテンツを蓄積しているコンテンツ蓄積部7、各コン
テンツに定められているキーワードを各コンテンツに対
応してテーブルとして管理しているキーワードコンテン
ツ対応テーブル部5、音声認識結果通知部3から出力さ
れる音声認識結果のキーワードとキーワードコンテンツ
対応テーブル部5においてコンテンツに対応して記憶管
理されているキーワードとを比較し、音声認識結果のキ
ーワードに対応するキーワードをキーワードコンテンツ
対応テーブル部5から検出して出力するキーワード比較
部4、このキーワード比較部4から出力されるキーワー
ドに対応するコンテンツをキーワードコンテンツ対応テ
ーブル部5から取得し、このコンテンツをコンテンツ蓄
積部7から検索して読み出すように制御する制御部6、
この制御部6の制御によりコンテンツ蓄積部7から読み
出されたコンテンツを出力するコンテンツ出力部8から
構成されている。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a content search device that performs a content search method according to the first embodiment of the present invention. The content search device shown in FIG. 1 includes a voice input unit 1 to which voice information is input, a voice recognition unit 2 for recognizing voice information input from the voice input unit 1, and a recognition result recognized by the voice recognition unit 2. Recognition result notification unit 3 that outputs a keyword as a keyword, a content storage unit 7 that stores a plurality of contents, and a keyword content correspondence table that manages a keyword defined for each content as a table corresponding to each content The unit 5 compares the keyword of the speech recognition result output from the speech recognition result notifying unit 3 with the keyword stored and managed corresponding to the content in the keyword content correspondence table unit 5, and corresponds to the keyword of the speech recognition result. Keyword ratio for detecting and outputting keywords from the keyword content correspondence table unit 5 Part 4, the control unit 6 to the keyword content corresponding to the keyword output from the comparison unit 4 acquires from the keyword contents correspondence table unit 5, and controls to read and search for this content from the content storage section 7,
A content output unit 8 outputs the content read from the content storage unit 7 under the control of the control unit 6.
【0024】次に、図2に示すフローチャートを参照し
て、図1に示す第1の実施形態の作用について説明す
る。Next, the operation of the first embodiment shown in FIG. 1 will be described with reference to the flowchart shown in FIG.
【0025】まず、例えばテレビ、ラジオなどのオーデ
ィオビジュアル機器から入力される音声情報または通信
インタフェースなどを介して入力される音声情報が音声
入力部1を介して入力されると(ステップS100)、こ
の入力された音声情報は、音声認識部2で音声認識され
(ステップS101)、この音声認識結果がキーワードと
して音声認識結果通知部3から出力される(ステップS
102)。First, when audio information input from an audiovisual device such as a television or a radio or audio information input via a communication interface or the like is input via the audio input unit 1 (step S100), The input voice information is voice-recognized by the voice recognition unit 2 (step S101), and the voice recognition result is output from the voice recognition result notification unit 3 as a keyword (step S101).
102).
【0026】音声認識結果通知部3から出力されたキー
ワードは、キーワード比較部4に入力されるとともに、
またキーワード比較部4にはキーワードコンテンツ対応
テーブル部5においてコンテンツに対応して記憶されて
いるキーワードも入力され(ステップS103)、両キー
ワードはキーワード比較部4で比較され、音声認識結果
のキーワードに対応するキーワードがキーワードコンテ
ンツ対応テーブル部5から検出され出力される(ステッ
プS104)。The keyword output from the voice recognition result notifying unit 3 is input to the keyword comparing unit 4 and
In addition, the keyword stored in the keyword content correspondence table unit 5 corresponding to the content is also input to the keyword comparison unit 4 (step S103), and both keywords are compared by the keyword comparison unit 4 and correspond to the keyword of the speech recognition result. The keyword to be executed is detected and output from the keyword content correspondence table section 5 (step S104).
【0027】このキーワード比較部4から出力されるキ
ーワードに対してキーワードコンテンツ対応テーブル部
5が検索され、該キーワードに対応するコンテンツがキ
ーワードコンテンツ対応テーブル部5から出力される
(ステップS105)。制御部6は、キーワードコンテン
ツ対応テーブル部5から出力されたコンテンツを受け取
ると、コンテンツ蓄積部7にアクセスし(ステップS10
6)、このコンテンツをコンテンツ蓄積部7から検索し
て読み出し(ステップS107)、この読み出したコンテ
ンツをコンテンツ出力部8から出力する(ステップS10
8)。The keyword content correspondence table section 5 is searched for the keyword output from the keyword comparison section 4, and the content corresponding to the keyword is output from the keyword content correspondence table section 5 (step S105). Upon receiving the content output from the keyword content correspondence table unit 5, the control unit 6 accesses the content storage unit 7 (step S10).
6), the content is retrieved and read from the content storage unit 7 (step S107), and the read content is output from the content output unit 8 (step S10).
8).
【0028】図3は、本発明の第2の実施形態に係わる
コンテンツ検索装置の構成を示すブロック図である。同
図に示すコンテンツ検索装置は、図1に示した第1の実
施形態が音声情報を対象としているのに対して画像情報
を対象とするものであって、図1の音声入力部1、音声
認識部2、および音声認識結果通知部3がそれぞれ画像
情報を入力する画像入力部9、この画像入力部9から入
力される画像情報を認識する画像認識部10、およびこ
の画像認識部10で認識された認識結果をキーワードと
して出力する画像認識結果通知部11に置き換えられて
いる点が異なるのみであり、その他のキーワード比較部
4、キーワードコンテンツ対応テーブル部5、制御部
6、コンテンツ蓄積部7およびコンテンツ出力部8は図
1の実施形態のものと同じである。FIG. 3 is a block diagram showing a configuration of a content search device according to the second embodiment of the present invention. The content search device shown in FIG. 1 is directed to image information while the first embodiment shown in FIG. 1 is directed to audio information. An image input unit 9 for inputting image information by the recognition unit 2 and the voice recognition result notification unit 3, an image recognition unit 10 for recognizing image information input from the image input unit 9, and recognition by the image recognition unit 10 The only difference is that an image recognition result notifying unit 11 that outputs the obtained recognition result as a keyword is different. The other keyword comparing unit 4, keyword content correspondence table unit 5, control unit 6, content storage unit 7, and The content output unit 8 is the same as that of the embodiment of FIG.
【0029】図4に示すフローチャートを参照して、図
3に示す第2の実施形態の作用について説明する。The operation of the second embodiment shown in FIG. 3 will be described with reference to the flowchart shown in FIG.
【0030】オーディオビジュアル機器などからの画像
情報が画像入力部9を介して入力されると(ステップS
200)、この画像情報は、画像認識部10で画像認識さ
れ(ステップS201)、この画像認識結果がキーワード
として画像認識結果通知部11から出力される(ステッ
プS202)。When image information from an audiovisual device or the like is input via the image input unit 9 (step S).
200), the image information is image-recognized by the image recognition unit 10 (step S201), and the image recognition result is output from the image recognition result notification unit 11 as a keyword (step S202).
【0031】画像認識結果通知部11から出力されたキ
ーワードは、キーワード比較部4に入力されるととも
に、またキーワード比較部4にはキーワードコンテンツ
対応テーブル部5においてコンテンツに対応して記憶さ
れているキーワードも入力され(ステップS203)、両
キーワードはキーワード比較部4で比較され、画像認識
結果のキーワードに対応するキーワードがキーワードコ
ンテンツ対応テーブル部5から検出され出力される(ス
テップS204)。The keyword output from the image recognition result notifying section 11 is input to the keyword comparing section 4, and the keyword stored in the keyword comparing section 4 in correspondence with the content in the keyword content correspondence table section 5. Are also input (step S203), the two keywords are compared by the keyword comparison unit 4, and a keyword corresponding to the keyword of the image recognition result is detected and output from the keyword content correspondence table unit 5 (step S204).
【0032】このキーワード比較部4から出力されるキ
ーワードに対してキーワードコンテンツ対応テーブル部
5が検索され、該キーワードに対応するコンテンツがキ
ーワードコンテンツ対応テーブル部5から出力される
(ステップS205)。制御部6は、キーワードコンテン
ツ対応テーブル部5から出力されたコンテンツを受け取
ると、コンテンツ蓄積部7にアクセスし(ステップS20
6)、このコンテンツをコンテンツ蓄積部7から検索し
て読み出し(ステップS207)、この読み出したコンテ
ンツをコンテンツ出力部8から出力する(ステップS20
8)。The keyword content correspondence table section 5 is searched for the keyword output from the keyword comparison section 4, and the content corresponding to the keyword is output from the keyword content correspondence table section 5 (step S205). Upon receiving the content output from the keyword content correspondence table section 5, the control section 6 accesses the content storage section 7 (step S20).
6), the content is retrieved and read from the content storage unit 7 (step S207), and the read content is output from the content output unit 8 (step S20).
8).
【0033】図5は、本発明の第3の実施形態に係わる
コンテンツ検索方法の処理手順を示すフローチャートで
ある。同図に示すコンテンツ検索方法は、図1に示した
音声情報を対象としたコンテンツ検索装置と図3に示し
た画像情報を対象としたコンテンツ検索装置の両方の機
能を組み合わせたコンテンツ検索装置で構成されるもの
である。FIG. 5 is a flowchart showing a processing procedure of the content search method according to the third embodiment of the present invention. The content search method shown in the figure comprises a content search device combining the functions of both the content search device for audio information shown in FIG. 1 and the content search device for image information shown in FIG. Is what is done.
【0034】図5のコンテンツ検索処理では、まずオー
ディオビジュアル機器からの音声情報および画像情報が
それぞれ音声入力部1および画像入力部9を介して入力
されると(ステップS300,303)、この入力された音声
情報および画像情報は、それぞれ音声認識部2および画
像認識部10で同期して音声認識および画像認識され
(ステップS301,304)、この音声および画像認識結果
がそれぞれキーワードとして音声認識結果通知部3およ
び画像認識結果通知部11から出力される(ステップS
302,305)。In the content search processing shown in FIG. 5, first, when audio information and image information from the audiovisual device are input via the audio input unit 1 and the image input unit 9 (steps S300 and S303), respectively. The voice information and the image information are subjected to voice recognition and image recognition in synchronization with the voice recognition unit 2 and the image recognition unit 10, respectively (steps S301 and S304), and the voice and image recognition results are used as keywords as voice recognition result notification units, respectively. 3 and output from the image recognition result notifying section 11 (step S
302,305).
【0035】音声認識結果通知部3および画像認識結果
通知部11から出力された両キーワードは、比較され、
両認識結果が一致するか否かが判定される(ステップS
306)。両キーワードが一致する場合には、このキーワ
ードを対象とするキーワードとして出力されるが、一致
しない場合には、画像認識結果通知部11から出力され
る画像認識結果のキーワードが対象とするキーワードと
して出力され(ステップS308)、キーワード比較部4
に入力されるとともに、またキーワード比較部4にはキ
ーワードコンテンツ対応テーブル部5においてコンテン
ツに対応して記憶されているキーワードも入力され(ス
テップS309)、両キーワードはキーワード比較部4で
比較され、認識結果の対象とするキーワードに対応する
キーワードがキーワードコンテンツ対応テーブル部5か
ら検出され出力される(ステップS310)。The two keywords output from the voice recognition result notifying unit 3 and the image recognition result notifying unit 11 are compared with each other.
It is determined whether the two recognition results match (step S).
306). If the two keywords match, the keyword is output as the target keyword. If they do not match, the keyword of the image recognition result output from the image recognition result notification unit 11 is output as the target keyword. (Step S308), the keyword comparison unit 4
And the keyword stored in the keyword content correspondence table unit 5 corresponding to the content is also input to the keyword comparison unit 4 (step S309), and both keywords are compared by the keyword comparison unit 4 and recognized. A keyword corresponding to the target keyword is detected and output from the keyword content correspondence table unit 5 (step S310).
【0036】このキーワード比較部4から出力されるキ
ーワードに対してキーワードコンテンツ対応テーブル部
5が検索され、該キーワードに対応するコンテンツがキ
ーワードコンテンツ対応テーブル部5から出力される
(ステップS311)。制御部6は、キーワードコンテン
ツ対応テーブル部5から出力されたコンテンツを受け取
ると、コンテンツ蓄積部7にアクセスし(ステップS31
2)、このコンテンツをコンテンツ蓄積部7から検索し
て読み出し(ステップS313)、この読み出したコンテ
ンツをコンテンツ出力部8から出力する(ステップS31
4)。The keyword content correspondence table unit 5 is searched for the keyword output from the keyword comparison unit 4, and the content corresponding to the keyword is output from the keyword content correspondence table unit 5 (step S311). Upon receiving the content output from the keyword content correspondence table unit 5, the control unit 6 accesses the content storage unit 7 (step S31).
2) The content is retrieved and read from the content storage unit 7 (step S313), and the read content is output from the content output unit 8 (step S31).
Four).
【0037】図6は、本発明の第4の実施形態に係わる
コンテンツ検索装置の構成を示すブロック図である。同
図に示すコンテンツ検索装置は、図3に示した第2の実
施形態において入力画像情報から画像情報としてテロッ
プを認識し、このテロップから文字情報を切り出し、こ
の切り出した文字情報を認識結果のキーワードとするも
のであり、図3の実施形態の画像認識部10および画像
認識結果通知部11の代わりにテロップ認識部12およ
びテロップ認識結果通知部13を有する点が異なるもの
であり、その他の構成および作用は同じである。FIG. 6 is a block diagram showing the configuration of a content search device according to the fourth embodiment of the present invention. The content search device shown in the figure recognizes a telop as image information from input image information in the second embodiment shown in FIG. 3, cuts out character information from this telop, and uses the cut out character information as a keyword of the recognition result. 3 in that a telop recognition unit 12 and a telop recognition result notification unit 13 are provided instead of the image recognition unit 10 and the image recognition result notification unit 11 in the embodiment of FIG. The effect is the same.
【0038】すなわち、図6におけるテロップ認識部1
2は、画像入力部9からの入力画像情報からテロップを
画像情報として認識するテロップ認識手段、およびこの
認識したテロップから文字情報を切り出し、この切り出
した文字情報を認識結果として出力する切り出し手段か
ら構成され、テロップ認識結果通知部13は、この切り
出し手段から出力される認識結果をキーワードとして出
力するものである。That is, the telop recognition unit 1 in FIG.
Reference numeral 2 denotes a telop recognizing unit for recognizing a telop as image information from the input image information from the image input unit 9, and a extracting unit for extracting character information from the recognized telop and outputting the extracted character information as a recognition result. Then, the telop recognition result notifying section 13 outputs the recognition result output from the cutout means as a keyword.
【0039】図7に示すフローチャートを参照して、図
6に示す第4の実施形態の作用について説明する。The operation of the fourth embodiment shown in FIG. 6 will be described with reference to the flowchart shown in FIG.
【0040】オーディオビジュアル機器などからの画像
情報が画像入力部9を介して入力されると(ステップS
400)、この画像情報に含まれるテロップがテロップ認
識部12で認識され(ステップS401)、この認識され
たテロップから文字情報が切り出され、テロップ認識結
果通知部13からテロップ認識結果がキーワードとして
出力される(ステップS402)。When image information from an audiovisual device or the like is input via the image input unit 9 (step S
400), the telop included in the image information is recognized by the telop recognition unit 12 (step S401), character information is cut out from the recognized telop, and the telop recognition result notification unit 13 outputs the telop recognition result as a keyword. (Step S402).
【0041】画像認識結果通知部11から出力されたキ
ーワードは、キーワード比較部4に入力されるととも
に、またキーワード比較部4にはキーワードコンテンツ
対応テーブル部5においてコンテンツに対応して記憶さ
れているキーワードも入力され(ステップS403)、両
キーワードはキーワード比較部4で比較され、テロップ
認識結果のキーワードに対応するキーワードがキーワー
ドコンテンツ対応テーブル部5から検出され出力される
(ステップS404)。The keyword output from the image recognition result notifying section 11 is input to the keyword comparing section 4, and the keyword stored in the keyword comparing section 4 in correspondence with the content in the keyword content correspondence table section 5. Are also input (step S403), the two keywords are compared by the keyword comparison unit 4, and a keyword corresponding to the keyword of the telop recognition result is detected and output from the keyword content correspondence table unit 5 (step S404).
【0042】このキーワード比較部4から出力されるキ
ーワードに対してキーワードコンテンツ対応テーブル部
5が検索され、該キーワードに対応するコンテンツがキ
ーワードコンテンツ対応テーブル部5から出力される
(ステップS405)。制御部6は、キーワードコンテン
ツ対応テーブル部5から出力されたコンテンツを受け取
ると、コンテンツ蓄積部7にアクセスし(ステップS40
6)、このコンテンツをコンテンツ蓄積部7から検索し
て読み出し(ステップS407)、この読み出したコンテ
ンツをコンテンツ出力部8から出力する(ステップS40
8)。The keyword content correspondence table unit 5 is searched for the keyword output from the keyword comparison unit 4, and the content corresponding to the keyword is output from the keyword content correspondence table unit 5 (step S405). Upon receiving the content output from the keyword content correspondence table unit 5, the control unit 6 accesses the content storage unit 7 (step S40).
6), the content is retrieved and read from the content storage unit 7 (step S407), and the read content is output from the content output unit 8 (step S40).
8).
【0043】図8は、本発明の第5の実施形態に係わる
コンテンツ検索装置の構成を示すブロック図である。同
図に示すコンテンツ検索装置は、図6に示した第4の実
施形態においてテロップの代わりにキャプションを入力
画像情報から画像情報として認識し、このキャプション
から文字情報を切り出し、この切り出した文字情報を認
識結果のキーワードとするものであり、図6の実施形態
のテロップ認識部12およびテロップ認識結果通知部1
3の代わりにキャプション認識部14およびキャプショ
ン認識結果通知部15を有する点が異なるものであり、
その他の構成および作用は同じである。FIG. 8 is a block diagram showing a configuration of a content search device according to the fifth embodiment of the present invention. The content search device shown in the figure recognizes a caption as image information from input image information in place of a telop in the fourth embodiment shown in FIG. 6, cuts out character information from this caption, and converts the cut out character information. The telop recognition unit 12 and the telop recognition result notification unit 1 of the embodiment shown in FIG.
3 in that a caption recognition unit 14 and a caption recognition result notification unit 15 are provided in place of 3.
Other configurations and operations are the same.
【0044】すなわち、図8におけるキャプション認識
部14は、画像入力部9からの入力画像情報からキャプ
ションを画像情報として認識するキャプション認識手
段、およびこの認識したキャプションから文字情報を切
り出し、この切り出した文字情報を認識結果として出力
する切り出し手段から構成され、キャプション認識結果
通知部15は、この切り出し手段から出力される認識結
果をキーワードとして出力するものである。That is, the caption recognizing unit 14 in FIG. 8 includes a caption recognizing means for recognizing a caption as image information from the image information input from the image input unit 9, cuts out character information from the recognized caption, and outputs the cut out character. The caption recognition result notifying unit 15 is configured by a cutout unit that outputs information as a recognition result, and outputs the recognition result output from the cutout unit as a keyword.
【0045】図9に示すフローチャートを参照して、図
8に示す第5の実施形態の作用について説明する。The operation of the fifth embodiment shown in FIG. 8 will be described with reference to the flowchart shown in FIG.
【0046】オーディオビジュアル機器などからの画像
情報が画像入力部9を介して入力されると(ステップS
500)、この画像情報に含まれるキャプションがキャプ
ション認識部14で認識され(ステップS501)、この
認識されたキャプションから文字情報が切り出され、キ
ャプション認識結果通知部15からキャプション認識結
果がキーワードとして出力される(ステップS502)。When image information from an audiovisual device or the like is input through the image input unit 9 (step S
500), the caption included in the image information is recognized by the caption recognition unit 14 (step S501), character information is cut out from the recognized caption, and the caption recognition result is output from the caption recognition result notification unit 15 as a keyword. (Step S502).
【0047】キャプション認識結果通知部15から出力
されたキーワードは、キーワード比較部4に入力される
とともに、またキーワード比較部4にはキーワードコン
テンツ対応テーブル部5においてコンテンツに対応して
記憶されているキーワードも入力され(ステップS50
3)、両キーワードはキーワード比較部4で比較され、
キャプション認識結果のキーワードに対応するキーワー
ドがキーワードコンテンツ対応テーブル部5から検出さ
れ出力される(ステップS504)。The keyword output from the caption recognition result notifying section 15 is input to the keyword comparing section 4, and the keyword stored in the keyword comparing section 4 corresponding to the content in the keyword content correspondence table section 5. Is also input (step S50).
3), both keywords are compared by the keyword comparison unit 4,
A keyword corresponding to the keyword of the caption recognition result is detected and output from the keyword content correspondence table unit 5 (step S504).
【0048】このキーワード比較部4から出力されるキ
ーワードに対してキーワードコンテンツ対応テーブル部
5が検索され、該キーワードに対応するコンテンツがキ
ーワードコンテンツ対応テーブル部5から出力される
(ステップS505)。制御部6は、キーワードコンテン
ツ対応テーブル部5から出力されたコンテンツを受け取
ると、コンテンツ蓄積部7にアクセスし(ステップS50
6)、このコンテンツをコンテンツ蓄積部7から検索し
て読み出し(ステップS507)、この読み出したコンテ
ンツをコンテンツ出力部8から出力する(ステップS50
8)。The keyword content correspondence table unit 5 is searched for the keyword output from the keyword comparison unit 4, and the content corresponding to the keyword is output from the keyword content correspondence table unit 5 (step S505). Upon receiving the content output from the keyword content correspondence table section 5, the control section 6 accesses the content storage section 7 (step S50).
6), the content is retrieved and read from the content storage unit 7 (step S507), and the read content is output from the content output unit 8 (step S50).
8).
【0049】なお、上述した各実施形態において、音声
認識または画像認識した認識結果をキーワードとして出
力する場合に、その推定確率が所定の閾値以下の場合に
は、該キーワードを出力せず、その旨を単にユーザに通
知するようにしている。また、上述したように認識され
たキーワードの数が一定個数の場合には、設定値を変更
して、すなわち基準となる出現確率を増加させて、認識
処理を繰り返し行うようにしている。なお、推定確率は
例えば音声認識においては尤度と呼ばれるものである。
次に、認識の対象となる音声、映像、文字などから推定
確率を求める処理について説明する。In each of the above-described embodiments, when the recognition result of voice recognition or image recognition is output as a keyword, if the estimated probability is equal to or less than a predetermined threshold, the keyword is not output. Is simply notified to the user. When the number of recognized keywords is a fixed number as described above, the recognition process is repeated by changing the set value, that is, by increasing the reference appearance probability. Note that the estimated probability is called likelihood in speech recognition, for example.
Next, a description will be given of a process of obtaining an estimated probability from voice, video, characters, and the like to be recognized.
【0050】この処理では、まず上述した各実施形態で
説明したように、入力部から入力された音声情報や画像
情報などの入力コンテンツから特徴量を抽出する。この
特徴量は、例えば入力情報が音声であれば、LPC(線
形予測分析)デルタケプトスラム等を用いて抽出され、
またテロップなどの画像であれば、特徴量は文字を表す
パターンなどである。In this process, first, as described in each of the above-described embodiments, a feature amount is extracted from input contents such as audio information and image information input from the input unit. For example, if the input information is speech, the feature amount is extracted using LPC (Linear Prediction Analysis) Delta Kept Slam or the like,
In the case of an image such as a telop, the feature amount is a pattern representing a character.
【0051】特徴量が抽出されると、この特徴量に対応
するシンボルの候補を複数決定する。これは特徴量を見
出しとするシンボル(例えば、文字または文字の連鎖)
の候補と出現確率piとの対応関係を多数格納したデー
タベースから特徴量に基づきシンボルの候補と出現確率
piを決定することにより行われる。なお、iは文字列
を区別するための符号である。When the feature is extracted, a plurality of symbol candidates corresponding to the feature are determined. This is a symbol (for example, a character or a chain of characters) that features a feature
Is performed by determining the candidate and the appearance probability p i of the symbol based on the feature amount corresponding relationship between the candidate and the appearance probability p i from the database that stores a number. Here, i is a code for distinguishing a character string.
【0052】次に、このように決定された複数のシンボ
ルをつなぎ合わせて、キーワードの候補を複数決定す
る。これは、複数決定されたシンボルの候補を入力され
た順序につなぎ合わせるなどにより、ひとかたまりの文
字列、すなわちキーワードもどきの候補を複数決定する
ことにより行われる。この時、各文字列候補の生じる推
定確率は、出現確率piの積TTi・piで計算され
る。そして、決定された文字列の中から単語辞書によっ
て存在する単語を抽出する。但し、通常は文字列と単語
が一致することはなく、決定された文字列の中からプラ
ス・マイナス数文字の単語を更に選び出す。Next, the plurality of symbols determined in this way are connected to determine a plurality of keyword candidates. This is performed by, for example, connecting a plurality of determined symbol candidates in the input order to determine a plurality of character strings, that is, a plurality of keyword-like candidates. At this time, the estimated probability of occurrence of each character string candidate is calculated as the product TTi · pi probability of occurrence p i. Then, words existing by the word dictionary are extracted from the determined character strings. However, the character string and the word usually do not match, and a word of plus or minus several characters is further selected from the determined character string.
【0053】次に、上述したように決定された複数のキ
ーワードの中から推定確率が所定の閾値以上のものにつ
いて候補となる単語をキーワードとして選択し、この選
択したキーワードを上述した各実施形態において使用す
るようにしている。Next, from among the plurality of keywords determined as described above, candidate words whose estimated probability is equal to or more than a predetermined threshold are selected as keywords, and the selected keywords are used in each of the above-described embodiments. I use it.
【0054】図10および図11は、本発明の第6の実
施形態に係わるコンテンツ検索方法の処理手順を示すフ
ローチャートである。両図に示すコンテンツ検索方法
は、上述した図1〜図9に示した各実施形態において入
力音声情報または入力画像情報から認識された認識結果
から誤った認識部分を判定して訂正し、訂正された認識
結果の候補を出力するものである。FIGS. 10 and 11 are flowcharts showing the processing procedure of the content search method according to the sixth embodiment of the present invention. The content search method shown in both figures determines and corrects an erroneous recognition part from the recognition result recognized from the input voice information or the input image information in each of the embodiments shown in FIGS. It outputs the recognition result candidates.
【0055】すなわち、図10および図11において
は、まず上述したように音声認識部2、画像認識部1
0、テロップ認識部12、またはキャプション認識部1
4などで認識された認識結果の文章を受け取り、この文
章を形態素解析して、該文章を単語に分割するととも
に、単語の品詞を決定する(ステップS601)。それか
ら、この形態素解析された結果を入力として速覧処理
し、大局話題範囲と大局話題語を組にした大局話題リス
トを抽出する(ステップS602)。That is, in FIGS. 10 and 11, first, as described above, the voice recognition unit 2 and the image recognition unit 1
0, telop recognition unit 12, or caption recognition unit 1
4, the sentence of the recognition result recognized is received, the sentence is subjected to morphological analysis, the sentence is divided into words, and the parts of speech of the words are determined (step S601). Then, the result of the morphological analysis is used as input to perform a preview process, and a global topic list in which a global topic range and a global topic word are paired is extracted (step S602).
【0056】速覧処理では、文章を書くときの特有の言
い回しに基づいて、ある話題の継続する部分である大局
話題範囲と、その話題を表す単語である大局話題語を決
定する。大局話題とは、文章の上位レベルの話題であ
り、例えば、「章」などにおける話題のことである。出
力は、大局話題範囲と大局話題語を組にした大局話題リ
ストである。In the flash processing, a global topic range, which is a continuing part of a topic, and a global topic word, which is a word representing the topic, are determined based on a specific phrase used when writing a sentence. The general topic is a topic at a higher level of a sentence, for example, a topic in a “chapter” or the like. The output is a global topic list in which a global topic range and a global topic word are paired.
【0057】上述したように、大局話題範囲と大局話題
語を組にした大局話題リストが抽出されると、この大局
話題範囲と大局話題語を組みにした大局話題リストから
一つの組の大局話題を選択する(ステップS603)。そ
して、この選択した組の大局話題範囲に含まれている単
語から一つの単語を選択し、この単語を対象単語とする
(ステップS604)。対象単語は、以下の処理で前記認
識結果の正誤を判定し、誤りの場合は修正する対象とな
る単語である。As described above, when a global topic list in which a global topic range and a global topic word are paired is extracted, one global topic list is extracted from the global topic list in which the global topic range and the global topic word are paired. Is selected (step S603). Then, one word is selected from the words included in the selected topic in the general topic range, and this word is set as a target word (step S604). The target word is a word to be determined as to whether the recognition result is correct or incorrect by the following processing, and to correct the error if the result is incorrect.
【0058】次に、上述したように選択された対象単語
の認識が誤っているか正しいかの判定処理を行うべく、
まず大局話題が対象単語の概念の上位概念または下位概
念であるかについて上位・下位関係の有無を調べる(ス
テップS605)。この大局話題が対象単語の概念の上位
概念または下位概念であるかについての判定は、例えば
概念ツリーを利用して行う。概念ツリーは、木構造のル
ートを最上位の概念とし、各ノードに概念を割り当てた
ものである。ある2つの概念の間に上位・下位関係があ
るかどうかは、一方の概念からルートへのパス上に他方
の概念のノードがあるかどうか調べ、ある場合は上位・
下位関係がある場合であり、ない場合は上位・下位関係
はないと判定する。そして、上述したように大局話題リ
ストから選択した大局話題が対象単語の概念の上位概念
または下位概念である場合には、前記認識結果は正しい
ものと判定して、本処理は終了するが、そうでない場合
には、ステップS606に進み、類義語辞書により、大局
話題と対象単語に対して類義語の関係があるか否かの判
定を行う。類義語辞書は、例えば図12に示すように、
一行に類義語の関係にある語が記述されている。すなわ
ち、大局話題と対象単語が類義語辞書の同一行にある場
合は、類義語の関係にあることが分かる。そして、この
ステップS606の判定の結果、大局話題が対象単語の類
義語である場合には、認識結果は正しいものと判定し
て、本処理は終了するが、そうでない場合には、図11
のステップS701以降の誤り訂正処理に進む。Next, in order to determine whether the recognition of the target word selected as described above is incorrect or correct,
First, it is checked whether there is a superordinate / subordinate relationship as to whether the general topic is a superordinate concept or a subordinate concept of the concept of the target word (step S605). The determination as to whether the general topic is a superordinate concept or a subordinate concept of the concept of the target word is performed using, for example, a concept tree. The concept tree is obtained by assigning a concept to each node, with the root of the tree structure as the top-level concept. To determine whether there is a superordinate / subordinate relationship between two concepts, check whether there is a node of the other concept on the path from one concept to the root.
If there is a lower order relationship, it is determined that there is no higher order / lower order relationship otherwise. Then, as described above, when the general topic selected from the general topic list is a superordinate concept or a subordinate concept of the concept of the target word, the recognition result is determined to be correct, and the present process ends. If not, the process proceeds to step S606, and it is determined from the synonym dictionary whether or not the general topic and the target word have a synonymous relationship. The synonym dictionary is, for example, as shown in FIG.
One line describes synonymous words. That is, when the general topic and the target word are on the same line of the synonym dictionary, it is understood that there is a synonymous relationship. Then, as a result of the determination in step S606, if the general topic is a synonym of the target word, the recognition result is determined to be correct, and this processing ends.
The process proceeds to the error correction process after step S701.
【0059】すなわち、以上の誤り判定処理において、
大局話題と注目している対象単語に上位・下位概念の関
係もなく、類義語も関係のない場合は、前記認識結果は
誤りと判定され、図11のステップS701以降の誤り訂
正処理に進む。なお、このような判定は、ある話題の下
位の話題は、上位の話題に何らかの関連のある話題であ
るという仮定によるものである。That is, in the above error determination processing,
If the general topic and the target word of interest have no relation between the superordinate / subordinate concepts and no synonyms, the recognition result is determined to be an error, and the process proceeds to the error correction processing of step S701 and subsequent steps in FIG. Note that such determination is based on the assumption that a topic lower than a certain topic is a topic that is somehow related to a higher topic.
【0060】図11のステップS701以降の誤り訂正処
理では、まず注目している対象単語の1文字違いの単語
を辞書から選び出す(ステップS701)。これは、正し
い認識結果の候補と思われる単語である。それから、こ
の選択した単語の中に大局話題語の類義語があるか否か
を判定し(ステップS702)、大局話題語の類義語があ
る場合は、この類義語を選択する(ステップS703)。In the error correction process after step S701 in FIG. 11, first, a word having one character difference from the target word of interest is selected from the dictionary (step S701). This is a word that is considered a candidate for a correct recognition result. Then, it is determined whether or not the selected word includes a synonym of the global topic word (step S702). If there is a synonym of the global topic word, the synonym is selected (step S703).
【0061】次に、上述したように類義語を選択した場
合には、この類義語を現在選択されている単語として含
めて、また類義語がない場合には、先に選択した単語を
現在選択されている単語とし、この現在選択されている
単語から一つの単語を対象単語として取り出す(ステッ
プS704)。そして、この選択した対象単語と大局話題
語との概念距離を計算する(ステップS705)。概念距
離は、概念ツリー上の2つの概念を結ぶ最短のパスの長
さである。長さは、概念の間のアークの数で表す。Next, when a synonym is selected as described above, this synonym is included as the currently selected word, and when there is no synonym, the previously selected word is currently selected. A word is extracted from the currently selected word as a target word (step S704). Then, the concept distance between the selected target word and the general topic word is calculated (step S705). The concept distance is the length of the shortest path connecting two concepts on the concept tree. Length is expressed as the number of arcs between concepts.
【0062】それから、このように計算した概念距離が
保存している最小概念距離よりも小さいか否を判定し
(ステップS706)、小さい場合には、ステップS705で
計算した概念距離を最小概念距離として保存する(ステ
ップS707)。そして、この現在注目している対象単語
の訂正候補をステップS704で取り出した単語とする
(ステップS708)。Then, it is determined whether the concept distance calculated in this way is smaller than the stored minimum concept distance (step S706). If the concept distance is smaller, the concept distance calculated in step S705 is used as the minimum concept distance. It is stored (step S707). Then, the correction candidate of the target word of the current focus is set as the word extracted in step S704 (step S708).
【0063】次に、ステップS701で取り出した全ての
単語について上述したステップS704からステップS708
までの処理を行ったか否かを判定し、全ての単語につい
て同じ処理を繰り返し行う(ステップS709)。Next, for all the words extracted in step S701, steps S704 to S708 described above are performed.
It is determined whether or not the above processing has been performed, and the same processing is repeatedly performed for all the words (step S709).
【0064】また、ステップS604で取り出した全ての
対象単語について上述したステップS604からステップ
S709までの処理を行ったか否かを判定し、全ての対象
単語について同じ処理を繰り返し行う(ステップS71
0)。Further, it is determined whether or not the above-described processing from step S604 to step S709 has been performed on all target words extracted in step S604, and the same processing is repeatedly performed on all target words (step S71).
0).
【0065】更に、ステップS603で取り出した全ての
大局話題についてステップS603からステップS710まで
の処理を行ったか否を判定し、全ての大局話題について
同じ処理を繰り返し行う(ステップS711)。全ての大
局話題について同じ処理を繰り返し行った結果、誤認識
した単語の訂正候補がステップS708で保存された単語
として出力されることになる(ステップS712)。Further, it is determined whether or not the processing from step S603 to step S710 has been performed on all the global topics extracted in step S603, and the same processing is repeatedly performed on all the global topics (step S711). As a result of repeating the same process for all global topics, a correction candidate for a misrecognized word is output as the word saved in step S708 (step S712).
【0066】テキストコンテンツの意味上から話題を速
覧処理と称し、以下の方法により話題語が速覧処理によ
って抽出される。話題とは、通常、「ある事柄について
話されている主題」を表す。ここでは、特に、事柄に相
当する「主題」を段落中の名詞句で表現した語句を「話
題語」と呼び、話題語が含む文を「話題文」と称する。
そして、ある話題がもつスコープ、すなわち、ある話題
が継続的に主題となっている領域を「話題のスコープ」
と称する。勿論、ある「話題のスコープ」において、こ
れらの話題のスコープは、入れ子形式になる可能性もあ
る。ここでは、話題のスコープの入れ子構造を「話題レ
ベル」と称するが、本発明では、話題のレベルを2レベ
ルの有する構成としている。上位の話題レベルは、明示
的に話題が提示されるような大局的な話題(大局話題と
呼ぶ)が相当する。一方、明示的ではないが、局所的に
話題が細かく転換するような話題(ここでは「局所話
題」と呼ぶ)が下位の話題レベルに相当する。A topic is referred to as a preview process from the meaning of the text content, and a topic word is extracted by the preview process in the following method. A topic usually refers to "the subject being talked about about a matter." Here, in particular, a phrase expressing a “subject” corresponding to a matter by a noun phrase in a paragraph is called “topic word”, and a sentence included in the topic word is called “topic sentence”.
Then, the scope of a topic, that is, the area in which a topic is a continuous topic is referred to as the topic scope.
Called. Of course, in a certain "topic scope", the scope of these topics may be nested. Here, the nested structure of the topic scope is referred to as “topic level”. In the present invention, the topic level has two levels. The higher topic level corresponds to a general topic (referred to as a general topic) in which a topic is explicitly presented. On the other hand, a topic that is not explicit, but locally changes the topic (herein referred to as “local topic”) corresponds to a lower topic level.
【0067】次に、このような話題抽出処理について図
14に示すフローチャートを参照して説明する。Next, such topic extraction processing will be described with reference to the flowchart shown in FIG.
【0068】図14に示す話題抽出処理では、処理対象
文書入力処理として要約対象の文書が入力される(ステ
ップS810)。この処理対象文書入力処理では、入力さ
れた文書ファイルを開き、文書の内容を抽出する。この
ように入力された文書は次のステップS820で処理対象
文書形態素解析処理を受けて、形態素解析用辞書31を
用いて形態素解析され、文書中に記述されている各文の
単語を確定するとともに、各単語の品詞、活用形などの
形態素情報を確定する。このように形態素解析された情
報は、話題単位確定処理を受ける(ステップS830)。In the topic extraction process shown in FIG. 14, a document to be summarized is input as a process target document input process (step S810). In the processing target document input processing, the input document file is opened and the contents of the document are extracted. In step S820, the input document is subjected to morphological analysis of the document to be processed, and morphologically analyzed using the morphological analysis dictionary 31, to determine the word of each sentence described in the document and And morpheme information such as the part of speech and inflected form of each word. The information subjected to the morphological analysis in this way undergoes topic unit determination processing (step S830).
【0069】なお、形態素解析とは、入力された文字列
を単語辞書に対して検索を行い、品詞情報(品詞)、文頭
可否情報(文頭可)、前方接続情報(前接)、後方接続情
報(後接)などの情報を取得する処理である。通常の単
語辞書では、TREI辞書構造という特別な辞書構造を
行うことにより高速な検索を行えるようになっている。
辞書項目として、"ああ"、"あいさつ"、"あい"などがあ
る場合、それぞれの第一文字(ここでは、日本語である
ので、C言語の文字であり、アルファベットと異なり、
日本語文字2byteを指し示す)が同じもの、第二文字目
が同じものなど、それぞれ順次に、木構造的に構成され
る。そして、最後の文字まで、一致した場合には、その
単語辞書項目に対する品詞情報(品詞)、文頭可否情報
(文頭可)、前方接続情報(前接)、後方接続情報(後
接)などの情報記述される。In the morphological analysis, a word dictionary is searched for an input character string, and part-of-speech information (part-of-speech), head-of-sentence availability information (head-of-sentence possible), forward connection information (preceding), backward connection information This is a process of acquiring information such as (subsequent). In a normal word dictionary, a high-speed search can be performed by performing a special dictionary structure called a TREI dictionary structure.
If the dictionary entry includes "Ah", "Greetings", "Ai", etc., the first letter of each (here, because it is Japanese, it is a letter in C language, unlike the alphabet,
Those having the same Japanese characters (indicating 2 bytes of Japanese characters) and those having the same second character are sequentially formed in a tree structure. If the last character matches, the part of speech information (part of speech) and the head
Information such as (beginning of sentence), forward connection information (preceding), and backward connecting information (backward) are described.
【0070】文頭可否情報とは、文頭にあってよいかど
うかを示すフラグである。文頭可であれば、文頭に存在
してもよいが、文頭否であれば、文頭にあることが許可
されない単語ということになる。前方接続情報とは、前
の単語の品詞または属性が適正な場合だけ接続が許可さ
れ、前接で接続が許可されない単語の場合、候補として
削除される。同様に後方接続情報も、後の単語の品詞ま
たは属性が適正な場合だけ接続が許可され、後接で接続
が許可されない単語の場合、候補として削除される。こ
のような、品詞接続により、候補を選択する。最尤候補
は、コスト最小法とよぶ方法により選択する。The head-of-sentence information is a flag indicating whether or not it can be at the head of the sentence. If the beginning of the sentence is acceptable, the word may be present at the beginning of the sentence, but if the sentence is not the beginning of the sentence, the word is not permitted to be at the beginning of the sentence. The forward connection information is permitted to be connected only when the part of speech or attribute of the preceding word is appropriate, and is deleted as a candidate when the preceding word is not permitted to be connected. Similarly, the backward connection information is permitted to be connected only when the part of speech or attribute of the subsequent word is appropriate, and is deleted as a candidate when the word is not permitted to be connected later. A candidate is selected by such a part-of-speech connection. The maximum likelihood candidate is selected by a method called a minimum cost method.
【0071】最小コスト法とは、最もコストが最小なる
形態素候補を最尤候補とする処理方式である。形態素解
析において利用されるコストは、接続コストと単語コス
トの2種類のコストがある。接続コストは、ある単語と
単語を接続する場合に必要なコストである。単語と単語
であるため、単語+該活用に対する接続コストは0とな
る。単語コストとは、その単語に関するコストであり、
例えば、使用頻度が高い単語は、コストが低くなる。ま
た、活用は単語ではないので、コストは0となる。形態
素解析により、テキスト部が単語単位に分解されると同
時に、各単語に尤も正しいと考えられる品詞が付与され
る。なお、図13に示す話題構造における「A社の特徴
について述べる」という例では、次に示す表1のように
形態素解析される。The minimum cost method is a processing method in which the morpheme candidate having the lowest cost is set as the maximum likelihood candidate. There are two types of costs used in morphological analysis: connection costs and word costs. The connection cost is a cost required for connecting a certain word to another word. Since it is a word and a word, the connection cost for the word + the utilization is zero. The word cost is the cost for that word,
For example, words that are frequently used have lower costs. Also, since utilization is not a word, the cost is zero. By the morphological analysis, the text part is decomposed into words, and at the same time, parts of speech that are considered to be correct are given to each word. In the example of “specify the features of company A” in the topic structure shown in FIG. 13, morphological analysis is performed as shown in Table 1 below.
【0072】[0072]
【表1】 次の話題単位確定処理(ステップS830)では、上述し
た処理対象文書形態素解析処理の形態素解析結果に基づ
いて、文書内に記述されている文を確定し、確定した文
を話題単位とする。この話題単位確定処理では、入力さ
れた文を話題単位に分割する。話題単位とは、通常の文
に近いが、話題があるなしにかかわらず、通常の1つの
話題が含まれると判断される単位である。通常は、文を
話題単位として認定するが、文頭に話題継続型手掛かり
句が出現した文については、話題のスコープが続いてい
るとして、複数の文を話題単位とする。以降、話題単位
ごとに処理が進められる。【table 1】 In the next topic unit determination processing (step S830), the sentence described in the document is determined based on the morphological analysis result of the processing target document morphological analysis processing, and the determined sentence is set as a topic unit. In this topic unit determination processing, an input sentence is divided into topic units. The topic unit is a unit that is close to a normal sentence, but is determined to include one normal topic regardless of whether there is a topic. Usually, a sentence is recognized as a topic unit. However, for a sentence in which a topic continuation type clue phrase appears at the beginning of a sentence, a plurality of sentences are regarded as a topic unit, assuming that the topic scope is continued. Thereafter, the process proceeds for each topic unit.
【0073】次の話題マーカ・話題手がかり句抽出処理
(ステップS840)においては、話題単位確定処理で確
定された話題単位ごとに、話題を明示的または非明示的
に示す後接単語である話題マーカや、話題を確定する手
がかりとなる文頭の接続詞より構成される話題手がかり
句を話題マーカ・話題手がかり句記憶部33に記憶され
ている話題マーカ・話題手がかり句に基づき抽出する。In the next topic marker / topic cue phrase extraction process (step S840), for each topic unit determined in the topic unit determination process, a topic marker which is a follow-up word that explicitly or implicitly indicates the topic Alternatively, a topic cue phrase composed of a connective at the beginning of a sentence, which is a clue for determining a topic, is extracted based on the topic marker / topic cue phrase stored in the topic marker / topic cue phrase storage unit 33.
【0074】話題マーカーは、話題をあらわす可能性の
ある名詞句が出現している可能性を表わす後置詞的役割
を有する。例えば、主題を明示する修辞句として、格助
詞「が」「を」、係助詞「は」、「について」などがあ
る。話題の導入は、「まず」「第一に」などの手掛かり
句から判断される。また、「1。」「第1章」などの文
章論理構造は、話題のスコープを明確にする。「これ
は、」「この結果」などは、話題が継続することを表わ
す。「〜に関して尋ねますが、」などのような疑問表
現、「たとえば」などのような例示表現は、局所話題を
導入するための修辞表現であると言える。The topic marker has a postposition role indicating the possibility that a noun phrase that may represent a topic appears. For example, rhetorical phrases that clearly indicate the subject include case particles “ga” and “wo”, particles “ha”, and “about”. The introduction of a topic is determined from clue phrases such as "first" and "first". The sentence logical structure such as “1.” or “Chapter 1” clarifies the scope of a topic. "This,""thisresult," etc., indicate that the topic continues. A question expression such as "I ask about", "or an example expression such as" for example "can be said to be a rhetorical expression for introducing a local topic.
【0075】話題語を決定する上で用いられる修辞句を
ここでは「話題マーカー」と呼ぶ。話題マーカーには、
話題の対象を抽出する役割を果たすマーカーであり、明
示マーカー、非明示マーカーがある。なお、この話題マ
ーカーの明示マーカーには、例えば「について」「に関
して」などがあり、また非明示マーカーには、例えば
「が」「を」「に」などがある。但し、明示マーカーは
語句を提示することしか機能を持たないマーカーであ
り、非明示マーカーは「が」や「を」のように主語、目
的語のような文法的役割を示す語が語句を提示するため
にも用いられるものである。A rhetorical phrase used in determining a topic word is herein called a “topic marker”. Topic markers include:
It is a marker that plays the role of extracting the topic target, and there are explicit markers and implicit markers. Note that the explicit markers of this topic marker include, for example, “about” and “about”, and the non-specific markers include, for example, “ga”, “wo”, and “ni”. However, an explicit marker is a marker that only has the function of presenting a phrase, and an implicit marker is a word that indicates a grammatical role, such as subject or object, such as "ga" or "wo". It is also used for
【0076】また、直接的に話題語を明示するわけでは
ないが、文または単文が話題語を含む可能性のあること
を示す話題手掛かり句がある。話題手掛かり句は、話題
の意味的なまとまりを検出するための手掛かりとするも
のであり、この話題手掛かり句には、入れ子開始型、話
題転換型、入れ子終了型などがあり、入れ子開始型に
は、例えば「まず」「第1に」「最初に」などあり、ま
た話題転換型には、例えば「次に」「ところで」「第2
に」「第2に」などがあり、入れ子終了型には、例えば
「最後に」「終わりに」などがある。Although the topic word is not directly specified, there is a topic cue phrase indicating that a sentence or a single sentence may include the topic word. Topic clue phrases are used as clues to detect a semantic unity of a topic.The topic clue phrases include a nested start type, a topic conversion type, a nested end type, and a nested start type. For example, there are "first,""first,""first," and the like.
And "second", and the nested type includes, for example, "end" and "end".
【0077】更に、話題手掛かり句には、話題の継続を
示す話題継続型手掛かり句や、話題開始、終了、転換型
手掛かり句などがあり、さらに、局所話題を抽出するた
めの手掛かりとして、例示、疑問表現がある。この例示
の例は、「例えば〜」「つまり〜」「具体的には〜」な
どがあり、前言を受けて、その具体例を導く表現のこと
である。また、疑問表現の例は、「〜か」「〜ですか」
「〜ますか」などというように疑問を示す語句のことで
ある。なお、これらの語句の利用は予め形態素解析によ
ってテキストを単語毎に分割し、各単語毎に品詞が与え
られたうえで、始めて特定されるものである。Further, the topic cue phrases include a topic continuation type cue phrase indicating the continuation of a topic, a topic start, end, and conversion type cue phrases. Further, examples of clues for extracting a local topic include: There is a question expression. Examples of this exemplification include “for example”, “that is,” “specifically,” and the like, and are expressions that lead to the specific example in response to the preceding statement. In addition, examples of question expressions are "~?"
This is a phrase that indicates a question, such as "~ masuka". The use of these phrases is specified only after the text is divided into words in advance by morphological analysis, and a part of speech is given to each word.
【0078】次のステップS850の顕著名詞句抽出処理
では、前記話題マーカ・話題手がかり句抽出処理で抽出
された各話題単位ごとの話題マーカおよび話題手がかり
句を基に話題の候補と考えられる顕著な名詞句を抽出す
る。話題マーカーの前にある単語中から、話題語の候補
である顕著名詞句が選別される。顕著名詞句とは、話題
語の候補として認定される可能性のある名詞句であり、
代名詞表現されている名詞など、単独で意味をなさない
名詞句について除いた名詞句である。もちろん、話題手
掛かり句(話題開始/転換/終了/継続)、例示表現、疑問
表現そのものは顕著名詞句にはならない。In the prominent noun phrase extraction process in the next step S850, the prominent noun phrase considered as a topic candidate based on the topic marker and topic cue phrase for each topic unit extracted in the topic marker / topic cue phrase extraction process is described. Extract noun phrases. Prominent noun phrases that are candidates for topic words are selected from words in front of the topic markers. Salient noun phrases are noun phrases that may be identified as topic word candidates,
This is a noun phrase that excludes noun phrases that have no meaning alone, such as pronoun-expressed nouns. Of course, topic clue phrases (topic start / conversion / end / continuation), example expressions, and question expressions themselves are not prominent noun phrases.
【0079】次の大局話題抽出処理(ステップS860)
では、前記話題マーカ・話題手がかり句抽出処理および
顕著名詞句抽出処理で抽出された話題マーカ、話題手が
かり句、および顕著名詞句に基づいて、大局的な話題を
抽出する。話題は、これらの話題マーカー、顕著名詞
句、話題手掛かり句の情報を用いて抽出される。例え
ば、図13に示した話題構造の例では、話題マーカーは
アウトライン文字で、話題手掛かり句は下線で、最終的
に抽出された話題は四角で示されている。第一文では、
「において」という話題マーカーが抽出されている。第
二文では、「まず」「第一に」が話題手掛かり句として
抽出されている。Next general topic extraction processing (step S860)
Then, a global topic is extracted based on the topic marker, topic cue phrase, and salient noun phrase extracted in the topic marker / topic cue phrase extraction process and the salient noun phrase extraction process. Topics are extracted using information on these topic markers, salient noun phrases, and topic clue phrases. For example, in the example of the topic structure shown in FIG. 13, the topic marker is indicated by outline characters, the topic clue is indicated by an underline, and the finally extracted topic is indicated by a square. In the first sentence,
A topic marker “in” is extracted. In the second sentence, "first" and "first" are extracted as topic clue phrases.
【0080】大局話題は、大局話題導入部の検出および
大局話題の話題語抽出という手順で抽出される。The general topic is extracted by a procedure of detecting a general topic introduction part and extracting a topic word of the general topic.
【0081】大局話題導入部の検出においては、文章の
第一文であったり、話題手掛かり句を含む話題単位があ
る場合には、その話題単位を大局話題の導入部の候補と
する。話題単位の先頭の単文に顕著名詞句が含まれてい
る場合には、その話題単位を大局話題導入部と判定す
る。顕著名詞句がその話題単位にない場合には、次の話
題単位を話題導入部の候補とする。同様の処理を文末ま
でつづけ、大局話題導入部を決定する。これは、話題手
掛かり句がある周辺にはかならず大局話題導入部がある
という考え方に基づくものである。つまり、文章を書く
場合、話題手掛かり句で導入的な表現をした場合、話題
はその近くに必ずあるはずであるという考えに基づくも
のである。In the detection of the global topic introduction part, when there is a topic unit including the first sentence of a sentence or a topic clue phrase, the topic unit is set as a candidate of the general topic introduction part. If a prominent noun phrase is included in the head simple sentence of a topic unit, the topic unit is determined to be a general topic introduction unit. If the salient noun phrase is not in the topic unit, the next topic unit is set as a candidate for the topic introduction unit. The same processing is continued until the end of the sentence, and the general topic introduction part is determined. This is based on the idea that there is always a global topic introduction section around the topic clue phrase. In other words, it is based on the idea that when writing a sentence, if an introductory expression is made with a topic clue phrase, the topic should always be near it.
【0082】次に、大局話題の話題語検出においては、
大局話題導入部において抽出された顕著名詞句の中でも
っとも話題語として適切な名詞句を話題語として抽出す
る。以下の優先順位に基づき、かつ、最も最初に出現し
た名詞句を大局話題の話題語とする。Next, in the topic word detection of the general topic,
Among the salient noun phrases extracted in the global topic introduction section, a noun phrase that is most appropriate as a topic word is extracted as a topic word. Based on the following priorities, the noun phrase that appears first is the topic word of the general topic.
【0083】(1) 顕著名詞句が明示マーカーによっ
て提示されている場合、または固有名詞を含む顕著名詞
句の場合 (2) 固有名詞を含まない顕著名詞句の場合 勿論、それ以前の大局話題導入部において抽出された話
題語とは重複する場合には話題語としては抽出しない。(1) In the case where a salient noun phrase is presented by an explicit marker, or in the case of a salient noun phrase including a proper noun (2) In the case of a salient noun phrase which does not contain a proper noun If the topic word extracted in the section overlaps, it is not extracted as a topic word.
【0084】図13に示した話題構造の例では、大局話
題として、最初の行から「A社の特徴」、2番目の行か
ら「X業界」が抽出される。In the example of the topic structure shown in FIG. 13, "the characteristics of company A" are extracted from the first line and "X industry" is extracted from the second line as the general topic.
【0085】次のステップS870の局所話題抽出処理に
おいては、前記話題マーカ・話題手がかり句抽出処理お
よび顕著名詞句抽出処理で抽出された話題マーカ、話題
手がかり句および顕著名詞句と、さらに前記大局話題抽
出処理で抽出された大局話題に基づき、局所的に発生す
る局所的話題を抽出する。In the local topic extraction processing in the next step S870, the topic marker, topic cue phrase and salient noun phrase extracted in the topic marker / topic cue phrase extraction processing and salient noun phrase extraction processing, and further, the general topic Based on the global topics extracted in the extraction process, local topics that occur locally are extracted.
【0086】この局所話題の抽出においては、局所話題
は、「たとえば、」などの例示や、"〜と聞かれれば"な
どの疑問表現により局所的に話題が導入される場合のこ
とをいう。局所的に発生する話題であるため、話題の内
容を表現するには、ある程度の文数を必要とする。その
ため、局所話題では、話題単位がある数以上の文から表
現されることを最低条件とする。最低条件を満たした話
題単位の中で、顕著名詞句をもつものを局所話題の候補
とし、その中で、以下の優先度の高いもののうち、最も
最初に出現した顕著名詞句を局所話題の話題語とした。In this local topic extraction, a local topic refers to a case where a topic is locally introduced by an example such as “for example” or a question expression such as “If heard from”. Since the topic occurs locally, a certain number of sentences are required to express the content of the topic. Therefore, in a local topic, the minimum condition is that a topic unit is expressed from more than a certain number of sentences. Among topic units that meet the minimum condition, those with salient noun phrases are considered as local topic candidates, and among the following items with the highest priority, the earliest salient noun phrase that appears first is the topic of the local topic. Words.
【0087】(1) 顕著名詞句が疑問表現の直前にあ
る場合、または顕著名詞句が例示表現の直後にある場合 (2) 顕著名詞句が明示マーカーによって提示されて
いる場合、または顕著名詞句が大局話題導入部に含まれ
ている場合 (3) どの大局話題にも含まれていない固有名詞が顕
著名詞句に含まれる場合勿論、局所話題は、大局話題導
入部に含まれてはならないし、直前の大局話題導入処理
で抽出した話題語と同一であってはならない。図13に
示した話題構造の例では、「たとえば、B社の提携が
…」の部分が局所話題として抽出される。これらの局所
話題の導入部については、導入だけをチェックしている
だけで、局所話題がいつ終了したかはわからない。逆
に、通常の文章では、話題の導入には比較的明確に述べ
る性質があるが、終わりが曖昧であることが多々あり、
明確には話題のスコープを特定することができない。そ
のため、次の局所話題または大局話題が出現するまで
が、この局所話題のスコープであるということになる。(1) When the salient noun phrase is immediately before the question expression, or when the salient noun phrase is immediately after the example expression (2) When the salient noun phrase is presented by an explicit marker, or when the salient noun phrase is Is included in the global topic introduction section. (3) When proper nouns not included in any global topic are included in the salient noun phrase. Of course, local topics must not be included in the global topic introduction section. Must not be the same as the topic word extracted in the immediately preceding global topic introduction process. In the example of the topic structure shown in FIG. 13, the part “for example, the tie-up of company B ...” is extracted as a local topic. Regarding the introduction section of these local topics, only the introduction is checked, and it is not known when the local topic has ended. Conversely, in normal sentences, the introduction of a topic has the property of being relatively clear, but the end is often ambiguous,
The scope of the topic cannot be clearly specified. Therefore, until the next local topic or global topic appears, the scope of this local topic is determined.
【0088】このような方式により意味的な話題語が抽
出される。本意味話題語抽出処理により、図13に示し
た話題構造に示す入力文例に適用し、意味的話題語を抽
出すると、この入力文例で「について」という話題マー
カーを検索し、この話題マーカー「について」の直前に
ある「A社の特徴」が話題語として抽出される。A meaningful topic word is extracted by such a method. By applying the semantic topic word extraction process to the input sentence example shown in the topic structure shown in FIG. 13 and extracting the semantic topic word, the input sentence example is searched for a topic marker “about”, and this topic marker “ Is extracted as a topic word.
【0089】上述したように、認識結果の誤りを訂正す
ることで、マッチングの精度をあげ、コンテンツが選択
され易くなり、クライアントからは多くの広告が配信さ
れ、ユーザは他種類の情報を得られるようになる。As described above, by correcting an error in the recognition result, the accuracy of matching is increased, the content is easily selected, many advertisements are distributed from the client, and the user can obtain other types of information. Become like
【0090】次に、図15〜図19に示すフローチャー
トを参照して、図14のステップS830,S840,S85
0,S860,S870にそれぞれ示した話題単位確定処理、
話題マーカ・話題手掛かり句抽出処理、著名名詞句抽出
処理、大局話題抽出処理、および局所話題抽出処理につ
いて説明する。Next, referring to the flowcharts shown in FIGS. 15 to 19, steps S830, S840, S85 in FIG.
0, S860, and topic unit confirmation processing shown in S870, respectively.
The topic marker / topic clue phrase extraction processing, prominent noun phrase extraction processing, global topic extraction processing, and local topic extraction processing will be described.
【0091】まず、図15に示すフローチャートを参照
して、話題単位確定処理について説明する。First, the topic unit determination processing will be described with reference to the flowchart shown in FIG.
【0092】図15の話題単位確定処理では、まず話題
単位の数を計数するためのパラメータTを1に設定し
(ステップS1001)、入力された文を文末まで読み込ん
だか否かを判定する(ステップS1003)。文末まで読み
込んだ場合には、本処理を終了するが、文末まで読み込
んでいない場合には、ステップS1005に進み、ステップ
S1005以降の処理を文末まで読み込むまで繰り返し行
う。In the topic unit determination processing of FIG. 15, first, a parameter T for counting the number of topic units is set to 1 (step S1001), and it is determined whether or not the input sentence has been read to the end of the sentence (step S1001). S1003). If the reading has been completed up to the end of the sentence, the present process ends. If the reading has not been completed up to the end of the sentence, the process proceeds to step S1005, and the processing from step S1005 is repeated until the processing is read up to the end of the sentence.
【0093】ステップS1005では、前記処理対象文書形
態素解析処理で得られた単位毎の結果を順次入力して、
文が「。」句点で終了しているか否かを判定する(ステ
ップS1007)。「。」句点で終了している場合には、入
力した先頭から「。」までの部分を話題単位とし、パラ
メータTを+1する(ステップS1009)。「。」句点で
終了していない場合には、「・」や数字から始まる箇条
書きが連続しているか否かを判定する(ステップS101
1)。箇条書きが連続している場合には、「・」や数字
で始まる箇条書きの先頭から文末までの部分を話題単位
とし、パラメータTを+1する(ステップS1013)。In step S1005, the results for each unit obtained in the processing target document morphological analysis processing are sequentially input, and
It is determined whether the sentence ends with a “.” Term (step S1007). If it ends at the "." Period, the portion from the input head to "." Is set as a topic unit, and the parameter T is incremented by 1 (step S1009). If it does not end with ".", It is determined whether or not bullets starting with "." Or a number are continuous (step S101).
1). If the bullets are continuous, the section from the head of the bullet that starts with "." Or a number to the end of the sentence is set as a topic unit, and the parameter T is incremented by 1 (step S1013).
【0094】箇条書きが連続していない場合には、形態
素解析の結果、文末表現の活用形が終止形となっている
か否かを判定する(ステップS1015)。終止形になって
いる場合には、形成素解析の結果、文末表現の活用形が
終止形となっている所から文末までの部分を話題単位と
する(ステップS1017)。If the list is not continuous, it is determined whether or not the ending form of the sentence end expression is the final form as a result of the morphological analysis (step S1015). If it is in the terminal form, as a result of the morpheme analysis, the part from the terminal form in which the sentence end expression is used to the end of the sentence is set as a topic unit (step S1017).
【0095】ステップS1015の判定で終止形になってい
ない場合には、文字の間に複数のスペース(半角または
全角)があるか否かを判定する(ステップS1019)。文
字の間に複数のスペースがある場合には、文字の間に複
数のスペース(半角または全角)のある所から文末まで
の部分を話題単位とする(ステップS1021)。If it is determined in step S1015 that the character is not the final form, it is determined whether there are a plurality of spaces (half-width or full-width) between the characters (step S1019). If there are a plurality of spaces between characters, a portion from a place where a plurality of spaces (half-width or full-width) exists between the characters to the end of the sentence is set as a topic unit (step S1021).
【0096】また、ステップS1019の判定で文字の間に
複数のスペースがない場合には、文がまだ継続している
と判断し(ステップS1023)、ステップS1003に戻り、
ステップS1005以降の処理を繰り返し行う。以上のよう
にして、話題単位が確定されることになる。If there is no space between the characters in the determination in step S1019, it is determined that the sentence is still continued (step S1023), and the process returns to step S1003.
The processing after step S1005 is repeatedly performed. As described above, the topic unit is determined.
【0097】次に、図16に示すフローチャートを参照
して、話題マーカ・手掛かり句抽出処理について説明す
る。Next, the topic marker / cue phrase extraction processing will be described with reference to the flowchart shown in FIG.
【0098】この処理では、まず話題単位文の数を計数
するためのパラメータTを1に設定し(ステップS110
1)、このTが最大値になったか否かを判定し(ステッ
プS1103)、最大値になった場合には、本処理を終了す
るが、最大値になっていない場合には、次のステップS
1105以降の処理をTが最大値になるまで繰り返し行う。In this processing, first, a parameter T for counting the number of topic unit sentences is set to 1 (step S110).
1) It is determined whether or not this T has reached the maximum value (step S1103). If the T value has reached the maximum value, the present process is terminated. S
The processing after 1105 is repeated until T reaches the maximum value.
【0099】ステップS1105では、図14に示す話題マ
ーカ・話題手がかり句記憶部33に記憶されている話題
マーカ・話題手がかり句を読み込む。それから、話題単
位文Tの中の形態素を読み込み、形態素の数を計数する
ためのパラメータMを1に設定する(ステップS110
7)。次に、話題単位文の中でM番目の形態素と話題マ
ーカ、話題手がかり句が一致しているか否かを判定する
(ステップS1109)。一致する場合には、話題単位毎に
一致した話題マーカ・話題手がかり句を蓄積記憶する
(ステップS1111)。In step S1105, the topic marker / topic cue phrase stored in the topic marker / topic cue phrase storage unit 33 shown in FIG. 14 is read. Then, the morpheme in the topic unit sentence T is read, and the parameter M for counting the number of morphemes is set to 1 (step S110).
7). Next, it is determined whether the M-th morpheme in the topic unit sentence matches the topic marker and the topic cue phrase (step S1109). If they match, a topic marker / topic cue phrase that matches for each topic unit is accumulated and stored (step S1111).
【0100】ステップS1109の判定において一致してい
ない場合には、次の形態素をチェックし、パラメータM
を+1する(ステップS1113)。それから、パラメータ
Mが形態素計数用パラメータの所定の最大値まで終了し
たか否かを判定し(ステップS1115)、終了していない
場合には、ステップS1109に戻って、同じ処理をパラメ
ータMがその最大値になるまで繰り返し行うが、終了し
ている場合には、次の話題単位文の処理を行うべく、パ
ラメータTを+1して、ステップS1103に戻り(ステッ
プS1117)、ステップS1105以降の処理をパラメータT
が話題単位文計数用パラメータの所定の最大値になるま
で繰り返し行う。以上のようにして、話題マーカ・話題
手がかり句が抽出されることになる。If they do not match in the determination in step S1109, the next morpheme is checked and the parameter M
Is incremented by 1 (step S1113). Then, it is determined whether or not the parameter M has been completed up to a predetermined maximum value of the morpheme counting parameter (step S1115). The processing is repeated until the value reaches the value. If the processing has been completed, the parameter T is incremented by 1 in order to process the next topic unit sentence, and the process returns to step S1103 (step S1117). T
Is repeated until the parameter reaches a predetermined maximum value of the topic unit sentence counting parameter. As described above, a topic marker / topic cue phrase is extracted.
【0101】次に、図17に示すフローチャートを参照
して、顕著名詞句抽出処理について説明する。Next, the salient noun phrase extraction processing will be described with reference to the flowchart shown in FIG.
【0102】図17の顕著名詞句抽出処理では、まず話
題単位文の数を計数するためのパラメータTを1に設定
し(ステップS1201)、このTが話題単位文計数用パラ
メータの所定の最大値になったか否かを判定し(ステッ
プS1203)、最大値になった場合には、本処理を終了す
るが、最大値になっていない場合には、次のステップS
1205以降の処理をTが最大値になるまで繰り返し行う。In the salient noun phrase extraction processing of FIG. 17, first, a parameter T for counting the number of topic unit sentences is set to 1 (step S1201), and this T is a predetermined maximum value of the topic unit sentence counting parameter. Is determined (step S1203). If the maximum value is reached, this process is terminated. If the maximum value is not reached, the next step S1203 is executed.
The processing after 1205 is repeated until T reaches the maximum value.
【0103】ステップS1205では、話題マーカ・話題手
がかり句で抽出された話題マーカ・話題手がかり句を読
み込む。それから、話題単位文の中で話題マーカがある
か否かを判定する(ステップS1207)。話題マーカがな
い場合には、ステップS1203に戻るが、話題マーカがあ
る場合には、この話題マーカの位置をPとする(ステッ
プS1209)。In step S1205, the topic marker / topic cue phrase extracted as the topic marker / topic cue phrase is read. Then, it is determined whether or not there is a topic marker in the topic unit sentence (step S1207). If there is no topic marker, the process returns to step S1203. If there is a topic marker, the position of this topic marker is set to P (step S1209).
【0104】そして、この位置Pより前にある自立語を
抽出し記録する(ステップS1211)。それから、以上の
処理で文の先頭まできたか否かを判定し(ステップS12
13)、文の先頭まできた場合には、今まで記録した自立
語等を顕著名詞句として記録してステップS1203に戻る
(ステップS1215)。Then, an independent word located before the position P is extracted and recorded (step S1211). Then, it is determined whether or not the processing has reached the beginning of the sentence (step S12).
13) When the head of the sentence is reached, the independence word or the like recorded so far is recorded as a prominent noun phrase, and the process returns to step S1203 (step S1215).
【0105】文の先頭まできていない場合には、前の付
属語が「の」のような名詞句を接続する名詞句である場
合には、この名詞句を記録し、Pをこの付属語の位置に
設定する(ステップS1217)。それから、ステップS12
11に戻り、同じ処理を文の先頭まで繰り返し行う。If the sentence is not the head of the sentence, if the preceding adjunct is a noun phrase connecting a noun phrase such as "no", this noun phrase is recorded, and P is (Step S1217). Then, step S12
Return to 11, and repeat the same process up to the beginning of the sentence.
【0106】次に、図18に示すフローチャートを参照
して、大局話題抽出処理について説明する。Next, the general topic extraction processing will be described with reference to the flowchart shown in FIG.
【0107】図18の大局話題抽出処理では、まず話題
単位の数を計数するためのパラメータTを1に設定し
(ステップS1301)、このTが話題単位計数用パラメー
タの所定の最大値になったか否かを判定し(ステップS
1303)、最大値になった場合には、本処理を終了する
が、最大値になっていない場合には、次のステップS13
05以降の処理をTが最大値になるまで繰り返し行う。In the general topic extraction processing of FIG. 18, first, a parameter T for counting the number of topic units is set to 1 (step S1301), and whether T has reached a predetermined maximum value of the topic unit counting parameter is determined. Is determined (step S
1303) If the value has reached the maximum value, this process is terminated. If the value has not reached the maximum value, the next step S13
The processing after 05 is repeated until T reaches the maximum value.
【0108】ステップS1305では、話題マーカ・話題手
がかり句抽出処理で抽出された話題マーカ・話題手がか
り句を読み込み、また話題マーカ・話題手がかり句抽出
処理で話題単位を抽出する毎に話題単位計数用のパラメ
ータTを+1ずつインクリメントするとともに、また顕
著名詞句抽出処理で抽出された顕著名詞句を読み込む
(ステップS1305)。それから、話題単位計数用のパラ
メータT=1であるか、すなわち文の先頭であるかまた
は話題手がかり句を有し、顕著名詞句を有するか否かを
判定する(ステップS1307)。有しない場合には、ステ
ップS1303に戻って,同じ処理を繰り返し行うが、有す
る場合には、話題単位計数用のパラメータTで示される
話題単位を大局話題導入部として記録する(ステップS
1309)。In step S1305, a topic marker / topic cue phrase extracted by the topic marker / topic cue phrase extraction processing is read, and a topic unit count is calculated each time a topic unit is extracted by the topic marker / topic cue phrase extraction processing. The parameter T is incremented by +1 and the salient noun phrase extracted in the salient noun phrase extraction processing is read (step S1305). Then, it is determined whether the topic unit counting parameter T = 1, that is, whether it is the beginning of a sentence or has a topic cue phrase, and has a prominent noun phrase (step S1307). If not, the process returns to step S1303 to repeat the same processing. If yes, the topic unit indicated by the topic unit counting parameter T is recorded as the global topic introduction unit (step S1303).
1309).
【0109】次に、明示マーカが後接続する顕著名詞句
であるか、顕著名詞句中に固有名詞を含むか、かつ今ま
で大局話題として記録されていないかどうかが判定され
る(ステップS1311)。そうである場合には、顕著名詞
句を大局話題として記録し、ステップS1303に戻り、同
じ処理をTが話題単位用パラメータの所定の最大値にな
るまで繰り返すが(ステップS1313)、そうでない場合
には、更に明示マーカが後接続する顕著名詞句である
か、顕著名詞句中に固有名詞を含まないか、かつ今まで
大局話題として記録されていないかどうかが判定される
(ステップS1315)。そうである場合には、顕著名詞句
を大局話題として記録し、ステップS1303に戻り(ステ
ップS1317)、同じ処理をTが最大値になるまで繰り返
し行う。以上の処理により大局話題が抽出されることに
なる。Next, it is determined whether the explicit marker is a prominent noun phrase to be connected later, whether the prominent noun phrase includes a proper noun, and whether the explicit marker has not been recorded as a general topic (step S1311). . If so, the salient noun phrase is recorded as a global topic, and the process returns to step S1303, and the same process is repeated until T reaches a predetermined maximum value of the topic unit parameter (step S1313). It is further determined whether the explicit marker is a prominent noun phrase that is connected later, whether the prominent noun phrase does not include a proper noun, and whether it has not been recorded as a general topic (step S1315). If so, the salient noun phrase is recorded as a general topic, the process returns to step S1303 (step S1317), and the same process is repeated until T reaches the maximum value. The general topic is extracted by the above processing.
【0110】次に、図19に示すフローチャートを参照
して、局所話題抽出処理について説明する。Next, the local topic extraction processing will be described with reference to the flowchart shown in FIG.
【0111】図19の局所話題抽出処理では、まず大局
話題の数を計数するためのパラメータTを1に設定し
(ステップS1401)、このTが大局話題計数用パラメー
タの所定の最大値になったか否かを判定し(ステップS
1403)、最大値になった場合には、本処理を終了する
が、最大値になっていない場合には、次のステップS14
05以降の処理をTが最大値になるまで繰り返し行う。In the local topic extraction processing of FIG. 19, first, a parameter T for counting the number of global topics is set to 1 (step S1401), and whether this T has reached a predetermined maximum value of the global topic counting parameter is determined. Is determined (step S
1403) If the value has reached the maximum value, this process ends. If the value has not reached the maximum value, the next step S14
The processing after 05 is repeated until T reaches the maximum value.
【0112】ステップS1405では、話題マーカ・話題手
がかり句抽出処理で抽出された話題マーカ・話題手、顕
著名詞句抽出処理で抽出された顕著名詞句、および大局
話題抽出処理で抽出された大局話題、大局話題導入部を
読み込むとともに、大局話題抽出処理で大局話題を抽出
する毎に大局話題計数用パラメータTを+1インクリメ
ントする(ステップS1405)。In step S1405, the topic marker / topic clue extracted in the topic marker / topic cue phrase extraction processing, the salient noun phrase extracted in the salient noun phrase extraction processing, the global topic extracted in the global topic extraction processing, The global topic introduction unit is read, and the global topic counting parameter T is incremented by +1 each time a global topic is extracted by the global topic extraction process (step S1405).
【0113】それから、Tが1より大きいか否か(T>
1)、すなわち文の先頭でないか否かおよび顕著名詞句
を有するか否かが判定される(ステップS1407)。否で
ある場合には、ステップS1403に戻るが、そうである場
合には、顕著名詞句が疑問表現の直前または例示表現の
直後にあり、かつ今まで大局話題として記録されていな
いか否かが判定される(ステップS1409)。そうである
場合には、顕著名詞句を局所話題として記録し、ステッ
プS1403に戻るが、そうでない場合には、更に顕著名詞
句が明示マーカに後接続するかまたは顕著名詞句が大局
話題導入部に含まれ、かつ今まで大局話題として記録さ
れていないか否かが判定される(ステップS1413)。そ
うである場合には、顕著名詞句を局所話題として記録
し、ステップS1403に戻るが、そうでない場合には、更
にどの大局話題にも含まれていない固有名詞が顕著名詞
に含まれ、かつ今まで大局話題として記録されていない
か否かが判定される(ステップS1417)。そうである場
合には、顕著名詞句を局所話題として記録し、ステップ
S1403に戻り(ステップS1419)、同じ処理をTが大局
話題計数用パラメータの所定の最大値になるまで繰り返
し行う。以上の処理により局所話題が抽出されることに
なる。Then, whether T is greater than 1 (T>
1) That is, it is determined whether the sentence is not the head of the sentence and whether the sentence has a prominent noun phrase (step S1407). If not, the process returns to step S1403. If so, it is determined whether the salient noun phrase is immediately before the question expression or immediately after the example expression and has not been recorded as a general topic. It is determined (step S1409). If so, the salient noun phrase is recorded as a local topic, and the process returns to step S1403. Otherwise, the salient noun phrase is post-connected to the explicit marker or the salient noun phrase is , And has not been recorded as a general topic (step S1413). If so, the salient noun phrase is recorded as a local topic, and the process returns to step S1403; otherwise, the proper noun that is not included in any general topic is further included in the salient noun, and It is determined whether or not the topic has been recorded as a general topic (step S1417). If so, the salient noun phrase is recorded as a local topic, the process returns to step S1403 (step S1419), and the same process is repeated until T reaches a predetermined maximum value of the global topic counting parameter. By the above processing, a local topic is extracted.
【0114】なお、上記実施形態は、図示で示した装置
構成を有するコンテンツ検索装置について説明したが、
本発明はこのような構成装置に限定されるものでないこ
とは勿論であるとともに、更に本コンテンツ検索装置の
処理手順を実施するコンテンツ検索方法にも適用し得る
ものである。また、このようなコンテンツ検索方法の処
理手順をプログラムとして記録媒体に記録して、この記
録媒体をコンピュータシステムに組み込むとともに、該
記録媒体に記録されたプログラムをコンピュータシステ
ムにダウンロードまたはインストールし、該プログラム
でコンピュータシステムを作動させることにより、コン
テンツ検索方法を実施するコンテンツ検索装置として機
能させることができることは勿論であり、このような記
録媒体を用いることにより、その流通性を高めることが
できるものである。In the above embodiment, the content search device having the device configuration shown in the figure has been described.
The present invention is, of course, not limited to such a configuration device, and can also be applied to a content search method for executing the processing procedure of the content search device. Further, the processing procedure of such a content search method is recorded as a program on a recording medium, and this recording medium is incorporated in a computer system, and the program recorded on the recording medium is downloaded or installed in the computer system, and the program By operating the computer system in the above, it can be made to function as a content search device that implements the content search method, and by using such a recording medium, its distribution can be enhanced. .
【0115】[0115]
【発明の効果】以上説明したように、本発明によれば、
入力音声情報を音声認識した結果をキーワードとし、こ
のキーワードとキーワードコンテンツ対応テーブル手段
のキーワードとを比較して、音声認識結果のキーワード
に対応するキーワードを検出し、このキーワードに対応
するコンテンツをキーワードコンテンツ対応テーブル手
段から取得し、このコンテンツをコンテンツ蓄積手段か
ら検索して読み出して出力するので、ユーザ自身が手作
業でキーワードを入力する必要がなく、所望のコンテン
ツを取り出し得る適切なキーワードを音声認識により自
動的に抽出でき、ユーザに手間をかけたり、大きな負担
をかけることなく、ユーザの操作性を効率化することが
できる。As described above, according to the present invention,
The result of voice recognition of the input voice information is used as a keyword, the keyword is compared with the keyword in the keyword content correspondence table means, a keyword corresponding to the keyword of the voice recognition result is detected, and the content corresponding to this keyword is determined as the keyword content. Since the content is obtained from the correspondence table means, the content is retrieved from the content storage means, read out and output, the user does not need to manually input the keyword, and an appropriate keyword from which the desired content can be extracted is obtained by voice recognition. Extraction can be automatically performed, and the operability of the user can be made more efficient without burdening the user or placing a large burden on the user.
【0116】また、本発明によれば、入力画像情報を画
像認識した結果をキーワードとし、このキーワードとキ
ーワードコンテンツ対応テーブル手段のキーワードとを
比較して、画像認識結果のキーワードに対応するキーワ
ードをキーワードコンテンツ対応テーブル手段から検出
し、このキーワードに対応するコンテンツをキーワード
コンテンツ対応テーブル手段から取得し、このコンテン
ツをコンテンツ蓄積手段から検索して読み出して出力す
るので、ユーザ自身が手作業でキーワードを入力する必
要がなく、所望のコンテンツを取り出し得る適切なキー
ワードを画像認識により自動的に抽出でき、ユーザに手
間をかけたり、大きな負担をかけることなく、ユーザの
操作性を効率化することができる。Further, according to the present invention, the result of image recognition of the input image information is used as a keyword, and this keyword is compared with the keyword of the keyword content correspondence table means, and the keyword corresponding to the keyword of the image recognition result is used as the keyword. The content is detected from the content correspondence table means, the content corresponding to the keyword is acquired from the keyword content correspondence table means, and the content is retrieved from the content storage means, read out and output, so that the user himself manually inputs the keyword. There is no need to automatically extract an appropriate keyword that can extract desired content by image recognition, and the efficiency of user operability can be increased without burdening the user or placing a large burden on the user.
【0117】更に、発明によれば、入力音声情報の音声
認識と入力画像情報の画像認識を同期して行い、音声認
識結果のキーワードと画像認識結果のキーワードとを比
較し、一致しない場合には画像認識結果のキーワードを
対象キーワードとし、この対象キーワードとキーワード
コンテンツ対応テーブル手段のキーワードとを比較し
て、対象キーワードに対応するキーワードをキーワード
コンテンツ対応テーブル手段から検出し、このキーワー
ドに対応するコンテンツを取得し、このコンテンツをコ
ンテンツ蓄積手段から検索して読み出して出力するの
で、ユーザ自身が手作業でキーワードを入力する必要が
なく、所望のコンテンツを取り出し得る適切なキーワー
ドを画像認識により自動的に抽出でき、ユーザに手間を
かけたり、大きな負担をかけることなく、ユーザの操作
性を効率化することができる。Further, according to the present invention, the voice recognition of the input voice information and the image recognition of the input image information are performed in synchronization, and the keyword of the voice recognition result is compared with the keyword of the image recognition result. The keyword of the image recognition result is set as a target keyword, the target keyword is compared with the keyword of the keyword content correspondence table means, a keyword corresponding to the target keyword is detected from the keyword content correspondence table means, and the content corresponding to this keyword is detected. Acquisition, retrieval of this content from the content storage means, and reading and outputting the content, there is no need for the user himself to manually input a keyword, and an appropriate keyword from which desired content can be extracted is automatically extracted by image recognition. Can be troublesome and burdensome for users Without imposing, it is possible to enhance the efficiency of the operation of the user.
【0118】本発明によれば、入力画像情報からテロッ
プを画像情報として認識し、この認識したテロップから
文字情報を切り出し、この切り出した文字情報を画像認
識結果のキーワードとし、このキーワードとキーワード
コンテンツ対応テーブル手段のキーワードとを比較し
て、キーワードを検出し、このキーワードに対応するコ
ンテンツをキーワードコンテンツ対応テーブル手段から
取得し、このコンテンツをコンテンツ蓄積手段から検索
して読み出して出力するので、ユーザ自身が手作業でキ
ーワードを入力する必要がなく、所望のコンテンツを取
り出し得る適切なキーワードを画像認識により自動的に
抽出でき、ユーザに手間をかけたり、大きな負担をかけ
ることなく、ユーザの操作性を効率化することができ
る。According to the present invention, a telop is recognized as image information from input image information, character information is cut out from the recognized telop, and the cut-out character information is used as a keyword of an image recognition result. The keyword is detected by comparing with the keyword in the table means, the content corresponding to the keyword is obtained from the keyword content correspondence table means, and the content is retrieved from the content storage means, read out, and output. There is no need to manually enter keywords, and appropriate keywords that can extract the desired content can be automatically extracted by image recognition, making the user's operability efficient without burdening the user and placing a heavy burden. Can be
【0119】また、本発明によれば、入力画像情報から
キャプションを画像情報として認識し、このキャプショ
ンから文字情報を切り出し、この切り出した文字情報を
画像認識結果のキーワードとし、このキーワードとキー
ワードコンテンツ対応テーブル手段のキーワードとを比
較して、キーワードを検出し、このキーワードに対応す
るコンテンツをキーワードコンテンツ対応テーブル手段
から取得し、このコンテンツをコンテンツ蓄積手段から
検索して読み出して出力するので、ユーザ自身が手作業
でキーワードを入力する必要がなく、所望のコンテンツ
を取り出し得る適切なキーワードを画像認識により自動
的に抽出でき、ユーザに手間をかけたり、大きな負担を
かけることなく、ユーザの操作性を効率化することがで
きる。Further, according to the present invention, a caption is recognized as image information from input image information, character information is cut out from the caption, and the cut-out character information is used as a keyword of an image recognition result. The keyword is detected by comparing with the keyword in the table means, the content corresponding to the keyword is obtained from the keyword content correspondence table means, and the content is retrieved from the content storage means, read out, and output. There is no need to manually enter keywords, and appropriate keywords that can extract the desired content can be automatically extracted by image recognition, making the user's operability efficient without burdening the user and placing a heavy burden. Can be
【0120】更に、本発明によれば、音声認識結果を形
態素解析して、局所話題範囲を決定し、局所話題語の抽
出を行い、局所話題語に対して上位・下位概念関係およ
び類義語関係に基づき認識結果が誤認識であるか否かを
判定し、誤認識と判定された認識結果に対して一文字違
いの単語の類義語関係を有する単語を対象単語として選
択し、この対象単語と局所話題語との概念距離に基づき
認識結果に対する訂正候補を出力するので、認識結果が
誤ったとしても、正しい訂正候補のキーワードを取得で
き、適切なコンテンツを取得することができる。Further, according to the present invention, the speech recognition result is subjected to morphological analysis to determine a local topic range, a local topic word is extracted, and a superordinate / subordinate conceptual relationship and a synonymous relationship to the local topic word are determined. It is determined whether or not the recognition result is erroneous recognition based on the recognition result, and a word having a synonymous relationship of a word different from the recognition result determined as erroneous recognition is selected as a target word. Since the correction candidate for the recognition result is output based on the conceptual distance of, the correct correction candidate keyword can be obtained even if the recognition result is erroneous, and appropriate content can be obtained.
【図面の簡単な説明】[Brief description of the drawings]
【図1】本発明の第1の実施形態に係わるコンテンツ検
索方法を実施するコンテンツ検索装置の構成を示すブロ
ック図である。FIG. 1 is a block diagram illustrating a configuration of a content search device that performs a content search method according to a first embodiment of the present invention.
【図2】図1に示す第1の実施形態のコンテンツ検索装
置の作用を示すフローチャートである。FIG. 2 is a flowchart showing an operation of the content search device of the first embodiment shown in FIG.
【図3】本発明の第2の実施形態に係わるコンテンツ検
索装置の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a content search device according to a second embodiment of the present invention.
【図4】図3に示す第2の実施形態のコンテンツ検索装
置の作用を示すフローチャートである。FIG. 4 is a flowchart showing an operation of the content search device of the second embodiment shown in FIG.
【図5】本発明の第3の実施形態に係わるコンテンツ検
索方法の処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of a content search method according to a third embodiment of the present invention.
【図6】本発明の第4の実施形態に係わるコンテンツ検
索装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a content search device according to a fourth embodiment of the present invention.
【図7】図6に示す第4の実施形態のコンテンツ検索装
置の作用を示すフローチャートである。FIG. 7 is a flowchart showing the operation of the content search device of the fourth embodiment shown in FIG.
【図8】本発明の第5の実施形態に係わるコンテンツ検
索装置の構成を示すブロック図である。FIG. 8 is a block diagram showing a configuration of a content search device according to a fifth embodiment of the present invention.
【図9】図8に示す第5の実施形態のコンテンツ検索装
置の作用を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the content search device of the fifth embodiment shown in FIG.
【図10】本発明の第6の実施形態に係わるコンテンツ
検索方法の処理手順の一部を示すフローチャートであ
る。FIG. 10 is a flowchart showing a part of a processing procedure of a content search method according to a sixth embodiment of the present invention.
【図11】本発明の第6の実施形態に係わるコンテンツ
検索方法の処理手順の図10に続く部分を示すフローチ
ャートである。FIG. 11 is a flowchart showing a part of a processing procedure of a content search method according to a sixth embodiment of the present invention, the part following FIG. 10;
【図12】類義語辞書の一例を示す図である。FIG. 12 is a diagram illustrating an example of a synonym dictionary.
【図13】話題構造の例を示す図である。FIG. 13 is a diagram illustrating an example of a topic structure.
【図14】話題抽出処理を示すフローチャートである。FIG. 14 is a flowchart illustrating a topic extraction process.
【図15】図14のステップS830における話題単位確
定処理を示すフローチャートである。FIG. 15 is a flowchart showing a topic unit determination process in step S830 of FIG.
【図16】図14のステップS840における話題マーカ
・話題手掛かり句抽出処理を示すフローチャートであ
る。FIG. 16 is a flowchart showing topic marker / topic clue phrase extraction processing in step S840 of FIG. 14;
【図17】図14のステップS850における著名名詞句
抽出処理を示すフローチャートである。FIG. 17 is a flowchart showing a prominent noun phrase extraction process in step S850 of FIG. 14;
【図18】図14のステップS860における大局話題抽
出処理を示すフローチャートである。18 is a flowchart showing a general topic extraction process in step S860 in FIG.
【図19】図14のステップS870における局所話題抽
出処理を示すフローチャートである。FIG. 19 is a flowchart showing a local topic extraction process in step S870 of FIG.
1 音声入力部 2 音声認識部 3 音声認識結果通知部 4 キーワード比較部 5 キーワードコンテンツ対応テーブル部 6 制御部 7 コンテンツ蓄積部 8 コンテンツ出力部 10 画像認識部 11 画像認識結果通知部 12 テロップ認識部 13 テロップ認識結果通知部 14 キャプション認識部 15 キャプション認識結果通知部 REFERENCE SIGNS LIST 1 voice input unit 2 voice recognition unit 3 voice recognition result notification unit 4 keyword comparison unit 5 keyword content correspondence table unit 6 control unit 7 content storage unit 8 content output unit 10 image recognition unit 11 image recognition result notification unit 12 telop recognition unit 13 Subtitle recognition result notification unit 14 Caption recognition unit 15 Caption recognition result notification unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 稲垣 博人 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5B075 NK31 NK54 PP07 PP10 PP25 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Hiroto Inagaki 2-3-1 Otemachi, Chiyoda-ku, Tokyo F-term in Nippon Telegraph and Telephone Corporation (reference) 5B075 NK31 NK54 PP07 PP10 PP25
Claims (9)
声認識手段と、 この音声認識手段で認識された認識結果をキーワードと
して出力する音声認識結果通知手段と、 複数のコンテンツを蓄積するコンテンツ蓄積手段と、 各コンテンツに定められているキーワードを各コンテン
ツに対応してテーブルとして記憶管理するキーワードコ
ンテンツ対応テーブル手段と、 前記音声認識結果通知手段から出力される音声認識結果
のキーワードと前記キーワードコンテンツ対応テーブル
手段においてコンテンツに対応して記憶管理されている
キーワードとを比較して、音声認識結果のキーワードに
対応するキーワードをキーワードコンテンツ対応テーブ
ル手段から検出して出力するキーワード比較手段と、 このキーワード比較手段から出力されるキーワードに対
応するコンテンツを前記キーワードコンテンツ対応テー
ブル手段から取得し、このコンテンツを前記コンテンツ
蓄積手段から検索して読み出すように制御する制御手段
と、 この制御手段の制御によりコンテンツ蓄積手段から読み
出されたコンテンツを出力するコンテンツ出力手段とを
有することを特徴とするコンテンツ検索装置。1. Speech input means for inputting speech information, speech recognition means for recognizing speech information input from the speech input means, speech recognition for outputting a recognition result recognized by the speech recognition means as a keyword A result notifying unit, a content storing unit that stores a plurality of contents, a keyword content correspondence table unit that stores and manages a keyword defined for each content as a table corresponding to each content, and a voice recognition result notifying unit. A keyword corresponding to the keyword of the speech recognition result is detected from the keyword content correspondence table means by comparing the output keyword of the speech recognition result with a keyword stored and managed in correspondence with the content in the keyword content correspondence table means. And output keyword comparison And control means for acquiring content corresponding to the keyword output from the keyword comparison means from the keyword content correspondence table means, and controlling the content to be retrieved and read from the content storage means; and And a content output means for outputting the content read from the content storage means under the control of (1).
像認識手段と、 この画像認識手段で認識された認識結果をキーワードと
して出力する画像認識結果通知手段と、 複数のコンテンツを蓄積するコンテンツ蓄積手段と、 各コンテンツに定められているキーワードを各コンテン
ツに対応してテーブルとして記憶管理するキーワードコ
ンテンツ対応テーブル手段と、 前記画像認識結果通知手段から出力される画像認識結果
のキーワードと前記キーワードコンテンツ対応テーブル
手段においてコンテンツに対応して記憶管理されている
キーワードとを比較して、画像認識結果のキーワードに
対応するキーワードをキーワードコンテンツ対応テーブ
ル手段から検出して出力するキーワード比較手段と、 このキーワード比較手段から出力されるキーワードに対
応するコンテンツを前記キーワードコンテンツ対応テー
ブル手段から取得し、このコンテンツを前記コンテンツ
蓄積手段から検索して読み出すように制御する制御手段
と、 この制御手段の制御によりコンテンツ蓄積手段から読み
出されたコンテンツを出力するコンテンツ出力手段とを
有することを特徴とするコンテンツ検索装置。2. An image input unit for inputting image information, an image recognition unit for recognizing image information input from the image input unit, and an image recognition for outputting a recognition result recognized by the image recognition unit as a keyword. A result notifying unit, a content storing unit that stores a plurality of contents, a keyword content correspondence table unit that stores and manages a keyword defined for each content as a table corresponding to each content, and the image recognition result notifying unit. A keyword corresponding to the keyword of the image recognition result is detected from the keyword content correspondence table means by comparing the keyword of the output image recognition result with a keyword stored and managed in correspondence with the content in the keyword content correspondence table means. And output keyword comparison And control means for acquiring content corresponding to the keyword output from the keyword comparison means from the keyword content correspondence table means, and controlling the content to be retrieved and read from the content storage means; and And a content output means for outputting the content read from the content storage means under the control of (1).
声認識手段と、 この音声認識手段で認識された認識結果をキーワードと
して出力する音声認識結果通知手段と、 前記音声情報の入力に同期して画像情報を入力する画像
入力手段と、 この画像入力手段から入力される画像情報を前記音声情
報の認識処理に同期して認識する画像認識手段と、 この画像認識手段で認識された認識結果をキーワードと
して出力する画像認識結果通知手段と、 前記音声認識結果通知手段から出力されるキーワードと
画像認識結果通知手段から出力されるキーワードとを比
較し、両キーワードが一致するか否かを判定する比較判
定手段と、 両キーワードが一致する場合には、該キーワードを対象
キーワードとし、一致しない場合には、画像認識結果通
知手段から出力される画像認識結果のキーワードを対象
キーワードとして選択するキーワード選択手段と、 複数のコンテンツを蓄積するコンテンツ蓄積手段と、 各コンテンツに定められているキーワードを各コンテン
ツに対応してテーブルとして記憶管理するキーワードコ
ンテンツ対応テーブル手段と、 前記対象キーワードと前記キーワードコンテンツ対応テ
ーブル手段においてコンテンツに対応して記憶管理され
ているキーワードとを比較して、前記対象キーワードに
対応するキーワードをキーワードコンテンツ対応テーブ
ル手段から検出して出力するキーワード比較手段と、 このキーワード比較手段から出力されるキーワードに対
応するコンテンツを前記キーワードコンテンツ対応テー
ブル手段から取得し、このコンテンツを前記コンテンツ
蓄積手段から検索して読み出すように制御する制御手段
と、 この制御手段の制御によりコンテンツ蓄積手段から読み
出されたコンテンツを出力するコンテンツ出力手段とを
有することを特徴とするコンテンツ検索装置。3. Speech input means for inputting speech information, speech recognition means for recognizing speech information inputted from the speech input means, and speech recognition for outputting a recognition result recognized by the speech recognition means as a keyword. A result notifying unit, an image input unit for inputting image information in synchronization with the input of the audio information, and an image recognizing unit for recognizing the image information input from the image input unit in synchronization with the recognition process of the audio information Comparing the keyword output from the voice recognition result notifying means with the keyword output from the image recognition result notifying means, and outputting the recognition result recognized by the image recognizing means as a keyword. Comparing means for judging whether or not both keywords match; and, if both keywords match, the keyword However, if they do not match, a keyword selection unit that selects a keyword of the image recognition result output from the image recognition result notification unit as a target keyword, a content storage unit that stores a plurality of contents, A keyword content correspondence table means for storing and managing a keyword as a table corresponding to each content; comparing the target keyword with a keyword stored and managed corresponding to the content in the keyword content correspondence table means; Keyword comparison means for detecting and outputting a keyword corresponding to the target keyword from the keyword content correspondence table means, and content corresponding to the keyword output from the keyword comparison means in the keyword content correspondence table Control means for acquiring the content from the stage and controlling the content to be retrieved and read from the content storage means; and content output means for outputting the content read from the content storage means under the control of the control means. A content search device characterized by the following.
テロップを画像情報として認識するテロップ認識手段
と、この認識したテロップから文字情報を切り出し、こ
の切り出した文字情報を認識結果として出力する切り出
し手段とを有することを特徴とする請求項2または3記
載のコンテンツ検索装置。4. The telop recognition means for recognizing a telop as image information from input image information, and a cutout means for cutting out character information from the recognized telop and outputting the cutout character information as a recognition result. The content search device according to claim 2, further comprising:
キャプションを画像情報として認識するキャプション認
識手段と、この認識したキャプションから文字情報を切
り出し、この切り出した文字情報を認識結果として出力
する切り出し手段とを有することを特徴とする請求項2
または3記載のコンテンツ検索装置。5. The image recognizing means includes: a caption recognizing means for recognizing a caption as image information from input image information; and a extracting means for extracting character information from the recognized caption and outputting the extracted character information as a recognition result. 3. The method according to claim 2, wherein
Or the content search device according to 3.
検索装置の外部に設けられ、前記制御手段は、この外部
に設けられたコンテンツ蓄積手段にアクセスして、該コ
ンテンツ蓄積手段からコンテンツを読み出す外部アクセ
ス手段を有することを特徴とする請求項1乃至5のいず
れかに記載のコンテンツ検索装置。6. The content access means is provided outside the content search device, and the control means accesses the content storage means provided outside and reads out content from the content storage means. The content search device according to any one of claims 1 to 5, further comprising:
記録媒体で構成されていることを特徴とする請求項1乃
至5のいずれかに記載のコンテンツ検索装置。7. The content search device according to claim 1, wherein said content storage means is constituted by a removable recording medium.
手段は、着脱可能な記録媒体で構成されていることを特
徴とする請求項1乃至7のいずれかに記載のコンテンツ
検索装置。8. The content search device according to claim 1, wherein said keyword content correspondence table means is constituted by a removable recording medium.
認識された認識結果を形態素解析して、局所話題範囲を
決定し、局所話題語の抽出を行い、この抽出した局所話
題語に対して上位・下位概念関係および類義語関係に基
づき前記認識結果が誤認識であるか否かを判定する誤認
識判定手段と、この判定の結果、誤認識と判定された認
識結果に対して一文字違いの単語の類義語関係を有する
単語を対象単語として選択し、この対象単語と局所話題
語との概念距離に基づき前記認識結果に対する訂正候補
を出力する訂正候補出力手段とを有することを特徴とす
る請求項1または2または3記載のコンテンツ検索装
置。9. A morphological analysis of the recognition results recognized by the voice recognition means and the image recognition means, a local topic range is determined, and local topic words are extracted. An erroneous recognition determining means for determining whether or not the recognition result is erroneous recognition based on a lower concept relation and a synonym relation; 2. A correction candidate output unit that selects a word having a synonym relation as a target word, and outputs a correction candidate for the recognition result based on a conceptual distance between the target word and the local topic word. 4. The content search device according to 2 or 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000039691A JP2001229180A (en) | 2000-02-17 | 2000-02-17 | Contents retrieval device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000039691A JP2001229180A (en) | 2000-02-17 | 2000-02-17 | Contents retrieval device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001229180A true JP2001229180A (en) | 2001-08-24 |
Family
ID=18563218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000039691A Pending JP2001229180A (en) | 2000-02-17 | 2000-02-17 | Contents retrieval device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001229180A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004064393A1 (en) * | 2003-01-15 | 2004-07-29 | Matsushita Electric Industrial Co., Ltd. | Broadcast reception method, broadcast reception system, recording medium, and program |
WO2006085565A1 (en) * | 2005-02-08 | 2006-08-17 | Nippon Telegraph And Telephone Corporation | Information communication terminal, information communication system, information communication method, information communication program, and recording medium on which program is recorded |
WO2006093003A1 (en) * | 2005-02-28 | 2006-09-08 | Pioneer Corporation | Dictionary data generation device and electronic device |
JP2008276737A (en) * | 2007-04-25 | 2008-11-13 | Samsung Electronics Co Ltd | Method and system for providing access to information of user's potential interest |
US7676496B2 (en) | 2004-10-04 | 2010-03-09 | Sony Corporation | Content management system, content management method and computer program |
JP2011508319A (en) * | 2007-12-19 | 2011-03-10 | グーグル・インコーポレーテッド | Video quality measurement |
US7945439B2 (en) | 2006-06-09 | 2011-05-17 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
JP2011128766A (en) * | 2009-12-16 | 2011-06-30 | Canon Inc | Input device and method |
JP2014006680A (en) * | 2012-06-25 | 2014-01-16 | Sony Corp | Video recorder, information processing system, information processing method, and recording media |
US9690787B2 (en) | 2004-10-07 | 2017-06-27 | Saturn Licensing Llc | Contents management system, contents management method, and computer program |
JP2022085269A (en) * | 2020-11-27 | 2022-06-08 | 株式会社 日立産業制御ソリューションズ | Search device, program and search method |
US11971940B2 (en) | 2019-01-23 | 2024-04-30 | Medullar Solutions Inc. | Data processing system for data search and retrieval augmentation and enhanced data storage |
JP7613582B2 (en) | 2021-06-07 | 2025-01-15 | 日本電信電話株式会社 | Information processing device, information processing method, and program |
-
2000
- 2000-02-17 JP JP2000039691A patent/JP2001229180A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004064393A1 (en) * | 2003-01-15 | 2004-07-29 | Matsushita Electric Industrial Co., Ltd. | Broadcast reception method, broadcast reception system, recording medium, and program |
US7698138B2 (en) | 2003-01-15 | 2010-04-13 | Panasonic Corporation | Broadcast receiving method, broadcast receiving system, recording medium, and program |
US7676496B2 (en) | 2004-10-04 | 2010-03-09 | Sony Corporation | Content management system, content management method and computer program |
US9690787B2 (en) | 2004-10-07 | 2017-06-27 | Saturn Licensing Llc | Contents management system, contents management method, and computer program |
US8126712B2 (en) | 2005-02-08 | 2012-02-28 | Nippon Telegraph And Telephone Corporation | Information communication terminal, information communication system, information communication method, and storage medium for storing an information communication program thereof for recognizing speech information |
WO2006085565A1 (en) * | 2005-02-08 | 2006-08-17 | Nippon Telegraph And Telephone Corporation | Information communication terminal, information communication system, information communication method, information communication program, and recording medium on which program is recorded |
WO2006093003A1 (en) * | 2005-02-28 | 2006-09-08 | Pioneer Corporation | Dictionary data generation device and electronic device |
US7945439B2 (en) | 2006-06-09 | 2011-05-17 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
JP2008276737A (en) * | 2007-04-25 | 2008-11-13 | Samsung Electronics Co Ltd | Method and system for providing access to information of user's potential interest |
US8402025B2 (en) | 2007-12-19 | 2013-03-19 | Google Inc. | Video quality measures |
JP2011508319A (en) * | 2007-12-19 | 2011-03-10 | グーグル・インコーポレーテッド | Video quality measurement |
JP2011128766A (en) * | 2009-12-16 | 2011-06-30 | Canon Inc | Input device and method |
JP2014006680A (en) * | 2012-06-25 | 2014-01-16 | Sony Corp | Video recorder, information processing system, information processing method, and recording media |
US11971940B2 (en) | 2019-01-23 | 2024-04-30 | Medullar Solutions Inc. | Data processing system for data search and retrieval augmentation and enhanced data storage |
US12229207B2 (en) | 2019-01-23 | 2025-02-18 | Medullar Solutions Inc. | Data processing system for data search and retrieval augmentation and enhanced data storage |
JP2022085269A (en) * | 2020-11-27 | 2022-06-08 | 株式会社 日立産業制御ソリューションズ | Search device, program and search method |
JP7456923B2 (en) | 2020-11-27 | 2024-03-27 | 株式会社 日立産業制御ソリューションズ | Search device, program, and search method |
JP7613582B2 (en) | 2021-06-07 | 2025-01-15 | 日本電信電話株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105917327B (en) | System and method for entering text into an electronic device | |
US8332205B2 (en) | Mining transliterations for out-of-vocabulary query terms | |
US8954333B2 (en) | Apparatus, method, and computer program product for processing input speech | |
US8117026B2 (en) | String matching method and system using phonetic symbols and computer-readable recording medium storing computer program for executing the string matching method | |
EP0830668B1 (en) | Systems and methods for word recognition | |
JP2836159B2 (en) | Speech recognition system for simultaneous interpretation and its speech recognition method | |
US9405823B2 (en) | Spoken document retrieval using multiple speech transcription indices | |
US9195646B2 (en) | Training data generation apparatus, characteristic expression extraction system, training data generation method, and computer-readable storage medium | |
US6873993B2 (en) | Indexing method and apparatus | |
US20150112677A1 (en) | Document Editing Using Anchors | |
JP2002531892A (en) | Automatic segmentation of text | |
US9489944B2 (en) | Information processing device, method and computer program product for processing voice recognition data | |
EP2418589A1 (en) | Retrieval device | |
JP2001229180A (en) | Contents retrieval device | |
JP5097802B2 (en) | Japanese automatic recommendation system and method using romaji conversion | |
US20060241936A1 (en) | Pronunciation specifying apparatus, pronunciation specifying method and recording medium | |
JPH08263478A (en) | Single/linked chinese character document converting device | |
CN111310457B (en) | Word mismatching recognition method and device, electronic equipment and storage medium | |
US20230143110A1 (en) | System and metohd of performing data training on morpheme processing rules | |
JPWO2012131822A1 (en) | Speech recognition result shaping apparatus, speech recognition result shaping method and program | |
JP3825645B2 (en) | Expression conversion method and expression conversion apparatus | |
KR100617319B1 (en) | Apparatus for selecting target word for noun/verb using verb patterns and sense vectors for English-Korean machine translation and method thereof | |
JP2008242607A (en) | Device, method and program for selecting proper candidate from language processing result | |
JP2000276482A (en) | Method and device for document retrieval | |
JPH11338863A (en) | Automatic collection and qualification device for unknown noun and flickering katakana word and storage medium recording processing procedure of the device |