JP4020083B2 - Transcription text creation support system and program - Google Patents
Transcription text creation support system and program Download PDFInfo
- Publication number
- JP4020083B2 JP4020083B2 JP2004037718A JP2004037718A JP4020083B2 JP 4020083 B2 JP4020083 B2 JP 4020083B2 JP 2004037718 A JP2004037718 A JP 2004037718A JP 2004037718 A JP2004037718 A JP 2004037718A JP 4020083 B2 JP4020083 B2 JP 4020083B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- text
- recognition result
- division unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013518 transcription Methods 0.000 title claims description 115
- 230000035897 transcription Effects 0.000 title claims description 115
- 238000012790 confirmation Methods 0.000 claims description 47
- 238000012937 correction Methods 0.000 claims description 47
- 239000000463 material Substances 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 15
- 230000001360 synchronised effect Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 description 16
- 241000251468 Actinopterygii Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000002609 medium Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 1
- 241000220259 Raphanus Species 0.000 description 1
- 235000006140 Raphanus sativus var sativus Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000012572 advanced medium Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Description
本発明は音声データを文章化する作業を支援する書き起こしテキスト作成支援システムに関し、特に音声情報に対し音声認識処理を行った認識結果を適宜修正して最終的な書き起こしテキストを作成するための書き起こしテキスト作成支援システムに関する。 The present invention relates to a transcribed text creation support system that supports a task of converting speech data into a sentence, and more particularly, to appropriately correct a recognition result obtained by performing speech recognition processing on speech information and create a final transcribed text. The present invention relates to a transcription text creation support system.
コンテンツに含まれる音声情報をテキスト化することを、音声の書き起こし或いは単に書き起こしと言い、従来より各種の分野で実施されている。例えば、映像・音声コンテンツの内容に対してキーワードで検索し、検索にヒットしたシーンから映像・音声を配信する映像検索・配信サービスの実現のため、映像・音声コンテンツ内の音声をテキストに書き起こして検索用キーワードとすることが行われている。また、映像コンテンツに対する字幕情報として音声情報をテキストに書き起こすことも行われている。 Converting audio information included in content into text is called transcription or simply transcription, and has been practiced in various fields. For example, to search for content of video / audio content using keywords and to realize video search / distribution service that distributes video / audio from scenes that hit the search, the audio in the video / audio content is transcribed into text. And making it a search keyword. In addition, audio information is written as text as subtitle information for video content.
書き起こしテキストの作成手順は、作業者が書き起こし対象コンテンツの音声情報を聞き、その音声情報をキーボードなどの入力手段を用いて書き起こした後、書き起こしたテキストを目視で見直し、書き起こし誤りを発見、修正するのが一般的である。ただし、このような作業には大変な労力が必要になるため、音声認識技術を用いてある程度自動的に音声情報からテキストを生成することで、書き起こし作業の効率化を図ったシステムが考案されている(例えば特許文献1参照)。 The procedure for creating the transcript text is that the operator listens to the audio information of the content to be transcribed, transcribes the audio information using an input means such as a keyboard, and then visually reviews the transcribed text to make a transcription error. It is common to find and correct. However, since this kind of work requires a lot of effort, a system has been devised to improve the efficiency of the transcription work by automatically generating text from speech information to some extent using speech recognition technology. (For example, refer to Patent Document 1).
しかしながら、音声認識技術による書き起こし作業の効率化システムにおいては、作業者が、実際の音声情報を耳で聞きながら、システムから出力された音声認識結果テキストの誤りを目視で検出して修正する作業が必要であり、繰り返し確認する際にどの部分を作業中であったかの確認を誤り再生ポイントを前後してしまうなど、結局作業負荷がかかってしまうという問題がある。 However, in the system for improving the efficiency of transcription work using speech recognition technology, the operator visually detects and corrects errors in the speech recognition result text output from the system while listening to the actual speech information by ear. There is a problem that a work load is eventually applied, such as confirming which part is being worked when repeatedly confirming, and moving back and forth the error reproduction point.
一つの解決策として、特許文献2では、実際の音声情報と、認識結果テキストを元に音声合成技術にて発声させた音声情報とを比較することで自動的に誤り箇所を発見し、作業者に提示する方法が提示されている。これにより、ある程度作業者の負荷軽減が期待されるが、実際には、自動的に誤りと指摘された箇所の精度が100%でない限りは、対象コンテンツ全体の内容確認を人手で行う必要があるため、根本的な作業負荷軽減とはならないという問題が残る。
As one solution,
他方、非特許文献1には、発話単位である1文毎に、話者と時間情報と音声認識結果と書き起こしテキストとを1行に表示した認識結果リストと、この認識結果リスト中のハイライト表示されている発話単位に対応する音声情報の波形を表示する音声自動再生ウィンドウと、書き起こしテキストの編集ウィンドウとを画面に表示し、発話単位で音声を再生しながら音声認識結果を対話的に修正することのできる書き起こしテキスト支援システムが掲載されている。
上述した非特許文献1に記載される書き起こしテキスト支援システムによれば、発話単位である1文毎に、音声を再生しながらその発話単位の音声認識結果を対話的に修正することができるため、ある程度効率良く書き起こしテキストを作成していくことが可能である。しかしながら、文単位で音声が再生されるため、文中の一部の単語に疑義がある場合であっても、文の最初から音声を聞いて該当する単語箇所の音声を聞き取る必要があり、効率良く且つ正確に単語の音声を聞き取るのが難しい。このような問題は、発話の文章が長文になればなるほど顕著である。また、音声情報とそれに対応する音声認識結果および書き起こしテキストとの対応関係が1文単位であるため、音声情報の各部分が音声認識結果および書き起こしテキストのどの部分に対応しているのかが不明であり、音声情報のすべてを漏れなく書き起こしたかどうかを確認するのが容易でない。 According to the transcription text support system described in Non-Patent Document 1 described above, it is possible to interactively correct the speech recognition result for each utterance while reproducing the speech for each sentence that is the utterance. It is possible to create a transcribed text with a certain degree of efficiency. However, since the sound is played in sentence units, even if some words in the sentence are suspicious, it is necessary to listen to the sound from the beginning of the sentence and listen to the sound of the corresponding word part efficiently. And it is difficult to hear the voice of the word accurately. Such a problem becomes more prominent as the utterance sentence becomes longer. In addition, since the correspondence between the speech information and the corresponding speech recognition result and the transcription text is one sentence unit, which part of the speech information corresponds to each part of the speech recognition result and the transcription text. It is unknown and it is not easy to confirm whether all of the audio information has been written down without omission.
本発明は、上記技術的課題の認識に基づき創案されたものであって、その目的は、コンテンツに含まれる音声情報の書き起こしテキストを効率良くかつ正確に作成することのできる書き起こしテキスト作成支援システムを提供することにある。 The present invention was devised based on the recognition of the above technical problem, and its purpose is to provide a transcription text creation support capable of efficiently and accurately creating a transcription text of audio information included in content. To provide a system.
本発明の第1の書き起こしテキスト作成支援システムは、記憶装置と、表示装置と、入力装置と、音声出力器と、素材コンテンツに含まれる音声情報に対して音声認識処理を行って得られた音声認識結果を文より小さな単位に分割した際の各分割単位毎に、その分割単位の音声認識結果とその元となる音声情報とその音声情報を特定するための時間情報と初期状態の書き起こしテキストとを関連付けて前記記憶装置に格納する同期情報生成部と、前記記憶装置に格納されている各分割単位毎の音声認識結果とその元となる音声情報のイメージとその音声情報を特定するための時間情報と書き起こしテキストとを互いに時間軸を揃えて前記表示装置の画面に平行に並べて表示し、前記入力装置による前記画面上の分割単位を指定した音声再生指示に応答して前記指定された分割単位の音声情報を再生して前記音声出力器から出力し、前記入力装置による前記画面上の分割単位を指定した書き起こしテキストの入力操作に応答して前記記憶装置における前記指定された分割単位の書き起こしテキストを更新する確認修正部とを備えることを特徴とする。 The first transcript text creation support system of the present invention is obtained by performing speech recognition processing on speech information included in a storage device, a display device, an input device, an audio output device, and material content. For each division unit when the speech recognition result is divided into units smaller than sentences, the speech recognition result of the division unit, the original speech information, time information for identifying the speech information, and transcription of the initial state A synchronization information generating unit that associates text and stores it in the storage device, a speech recognition result for each division unit stored in the storage device, an image of the speech information that is the basis thereof, and the speech information The time information and the transcribed text are aligned and displayed in parallel on the screen of the display device with the time axis aligned, and a voice reproduction finger specifying a division unit on the screen by the input device. The voice information of the designated division unit is reproduced and output from the voice output device, and the storage is performed in response to the input operation of the transcription text designating the division unit on the screen by the input device. And a confirmation correction unit for updating the transcription text of the designated division unit in the apparatus.
本発明の第2の書き起こしテキスト作成支援システムは、第1の書き起こしテキスト作成支援システムにおいて、前記分割単位が単語であることを特徴とする。 The second transcription text creation support system of the present invention is characterized in that the division unit is a word in the first transcription text creation support system.
本発明の第3の書き起こしテキスト作成支援システムは、第1の書き起こしテキスト作成支援システムにおいて、前記音声情報のイメージは、前記音声情報から生成した音声波形の画像であることを特徴とする。 The third transcription text creation support system according to the present invention is characterized in that in the first transcription text creation support system, the image of the voice information is an image of a voice waveform generated from the voice information.
本発明の第4の書き起こしテキスト作成支援システムは、第1の書き起こしテキスト作成支援システムにおいて、前記入力装置による前記画面上の分割単位を指定した書き起こしテキストの入力操作は、認識結果を書き起こしテキストへコピーするコピー操作であることを特徴とする。 According to a fourth transcription text creation support system of the present invention, in the first transcription text creation support system, the input operation of the transcription text specifying the division unit on the screen by the input device writes the recognition result. It is a copy operation for copying to a wake-up text.
本発明の第5の書き起こしテキスト作成支援システムは、第1の書き起こしテキスト作成支援システムにおいて、前記確認修正部は、前記入力装置からのスクロール指示に応答して、前記表示装置の画面に表示されている各分割単位毎の音声認識結果とその元となる音声情報のイメージとその音声情報を特定するための時間情報と書き起こしテキストとを互いに同期させてスクロールするものであることを特徴とする。 According to a fifth transcript text creation support system of the present invention, in the first transcript text creation support system, the confirmation correction unit displays the screen on the display device in response to a scroll instruction from the input device. The speech recognition result for each divided unit, the image of the original speech information, the time information for specifying the speech information, and the transcribed text are scrolled in synchronization with each other. To do.
本発明の第1のプログラムは、記憶装置と表示装置と入力装置と音声出力器とを備えたコンピュータを、素材コンテンツに含まれる音声情報に対して音声認識処理を行って得られた音声認識結果を文より小さな単位に分割した際の各分割単位毎に、その分割単位の音声認識結果とその元となる音声情報とその音声情報を特定するための時間情報と初期状態の書き起こしテキストとを関連付けて前記記憶装置に格納する同期情報生成手段、前記記憶装置に格納されている各分割単位毎の音声認識結果とその元となる音声情報のイメージとその音声情報を特定するための時間情報と書き起こしテキストとを互いに時間軸を揃えて前記表示装置の画面に平行に並べて表示し、前記入力装置による前記画面上の分割単位を指定した音声再生指示に応答して前記指定された分割単位の音声情報を再生して前記音声出力器から出力し、前記入力装置による前記画面上の分割単位を指定した書き起こしテキストの入力操作に応答して前記記憶装置における前記指定された分割単位の書き起こしテキストを更新する確認修正手段、として機能させることを特徴とする。 A first program of the present invention is a speech recognition result obtained by performing speech recognition processing on speech information included in material content on a computer including a storage device, a display device, an input device, and an audio output device. Is divided into units smaller than sentences, and for each division unit, the speech recognition result of the division unit, the original voice information, time information for identifying the voice information, and the initial transcript Synchronization information generating means for storing in the storage device in association with each other, a speech recognition result for each division unit stored in the storage device, an image of the original speech information, and time information for specifying the speech information; Transcript text is aligned and displayed in parallel on the screen of the display device with the time axis aligned, and responds to an audio playback instruction specifying the division unit on the screen by the input device The audio information of the designated division unit is reproduced and output from the audio output device, and the input unit of the transcription text designating the division unit on the screen by the input device is used in the storage device. It is made to function as a confirmation and correction means for updating the transcription text of the designated division unit.
本発明の第2のプログラムは、第1のプログラムにおいて、前記分割単位が単語であることを特徴とする。 According to a second program of the present invention, in the first program, the division unit is a word.
本発明によれば、コンテンツに含まれる音声情報の書き起こしテキストを効率良くかつ正確に作成することができる。 According to the present invention, it is possible to efficiently and accurately create a transcription text of audio information included in content.
その理由は、第1に、音声情報の再生は、文より小さな単位で行えるため、或る音声情報の一部分に疑義がある場合に、その一部分だけを再生でき、効率良く且つ正確に聞き取ることができるからであり、第2に、音声情報とそれに対応する音声認識結果および書き起こしテキストとが、文より小さな単位毎に対応付けられて表示されるため、音声情報の各部分がどの音声認識結果及びどの書き起こしテキストの部分に対応しているのか一目瞭然となり、音声情報のすべてを漏れなく書き起こしたかどうかなどを容易に確認することができるからである。 The first reason is that audio information can be played back in smaller units than sentences, so if there is any doubt about a part of a piece of voice information, only that part can be played back, and it can be heard efficiently and accurately. Secondly, since the speech information and the speech recognition result and the transcription text corresponding to the speech information are displayed in association with each unit smaller than the sentence, the speech recognition result corresponding to each part of the speech information is displayed. This is because it becomes clear at a glance which portion of the transcription text corresponds, and it can be easily confirmed whether or not all of the voice information has been transcribed without omission.
図1を参照すると、本発明の実施の形態にかかる書き起こしテキスト作成支援システムは、同期情報生成部101、同期情報格納部102、確認修正部103、表示装置104、入力装置105、音声出力器106および出力装置107を備えている。
Referring to FIG. 1, a transcription text creation support system according to an exemplary embodiment of the present invention includes a synchronization
同期情報格納部102は、磁気ディスク装置などのランダムアクセス可能な記憶装置で構成され、多数のエントリ1025を有する。1つのエントリ1025は、時間情報フィールド1021、音声情報フィールド1022、認識結果フィールド1023および書き起こしテキストフィールド1024で構成される。1つのエントリ1025において、認識結果フィールド1023には、書き起こし対象の素材コンテンツ111に含まれる音声情報を音声認識処理したときに得られる認識結果を文より小さな単位に分割したときの分割単位の認識結果が格納され、音声情報フィールド1022には、認識結果フィールド1023に格納された認識結果の元となる音声情報のバイナリデータが格納され、時間情報フィールド1021には、音声情報フィールド1022に格納されている音声情報を素材コンテンツ111に含まれる一連の音声情報から識別するための時間情報が格納される。これら3つのフィールド1021、1022および1023の内容は機械的に自動設定される。残りの書き起こしテキストフィールド1024は、作業者自身が対話的に設定するフィールドである。
The synchronization
同期情報生成部101は、少なくとも音声情報を含む素材コンテンツ111を入力し、素材コンテンツ111に含まれる音声情報に対して音声認識処理を行い、得られた音声認識結果を文より小さな単位に分割し、その分割単位毎に、同期情報格納部102の1つのエントリ1025を割り当て、認識結果フィールド1023にその分割単位の認識結果を格納し、音声情報フィールド1022にその認識結果に対応する元の音声情報を格納し、時間情報フィールド1021にその音声情報を特定する時間情報を格納し、書き起こしテキスト格納用フィールド1024は初期状態(一般には空欄であるが、認識結果通りにしておいても良い)としておく。分割単位としては、例えば単語を用いることができる。
The synchronization
例えば、素材コンテンツ111中の先頭からの再生時間がt1〜t3の間に存在する一連の音声情報に対して音声認識を行った結果、「魚を食べた」という認識結果が得られたとする。この場合、「魚(普通名詞)」と「を(各助詞)」とをあわせた「魚を」を1つの単語、「食べ(一段動詞語幹)」と「た(助動詞)」とをあわせた「食べた」を別の1つの単語とし、それぞれ1つのエントリ1025−1、1025−2を割り当てる。そして、エントリ1025−1の認識結果フィールド1023に認識結果「魚を」を格納し、音声情報フィールド1022に認識結果「魚を」に対応する音声情報AAAを格納し、その音声情報AAAの素材コンテンツ111における先頭からの再生時間がt1〜t2の間に存在する場合、例えば時間t1を時間情報フィールド1021に格納し、書き起こしテキストフィールド1024は空白とする。同様に、エントリ1025−2の認識結果フィールド1023に認識結果「食べた」を格納し、音声情報フィールド1022に認識結果「食べた」に対応する音声情報BBBを格納し、その音声情報BBBの素材コンテンツ111における先頭からの再生時間がt2〜t3とすると、その開始側の時間t2を時間情報フィールド1021に格納し、書き起こしテキストフィールド1024は空白とする。
For example, it is assumed that a recognition result “eating fish” is obtained as a result of performing speech recognition on a series of speech information that exists between the playback times t1 to t3 in the
確認修正部103は、液晶ディスプレイなどで構成される表示装置104に確認修正画面1046を表示し、この確認修正画面1046を通じて作業者に対し音声認識結果を利用した書き起こしテキストの編集を行わせる。確認修正画面1046には、時間情報表示部1041、認識結果表示部1042、音声波形表示部1043、書き起こしテキスト表示部1044が横方向(X軸方向)に平行に並べられており、これら表示部1041〜1044の内容をスクロールするためのスクロールボタン1045−1、1045−2が設けられている。スクロールボタン1045−1は現在より過去の時刻側にスクロールするためのボタン(巻き戻しボタン)、スクロールボタン1045−2は現在より未来の時刻側にスクロールするためのボタン(早送りボタン)である。
The confirmation /
時間情報表示部1041には、同期情報格納部102の各エントリ1025の時間情報フィールド1021に格納されている時間情報が時間順に表示され、認識結果表示部1042には、同期情報格納部102の各エントリ1025の認識結果フィールド1023に格納されている認識結果が時間順に表示され、音声波形表示部1043には、同期情報格納部102の各エントリ1025の音声情報フィールド1022に格納されている音声情報の簡略化した波形イメージが時間順に表示され、書き起こしテキスト表示部1044には、同期情報格納部102の各エントリ1025の書き起こしテキストフィールド1024に格納されている書き起こしテキストが時間順に表示される。
In the time
これら4つの表示部1041〜1044における表示情報の時間軸は同期している。すなわち、同期情報格納部102のエントリ1025−1を例にして説明すると、そのエントリ1025−1の時間情報フィールド1021に格納されている時間t1とその直後のエントリ1025−2の時間情報フィールド1021に格納されている時間t2とが時間情報表示部1041に表示される場合、時間t1の表示位置からY軸方向に平行に引いたガイド線1047と時間t2の表示位置からY軸方向に平行に引いたガイドライン1048とで挟まれた認識結果表示部1042の部分にエントリ1025−1の認識結果フィールド1023に格納されている認識結果「魚を」が表示され、同ガイドライン1047、1048で挟まれた音声波形表示部1043の部分にエントリ1025−1の音声情報フィールド1022に格納されている音声情報の波形イメージが表示され、同ガイドライン1047、1048で挟まれた書き起こしテキスト表示部1044の部分にエントリ1025−1の書き起こしテキストフィールド1024に格納されている書き起こしテキストが表示される。そして、スクロールボタン1045−1または1045−2が操作されると、4つの表示部1041〜1044の表示情報が同期してスクロールされるようになっている。
The time axes of the display information in these four
また確認修正部103は、入力装置105からの確認修正画面1046上の分割単位を指定した音声再生指示に応答して、前記指定された分割単位の音声情報を再生し、スピーカなどで構成される音声出力器106から出力する。分割単位を指定する音声再生指示の方法としては、再生した分割単位の音声波形部分や認識結果部分をマウスでクリックする方法が考えられる。これにより、作業者は各分割単位毎にその元の音声情報を自分の耳で聞いて確認することができる。
The confirmation /
さらに確認修正部103は、入力装置105からの確認修正画面1046上の分割単位を指定した書き起こしテキストの入力操作に応答して、書き起こしテキスト表示部1044の当該分割単位に対応する部分に、前記入力された書き起こしテキストを表示する。書き起こしテキストの入力操作は、入力装置105を構成するキーボードからの直接入力以外に、認識結果表示部1042に表示された認識結果を書き起こしテキスト表示部1044にコピーする方法が利用できる。こうして、書き起こしテキスト表示部1044上で編集された書き起こしテキストは、同期情報格納部102の該当するエントリの書き起こしテキストフィールド1024に書き込まれる。
Further, the
以上のようにして編集されて同期情報格納部102に保存された各エントリの書き起こしテキストフィールド1024の内容は、入力装置105からの書き起こしテキスト出力指示に応答して、時間情報フィールド1021の時間順に同期情報格納部102から順次読み取られ、プリンタなどの出力装置107から出力することも可能である。
The contents of the
次に本実施の形態の書き起こしテキスト作成支援システムの各部の実施例について説明する。まず、同期情報生成部101の実施例について図面を参照して詳細に説明する。
Next, examples of each part of the transcription text creation support system according to the present embodiment will be described. First, an embodiment of the synchronization
図2を参照すると、同期情報生成部101の一実施例は、素材コンテンツ111を入力する素材入力部1011と、素材入力部1011が入力した素材コンテンツ111の音声情報に対し音声認識処理を行う音声認識部1012と、音声認識部1012にて或る単語単位の認識結果テキストが生成されたタイミングで、当該認識結果テキストの元となる音声情報の、素材コンテンツ111の先頭からの時間情報を取得して出力する時間情報取得部1013と、音声認識部1012から認識結果テキストとその元となる音声情報を受け取り、時間情報取得部1013から前記時間情報を受け取って、これら受け取った時間情報、音声情報、認識結果と空白に設定した書き込みテキストフィールドとを持つ1つのエントリ1025を同期情報格納部102に記録する記録部1014とを備えている。
Referring to FIG. 2, an example of the synchronization
図3は同期情報生成部101の処理の流れを示すフローチャート、図4は同期情報格納部102のデータ格納例の一部を示す図である。本発明を、例えば議会映像コンテンツの書き起こしテキスト作成作業に利用することを考えると、まず、素材コンテンツ111である議会映像ビデオがビデオデッキなどによって再生され、素材入力部1011にて取り込まれる。一般に、映像コンテンツをコンピュータ内に取り込む作業はキャプチャと呼ばれている。キャプチャの際、映像コンテンツは、コンピュータで扱うことの可能なMPEG1などでデジタル化処理が施された後、コンピュータ上に設置されているハードディスクドライブなどの外部記憶媒体(図示せず)に一旦格納される(S101)。このとき再生時刻の情報を付加して記録しても良い。次いで、音声認識部1012は、外部記憶媒体(図示せず)からデジタル音声データを時系列順に読み出し、既存の音声認識技術により音声認識処理を実施し、認識結果テキストを生成する(S102)。その間、時間情報取得部1013は、あらかじめ素材入力部1011から素材コンテンツ111を受け取っておき、音声認識部1012での処理開始時間と素材コンテンツ111の時間情報とを対応させ、現在素材コンテンツ111のどの箇所に対し処理しているかを監視している。そして、音声認識部1012が、音声情報を認識し、認識結果テキストを出力したタイミングを時間情報取得部1013に通知すると、時間情報取得部1013は、音声認識部1012から受け取ったタイミングに合致する素材コンテンツ111の先頭からの時間情報を取得する(S103)。ここで、出力タイミングの通知は、例えば音声認識部1012の出力する単語単位で通知すればよい。
FIG. 3 is a flowchart showing a processing flow of the synchronization
音声認識部1012は、タイミングを通知すると同時に、認識結果テキストとその元となる音声情報を記録部1014に通知し、時間情報取得部1013は、時間情報を記録部1014に通知し、記録部1014は、受け取った時間情報を主キーとして、受け取った音声情報および認識結果テキストを時間情報で紐付け格納する(S104)。また、記録部1014は、同期情報格納部102に、時間情報ごとに、書き起こしテキストを格納するためのフィールドを生成しておく。
The
これら一連のステップは、素材コンテンツ111の末尾まで継続的に実施される。
These series of steps are continuously performed up to the end of the
図4を参照すると、時間情報として「0:00:03」から「0:00:14」が格納されている領域の横に、それぞれ時間情報に紐付けられた音声情報、および、認識結果「続きまして」「秋の」「委員会で」「貸されました」「起案」「について」「ですが」、および、書き起こしテキストが格納されている。ここで、音声情報202は説明のため音声波形の画像として図示している。
Referring to FIG. 4, next to the area where “0:00:03” to “0:00:14” are stored as time information, the voice information associated with the time information and the recognition result “ Continuing, “Autumn”, “At the Committee”, “Lending”, “Drafting”, “About”, “But”, and transcription text are stored. Here, the
次に確認修正部103の実施例について図面を参照して詳細に説明する。
Next, an embodiment of the confirmation /
図5を参照すると、確認修正部103は、同期情報格納部102に記憶された各エントリ1025の内容を読み込むデータ読み込み部1031と、データ読み込み部1031から各エントリ1025の内容を受け取って図1に示したような確認修正画面1046を生成する画面生成部1032と、画面生成部1032から音声情報を受け取り、バイナリ形式である音声情報から、作業者に視覚的に見やすい音声波形を生成し、その音声波形を画面生成部1032に返却する音声波形生成部1033と、画面生成部1032で生成された確認修正画面1046を表示装置104に表示する表示部1034と、データ読み込み部1031から音声情報を受け取り、それを再生した音声信号を生成する音声再生部1035、音声再生部1035で生成された音声信号で音声出力器106を駆動する出力部1036と、同期情報格納部102の各エントリ1025における書き起こしテキストフィールド1024の内容を更新するデータ書き込み部1037と、キーボードおよびマウスで構成される入力装置105から指示やデータを入力する入力部1038と、入力部1038から指示やデータを受け取って各部を制御する制御部1039とを備えている。
Referring to FIG. 5, the confirmation /
図6は同期情報格納部104の各エントリの書き起こしテキストフィールド1024が空白になっている初期の状態における確認修正画面1046の一例を示す図である。ここでは、時間情報表示部1041、認識結果表示部1042、音声波形表示部1043および書き起こしテキスト表示部1044は、アプリケーションウィンドウ内に並べて配置する形態を採用しており、並べて配置する際に、同期情報格納部102に格納されている時間情報をキーとして、ディスプレイの同一X軸座標上に各データを配置している。
FIG. 6 is a diagram showing an example of the confirmation / correction screen 1046 in the initial state where the
図7は図6のような初期状態の確認修正画面を表示する際の確認修正部103の処理例を示すフローチャートである。確認修正部103の画面生成部1032は、データ読み込み部1031によって同期情報格納部102から、作業対象の素材コンテンツ111の先頭位置からの時間情報を取得し、表示部1034によって表示装置104上のウィンドウ内の時間情報表示部1041に時間情報を表示する(S201)。図6では、時間情報「0:00:03」、「0:00:04」、…、「0:00:14」が順に表示されている。
FIG. 7 is a flowchart showing a processing example of the confirmation /
次に、画面生成部1032は、データ読み込み部1031によって同期情報格納部102から前記時間情報に対応する音声情報を取得し、音声波形生成部1033によって、デジタル化されたバイナリデータの形式を取っている音声情報から一般的なグラフィックイコライザ表示技術などを用いて音声波形画像を生成し、表示部1034によって表示装置104上のウィンドウ内の音声波形表示部1043に音声波形を表示する(S202)。。ここで、音声波形は、時間情報表示部1041にて表示した時間情報のうち、同期情報格納部102にて対応付けられている時間情報と同一のX座標軸上に表示する。図6では、時間情報「0:00:03」、「0:00:04」、…、「0:00:14」と同一のX座標軸上に、対応する音声情報の波形が表示されている。
Next, the
次に、画面生成部1032は、データ読み込み部1031によって同期情報格納部102から前記時間情報に対応する認識結果テキストを取得し、表示部1034によって表示装置104上のウィンドウ内の認識結果表示部1042に認識結果テキストを表示する(S203)。ここで、認識結果テキストは、時間情報表示部1041にて表示した時間情報のうち、同期情報格納部102にて対応付けられている時間情報と同一のX座標軸上に表示する。図6では、時間情報「0:00:03」、「0:00:04」、…、「0:00:14」と同一のX座標軸上に、対応する音声情報の認識結果テキストが表示されている。
Next, the
最後に、画面生成部1032は、データ読み込み部1031によって同期情報格納部102から前記時間情報に対応する書き起こしテキストを取得し、表示部1034によって表示装置104上のウィンドウ内の書き起こしテキスト表示部1044に書き起こしテキストを表示する(S204)。ここで、書き起こしテキストは、時間情報表示部1041にて表示した時間情報のうち、同期情報格納部102にて対応付けられている時間情報と同一のX座標軸上に表示する。ただし、初期状態では書き起こしテキストの情報は未だ格納されていないため、時間情報に対応する書き起こしテキストの表示部1044は空欄として表示されることとなる。
Finally, the
図8は図7に示したフローチャートが実行されて図6に示したような初期状態の確認修正画面1046が表示装置104に表示された後に確認修正部103で実行される処理の流れを示すフローチャートである。
FIG. 8 is a flowchart showing the flow of processing executed by the confirmation /
まず、作業者が、表示装置104上に表示されている音声波形表示部1043の音声波形または認識結果表示部1042に表示されている認識結果テキストを入力装置105のマウスでクリックして聞き取りたい再生箇所を指定すると(S301のYES)、そのことを入力部1038からの信号で検出した制御部1039は、クリックされた音声波形または認識結果テキストに対応する時間情報を画面生成部1032から取得して、音声再生部1035に通知し、音声再生部1035は通知された時間情報に対応する音声情報をデータ読み込み部1031を通じて同期情報格納部102から取り出して再生信号を生成し、出力部1036はその再生信号でスピーカなどの音声再生器106を駆動する(S302)。これにより、作業者がクリックした箇所の対応する音声情報が音声として再生される。音声再生は、同一ステップの繰り返しにより何度でも可能である。
First, the reproduction that the operator wants to hear by clicking the speech waveform of the speech
ステップS301で音声波形または認識結果に対するクリック操作が行われなかった場合の動作の流れについては後述する(C)。 The flow of the operation when the click operation on the speech waveform or the recognition result is not performed in step S301 will be described later (C).
作業者は、音声出力器106から出力される音声情報を聞き取り、認識結果表示部1042に表示されている認識結果テキストの内容が正しいかどうかを判断する。ここで、現在再生している音声情報に対応する認識結果テキストの色を変更したり、フォントを変更するなどして修飾する機能を画面生成部1032に持たせるようにしても良い。これにより、現在どの箇所を作業しているかを視覚的に即座に確認できるため、目視による作業誤りを軽減することができる。
The operator listens to the audio information output from the
認識結果が正しかったことにより(S303のYES)、作業者が、認識結果表示部1042の該当部分をダブルクリックするか、またはドラッグ&ドロップにより該当部分を書き起こしテキスト表示部1044にコピーする操作を行うと、制御部1039はそのことを入力部1038の入力信号により検出して画面生成部1032を制御し、書き起こしテキスト表示部1044の空欄箇所に認識結果テキストをコピーして表示させる(S304)。このときの様子を図9に示す。図9を参照すると、時間情報「0:00:03」に対応する認識結果「続きまして」をクリックし、作業者が音声を聞き取り確認した結果、正常であったため、認識結果「続きまして」を同一X座標軸上の書き起こしテキスト表示部1044にドラッグ&ドロップすると、書き起こしテキスト表示部1044に認識結果の「続きまして」という情報が追加表示される。その後、書き起こしテキスト表示部1044に追加表示された書き起こしテキストは、データ書き込み部1037によって、図10に示すように時間情報で同期させて同期情報格納部103に格納される(S306)。
When the recognition result is correct (YES in S303), the operator performs an operation of double-clicking the corresponding part of the recognition
他方、認識結果が正しくなかった場合(S303のNO)、作業者は、入力装置105のキーボードから、書き起こしテキスト表示部1044の該当する箇所に正しいテキストを入力する(S305)。その様子を図11に示す。図11を参照すると、時間情報「0:00:04」に対応する認識結果「秋の」をクリックし、作業者が音声を聞き取り確認した結果、正しくなかったため、同一X座標軸上の書き起こしテキスト表示部1044の箇所にキーボードを用いて「先の」という正しい書き起こしテキストを入力している。ここで、キーボードのように直接文字入力する装置でなく、マイクを用いた音声認識によってテキストを入力するようにしてもよい。その後、書き起こしテキスト表示部1044に追加表示された書き起こしテキストは、データ書き込み部1037によって、図12に示すように時間情報で同期させて同期情報格納部103に格納される(S306)。
On the other hand, when the recognition result is not correct (NO in S303), the operator inputs the correct text from the keyboard of the
作業対象コンテンツの末尾まで作業が完了していれば(S307のYES)、全体の作業終了となる。作業対象コンテンツの途中であれば(S307のNO)、継続して作業を実施する(B)。図13は書き起こしの継続作業の処理例を示すフローチャートである。 If the work is completed up to the end of the work target content (YES in S307), the whole work is finished. If it is in the middle of the work target content (NO in S307), the work is continued (B). FIG. 13 is a flowchart illustrating an example of a process for continuing the transcription.
図13を参照すると、作業者が、表示装置104上に表示されている音声波形表示部1043または認識結果表示部1042または書き起こしテキスト表示部1044の箇所をマウスでクリックして所望の再生箇所を指定すると(S401のYES)、そのことを入力部1038からの信号で検出した制御部1039は、クリックされた音声波形または認識結果テキストまたは書き起こしテキストに対応する時間情報を画面生成部1032から取得して、音声再生部1035に通知し、音声再生部1035は通知された時間情報に対応する音声情報を同期情報格納部102から取り出して再生信号を生成し、出力部1036はその再生信号でスピーカなどの音声再生器106を駆動する(S402)。これにより、作業者がクリックした箇所に対応する音声情報が音声として再生される。音声再生は、同一ステップの繰り返しにより何度でも可能である。
Referring to FIG. 13, the operator clicks the position of the speech
ステップS401で指定が無かった場合の動作の流れについては後述する(C)。 The flow of operation when there is no designation in step S401 will be described later (C).
次に作業者は、音声出力器106から出力される音声情報を聞き取り、認識結果表示部1042に表示されている認識結果テキストの内容や、書き起こしテキスト表示部1044に表示されている書き起こしテキストの内容が正しいかどうかを判断する。ここで、現在再生している音声情報に対応する認識結果テキストや書き起こしテキストの色を変更したり、フォントを変更するなどで修飾する機能を画面生成部1032に持たせるようにしても良い。これにより、現在どの箇所を作業しているかを視覚的に即座に確認できるため、目視による作業誤りを軽減することができる。
Next, the operator listens to the voice information output from the
書き起こしテキストが空欄か誤っており且つ認識結果が正しかった場合(S403のYES)、作業者が、認識結果表示部1042の該当部分をダブルクリックするか、またはドラッグ&ドロップにより該当部分を書き起こしテキスト表示部1044にコピーする操作を行うと、制御部1039はそのことを入力部1038の入力信号により検出して画面制御部1032を制御し、書き起こしテキスト表示部1044の箇所に認識結果テキストをコピーして表示させる(S404)。他方、書き起こしテキストが空欄か誤っており且つ認識結果が正しくなかった場合(S403のNO)、作業者は、入力装置105のキーボードから、書き起こしテキスト表示部1044の該当する箇所に正しいテキストを入力する(S405)。ここで、キーボードのように直接文字入力する装置でなく、マイクを用いた音声認識によってテキストを入力するようにしてもよい。
If the transcribed text is blank or incorrect and the recognition result is correct (YES in S403), the operator double-clicks the corresponding part of the recognition
書き起こしテキストが挿入または入力されると、書き起こしテキストに対応する時間情報とともに、書き起こしテキストがデータ書き込み部1037に通知され、データ書き込み部1037は、同期情報格納部102の該当するエントリをアクセスし、受け取った時間情報と対応付けて、受け取った書き起こしテキストを同期情報格納部102に格納する(S406)。
When the transcription text is inserted or inputted, the transcription text is notified to the
作業対象コンテンツの途中であれば(S407のNO)、さらに継続して作業を実施する(B)。 If it is in the middle of the work target content (NO in S407), the work is further continued (B).
図14を参照すると、継続作業により、各時間情報に対応する同一X座標軸上の書き起こしテキスト表示部1044に、「続きまして」「先の」「委員会で」「出されました」「議案」「について」「ですが」いう情報が反映されている。
Referring to FIG. 14, “Continue”, “Previous”, “At the committee”, “Proposed”, “Proposal” are displayed on the transcript
作業対象コンテンツの末尾まで作業が完了していれば(S407のYES)、全体の作業終了となる。作業の終了を確認修正部103に通知する方法としては、例えば、図14に図示するように、確認修正画面1046に「保存して終了」と表示されている作業終了ボタン1049を用意しておき、作業者がボタンを押下することで作業の終了を確認修正部103に通知する方法が利用できる。
If the work is completed up to the end of the work target content (YES in S407), the whole work is finished. As a method for notifying the end of work to the confirmation /
図15は、図8のステップS301および図13のステップS401でNOと判定された場合に確認修正部103で実行される処理の流れを示すフローチャートである。以下、この図15のフローチャートおよび図16の確認修正画面の例を参照して、確認修正画面1046のスクロール動作について説明する。
FIG. 15 is a flowchart showing a flow of processing executed by the
作業者によって、図16に示すスクロールボタンである表示アイコン1045−1または表示アイコン1045−2が押下されたとすると(S501のYES)、制御部1039はそのことを入力部1038からの入力信号で検出し、あらかじめ設定してあるスクロール時間分だけ時間的な表示領域の変更処理を画面生成部1032に通知する。ここで、例えば表示アイコン1045−2が押下された場合に設定されているスクロール時間が9秒だとすると、画面生成部1032は、現在ウィンドウ上に表示されている時間情報の先頭位置を取得し、時間情報プラス9秒目が先頭となるよう、データ読み込み部1031を通じて同期情報格納部102から時間情報、音声情報、認識結果および書き起こしテキストを順次読み出し(S502)、該当する時間情報の先頭から、各データに表示を切り替える(S503)。
If the worker presses the display icon 1045-1 or the display icon 1045-2 that are scroll buttons shown in FIG. 16 (YES in S501), the
図14および図16を参照すると、図14では時間情報表示部1041の先頭の時間情報が「0:00:03」であったが、時間情報にプラス9秒されるため、図16では、時間情報「0:00:12」から順次対応する音声情報、認識結果「起案」「について」「ですが」「大根の」「財政基盤の」「悪貨に」「伴いまして」、書き起こしテキスト「議案」「について」「ですが」「昨今の」「財政基盤の」「悪化に」「伴いまして」が表示される。
Referring to FIG. 14 and FIG. 16, in FIG. 14, the top time information of the time
表示の切り替え後の動作は、図13に示した書き起こしの継続作業に遷移する(B)。また、スクロールの指示がなければ(S502のNO)、作業終了かどうかを確認し、継続作業であれば(S504のNO)、図13に示した書き起こしの継続作業に遷移する(B)。作業終了であれば(S504のYES)、作業を終了する。 The operation after the switching of the display shifts to the continued operation of the transcription shown in FIG. 13 (B). If there is no scroll instruction (NO in S502), it is confirmed whether or not the work is completed. If it is a continuous work (NO in S504), the process proceeds to the continuous work of transcription shown in FIG. 13 (B). If the work is finished (YES in S504), the work is finished.
以上のようにして本実施の形態によれば、素材コンテンツ111に含まれる音声情報の書き起こしテキストを作成する際の作業者の負荷を大幅に軽減することができ、且つ正確な書き起こしテキストの作成が可能となる。
As described above, according to the present embodiment, it is possible to greatly reduce the burden on the operator when creating the transcription text of the audio information included in the
以上本発明の実施の形態について説明したが、本発明は以上の実施の形態にのみ限定されず、その他各種の付加変更が可能である。また、本発明の書き起こしテキスト作成支援システムにおける同期情報生成部101および確認修正部103は、その有する機能をハードウェア的に実現することは勿論、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリ等のコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られ、そのコンピュータの動作を制御することにより、そのコンピュータを前述した実施の形態における同期情報生成部101および確認修正部103として機能させる。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various other additions and modifications can be made. In addition, the synchronization
101…同期情報生成部
1011…素材入力部
1012…音声認識部
1013…時間情報取得部
1014…記録部
102…同期情報格納部
1021…時間情報フィールド
1022…音声情報フィールド
1023…認識結果フィールド
1024…書き起こしテキストフィールド
1025、1025−1、1025−2…エントリ
103…確認修正部
1031…データ読み込み部
1032…画面生成部
1033…音声波形生成部
1034…表示部
1035…音声再生部
1036…出力部
1037…データ書き込み部
1038…入力部
1039…制御部
104…表示装置
1041…時間情報表示部
1042…認識結果表示部
1043…音声波形表示部
1044…書き起こしテキスト表示部
1045−1、1045−2…スクロールボタン
1046…確認修正画面
1047、1048…ガイド線
1049…作業終了ボタン
105…入力装置
106…音声出力器
107…出力装置
DESCRIPTION OF
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004037718A JP4020083B2 (en) | 2004-02-16 | 2004-02-16 | Transcription text creation support system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004037718A JP4020083B2 (en) | 2004-02-16 | 2004-02-16 | Transcription text creation support system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005228178A JP2005228178A (en) | 2005-08-25 |
JP4020083B2 true JP4020083B2 (en) | 2007-12-12 |
Family
ID=35002833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004037718A Expired - Fee Related JP4020083B2 (en) | 2004-02-16 | 2004-02-16 | Transcription text creation support system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4020083B2 (en) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007133033A (en) * | 2005-11-08 | 2007-05-31 | Nec Corp | System, method and program for converting speech into text |
JP4926000B2 (en) * | 2007-10-31 | 2012-05-09 | 富士通株式会社 | Confirmation support apparatus and computer program |
JP5092720B2 (en) * | 2007-12-04 | 2012-12-05 | 富士通株式会社 | Product description content transcription support program, apparatus, and method. |
JP2009157050A (en) * | 2007-12-26 | 2009-07-16 | Hitachi Omron Terminal Solutions Corp | Utterance verification device and utterance verification method |
JP5396426B2 (en) * | 2011-04-21 | 2014-01-22 | 株式会社Nttドコモ | Speech recognition apparatus, speech recognition method, and speech recognition program |
JP2013025299A (en) | 2011-07-26 | 2013-02-04 | Toshiba Corp | Transcription support system and transcription support method |
JP5638479B2 (en) | 2011-07-26 | 2014-12-10 | 株式会社東芝 | Transcription support system and transcription support method |
JP5404726B2 (en) * | 2011-09-26 | 2014-02-05 | 株式会社東芝 | Information processing apparatus, information processing method, and program |
JP5787780B2 (en) * | 2012-01-25 | 2015-09-30 | 株式会社東芝 | Transcription support system and transcription support method |
JP2014235263A (en) * | 2013-05-31 | 2014-12-15 | ヤマハ株式会社 | Speech recognition device and program |
WO2015156011A1 (en) * | 2014-04-08 | 2015-10-15 | ソニー株式会社 | Information processing device, information processing method, and program |
JP6387044B2 (en) * | 2016-05-25 | 2018-09-05 | 株式会社東芝 | Text processing apparatus, text processing method, and text processing program |
WO2018015989A1 (en) * | 2016-07-19 | 2018-01-25 | 株式会社オプティム | Speech recognition system, speech recognition method, and program |
JP6780849B2 (en) * | 2016-10-03 | 2020-11-04 | 株式会社アドバンスト・メディア | Information processing system, terminal device, server, information processing method and program |
JP7159756B2 (en) * | 2018-09-27 | 2022-10-25 | 富士通株式会社 | Audio playback interval control method, audio playback interval control program, and information processing device |
JP2020201363A (en) * | 2019-06-09 | 2020-12-17 | 株式会社Tbsテレビ | Voice recognition text data output control device, voice recognition text data output control method, and program |
JP7304269B2 (en) * | 2019-11-11 | 2023-07-06 | 株式会社日立製作所 | Transcription support method and transcription support device |
WO2023181099A1 (en) * | 2022-03-22 | 2023-09-28 | 日本電気株式会社 | Hearing assistance device, hearing assistance method, and computer-readable recording medium |
JP7642146B1 (en) | 2024-10-03 | 2025-03-07 | PayPay株式会社 | Information processing device, information processing method, and information processing program |
-
2004
- 2004-02-16 JP JP2004037718A patent/JP4020083B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005228178A (en) | 2005-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4020083B2 (en) | Transcription text creation support system and program | |
EP2946279B1 (en) | System and method for captioning media | |
US9390169B2 (en) | Annotation of movies | |
JP6242773B2 (en) | Conference information storage device, method and program | |
US20090204399A1 (en) | Speech data summarizing and reproducing apparatus, speech data summarizing and reproducing method, and speech data summarizing and reproducing program | |
JP2019148681A (en) | Text correction device, text correction method and text correction program | |
JPWO2013118387A1 (en) | Information processing apparatus, information processing method, and program | |
JP2008084110A (en) | Information display device, information display method and information display program | |
JP2007148904A (en) | Method, apparatus and program for presenting information | |
US8972269B2 (en) | Methods and systems for interfaces allowing limited edits to transcripts | |
JP3266959B2 (en) | Electronic conference system | |
JP2015203835A (en) | Text edition device, text edition method, and program | |
JP2013025299A (en) | Transcription support system and transcription support method | |
JP6865701B2 (en) | Speech recognition error correction support device and its program | |
JP2021061519A (en) | Information processing device and program | |
JP4536481B2 (en) | Computer system, method for supporting correction work, and program | |
JP3896760B2 (en) | Dialog record editing apparatus, method, and storage medium | |
JP2014067148A (en) | Handwritten document processor and handwritten document processing method and program | |
JP2019197210A (en) | Speech recognition error correction support device and its program | |
JP6917561B2 (en) | Subtitle correction device, subtitle correction method, and computer program | |
JP2001325250A (en) | Minutes preparation device, minutes preparation method and recording medium | |
US20210225377A1 (en) | Method for transcribing spoken language with real-time gesture-based formatting | |
WO2020023070A1 (en) | Text-to-speech interface featuring visual content supplemental to audio playback of text documents | |
JP2013218406A (en) | Timing editing device, timing editing method, and computer program | |
JP2008134686A (en) | Drawing program, programmable display, and display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070917 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4020083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111005 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121005 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131005 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |