JP2008216397A - Apparatus and method for presenting information and apparatus and method for creating presentation information - Google Patents
Apparatus and method for presenting information and apparatus and method for creating presentation information Download PDFInfo
- Publication number
- JP2008216397A JP2008216397A JP2007050768A JP2007050768A JP2008216397A JP 2008216397 A JP2008216397 A JP 2008216397A JP 2007050768 A JP2007050768 A JP 2007050768A JP 2007050768 A JP2007050768 A JP 2007050768A JP 2008216397 A JP2008216397 A JP 2008216397A
- Authority
- JP
- Japan
- Prior art keywords
- sign language
- keyword
- data
- text data
- fragment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】健聴者及び聴覚障害者の双方が情報内容を簡単かつ迅速にしかも正確に把握できるようにする。
【解決手段】入力制御部102により文章データを受信した場合に、当該文章データをキーワード抽出部103により形態素解析してキーワードを抽出し、この抽出したキーワードをもとに箇条書きテキスト記憶部110から対応する箇条書きテキストデータを取得すると共に、断片手話データ記憶部120から対応する断片手話映像データを取得する。そして、上記取得した箇条書きテキストデータ及び断片手話映像データを、提示テンプレート記憶部130から取得した提示テンプレートのレイアウトに従い合成して提示情報コンテンツを作成し、この提示情報コンテンツを出力制御部105により表示装置106に表示させる。
【選択図】 図1To enable both a normal hearing person and a hearing-impaired person to grasp information contents easily, quickly and accurately.
When text data is received by an input control unit 102, a keyword is extracted by morphological analysis of the text data by a keyword extraction unit 103, and from the bulleted text storage unit 110 based on the extracted keyword. The corresponding bulleted text data is acquired, and the corresponding fragment sign language video data is acquired from the fragment sign language data storage unit 120. Then, the obtained bulleted text data and fragment sign language video data are synthesized according to the layout of the presentation template obtained from the presentation template storage unit 130 to create presentation information content, and this presentation information content is displayed by the output control unit 105. It is displayed on the device 106.
[Selection] Figure 1
Description
この発明は、例えば緊急情報を視覚的に提示するための装置と方法、及びその提示情報を作成するための装置と方法に関する。 The present invention relates to an apparatus and method for visually presenting emergency information, for example, and an apparatus and method for creating the presentation information.
例えば、大規模地震等の災害発生時や交通機関の障害発生時において、災害又は障害の状況及び避難方法等の緊急情報を、公共空間でユーザに迅速かつ正確に知らせることは、被害を最小限に抑える上で重要な社会的課題となっている。公共空間での緊急情報の報知手段としては音声アナウンスを用いたものが一般的である。しかし、音声アナウンスを用いた報知手段では、難聴者や聾者等の聴覚障害者に対して情報を知らせることができず、また周辺雑音が大きい環境下においては健聴者であっても情報を聞き取りにくく有効性が低い。 For example, in the event of a disaster such as a large-scale earthquake or a failure in transportation, emergency information such as disaster or failure status and evacuation methods should be notified to users quickly and accurately in a public space to minimize damage. It has become an important social issue to keep down. As a means for notifying emergency information in a public space, one using voice announcement is generally used. However, the notification means using the voice announcement cannot inform the hearing-impaired person such as the deaf and deaf, and it is difficult to hear the information even in a normal hearing person in an environment where the surrounding noise is large. Low effectiveness.
そこで、従来では視覚表示装置を用いた情報報知手段が多く用いられている。この視覚による情報提示手段としては、例えば電光掲示板にテロップを流すものや、グラフィックディスプレイ上にテキスト文書を表示するものが一般的である。また、聴覚障害者向けの情報提示手段として、音声処理と自然言語処理を利用することで入力音声に対する字幕を制作して表示する技術(例えば、非特許文献1を参照)や、3次元コンピュータグラフィックス技術を利用することによりリアルタイムに手話アニメーションを合成して表示する技術(例えば、非特許文献2を参照)が知られている。 Therefore, conventionally, information notifying means using a visual display device is often used. As this visual information presentation means, for example, a telop is displayed on an electronic bulletin board, or a text document is displayed on a graphic display. In addition, as information presentation means for hearing impaired persons, a technique for producing and displaying subtitles for input voice by using voice processing and natural language processing (for example, see Non-Patent Document 1), three-dimensional computer graphics A technique for synthesizing and displaying a sign language animation in real time by using a technology (see, for example, Non-Patent Document 2) is known.
ところが、前記従来の情報提示手段では、入力音声に応じて字幕が長文になり易く、情報内容を把握するには表示された文章を最初から最後まで読み取らなければならないため、情報内容の把握に時間がかかる。特に、9歳前に聴覚を失って手話を母語とする聴覚障害者にとっては、例えばテロップ表示される長文の文章を迅速に読み下して内容を理解することが容易ではなかった。 However, in the conventional information presenting means, subtitles tend to be long depending on the input voice, and the displayed text must be read from the beginning to the end in order to grasp the information content. It takes. In particular, it is not easy for a hearing-impaired person who loses hearing before 9 years old and speaks sign language as a native language to quickly read down a long sentence displayed in telop and understand the contents.
一方、手話により直接表現することが可能な語句の数は一般に少ない。このため、リアルタイムに手話アニメーションを合成して表示する手段では、緊急情報の内容を正確に伝えることが難しい。また、手話を未習得の健聴者では理解することができないと云う課題があった。 On the other hand, the number of phrases that can be directly expressed in sign language is generally small. For this reason, it is difficult to accurately convey the contents of emergency information by means of synthesizing and displaying a sign language animation in real time. In addition, there is a problem that a normal hearing person who has not acquired sign language cannot understand sign language.
この発明は上記事情に着目してなされたもので、その目的とするところは、健聴者及び聴覚障害者の双方が情報内容を簡単かつ迅速にしかも正確に把握できるようにした情報提示装置と方法と、及びその提示情報を作成する装置と方法を提供することにある。 The present invention has been made paying attention to the above circumstances, and the object thereof is to provide an information presentation apparatus and method that enable both a normal hearing person and a hearing-impaired person to grasp information contents easily, quickly and accurately. And an apparatus and method for creating the presentation information.
上記目的を達成するためにこの発明に係わる情報提示装置と方法は、次のような手段又は過程を備えたものである。すなわち、先ず入力インタフェースにより文章データを受け取って、当該文章データを解析処理することにより当該文書データに含まれるキーワードを抽出する。次に、予め設定したキーワードに対応付けて当該キーワードに対応する箇条書きテキストデータを記憶した第1の記憶装置に対しアクセスすることにより、上記抽出されたキーワードに対応する箇条書きテキストデータを検索すると共に、上記キーワードに対応付けて当該キーワードの内容を断片的な手話映像により表現する断片手話データを記憶した第2の記憶装置に対しアクセスすることにより、上記抽出されたキーワードに対応する断片手話データを検索する。そして、この検索された箇条書きテキストデータと断片手話データを相互に対応付けて合成処理して情報提示コンテンツを生成し、この生成された情報提示コンテンツを視覚的に提示するべく出力するようにしたものである。 In order to achieve the above object, an information presentation apparatus and method according to the present invention comprise the following means or processes. That is, first, text data is received by the input interface, and a keyword included in the text data is extracted by analyzing the text data. Next, the bulleted text data corresponding to the extracted keyword is retrieved by accessing the first storage device storing the bulleted text data corresponding to the keyword in association with the preset keyword. The fragment sign language data corresponding to the extracted keyword is accessed by accessing a second storage device that stores fragment sign language data that expresses the content of the keyword in fragmented sign language video in association with the keyword. Search for. Then, the searched itemized text data and the fragment sign language data are associated with each other and synthesized to generate information presentation content, and the generated information presentation content is output for visual presentation. Is.
すなわち、入力された文章データから抽出されたキーワードに対応する箇条書きテキストデータと、当該キーワードの内容を断片的な手話映像により表現する断片手話データとが記憶装置からそれぞれ読み出される。そして、これらが相互に対応付けられた状態で合成され、この合成処理により作成された情報提示コンテンツがユーザに対し視覚的に提示される。
したがって、聴覚障害者は断片手話映像とそれに対応付けられて提示される箇条書きテキストとにより、提示情報の内容を簡単かつ迅速にしかも要点を正確に把握することが可能となる。また、断片手話映像と共に箇条書きテキストが提示されるため、健聴者も提示情報の内容を簡単かつ迅速に把握することができる。
That is, the bulleted text data corresponding to the keyword extracted from the input sentence data and the fragment sign language data expressing the content of the keyword by the fragment sign language video are respectively read from the storage device. Then, these are combined in a state of being associated with each other, and the information presentation content created by this combining process is visually presented to the user.
Therefore, the hearing-impaired person can easily and quickly grasp the content of the presentation information by using the fragment sign language video and the itemized text presented in association therewith. Moreover, since the bulleted text is presented together with the fragment sign language video, the normal hearing person can easily and quickly grasp the content of the presentation information.
一方、この発明に係わる提示情報作成装置及び方法は、次のような手段又は過程を備えたものである。すなわち、先ず入力インタフェースにより文章データを受け取って、当該文章データを解析処理することにより当該文書データに含まれるキーワードを抽出する。次に、予め設定したキーワードに対応付けて当該キーワードに対応する箇条書きテキストデータを記憶した第1の記憶装置に対しアクセスすることにより、上記抽出されたキーワードに対応する箇条書きテキストデータを検索すると共に、上記キーワードに対応付けて当該キーワードの内容を断片的な手話映像により表現する断片手話データを記憶した第2の記憶装置に対しアクセスすることにより、上記抽出されたキーワードに対応する断片手話データを検索する。そして、この検索された箇条書きテキストデータと断片手話データを相互に対応付けて合成処理して情報提示コンテンツを生成する。
したがって、特に聴覚障害者が簡単かつ迅速に情報内容を把握することが可能で、しかも健聴者にとっても情報内容を把握することが可能な提示情報コンテンツを生成することができる。
On the other hand, the presentation information creating apparatus and method according to the present invention comprises the following means or processes. That is, first, text data is received by the input interface, and a keyword included in the text data is extracted by analyzing the text data. Next, the bulleted text data corresponding to the extracted keyword is retrieved by accessing the first storage device storing the bulleted text data corresponding to the keyword in association with the preset keyword. The fragment sign language data corresponding to the extracted keyword is accessed by accessing a second storage device that stores fragment sign language data that expresses the content of the keyword in fragmented sign language video in association with the keyword. Search for. Then, the searched itemized text data and the fragment sign language data are associated with each other and synthesized to generate information presentation content.
Therefore, it is possible to generate a presentation information content that enables a hearing-impaired person to grasp information content easily and quickly, and for a normal hearing person to grasp the information content.
要するにこの発明によれば、健聴者及び聴覚障害者の双方が情報内容を簡単かつ迅速にしかも正確に把握できるようにした情報提示装置と方法と、及びその提示情報を作成する装置と方法を提供することができる。 In short, according to the present invention, there are provided an information presentation device and method, and a device and method for creating the presentation information, which enable both the normal hearing person and the hearing-impaired person to grasp information contents easily, quickly and accurately. can do.
以下、図面を参照してこの発明に係わる実施形態を説明する。
図1は、この発明に係わる情報提示装置の一実施形態を示すブロック図である。情報提示装置100は、入力制御部102と、キーワード抽出部103と、主制御部104と、出力制御部105とを備えている。このうち、入力制御部102と、キーワード抽出部103と、主制御部104は提示情報作成装置を構成する。
Embodiments according to the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing an embodiment of an information presentation apparatus according to the present invention. The information presentation apparatus 100 includes an
入力制御部102は、情報入力装置101から出力された文章データを取り込んでキーワード抽出部103に与える。情報入力装置101は、例えば話者によりアナウンスされた音声信号を音声認識してテキストからなる文章データに変換する装置からなる。なお、情報入力装置101としては手書きの文章をスキャナにより光学的に読み取ってテキストからなる文章データに変換するものや、文章作成機能を有するパーソナル・コンピュータでもよい。
The
キーワード抽出部103は例えばDSP(Digital Signal Processor)とバッファメモリにより構成され、上記入力制御部102から送られた文章データをバッファメモリに一時記憶したのち、DSPにより形態素解析等の文章解析手法を用いて上記文書データを解析処理し、これにより上記文章データに含まれるキーワードを抽出する。このキーワード抽出部103により抽出されたキーワードのデータは主制御部104内のバッファメモリに一時記憶される。
The
主制御部104は例えばコンピュータにより構成され、情報箇条書きテキスト記憶部110と、箇条書きテキスト取得部111と、断片手話データ記憶部120と、断片手話データ取得部121と、提示テンプレート記憶部130と、提示テンプレート取得部131と、リスト手話合成部140とを備えている。このうち、情報箇条書きテキスト記憶部110、断片手話データ記憶部120及び提示テンプレート記憶部130は、記憶媒体としてハードディスク又はフラッシュメモリ等を用いた記憶装置により構成される。
The main control unit 104 is configured by a computer, for example, and includes an information itemized text storage unit 110, an itemized text acquisition unit 111, a fragment sign language
一方、上記箇条書きテキスト取得部111、断片手話データ取得部121、提示テンプレート取得部131及びリスト手話合成部140はいずれも、図示しないプログラムメモリに格納されたアプリケーション・プログラムを中央処理ユニット(CPU;Central Processing Unit)に実行させることにより実現される。
On the other hand, the bulleted text acquisition unit 111, the fragment sign language
情報箇条書きテキスト記憶部110には、予め設定された項目区分に対応付けて箇条書きテキストのデータが格納されている。例えば、列車の運行状況に関する情報を提示する場合には、図2に示すように「事象」、「原因」、「路線」、「区間」、「復旧時刻」及び「代替輸送機関」に区分された各項目201にそれぞれ対応付けて、箇条書きテキストデータ202が記憶される。この箇条書きテキストデータは、短文により要点のみを簡潔にまとめたテキストデータである。
The information itemized text storage unit 110 stores itemized text data in association with preset item categories. For example, when presenting information on the train operation status, it is divided into “event”, “cause”, “route”, “section”, “recovery time” and “alternative transport” as shown in FIG. The itemized
断片手話データ記憶部120は、断片手話インデックス記憶部と、断片手話映像記憶部とから構成される。断片手話インデックス記憶部は、予め設定された項目区分に対応付けて箇条書きテキストと、当該箇条書きテキストと断片手話映像データとを対応付けるためのインデックスデータが記憶される。例えば、先に述べたように列車の運行状況に関する情報を提示する場合には、図3に示すように「事象」、「原因」、「路線」、「区間」、「復旧時刻」及び「代替輸送機関」に区分された各項目301に対応付けて、箇条書きテキストのデータ202と、インデックスデータ303が記憶される。
The fragment sign language
断片手話映像記憶部には、例えば図4に示すように、上記インデックスデータ303に対応付けて、断片手話映像データ304と、断片手話表現データ305が記憶される。断片手話映像データ304は、対応する箇条書きテキストで表される内容を手話通訳者が実演により手話で表現したときの姿を撮像したものである。断片手話表現データ305は、上記箇条書きテキストに対応する3次元コンピュータグラフィックスの断片手話アニメーション画像を作成するために必要なコードデータからなる。
For example, as shown in FIG. 4, the fragment sign language video storage unit stores fragment sign
提示テンプレート記憶部130には、後述するリスト手話合成部140がリスト手話データを合成する際に用いる提示テンプレートの画像データが、提示情報の種類に対応して複数種類記憶されている。提示テンプレート取得部131は、リスト手話合成部140の指示に従い、上記提示テンプレート記憶部130から提示情報の種類に対応する提示テンプレートの画像データを読み出してリスト手話合成部140に与える。
The presentation
箇条書きテキスト取得部111は、上記キーワード抽出部103から抽出されたキーワードを受け取り、このキーワードをもとに上記箇条書きテキスト記憶部110を検索して、当該キーワードに対応する項目区分と箇条書きテキストデータを選択的に読み出す。そして、この読み出した項目区分と、箇条書きテキストデータとからなる情報セットをリスト手話合成部140に送る。
The bulleted text acquisition unit 111 receives the keyword extracted from the
断片手話データ取得部121は、上記キーワード抽出部103から抽出されたキーワードを受け取り、先ずこのキーワードをもとに上記断片手話データ記憶部120の断片手話インデックス記憶部を検索して、当該キーワードに対応する項目区分と箇条書きテキストデータとインデックスデータを選択的に読み出す。次に、この読み出したインデックスデータをもとに上記断片手話データ記憶部120の断片手話映像記憶部を検索して、当該インデックスデータに対応する断片手話映像データを読み出す。また、対応する断片手話映像データが記憶されていなかった場合には、代わりに対応する断片手話表現データを読み出す。そして、上記読み出した項目区分と、箇条書きテキストデータと、断片手話映像データ又は断片手話表現データからなる情報セットをリスト手話合成部140に送る。
The fragment sign language
リスト手話合成部140は、上記箇条書きテキスト取得部111及び断片手話データ取得部121から送られた情報セットを、上記展示テンプレート取得部131から送られた提示テンプレートにより指定されるレイアウトに従い合成して提示コンテンツデータを作成する。なお、断片手話データ取得部121から送られた情報セットに断片手話表現データが含まれていた場合には、この断片手話表現データに基づいて3次元コンピュータグラフィックスによる断片手話アニメーション画像を生成し、断片手話映像データに代えてこの3次元コンピュータグラフィックスの断片手話アニメーション画像を合成する。
The list sign
出力制御部105は、例えばLED(Light Emitting Diode)マトリクスを使用した表示装置106を駆動する表示ドライバからなり、上記リスト手話合成部140により作成された情報提示コンテンツデータを上記表示装置106に供給して表示させる。なお、表示装置106としては液晶ディスプレイ、プラズマディスプレイ又はCRT(Cathode Lay Tube)を使用したテレビジョンモニタを使用することも可能であり、この場合出力制御部10にはテレビジョンモニタ用のドライバが用いられる。
The
次に、以上のように構成された情報提示装置100の動作を説明する。図5及び図6はその制御手順と制御内容を示すフローチャートである。
情報提示装置100は、待機状態においてステップS51において文章データの入力を監視している。この状態で、いま情報入力装置101において、例えば
「○○線は13時10頃に発生した信号機故障の影響により、東京−横浜間で列車運行を休止しています。」
と云った音声アナウンスが入力されたとする。そうすると、このアナウンスの音声信号は情報入力装置101により音声認識されてテキストからなる文章データに変換され、入力制御部102に入力される。入力制御部102は、上記入力された音声アナウンスに対応する文章データを受信すると、この受信された文章データをキーワード抽出部103に転送する。
Next, the operation of the information presentation apparatus 100 configured as described above will be described. 5 and 6 are flowcharts showing the control procedure and control contents.
The information presenting apparatus 100 monitors the input of text data in step S51 in the standby state. In this state, in the
“The XX line has been suspended from Tokyo-Yokohama due to a traffic light failure that occurred around 13:10.”
Is input. Then, the voice signal of the announcement is recognized by the
キーワード抽出部103は、ステップS52において、上記転送された文章データに対し例えば形態素解析を行い、その解析結果に基づいてステップS53により上記入力された文章データに含まれるキーワードを抽出する。図7はその処理の一例を示すもので、先ず入力された文章データに対し(1)で形態素解析を行って文章データを(2)に示すように複数の形態素に分離する。次に、(3)において上記形態素の中からキーワードの抽出を行う。このキーワードの抽出処理では、固有名詞等のようにそれのみで意味を持つ語句が抽出される。例えば、図7(4)に示すように「○○線」、「13時10分頃」、「信号機故障」、「東京」、「横浜」、「列車運行」、「停止」がそれぞれ抽出される。
In step S52, the
次に情報提示装置100はステップS54に移行し、箇条書きテキスト取得部111により箇条書きテキスト記憶部110を検索して、上記抽出されたキーワードに対応する項目区分と箇条書きテキストデータの情報セットを読み出す(図7に示す(5))。例えば、図7の(4)に示すキーワードに対しては、その項目区分と図2の破線で囲った箇条書きテキストデータが読み出される。そして、この読み出された項目区分と箇条書きテキストデータとからなる情報セットはリスト手話合成部140に転送される。
Next, the information presentation apparatus 100 proceeds to step S54, and the itemized text storage unit 110 is searched by the itemized text acquisition unit 111, and the item set corresponding to the extracted keyword and the information set of the itemized text data are obtained. Read ((5) shown in FIG. 7). For example, for the keyword shown in (4) of FIG. 7, the item text and the bulleted text data surrounded by the broken line in FIG. 2 are read. Then, the information set composed of the read item classification and itemized text data is transferred to the list sign
続いて情報提示装置100はステップS55に移行し、断片手話データ取得部121により断片手話データ記憶部120の検索処理を次のように実行する。すなわち、先ずステップS551によりキーワードをもとに上記断片手話データ記憶部120の断片手話インデックス記憶部を検索して、当該キーワードに対応する項目区分と箇条書きテキストデータとインデックスデータを選択的に読み出す。この結果、例えば図3に示すように、キーワードが「運休」であればインデックスデータとして「A002」が、また「信号機故障」であれば「B001」がそれぞれ読み出される。
Subsequently, the information presentation apparatus 100 proceeds to step S55, and the fragment sign language
次に情報提示装置100の断片手話データ取得部121は、ステップS552において、上記読み出したインデックスデータをもとに断片手話データ記憶部120の断片手話映像記憶部を検索して、当該インデックスデータに対応する断片手話映像データを読み出す。この結果、例えば図4に示すように、インデックスデータ「A002」であれば断片手話映像データ「Pa002」が、またインデックスデータ「B001」であれば断片手話映像データ「Pb001」がそれぞれ読み出される。
Next, in step S552, the fragment sign language
またこのとき、対応する断片手話映像データが断片手話映像記憶部に記憶されていたか否かをステップS553で判定する。そして、記憶されていなかった場合には、ステップS554により上記断片手話映像記憶部を再度検索して、上記インデックスデータに対応する断片手話表現データを読み出す。例えば、図4に示す例ではインデックスデータ「B002」に対応する断片手話映像データは記憶されていないので、この場合にはインデックスデータ「B002」に対応する断片手話表現データ「Gb002」が読み出される。インデックスデータ「D001」の場合も同様に、断片手話映像データに代わって断片手話表現データ「Gd001」が読み出される。
以上の断片手話データ記憶部120から読み出された、項目区分と箇条書きテキストデータと断片手話映像データ又は断片手話表現データとからなる情報セットは、リスト手話合成部140に送られる。
At this time, it is determined in step S553 whether or not the corresponding fragment sign language video data is stored in the fragment sign language image storage unit. If not stored, in step S554, the fragment sign language video storage unit is searched again to read fragment sign language expression data corresponding to the index data. For example, in the example shown in FIG. 4, since the fragment sign language video data corresponding to the index data “B002” is not stored, the fragment sign language expression data “Gb002” corresponding to the index data “B002” is read in this case. Similarly, in the case of index data “D001”, fragment sign language expression data “Gd001” is read in place of fragment sign language video data.
The information set composed of the item classification, the bulleted text data, the fragment sign language video data, or the fragment sign language expression data read from the fragment sign language
情報提示装置100は、上記抽出されたすべてのキーワードに対応する箇条書きテキストデータと、断片手話映像データ又は断片手話表現データの検索処理を繰り返し実行する。そして、上記すべてのキーワードに対応する検索処理が終了したことをステップS56により検出すると、情報提示装置100はステップS57に移行し、提示テンプレート取得部131により提示テンプレート記憶部130を検索して、前記抽出されたキーワードに対応する提示テンプレートを取得する。例えば、図7に示したように抽出されたキーワードが交通機関の運転状況に関するものであれば、交通機関用の提示テンプレートを提示テンプレート記憶部130から読み出す。
The information presenting apparatus 100 repeatedly executes the search processing for the itemized text data corresponding to all the extracted keywords and the fragment sign language video data or the fragment sign language expression data. When it is detected in step S56 that the search processing corresponding to all the keywords has been completed, the information presentation apparatus 100 proceeds to step S57, and the presentation
次に情報提示装置100は、リスト手話合成部140において、上記箇条書きテキスト取得部111及び断片手話データ取得部121から送られた情報セットを、上記展示テンプレート取得部131により取得された提示テンプレートにより指定されるレイアウトに従い合成して、提示コンテンツデータを作成する処理を、以下のように実行する。
Next, in the list sign
すなわち、先ずステップS61により、上記断片手話データ取得部121から送られた情報セットに含まれるデータが断片手話映像データであるか断片手話表現データであるかを判定する。この判定の結果、断片手話表現データであれば、ステップS62により当該断片手話表現データをもとに3次元コンピュータグラフィックスによる断片手話アニメーション画像を生成する。次にステップS63において、上記提示テンプレートにより指定されるレイアウトに従い、各項目区分の箇条書きテキストデータと、上記断片手話映像データ又は上記断片手話アニメーション画像データとを合成する。
That is, first, in step S61, it is determined whether the data included in the information set sent from the fragment sign language
例えば、提示テンプレートが図8に示されるものであれば、テンプレートの左半分側の箇条書きテキスト提示領域401に、「運転再開予定」、「代替輸送」、「原因」、「路線」、「区間」の項目に対応付けてそれぞれ箇条書きテキストデータが配置される。また、テンプレートの右半分側の断片手話提示領域402に、上記断片手話映像データ又は上記3次元コンピュータグラフィックスの断片手話アニメーション画像が配置される。図9は、以上のような合成処理により作成された、リスト手話による情報提示コンテンツ画像の一例を示すものである。なお、同図では断片手話提示領域402に3次元コンピュータグラフィックスの断片手話アニメーション画像データを合成した場合を例示している。
For example, if the presentation template is the one shown in FIG. 8, in the bulleted
最後に情報提示装置100はステップS64に移行し、出力制御部105により、上記リスト手話合成部140により作成された情報提示コンテンツ画像を表示装置106へ送信し、この表示装置106に表示させる。この表示処理は1回だけでもよいが、一定の時間間隔で複数回繰り返し行ってもよい。
Finally, the information presentation apparatus 100 proceeds to step S64, and the
以上述べたようにこの実施形態に係わる情報提示装置100では、入力制御部102で文章データを受信すると、当該文章データをキーワード抽出部103により形態素解析してキーワードを抽出し、この抽出したキーワードをもとに箇条書きテキスト取得部111により箇条書きテキスト記憶部110を検索して対応する箇条書きテキストデータを取得すると共に、断片手話データ取得部121により断片手話データ記憶部120を検索して対応する断片手話映像データを取得する。そして、上記取得した箇条書きテキストデータ及び断片手話映像データを、提示テンプレート取得部131により提示テンプレート記憶部130から取得した提示テンプレートのレイアウトに従い合成して提示情報コンテンツを作成し、この提示情報コンテンツを出力制御部105により表示装置106に表示させるようにしている。
As described above, in the information presentation apparatus 100 according to this embodiment, when the text data is received by the
したがって、聴覚障害者は断片手話映像とそれに対応付けられて提示される箇条書きテキストとにより、提示情報の内容を簡単かつ迅速にしかも要点を正確に把握することが可能となる。また、断片手話映像と共に箇条書きテキストが提示されるため、健聴者も提示情報の内容を簡単かつ迅速に把握することができる。 Therefore, the hearing-impaired person can grasp the content of the presentation information simply and quickly and accurately with the fragmented sign language video and the bulleted text presented in association therewith. Moreover, since the bulleted text is presented together with the fragment sign language video, the normal hearing person can easily and quickly grasp the content of the presented information.
また、断片手話データ記憶部120から断片手話映像データを取得する際に、断片手話映像データが断片手話映像記憶部に記憶されているか否かを判定し、記憶されていなかった場合に上記断片手話映像記憶部を再度検索して対応する断片手話表現データを読み出す。そして、情報提示コンテンツを作成する際に、上記断片手話表現データをもとに3次元コンピュータグラフィックスの断片手話アニメーション画像を生成し、上記断片手話映像データの代わりにこの断片手話アニメーション画像データを合成するようにしている。したがって、例えば断片手話映像データが記憶されていない場合でも、手話画像を表示させることができる。
Further, when obtaining the fragment sign language video data from the fragment sign language
図10は、本発明による箇条書きテキストデータと断片手話映像データとを並べて表示するリスト手話方式に対する聴覚障害者及び手話通訳者の評価結果を、従来の長文の文章をそのままテロップ表示する情報提示方式と比較して示したものである。同図から明らかなように、本発明によるリスト手話方式では、有効性、理解容易性、迅速性、正確性のいずれの指標についても、従来方式より優れているとの評価(1%の有意水準/N=17))が得られた。 FIG. 10 shows a conventional information presentation method in which a long sentence is displayed as a telop as a result of evaluation of a hearing impaired person and a sign language interpreter with respect to a list sign language method in which bulleted text data and fragment sign language video data according to the present invention are displayed side by side. It is shown in comparison with. As is clear from the figure, the list sign language method according to the present invention is evaluated to be superior to the conventional method in terms of effectiveness, understandability, quickness, and accuracy (significance level of 1%) / N = 17)) was obtained.
なお、この発明は上記実施形態に限定されるものではない。例えば、前記実施形態では情報提示装置100の断片手話データ記憶部120を断片手話インデックス記憶部と断片手話映像記憶部により構成した場合を例にとって説明した。しかし、それに限定されるものではなく、例えば図11に示すように、区分された各項目301に対応付けて、箇条書きテキストデータ302と、断片手話映像データ304と、断片手話表現データ305をそれぞれ記憶したものとしてもよい。
The present invention is not limited to the above embodiment. For example, in the above-described embodiment, the case where the fragment sign language
また必ずしも断片手話映像データ304と断片手話表現データ305の両方を記憶させる必要はなく、3次元コンピュータグラフィックスによる断片手話アニメーション画像を表示しない場合には手話翻訳者を撮像した断片手話映像のデータ304のみを記憶させ、一方手話翻訳者を撮像した断片手話映像データ304を用意できない場合には断片手話表現データ305のみを記憶させるようにすればよい。
Further, it is not always necessary to store both the fragment sign
さらに、前記実施形態では箇条書きテキスト記憶部110及び断片手話データ記憶部120を情報提示装置内に設けた場合を例にとって説明した。しかし、それに限定されるものではなく、箇条書きテキスト記憶部110及び断片手話データ記憶部120をそれぞれ情報提示装置とは別に設けられた蓄積サーバ等に設け、情報提示装置と上記箇条書きテキスト記憶部110及び断片手話データ記憶部120との間をLAN(Local Area Network)やIP(Internet Protocol)網等のネットワークを介して接続して情報セットを取得するようにしてもよい。
Furthermore, in the above-described embodiment, the case where the bulleted text storage unit 110 and the fragment sign language
さらに、項目区分は図2及び図3に示すものに限定されるものではなく、それら以外にも適用対象に応じて柔軟に設定することが可能である。また、提示テンプレートのレイアウトは図8に示すように箇条書きテキスト提示領域401を画面の左側に、断片手話提示領域402を画面の右側に設定するものに限定されるものではなく、用途や利用者に合わせて適宜変更してもよい。さらに情報提示テンプレートは、常に予め決められた一つのテンプレートを用いるようにしてもよいし、例えば提示情報の種類や項目区分の数に応じて異なるテンプレートを選択して用いるようにしてもよい。
Furthermore, the item categories are not limited to those shown in FIGS. 2 and 3 and can be flexibly set according to the application target. Further, as shown in FIG. 8, the layout of the presentation template is not limited to that in which the bulleted
さらに、提示テンプレートの断片手話提示領域402に表示する断片手話映像又は断片手話アニメーション画像は、動画像や準動画像、静止画像のいずれでもよく、また複数の断片手話映像データを合成する際には、例えば時間的に先に表示する断片手話映像の最後の手の位置と次に表示する断片手話映像の最初の手の位置とが異なっている場合に、これらの手の位置が連続的に自然に変化するように見えるように、必要に応じて映像の追加や加工を行ってもよい。
Furthermore, the fragment sign language video or the fragment sign language animation image displayed in the fragment sign
さらに、提示情報の種類としては交通機関の運行状況に関する情報以外に、地震や台風、大雨、洪水等の天災に関する情報、政治、経済、芸能、スポーツなどに関する情報であってもよく、その他情報提示装置の構成や提示情報の作成制御手順と制御内容、提示情報のレイアウト等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。 Furthermore, the type of information presented may be information on natural disasters such as earthquakes, typhoons, heavy rains, floods, etc., information on politics, economy, entertainment, sports, etc. The apparatus configuration, the presentation information creation control procedure and control contents, the presentation information layout, and the like can be variously modified and implemented without departing from the gist of the present invention.
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
100…情報提示装置、101…情報入力装置、102…入力制御部、103…キーワード抽出部、104…主制御部、105…出力制御部、106…表示装置、110…箇条書きテキスト記憶部、111…箇条書きテキスト取得部、120…断片手話データ記憶部、121…断片手話データ取得部、130…提示テンプレート記憶部、131…提示テンプレート取得部、140…リスト手話合成部。 DESCRIPTION OF SYMBOLS 100 ... Information presentation apparatus, 101 ... Information input device, 102 ... Input control part, 103 ... Keyword extraction part, 104 ... Main control part, 105 ... Output control part, 106 ... Display apparatus, 110 ... Bullet text storage part, 111 ... bulleted text acquisition unit, 120 ... fragment sign language data storage unit, 121 ... fragment sign language data acquisition unit, 130 ... presentation template storage unit, 131 ... presentation template acquisition unit, 140 ... list sign language synthesis unit.
Claims (4)
文章データの入力を受け付ける入力インタフェース手段と、
前記入力された文章データを解析処理して、当該文書データに含まれるキーワードを抽出するキーワード抽出手段と、
前記抽出されたキーワードに対応する箇条書きテキストデータを前記第1の記憶装置から検索する第1の検索手段と、
前記抽出されたキーワードに対応する断片手話データを前記第2の記憶装置から検索する第2の検索手段と、
前記検索された箇条書きテキストデータと前記検索された断片手話データとを相互に対応付けて合成処理して、情報提示コンテンツを生成するコンテンツ生成手段と、
前記生成された情報提示コンテンツを視覚的に提示するべく出力する出力インタフェース手段と
を具備することを特徴とする情報提示装置。 A first storage device storing itemized text data corresponding to the keyword in association with a preset keyword, and fragmented sign language data representing the content of the keyword in fragmented sign language video in association with the keyword Each of the information storage devices connectable to the second storage device,
Input interface means for receiving input of text data;
A keyword extracting means for analyzing the input sentence data and extracting a keyword included in the document data;
First search means for searching the itemized text data corresponding to the extracted keyword from the first storage device;
Second search means for searching for fragment sign language data corresponding to the extracted keyword from the second storage device;
A content generating means for generating information presenting content by combining the searched itemized text data and the searched fragment sign language data in association with each other;
And an output interface means for outputting the generated information presentation content for visual presentation.
前記入力された文章データを解析処理して、当該文書データに含まれるキーワードを抽出する過程と、
予め設定したキーワードに対応付けて当該キーワードに対応する箇条書きテキストデータを記憶した第1の記憶装置に対しアクセスし、前記抽出されたキーワードに対応する箇条書きテキストデータを検索する過程と、
前記キーワードに対応付けて当該キーワードの内容を断片的な手話映像により表す断片手話データを記憶した第2の記憶装置に対しアクセスし、前記抽出されたキーワードに対応する断片手話データを検索する過程と、
前記検索された箇条書きテキストデータと前記検索された断片手話データとを相互に対応付けて合成処理して情報提示コンテンツを生成する過程と、
前記生成された情報提示コンテンツを視覚的に提示するべく出力する過程と
を具備することを特徴とする情報提示方法。 The process of accepting input of text data;
Analyzing the input sentence data and extracting keywords included in the document data;
Accessing the first storage device storing the bulleted text data corresponding to the keyword in association with the preset keyword, and searching the bulleted text data corresponding to the extracted keyword;
Accessing a second storage device storing fragmented sign language data representing the content of the keyword in fragmented sign language video in association with the keyword and retrieving fragmented sign language data corresponding to the extracted keyword; ,
A process of generating information presentation content by combining the retrieved bulleted text data and the retrieved fragment sign language data in association with each other;
And a step of outputting the generated information presentation content for visual presentation.
文章データの入力を受け付ける入力インタフェース手段と、
前記入力された文章データを解析処理して、当該文書データに含まれるキーワードを抽出するキーワード抽出手段と、
前記抽出されたキーワードに対応する箇条書きテキストデータを前記第1の記憶装置から検索する第1の検索手段と、
前記抽出されたキーワードに対応する断片手話データを前記第2の記憶装置から検索する第2の検索手段と、
前記検索された箇条書きテキストデータと前記検索された断片手話データとを相互に対応付けて合成処理して情報提示コンテンツを生成するコンテンツ生成手段と
を具備することを特徴とする提示情報作成装置。 A first storage device storing itemized text data corresponding to the keyword in association with a preset keyword, and fragmented sign language data representing the content of the keyword in fragmented sign language video in association with the keyword A presentation information creation device connectable to each of the second storage devices,
Input interface means for receiving input of text data;
A keyword extracting means for analyzing the input sentence data and extracting a keyword included in the document data;
First search means for searching the itemized text data corresponding to the extracted keyword from the first storage device;
Second search means for searching for fragment sign language data corresponding to the extracted keyword from the second storage device;
A presentation information creation device comprising: content generation means for generating information presentation content by combining the retrieved bulleted text data and the retrieved fragment sign language data in association with each other.
前記入力された文章データを解析処理して、当該文書データに含まれるキーワードを抽出する過程と、
予め設定したキーワードに対応付けて当該キーワードに対応する箇条書きテキストデータを記憶した第1の記憶装置に対しアクセスし、前記抽出されたキーワードに対応する箇条書きテキストデータを検索する過程と、
予め設定したキーワードに対応付けて当該キーワードの内容を断片的な手話映像により表現する断片手話データを記憶した第2の記憶装置に対しアクセスし、前記抽出されたキーワードに対応する断片手話データを検索する過程と、
前記検索された箇条書きテキストデータと前記検索された断片手話データとを相互に対応付けて合成処理して情報提示コンテンツを生成する過程と
を具備することを特徴とする提示情報作成方法。 The process of accepting input of text data;
Analyzing the input sentence data and extracting keywords included in the document data;
Accessing the first storage device storing the bulleted text data corresponding to the keyword in association with the preset keyword, and searching the bulleted text data corresponding to the extracted keyword;
Access to a second storage device that stores fragment sign language data that expresses the content of the keyword in a fragmented sign language video in association with a preset keyword, and retrieves fragment sign language data corresponding to the extracted keyword The process of
A method for creating presentation information, comprising: a step of generating information presentation content by combining the searched itemized text data and the searched fragment sign language data in association with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007050768A JP2008216397A (en) | 2007-02-28 | 2007-02-28 | Apparatus and method for presenting information and apparatus and method for creating presentation information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007050768A JP2008216397A (en) | 2007-02-28 | 2007-02-28 | Apparatus and method for presenting information and apparatus and method for creating presentation information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008216397A true JP2008216397A (en) | 2008-09-18 |
Family
ID=39836550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007050768A Pending JP2008216397A (en) | 2007-02-28 | 2007-02-28 | Apparatus and method for presenting information and apparatus and method for creating presentation information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008216397A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010087301A1 (en) | 2009-01-27 | 2010-08-05 | Ohki Junto | Sign language keyboard and sign language searching device using same |
KR101191904B1 (en) | 2010-10-19 | 2012-10-16 | 이광우 | Sign language translating device |
-
2007
- 2007-02-28 JP JP2007050768A patent/JP2008216397A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010087301A1 (en) | 2009-01-27 | 2010-08-05 | Ohki Junto | Sign language keyboard and sign language searching device using same |
US8711100B2 (en) | 2009-01-27 | 2014-04-29 | Junto Ohki | Sign language keyboard and sign language searching apparatus using the same |
KR101191904B1 (en) | 2010-10-19 | 2012-10-16 | 이광우 | Sign language translating device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110446063B (en) | Video cover generation method and device and electronic equipment | |
CN110782900B (en) | Collaborative AI storytelling | |
US7096416B1 (en) | Methods and apparatuses for synchronizing mixed-media data files | |
US9317500B2 (en) | Synchronizing translated digital content | |
CN101998107B (en) | Information processing apparatus, conference system and information processing method | |
US10540445B2 (en) | Intelligent integration of graphical elements into context for screen reader applications | |
CN112955911A (en) | Digital image classification and annotation | |
KR101612873B1 (en) | Sign language interpreting system of based on web contents and method for sign language interpreting system | |
JP2008234431A (en) | Comment accumulation device, comment creation browsing device, comment browsing system, and program | |
CN116168134B (en) | Digital person control method, digital person control device, electronic equipment and storage medium | |
JPWO2007069512A1 (en) | Information processing apparatus and program | |
US10123090B2 (en) | Visually representing speech and motion | |
KR20210136609A (en) | Apparatus and method for generating image news contents | |
US9870134B2 (en) | Interactive blocking and management for performing arts productions | |
JP2008216397A (en) | Apparatus and method for presenting information and apparatus and method for creating presentation information | |
JP2011191418A (en) | System, method and program for generating community-based sign language | |
TWI782436B (en) | Display system and method of interacting with the same | |
JP2016038748A (en) | Sign language cg generation device and sign language cg generation program | |
Crasborn | Managing data in sign language corpora | |
Jiang | SDW-ASL: a dynamic system to generate large scale dataset for continuous American sign language | |
CN113220906A (en) | Method and device for establishing knowledge graph, storage medium and electronic equipment | |
JP2006085381A (en) | Information exhibition device, information exhibition method and program | |
Rahman et al. | Authoring edutainment content through video annotations and 3d model augmentation | |
JP2017054159A (en) | Signal processing device and signal processing system | |
JP2019144817A (en) | Motion picture output device, motion picture output method, and motion picture output program |