JP2013025112A - Electronic apparatus, reproduction method, program, and, recording medium - Google Patents
Electronic apparatus, reproduction method, program, and, recording medium Download PDFInfo
- Publication number
- JP2013025112A JP2013025112A JP2011160252A JP2011160252A JP2013025112A JP 2013025112 A JP2013025112 A JP 2013025112A JP 2011160252 A JP2011160252 A JP 2011160252A JP 2011160252 A JP2011160252 A JP 2011160252A JP 2013025112 A JP2013025112 A JP 2013025112A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sentence
- voice
- database
- analysis unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、文章データを音声再生する電子機器、及び、その再生方法に関するものである。 The present invention relates to an electronic apparatus for reproducing text data by voice and a method for reproducing the same.
近年、書籍の電子化と共に、電子化された書籍を、ユーザが紙の書籍を読むような感覚で読めるよう表示する電子書籍装置が普及してきている。このような電子書籍装置は、従来の紙の書籍と比較して、資源の消費を抑えることができる。また、電子書籍装置は、また、一つの装置で複数の電子書籍を表示することができるため、携帯に便利である。 In recent years, with the digitization of books, electronic book devices that display digitized books so that the user can read them as if they are reading paper books have become widespread. Such an electronic book device can suppress resource consumption as compared with a conventional paper book. The electronic book device is also convenient to carry because it can display a plurality of electronic books with one device.
また、電子書籍を利用する際の便利な機能として、電子書籍の本文に合わせて画像を表示する機能を備えた電子書籍装置が開発されている。 In addition, as a convenient function when using an electronic book, an electronic book device having a function of displaying an image in accordance with the text of the electronic book has been developed.
例えば、特許文献1には、文章に含まれる複数の語句のそれぞれの役割から取得した、語句に対応付けられている適切な語句イメージ画像が、役割に応じた位置に配置された、文章の内容をイメージさせる文章イメージ画像を生成する文章変換システムが開示されている。 For example, in Patent Document 1, the content of a sentence in which an appropriate phrase image image associated with a phrase acquired from each role of a plurality of phrases included in the sentence is arranged at a position corresponding to the role. A text conversion system for generating a text image that makes an image of a text is disclosed.
また、文章の作成に関する便利な機能として、特許文献2には、電子メール等の電子文章や通話相手の音声情報の感情解析の結果に応じた文章の作成を支援する機能を有する通信装置が開示されている。
Further, as a convenient function related to the creation of a sentence,
さらに、表示した電子書籍の本文を自動で朗読する自動再生機能、電子書籍の本文に合わせて画像を表示する機能などを備えた電子書籍装置も開発されてきている。 Further, an electronic book apparatus having an automatic reproduction function for automatically reading the text of the displayed electronic book and a function for displaying an image in accordance with the text of the electronic book has been developed.
例えば、特許文献3には、電子化された書籍本文の表示形態を下線引きなどにより順次加工し、加工された本文の到達位置(すなわち下線の到達位置)から音声、効果音、及び、画像を自動再生可能な電子書籍装置が開示されている。
For example, in
特許文献4には、表示された書籍の文字、挿絵、及び、音声を、読む人の適当なはやさに合わせて出力することができる電子ブックプレーヤが開示されている。 Patent Document 4 discloses an electronic book player that can output characters, illustrations, and sounds of a displayed book in accordance with the appropriate speed of a reader.
このような、音声の自動再生機能を備えた電子書籍装置を用いれば、ユーザは電子書籍を直接読むことなく内容を把握することができるので、例えば、目の不自由なお年寄りなどの視角に障害を有している人であっても、電子書籍を楽しむことができる。 By using such an electronic book device having an automatic sound reproduction function, the user can grasp the contents without directly reading the electronic book. Even people who have can enjoy electronic books.
ところで、特許文献3及び4に記載の技術では、電子書籍に含まれる文章データを単に読み上げるようにして音声再生を行っているだけであり、電子書籍のジャンル、著者などの書籍の属性に関係なく音声の再生がされるため、音声再生を行う際に、電子書籍の内容に応じた細やかな表現、及び、臨場感の付加が行われない。
By the way, in the techniques described in
従って、特許文献3及び4に記載の技術では、電子書籍を十分に楽しむことができないという問題が生じる。
Therefore, the techniques described in
例えば、再生しようとする電子書籍が女性の著者の自叙伝であるにも係わらず、男性の音声で再生される場合などでは、ユーザは再生される音声に違和感を感じてしまい、電子書籍を純粋に楽しむことができない。 For example, when an electronic book to be played is an autobiography of a female author but played with male voice, the user feels uncomfortable with the played voice, and the electronic book is purely I can't enjoy it.
また、再生しようとする電子書籍が戯曲(劇文学)や脚本の場合であっても、単に、記載された内容を朗読するだけでは、電子書籍に含まれている細やかな表現や臨場感といったものを味わうことができず、やはり、電子書籍を十分に楽しむことができないという問題が生じる。 In addition, even if the electronic book to be played is a play (dramatic literature) or a screenplay, simply reading the contents described will give you detailed expressions and realistic sensations included in the electronic book. Cannot be enjoyed, and there is still a problem that the electronic book cannot be fully enjoyed.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、電子書籍等に含まれる文章データの音声再生を行う際に、ユーザが当該文章データの内容を十分に楽しむことができる電子機器を提供することにある。 The present invention has been made in view of the above-described problems, and its purpose is to allow the user to fully enjoy the contents of the text data when performing voice playback of the text data included in an electronic book or the like. It is to provide an electronic device that can be used.
本発明に係る電子機器は、上記の課題を解決するために、文章データの音声再生を行う音声再生手段と、上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。 In order to solve the above-described problem, an electronic apparatus according to the present invention includes: a sound reproducing unit that performs sound reproduction of sentence data; and an attribute information reading unit that reads attribute information included in the sentence data. The reproduction means is characterized in that the sentence data is reproduced in accordance with setting information associated with the attribute information read by the attribute information reading means.
また、本発明に係る再生方法は、上記の課題を解決するために、文章データの音声再生を行う音声再生ステップと、上記文章データに含まれる属性情報を読み取る属性情報読取ステップと、を含み、上記音声再生ステップにおいて、上記属性情報読取ステップにて読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。 In addition, in order to solve the above-described problem, the reproduction method according to the present invention includes an audio reproduction step for performing audio reproduction of sentence data, and an attribute information reading step for reading attribute information included in the sentence data, In the voice reproduction step, the sentence data is voice-reproduced according to the setting information associated with the attribute information read in the attribute information reading step.
上記の構成によれば、上記文章データは、当該文章データに含まれる属性情報に応じて設定された設定情報に基づいて音声再生されるので、上記文章データの属性に合った音声再生を行うことが可能となる。 According to the above configuration, the text data is played back based on the setting information set according to the attribute information included in the text data, so that the voice playback according to the attribute of the text data is performed. Is possible.
ここで、上記文章データの属性に合った音声再生とは、例えば、上記文章データが女性の著者の自叙伝である電子書籍の場合には、女性の声で音声再生することなどを示している。これによって、上記電子機器は、上記文章データが、当該文章データの属性に合わない音声で再生されてしまうことを防ぐことができる。 Here, the sound reproduction suitable for the attribute of the text data indicates, for example, that the voice data is reproduced with a female voice when the text data is an autobiography of a female author. Accordingly, the electronic device can prevent the text data from being reproduced with a sound that does not match the attribute of the text data.
このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データの内容を十分に楽しむことができる。 As described above, the user can sufficiently enjoy the contents of the text data by enabling the audio reproduction suitable for the attributes of the text data.
本発明の電子機器において、上記属性情報は、上記文章データのジャンル、及び、著者を特定する情報である、ことが好ましい。 In the electronic device of the present invention, it is preferable that the attribute information is information that identifies a genre and an author of the text data.
上記の構成によれば、上記音声再生手段は、再生時に使用する属性情報が文章データのジャンル及び著者を特定する情報であるので、上記文章データのジャンル、及び、著者に合った音声で上記文章データの文章を音声再生することができる。ここで、文章データのジャンルを特定する情報は年齢層を特定する情報であり、著者を特定する情報は性別を特定する情報とすると、例えば、上記音声再生手段は、上記ジャンルに応じて決定された、再生に用いられる音声の年齢層と、上記著者の性別に応じて決定された、再生に用いられる音声の性別とから決定された音声を用いて上記文章データを音声再生することができる。 According to the above configuration, since the attribute information used at the time of reproduction is information for specifying the genre and author of the text data, the voice playback means uses the voice that matches the genre of the text data and the author. Data text can be played back by voice. Here, if the information specifying the genre of the text data is information specifying the age group, and the information specifying the author is information specifying the gender, for example, the sound reproduction means is determined according to the genre. In addition, the sentence data can be reproduced by using the voice determined from the age group of the voice used for reproduction and the gender of the voice used for reproduction determined according to the gender of the author.
これによって、ユーザは、上記文章データの内容を、上記ジャンル及び著者に適した音声で楽しむことができる。 Thereby, the user can enjoy the contents of the text data with the sound suitable for the genre and the author.
本発明に係る電子機器は、文章データを解析して予め設定した語句を検出する文章解析手段と、上記文章解析手段において検出された語句に基づいて、上記文章データを構成する一部分におけるテーマを解析するテーマ解析手段と、上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた効果音を再生する効果音再生手段と、上記テーマ解析手段において解析されたテーマに応じた音楽を再生する音楽再生手段と、上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた画像を表示する画像表示手段と、をさらに備えている、ことが好ましい。 An electronic apparatus according to the present invention analyzes sentence data by analyzing sentence data and detects a preset phrase, and analyzes a theme in a part of the sentence data based on the phrase detected by the sentence analysis means And a sound effect reproducing means for reproducing a sound effect corresponding to the word when the word detected in the sentence analyzing means is a word related to the theme analyzed in the theme analyzing means. When the music reproducing means for reproducing music according to the theme analyzed by the theme analyzing means and the phrase detected by the sentence analyzing means are words related to the theme analyzed by the theme analyzing means And an image display means for displaying an image corresponding to the word.
上記の構成によれば、上記テーマ解析手段は、上記文章データを構成する一部分毎に、テーマを解析する。また、上記効果音再生手段は、上記文章解析手段において検出された語句が、上記テーマと関連する場合にのみ、当該語句に応じた効果音を出力する。上記音楽再生手段は、上記テーマ解析手段において解析されたテーマに応じた音楽を出力する。また、上記画像表示手段は、上記文章解析手段において検出された語句が、上記テーマと関連する場合にのみ、当該語句に応じた画像を出力する。 According to said structure, the said theme analysis means analyzes a theme for every part which comprises the said text data. The sound effect reproducing means outputs a sound effect corresponding to the word only when the word detected by the sentence analyzing means is related to the theme. The music reproduction means outputs music according to the theme analyzed by the theme analysis means. The image display means outputs an image corresponding to the word only when the word detected by the text analysis means is related to the theme.
これによって、上記効果音再生手段、及び、上記画像表示手段は、上記テーマに関係ない語句が検出された場合に、当該テーマに関係ない語句に応じた効果音及び画像が出力されることを防ぎ、ユーザに違和感を与えてしまうことを低減することができる。したがって、ユーザは、上記文章データが再生される音声と併せて、適切な効果音、音楽及び画像などを楽しむことができる。 Thereby, the sound effect reproduction means and the image display means prevent a sound effect and an image corresponding to the word / phrase not related to the theme from being output when the word / phrase not related to the theme is detected. It is possible to reduce the feeling of discomfort to the user. Therefore, the user can enjoy appropriate sound effects, music, images, and the like in addition to the sound from which the text data is reproduced.
なお、上記文章データを構成する一部分としては、例えば、一文、段落、節、章などを挙げることができる。上記効果音としては、爆発音などの効果音を挙げることができ、上記音楽としては、BGMなどの効果音楽を挙げることができ、また、上記画像としては、写真、及び、絵などを挙げることができる。 In addition, as a part which comprises the said text data, a sentence, a paragraph, a section, a chapter etc. can be mentioned, for example. Examples of the sound effects include sound effects such as explosive sounds, examples of the music include effect music such as BGM, and examples of the images include photographs and pictures. Can do.
本発明の電子機器は、上記文章データから、当該文章データに含まれる登場人物、及び、当該登場人物の属性を検出する登場人物解析手段をさらに備え、上記音声再生手段は、上記登場人物解析手段による検出結果から、上記文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生する、ことが好ましい。 The electronic apparatus of the present invention further comprises a character analysis means for detecting a character included in the text data and an attribute of the character from the text data, and the sound reproduction means is the character analysis means. From the detection result of the above, it is preferable that the text data is reproduced with a sound corresponding to the setting information associated with the attribute of each character.
上記の構成によれば、上記音声再生手段が、上記登場人物解析手段による検出結果から、文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生することにより、登場人物毎に音声を変え、それぞれの登場人物の属性に合った音声で、台詞などの登場人物に関係した文章を再生することができる。上記登場人物の属性に合った音声での再生とは、例えば、文章データが小説などの電子書籍である場合に、小説の各登場人物の音声を変えて再生することを示す。 According to the above configuration, the voice reproduction unit reproduces the sentence data from the detection result of the character analysis unit by voice according to the setting information associated with the attribute of each character. You can change the voice for each person, and play sentences related to the characters, such as dialogue, with the voice that matches the attributes of each character. For example, when the text data is an electronic book such as a novel, the reproduction with the sound matching the attributes of the characters indicates that the sound of each character in the novel is changed and reproduced.
このように、上記登場人物の属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データを、1つの音声で再生される場合よりも、より細やかな表現、及び、臨場感のある音声再生を聞くことができるため、上記文章データの内容をさらに楽しむことができる。 In this way, by making it possible to perform audio reproduction that matches the attributes of the characters, the user can more finely express the sentence data than when it is reproduced with one audio, and Since it is possible to listen to realistic sound reproduction, the contents of the text data can be further enjoyed.
本発明に係る電子機器は、画像を表示する表示部をさらに備え、上記文章データが、柱書き又はト書きを含む劇文学である場合、上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部に上記柱書き又はト書きを表示する、ことが好ましい。 The electronic device according to the present invention further includes a display unit for displaying an image, and when the sentence data is a play literature including a column writing or a story writing, the image display unit is configured such that the reproduction unit includes the column writing or It is preferable to display the column writing or the text on the display unit at the time when the reproduction of the text data corresponding to the text is started.
上記の構成によれば、上記劇文学である文章データの柱書き部分又はト書き部分を、上記表示部に表示させることができる。これによって、ユーザは、上記柱書き又はト書きで表現された、上記登場人物の動作などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。 According to said structure, the writing part or writing part of sentence data which is the said dramatic literature can be displayed on the said display part. Thus, the user can know the action of the character expressed in the above-mentioned column writing or writing together with the text data reproduced by voice, and can enjoy the contents of the text data more.
なお、柱書きとは、劇文学においては、シーンの最初に書かれ、その場所と時間を示している文章のことを指すのが一般的である。また、ト書きとは、上記劇文学においては、例えば、上記登場人物の動作、照明、及び、効果音などの演出について、大まかな指示を記述する文章のことを指すのが一般的である。 In the drama literature, the column writing is generally written at the beginning of a scene and indicates the place and time. In addition, in the above-mentioned drama, for example, the general writing generally refers to a sentence that describes a rough instruction regarding the actions of the characters, lighting, and effects such as sound effects.
本発明に係る電子機器において、上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部への電源の供給を開始させる、ことが好ましい。 In the electronic apparatus according to the present invention, the image display means starts supplying power to the display unit when the reproducing means starts reproducing the text data corresponding to the writing or writing. Is preferred.
上記の構成によれば、上記劇文学である文章データの柱書き部分又はト書き部分を、上記表示部に電源が供給されていない状態(すなわち、表示部がOFF状態)である場合にも、当該表示部に電源が供給されている状態(すなわち、表示部がON状態)にした上で、当該表示部に表示させることができる。これによって、ユーザは、上記表示部がOFF状態である場合にも上記柱書き又はト書きで表現された、上記登場人物の動作などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。 According to the above configuration, even if the columnar portion or the portion of writing of the sentence data that is the drama is in a state where power is not supplied to the display unit (that is, the display unit is in an OFF state), The display unit can be displayed after power is supplied to the display unit (that is, the display unit is in an ON state). Thereby, even when the display unit is in the OFF state, the user can know the action of the character, etc. expressed in the column writing or writing together with the sentence data to be reproduced by voice, You can enjoy the contents of text data more.
本発明に係る電子機器において、上記文章解析手段は、上記文章データから、上記登場人物の台詞の表現に関する語句を検出し、上記音声再生手段は、上記登場人物に関連する文章のうち、当該登場人物の台詞を、上記文章解析手段によって検出された、上記台詞の表現に関する語句に応じた表現で音声再生する、ことが好ましい。 In the electronic device according to the present invention, the sentence analysis unit detects a phrase related to the expression of the character's dialogue from the sentence data, and the sound reproduction unit includes the appearance of the sentence related to the character. It is preferable that the speech of the person is reproduced by voice in an expression corresponding to the phrase related to the expression of the dialogue detected by the sentence analysis means.
上記の構成によれば、上記登場人物の台詞を、当該登場人物の台詞の表現に関する語句によって表現された表現方法で、音声再生する。例えば、上記文章解析手段が「ゆっくり」などという上記登場人物の台詞の表現に関する語句を検出した場合、当該台詞の表現に対応する台詞をゆっくり音声再生する。また、上記文章解析手段が「大きな声」などという上記登場人物という上記登場人物の台詞の表現に関する語句を検出した場合、当該台詞の表現に対応する台詞を、他の箇所よりも大きな音量で音声再生する。 According to the above configuration, speech of the character is reproduced by an expression method expressed by a phrase related to expression of the character's speech. For example, when the sentence analysis means detects a phrase related to the expression of the character's line such as “slow”, the line corresponding to the expression of the line is slowly reproduced by voice. In addition, when the sentence analysis means detects a phrase related to the expression of the character, such as the character, such as “loud voice”, the speech corresponding to the expression of the character is uttered with a louder volume than other parts. Reproduce.
これによって、上記音声再生手段は、上記登場人物の台詞を、上記文章データの場面に沿った適切な表現で音声再生することができ、ユーザは、上記登場人物の台詞を、上記文章データの場面に沿った表現で楽しむことができる。 Thereby, the voice reproduction means can reproduce the speech of the character in an appropriate expression along the scene of the text data, and the user can play the speech of the character in the scene of the text data. You can enjoy the expression along
本発明に係る電子機器において、上記文章データが、電子メールである場合、上記属性情報読取手段は、上記電子メールのアドレスデータを属性情報として読み取り、上記音声再生手段は、上記アドレスデータに対応付けられた設定情報に応じて上記電子メールの音声再生を行う、ことが好ましい。 In the electronic device according to the present invention, when the text data is an e-mail, the attribute information reading unit reads the address data of the e-mail as attribute information, and the voice reproduction unit is associated with the address data. It is preferable to perform voice reproduction of the e-mail according to the set information.
上記の構成によれば、上記属性情報読取手段は、上記アドレスデータを属性情報として読み出すことにより、電子メールの相手を特定することができる。したがって、上記電子機器は、上記文章データが電子メールである場合にも、上記アドレスデータ、すなわち、電子メールの相手に応じた音声で上記電子メールを音声再生することができる。これによって、ユーザは、上記電子メールを、当該電子メールの相手に応じた音声で楽しむことができる。 According to said structure, the said attribute information reading means can identify the other party of an electronic mail by reading the said address data as attribute information. Therefore, even when the text data is an electronic mail, the electronic device can reproduce the electronic mail by voice according to the address data, that is, the voice corresponding to the other party of the electronic mail. As a result, the user can enjoy the e-mail with sound corresponding to the other party of the e-mail.
本発明に係る電子機器は、上記文章解析手段において検出された語句、及び、上記テーマ解析手段において解析されたテーマの少なくとも何れかと関連する効果音、音楽、及び画像の少なくとも何れかを、外部ネットワークから取得する外部データ取得手段をさらに備え、上記効果音再生手段は、上記外部データ取得手段において取得された効果音を再生し、上記音楽再生手段は、上記外部データ取得手段において取得された音楽を再生し、上記画像表示手段は、上記外部データ取得手段において取得された画像を表示する、ことが好ましい。 An electronic apparatus according to the present invention is configured to transmit at least one of a word / phrase detected by the sentence analysis unit and a sound effect, music, and an image associated with at least one of the themes analyzed by the theme analysis unit. External sound data acquisition means for acquiring the sound data acquired by the external data acquisition means, and the music playback means for playing the music acquired by the external data acquisition means. Preferably, the image display means reproduces and displays the image acquired by the external data acquisition means.
上記の構成によれば、上記外部データ取得手段において、上記文章解析手段において検出された語句、及び、上記テーマ解析手段において解析されたテーマの少なくとも何れかと関連するデータを取得する。これによって、上記電子機器は、文章データの音声再生に適したデータを予め記憶しておかなくとも、上記外部データ取得手段によって文章データの音声再生に適したデータを取得し、出力することができる。 According to said structure, the said external data acquisition means acquires the data relevant to at least any one of the phrase detected in the said text analysis means, and the theme analyzed in the said theme analysis means. Thereby, the electronic device can acquire and output data suitable for voice reproduction of text data by the external data acquisition means without storing data suitable for voice reproduction of text data in advance. .
また、本発明に係る電子機器を動作させるためのプログラムであって、コンピュータを上記の各手段として機能させることを特徴とするプログラム、及び、これらのプログラムのうち少なくとも何れかを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。 Further, a program for operating the electronic apparatus according to the present invention, which is a program that causes a computer to function as each of the above-described means, and a computer-readable program that records at least one of these programs Such recording media are also included in the scope of the present invention.
なお、ある着目した請求項に記載された構成と、その他の請求項に記載された構成との組み合わせが、その着目した請求項で引用された請求項に記載された構成との組み合わせのみに限られることはなく、本発明の目的を達成できる限り、その着目した請求項で引用されていない請求項に記載された構成との組み合わせが可能である。 A combination of a configuration described in a certain claim and a configuration described in another claim is limited to a combination of the configuration described in the claim cited in the claim. However, as long as the object of the present invention can be achieved, combinations with configurations described in the claims not cited in the focused claims are possible.
本発明に係る電子機器は、以上のように、文章データの音声再生を行う音声再生手段と、上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。 As described above, the electronic apparatus according to the present invention includes voice playback means for playing back voice data of text data, and attribute information reading means for reading attribute information included in the text data. The sentence data is reproduced by voice according to the setting information associated with the attribute information read by the attribute information reading means.
上記の構成から、上記文章データは、当該文章データに含まれる属性情報に応じて設定された設定情報に基づいて音声再生されるので、上記文章データの属性に合った音声再生を行うことが可能となる。このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データの内容を十分に楽しむことができる。 From the above configuration, the sentence data is played back based on the setting information set according to the attribute information included in the sentence data, so that it is possible to perform the voice playback that matches the attribute of the sentence data. It becomes. As described above, the user can sufficiently enjoy the contents of the text data by enabling the audio reproduction suitable for the attributes of the text data.
<実施形態1>
本発明に係る電子機器の一実施形態について、図1から図13を参照して説明する。但し、この実施形態に記載されている構成は、特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例に過ぎない。
<Embodiment 1>
An embodiment of an electronic apparatus according to the present invention will be described with reference to FIGS. However, unless otherwise specified, the configuration described in this embodiment is not merely intended to limit the scope of the present invention, but is merely an illustrative example.
本実施形態に係る電子機器について、図1を参照して説明する。図1は、本実施形態に係る電子機器1の構成を示すブロック図である。 An electronic apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an electronic device 1 according to the present embodiment.
〔電子機器〕
本実施形態に係る電子機器について、図1を参照して説明する。図1は、本実施形態に係る電子機器1の構成を示すブロック図である。
〔Electronics〕
An electronic apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an electronic device 1 according to the present embodiment.
図1に示すように、電子機器1は、属性情報読取部(属性情報読取手段)10、解析部20、変換部30、記憶部40、音声出力部51、表示部52、ユーザ指示取得部53、機能制御部54、及び、外部データ取得部(外部データ取得手段)55を備えている。
As shown in FIG. 1, the electronic device 1 includes an attribute information reading unit (attribute information reading unit) 10, an
〔データベース〕
まず、電子機器1が備える各部の説明に先立って、図1に示す記憶部40が有するデータベース記憶部41に格納されているデータベースについて、図2から図9を参照して説明する。図2は、データベース記憶部41に格納されているデータベースを示すブロック図である。
[Database]
First, prior to description of each unit included in the electronic device 1, a database stored in the
図2に示すように、データベース記憶部41には、ジャンルデータベース411、人名・性別データベース412、音声データベース(設定情報)413、テーマデータベース414、効果音データベース415、音楽データベース416、画像データベース417、属性情報データベース418、及び、ユーザ登録用データベース419が格納されている。なお、これらのデータベースは、それぞれ、電子機器1が備える各部において適宜参照される。
As shown in FIG. 2, the
(ジャンルデータベース)
まず、電子機器1に入力される文章データのジャンルと、電子機器1において文章データを再生する音声の属性とを関連付けている、ジャンルデータベース411について、図3を参照して説明する。図3は、データベース記憶部41に格納されている、ジャンルデータベース411の一例を示す図である。なお、音声の属性とは、図3においては、年齢層及び性別である。
(Genre database)
First, the
図3に示すように、例えば、文章データのジャンルが「エッセイ」である場合には、文章データを再生する音声の属性として、年齢層に「中年」、性別に「男性」が関連付けられている。また、文章データのジャンルが「冠婚葬祭」である場合には、文章データを再生する音声の属性として、年齢層に「中年」、性別に「女性」が関連付けられている。 As shown in FIG. 3, for example, when the genre of the text data is “essay”, “middle age” is associated with the age group and “male” is associated with the sex as the audio attributes for reproducing the text data. Yes. Further, when the genre of the text data is “ceremonial occasion”, “middle age” and “female” are associated with the age group as the audio attributes for reproducing the text data.
また、文章データのジャンルが「昔話・民話」である場合のように、文章データを再生する音声の属性として、年齢層に「高齢」が関連付けられているが、性別には何も関連付けられていないものも存在する。さらに、文章データのジャンルが「SF」である場合には、文章データを再生する音声の属性として、年齢層、及び、性別の何れも関連付けられていない。 In addition, as in the case where the genre of the text data is “old tales / folk tales”, “aged” is associated with the age group as an attribute of the voice for reproducing the text data, but nothing is associated with the gender. There are things that do not exist. Furthermore, when the genre of the text data is “SF”, neither the age group nor the gender is associated as an attribute of the voice for reproducing the text data.
なお、年齢層を、「中年」、「高齢」などとする代わりに、「30代」、「40代」などのように、より細かく設定する構成を採用してもよい。 In addition, instead of “middle-aged”, “aged”, etc., the age group may be set more finely, such as “30s”, “40s”, or the like.
(人名・性別データベース)
次に、名前と、性別とを関連付けている、人名・性別データベース412について、図4を参照して説明する。図4(a)(b)は、データベース記憶部41に格納されている、人名・性別データベース412の一例を示す図である。図4(a)は、予め人名・性別データベース412に格納されている、姓及び姓データ、名及び名データ、並びに、性別及び性別データの一例を示す図であり、(b)は、電子機器1に入力される文章データに登場する人物のデータを格納する登場人物データ格納領域の一例を示す図である。
(Person name / gender database)
Next, a personal name /
人名・性別データベース412には、図4(a)に示すように、姓と姓データとが関連付けられている姓データテーブル、名前と名データとが関連付けられている名データテーブル、性別と性別データとが関連づけられている性別データテーブル、及び、(b)に示すように、電子機器1に入力される文章データに登場する人物のデータを格納する登場人物データ格納領域が含まれている。
As shown in FIG. 4A, the personal name /
なお、図4(a)(b)に示すように、登場人物データ格納領域には、登場人物の姓、名、性別、及び、年齢が格納されるようになっているが、本発明はこれに限定されるものではなく、例えば、登場人物の愛称なども格納できる構成としてもよい。 As shown in FIGS. 4 (a) and 4 (b), the surname, first name, sex and age of the characters are stored in the character data storage area. However, the present invention is not limited to this. For example, a nickname of a character may be stored.
(音声データベース)
次に、電子機器1において文章データを再生する際に参照される、音声の種類と音声データとを関連付けている、音声データベース413について、図5を参照して説明する。図5は、データベース記憶部41に格納されている、音声データベース413の一例を示す図である。
(Voice database)
Next, an
図5に示すように、音声データベース413には、音声の種類と、音声データとが関連づけられている。例えば、音声の種類「男の子」に対し、音声データ「O0001」が関連付けられており、音声の種類「若い女性」に対し、音声データ「O0004」が関連付けられている。
As shown in FIG. 5, the
(テーマデータベース)
次に、文章データを構成する一部分のテーマと、テーマに関係する語句とを関連づけている、テーマデータベース414について、図6を参照して説明する。図6は、データベース記憶部41に格納されている、テーマデータベース414の一例を示す図である。
(Theme database)
Next, a
図6に示すように、テーマデータベース414には、テーマの種類として、例えば、「結婚式」、「誕生日」、「雨」及び「波止場」などが設定されており、それぞれ、データ番号「T0001」、「T0002」、「T0003」及び「T9999」にそれぞれ関連付けられている。また、テーマの種類が「結婚式」である場合には、例えば、関連語句として「式場」、「新郎」、「新婦」及び「ケーキ入刀」などが関連付けられている。また、テーマの種類が「波止場」である場合には、例えば、関連語句として「波止場」、「かもめ」、「霧笛」及び「ポンポン船」などが関連付けられている。
As shown in FIG. 6, in the
(効果音データベース)
次に、電子機器1において、文章データの音声再生に合わせて効果音を再生する場合に参照される、効果音データベース415について、図7を参照して説明する。図7は、データベース記憶部41に格納されている、効果音データベース415の一例を示す図である。
(Sound effect database)
Next, the
図7に示すように、効果音データベース415には、効果音の種類を示す語句と、効果音データとが関連付けられている。例えば、効果音の種類を示す語句「波止場」に対して、効果音データ「K0001」が関連付けられており、効果音の種類を示す語句「海」に対して、効果音データ「K0002」が関連付けられている。
As shown in FIG. 7, in the
(音楽データベース)
次に、電子機器1において、文章データの音声再生に合わせて音楽を再生する場合に参照される、音楽データベース416について、図8を参照して説明する。図8は、データベース記憶部41に格納されている、音楽データベース416の一例を示す図である。
(Music database)
Next, the
図8に示すように、音楽データベース416には、音楽の種類と、音楽データと、テーマとが関連付けられている。例えば、音楽の種類「結婚式の歌」に対し、音楽データ「M0001」及びテーマ「結婚式」が関連付けられており、音楽の種類「誕生日の歌」に対し、音楽データ「M0002」及びテーマ「誕生日」が関連付けられている。
As shown in FIG. 8, the
(画像データベース)
次に、電子機器1において、文章データの音声再生に合わせて画像を表示する場合に参照される、画像データベース417について、図9を参照して説明する。図9は、データベース記憶部41に格納されている、画像データベース417の一例を示す図である。
(Image database)
Next, the
図9に示すように、画像データベース417には、画像の種類、種類の詳細(図9において、「詳細」)、及び、画像データとが関連付けられている。例えば、画像の種類が「車」である場合、種類の詳細として「セダン」及び「トラック」が関連付けられている。より詳細には、画像の種類「車1」に対して、種類の詳細「セダン」、及び、画像データ「G0001」が関連付けられており、画像の種類「車2」に対して、種類の詳細「トラック」、及び、画像データ「G0002」が関連付けられている。
As shown in FIG. 9, the
なお、画像データベース417に格納されている画像データとしては、写真、及び、絵などを挙げることができる。
Note that examples of the image data stored in the
なお、属性情報データベース418、ユーザ登録用データベース419、及び、記憶部40が有する語句検出回数記憶部42については、後述する。
The
なお、各データベースは、後述するように、ユーザ指示によって、新たに設定することも可能である。 Each database can be newly set by a user instruction, as will be described later.
〔電子機器の構成〕
次に、図1に示す電子機器1が備える各部の構成について、説明する。
[Configuration of electronic equipment]
Next, the structure of each part with which the electronic device 1 shown in FIG. 1 is provided is demonstrated.
属性情報読取部10は、入力された文章データから、文章データのジャンル及び著者などを特定するための属性情報を取得する(読み取る)手段である。属性情報読取部10は、取得した属性情報に応じて文章データを再生する音声を決定する。また、属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。
The attribute
属性情報読取部10は、ジャンルデータベース411から、取得した文章データのジャンルに関連付けられている年齢層及び性別を取得し、何れの年齢層であって何れの性別の音声を用いるかを決定する。
The attribute
また、ジャンルデータベース411において、年齢層の情報のみが取得した文章データのジャンルに関連付けられている場合、属性情報読取部10は、さらに、人名・性別データベース412を参照し、取得した著者の名前から、著者の性別を解析する。属性情報読取部10は、著者の性別を、文章データの音声再生に用いる音声の性別として決定する。
Further, in the
なお、属性情報読取部10は、ジャンルデータベース411において、取得したジャンルに性別が関連付けられておらず、かつ、人名・性別データベース412において、取得した著者の名に性別が関連付けられていない場合、及び、ジャンルデータベース411において、取得したジャンルに年齢層及び性別の何れも関連付けられていない場合、文章データの音声再生に用いられる音声をデフォルトの音声とすることを決定してもよい。
In the
また、属性情報読取部10は、入力された文章データを解析部20に供給する。
Further, the attribute
(解析部)
解析部20は、属性情報読取部10から供給された文章データを解析し、文章データが電子機器1において音声再生される際に用いられる音声、及び、音声再生と共に出力される効果音及び画像などを決定する。解析部20は、図1に示すように、文章解析部(文章解析手段)21、登場人物解析部(登場人物解析手段)22、テーマ解析部(テーマ解析手段)23、音声解析部(音声再生手段)24、効果音解析部(効果音再生手段)25、及び、画像解析部(画像表示手段)26を備えている。
(Analysis Department)
The
文章解析部21は、属性情報読取部10から供給された文章データを構成する一部分のそれぞれから予め設定された語句を検出する手段である。なお、文章データを構成する一部分としては、一文、段落、節、章、及び、目次などの単位を挙げることができる。以降、本実施形態では、文章データを構成する一部分が章である場合を例に挙げて説明する。
The
文章解析部21は、属性情報読取部10から供給された文章データの章毎に、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている語句と一致する語句を検出し、検出した語句を、記憶部40が備える語句検出回数記憶部42に、当該語句が検出された回数を示す検出回数と関連づけて格納する。例えば、初めて語句検出回数記憶部42に格納される語句に関連付けられる検出回数は、「1」である。文章解析部21は、検出した語句がすでに語句検出回数記憶部42に格納されている場合、当該語句に関連付けられている検出回数を1だけ増加させる。
For each chapter of the sentence data supplied from the attribute
また、文章解析部21は、文章データの1つの章から、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている全ての語句を検出すると、1つの章からの語句の検出が完了した旨を示す通知をテーマ解析部23に通知する。また、文章解析部21は、文章データを登場人物解析部22、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。
When the
登場人物解析部22は、文章解析部21から供給された文章データから、登場人物の姓名、及び、当該登場人物の性別及び年齢などの属性を解析する手段である。登場人物解析部22は、文章データから登場人物の姓、及び、名の少なくとも何れか一方(以降、単に登場人物の名前とも呼称する)を検出すると、図3に示す人名・性別データベース412に含まれる登場人物データ格納領域に、予め設定されているフラグを示すデータの何れかと関連付けて格納する。例えば、1番目に検出された登場人物の名前は、フラグ「F0001」と関連付けられて格納され、2番目に検出された登場人物の名前は、フラグ「F0002」と関連付けられて格納されればよい。
The
また、登場人物解析部22は、文章データから登場人物の性別及び年齢の少なくとも一方の属性を検出すると、検出された属性を有する登場人物の名前がすでに登場人物データ格納領域に格納されている場合には、登場人物の名前と属性とを関連づけて登場人物データ格納領域に格納する。また、登場人物解析部22は、検出した登場人物の属性を有する登場人物の名前が登場人物データ格納領域に格納されていない場合には、登場人物データ格納領域に予め設定されているフラグを示すデータの何れかと登場人物の属性とを関連付けて格納する。
Further, when the
また、登場人物解析部22は、登場人物の愛称を検出した場合には、検出した愛称を、当該愛称を有する登場人物と関連付けて、データ格納領域に格納する。登場人物の呼び方は、文章データの中で、姓名、姓のみ、名のみ、及び、愛称など、場面によって様々であることが一般的である。従って、登場人物の名前と関連付けて愛称などを格納することにより、登場人物の呼び方が一様でない場合にも、登場人物を一意に特定することができる。
In addition, when detecting the nickname of the character, the
テーマ解析部23は、語句検出回数記憶部42を参照し、各文章データを構成する1つの章におけるテーマを決定する手段である。
The
テーマ解析部23は、文章解析部21から、1つの章からの語句の検出が完了した旨を示す通知を取得すると、最も多い検出回数に関連付けられている語句から順にランクを設定する。このとき、文章解析部21は、例えば、語句検出回数記憶部42に格納されている語句の全てに対してランクを設定しても良いし、検出回数が最も多い語句から10番目に多い語句までにのみランクを設定してもよい。また、文章解析部21は、予め閾値を設定し、検出回数が閾値よりも多い語句に対してランクを設定してもよい。
When the
次に、テーマ解析部23は、1つの章において最も高いランクが設定された語句と関連付けられているテーマがテーマデータベース414に登録されているかを検索し、登録されている場合には、1つの章において最も高いランクが設定された語句と関連付けられたテーマを、当該1つの章のテーマとして決定する。なお、テーマ解析部23において、最も高いランクが設定された語句と関連づけられているテーマを1つの章のテーマとして決定する構成に代えて、10番目までのランクが設定された語句と最も多く関連付けられているテーマを当該1つの章のテーマとして決定する構成を採用してもよい。
Next, the
テーマ解析部23は、決定したテーマを、効果音解析部25、及び、画像解析部26に供給する。
The
音声解析部24は、文章解析部21から供給される文章データから、登場人物の台詞に関する文章(例えば、台詞、及び、登場人物の心理描写など)を検出し、検出した文章を音声再生するために参照される音声データを決定する手段である。具体的には、音声解析部24は、文章データから台詞を検出し、検出した台詞を発する登場人物を特定し、登場人物解析部22の検出結果に基づいて、各登場人物の属性に対応付けられた設定情報に応じた音声を再生音声として決定する。
The
音声解析部24は、特定した登場人物の名前(又は愛称など)が登場人物データ格納領域に格納されている場合には、格納されている登場人物の名前(又は愛称など)に関連付けられている性別及び年齢を参照し、音声データベース413から、台詞の再生に用いる音声を決定する。例えば、台詞を発する登場人物の性別が「男性」であり、年齢が「10代」である場合、音声データベース413において、「男の子」である種類に関連付けられている音声データ「O0001」を台詞の再生に用いる音声として決定すればよい。
When the name (or nickname) of the identified character is stored in the character data storage area, the
また、音声解析部24は、文章データから、ナレーションに関する文章を検出し、検出するために参照される音声データを決定する。このとき、ナレーションに用いられる音声として、登場人物の台詞の再生に用いる音声として決定した音声と異なる音声を決定すればよい。また、音声解析部24は、検出したナレーションに関する文章が、登場人物の何れか(例えば、主人公など)が行うナレーションに関する文章である場合には、ナレーションに用いる音声として、ナレーションを行う登場人物の台詞の再生に用いる音声と同じ音声を決定してもよい。
In addition, the
効果音解析部25は、文章データの音声再生に併せて再生する効果音、及び、音楽(効果音楽)を決定する手段である。
The sound
効果音解析部25は、再生する効果音を決定する場合、まず、文章データの各章から、効果音データベース415に格納されている、効果音の種類を示す語句と一致する語句を検出する。次に、効果音解析部25は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、効果音解析部25は、効果音データベース415において、検出した語句と関連付けられている効果音データを、当該検出した語句の音声再生に合わせて再生する効果音として決定する。
When determining the sound effect to be reproduced, the sound
例えば、ある章のテーマが「波止場」であり、当該ある章から「波止場」という語句を検出した場合には、効果音解析部25は、効果音データベース415に格納されている効果音データ「K0001」を、当該ある章における「波止場」の音声再生に併せて再生する効果音として決定すればよい。
For example, if the theme of a certain chapter is “Wharf” and the word “Wharf” is detected from the certain chapter, the
効果音解析部25は、再生する音楽を決定する場合、まず、テーマ解析部23にて決定された文章データの各章のテーマが、テーマデータベース414における何れのテーマであるかを判定する。効果音解析部25は、音楽データベース416において、ある章におけるテーマと関連付けられている音楽データを、当該ある章の音声再生に合わせて再生する音楽として決定する。
When determining the music to be played back, the sound
例えば、効果音解析部25は、ある章のテーマが「結婚式」である場合には、音楽データベース416に格納されている、テーマ「結婚式」に関連付けられている音楽データ「M0001」を、当該ある章に含まれる文章が音声再生される間に再生する音楽として決定すればよい。
For example, when the theme of a chapter is “wedding”, the sound
なお、効果音解析部25は、音楽データベース416に格納されている音楽データを、ある章に含まれる文章が音声再生される間に再生する音楽として決定する代わりに、ある章において、当該ある章のテーマに関連する語句が音声再生される際に再生する音楽として決定する構成を採用してもよい。
Note that the sound
この場合には、効果音解析部25は、まず、文章データの各章から、音楽データベース416に格納されている、音楽の種類を示す語句と一致する語句を検出すればよい。次に、効果音解析部25は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、効果音解析部25は、音楽データベース416において、検出した語句と関連付けられている音楽データを、当該検出した語句の音声再生に合わせて再生する音楽として決定する。
In this case, the sound
例えば、効果音解析部25は、ある章のテーマが「結婚式」である場合、当該ある章から「結婚式の歌」という語句を検出した場合に、音楽データベース416に格納されている、音楽の種類「結婚式の歌」に関連付けられている音楽データ「M0001」を、当該ある章における「結婚式の歌」という語句の音声再生に併せて再生する音楽として決定すればよい。
For example, if the theme of a certain chapter is “wedding” and the sound
画像解析部26は、文章データの音声再生に併せて表示する画像を決定する手段である。画像解析部26は、まず、文章データの各章から、画像データベース417に格納されている、画像の種類を示す語句と一致する語句を検出する。次に、画像解析部26は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、画像解析部26は、画像データベース417において、検出した語句と関連付けられている画像データを、当該検出した語句の音声再生に合わせて表示する画像として決定する。
The
例えば、ある章のテーマが「誕生日」であり、当該ある章から「ケーキ」という語句を検出した場合には、画像解析部26は、画像データ「G0003」を、当該ある章における「ケーキ」の音声再生に併せて表示する画像として決定すればよい。
For example, when the theme of a chapter is “birthday” and the word “cake” is detected from the chapter, the
(変換部)
変換部30は、解析部20において決定された音声、効果音、音楽、及び、画像を出力可能に変換し、変換したデータが出力されるように音声出力部51、及び、表示部52を駆動する。変換部30は、図1に示すように、音声変換部(音声再生手段)31、効果音変換部(効果音再生手段)32、及び、画像変換部(画像表示手段)33を備えている。
(Conversion unit)
The
音声変換部31は、文章データが、属性情報読取部10において決定された音声用いて出力され、文章データに含まれる台詞が、音声解析部24において決定された登場人物の音声データを用いて出力されるように、音声出力部51を駆動する。なお、音声解析部24及び音声変換部31によって、音声再生手段を構成している。
The
効果音変換部32は、効果音解析部25において決定された効果音、及び、音楽が、文章データの音声の出力と共に出力されるように、音声出力部51を駆動する。なお、効果音解析部25及び効果音変換部32によって、効果音再生手段及び音楽再生手段を構成している。
The sound
画像変換部33は、画像解析部26において決定された画像が、文章データの音声の出力と共に表示されるように、表示部52を駆動する。なお、画像解析部26及び画像変換部33によって、画像表示手段を構成している。
The
また、効果音変換部32及び画像変換部33は、効果音及び音楽の再生時間、並びに、画像の表示時間を、語句検出回数記憶部42に格納されている語句の検出回数に応じて設定してもよい。例えば、効果音変換部32及び画像変換部33は、検出回数が少ない語句に関連付けられている効果音及び音楽の再生時間、並びに、画像の表示時間を短く設定し、検出回数が多い語句に関連付けられている効果音及び音楽の再生時間、並びに、画像の表示時間を長く設定してもよい。もちろん、効果音変換部32及び画像変換部33は、効果音及び音楽の再生時間、並びに、画像の表示時間を、語句検出回数記憶部42に格納されている語句の検出回数に係わらず、予め定められているデフォルトの長さに設定してもよい。
Further, the sound
(ユーザ指示の取得)
ユーザ指示取得部53は、電子機器1を利用するユーザからの指示を受け付ける手段である。ユーザ指示取得部53は、例えば、ユーザがボタン及びパネルなどを押下することによって行う指示を受け付けるキーボード、十字キー、及び、タッチパネルなどで構成されていてもよく、ユーザが発した言葉をユーザ指示として受け付けるマイクなどで構成されていてもよい。
(Acquiring user instructions)
The user
ユーザ指示取得部53は、ユーザ指示が、記憶部40が有するデータベース記憶部41に含まれるユーザ登録用データベース419にデータを登録する登録指示である場合には、取得した登録指示に含まれるデータをユーザ登録用データベース419に登録する。なお、ユーザ登録用データベース419に登録するデータとは、例えば、文章データが再生される際に用いられる音声、文章データに含まれるある語句が再生される際に併せて再生又は表示される効果音、音楽、及び、画像などを挙げることができる。また、ユーザ登録用データベース419に登録された効果音、音楽、及び、画像などは、それぞれ、効果音データベース415、音楽データベース416、及び、画像データベース417のフォーマットに合ったデータに変換され、それぞれのデータベースに自動で登録されてもよい。
When the user instruction is a registration instruction for registering data in the
また、ユーザ指示取得部53は、ユーザ指示が、電子機器1の機能を制御する制御指示である場合には、取得した制御指示を機能制御部54に供給する。
In addition, when the user instruction is a control instruction for controlling the function of the electronic device 1, the user
ユーザ指示が、例えば、文章データが再生される際に用いられる、書籍のジャンルに応じた音声を登録する登録指示である場合、ユーザ指示取得部53は、ユーザから指示された書籍のジャンルと、再生に用いられる音声とを関連付けて、ユーザ登録用データベース419に格納すればよい。なお、ユーザ指示が、例えば、文章データのジャンルと、再生に用いられる音声の属性(年齢層及び性別など)を登録する登録指示である場合には、ジャンルと、音声の属性とを関連付けてユーザ登録用データベース419に格納してもよく、ジャンルデータベース411に格納すればよい。
For example, when the user instruction is a registration instruction for registering sound corresponding to the genre of the book used when the text data is reproduced, the user
また、ユーザ指示が、ある語句に関連付けて効果音、音楽、及び、画像などを登録する旨を示す登録指示である場合、ユーザ指示取得部53は、指示された語句と、効果音、音楽、及び、画像などのデータとを関連付けてユーザ登録用データベース419に格納する。なお、ユーザ指示が効果音、音楽、及び、画像などを登録する登録指示である場合には、ユーザ指示取得部53は、ユーザ登録用データベース419に格納する代わりに、指示された語句と効果音とを関連付けて効果音データベース415に格納してもよいし、指示された語句と音楽とを関連づけて音楽データベース416に格納してもよいし、指示された語句と画像とを関連づけて画像データベース417に格納してもよい。
When the user instruction is a registration instruction indicating that sound effects, music, images, and the like are registered in association with a certain phrase, the user
さらに、ユーザ指示取得部53は、音声の再生、効果音及び音楽の再生、並びに、画像の表示などに関する設定を示すユーザ指示を受け付けてもよい。
Further, the user
例えば、ユーザ指示取得部53は、登録指示によって登録された効果音、音楽、及び、画像などのデータを、予め効果音データベース415、音楽データベース416、及び、画像データベース417などに格納されているデータよりも優先して再生、又は、表示するように設定するユーザ指示を受け付けてもよい。
For example, the user
また、ユーザ指示取得部53は、ユーザ指示として、音声再生に合わせて再生又は表示される効果音、音楽、及び、画像の組み合わせを設定する組み合わせ設定指示を受け付けてもよい。具体的には、ユーザ指示取得部53は、音声再生に合わせて、効果音の再生のみを行う設定、音楽の再生のみを行う設定、画像の再生のみを行う設定、効果音及び音楽の再生を行う設定、効果音の再生及び画像の表示を行う設定、並びに、音楽の再生及び画像の表示を行う設定などを受け付ける。
In addition, the user
また、ユーザ指示取得部53は、ユーザ指示として、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかに関連する効果音、音楽、及び、画像などのデータを、電子機器1に接続されているインターネットなどの外部ネットワークから取得する旨のデータ取得指示を受け付けてもよい。ユーザ指示取得部53は、データ取得指示を受け付けると、受け付けたデータ取得指示を外部データ取得部55に通知する。なお、外部データ取得部55については後述する。
In addition, the user
この場合に、さらに、ユーザ指示取得部53は、外部ネットワークから取得された効果音、音楽、及び、画像などのデータを、予め効果音データベース415、音楽データベース416、及び、画像データベース417などに格納されているデータよりも優先して再生、又は、表示するように設定するユーザ指示を受け付けてもよい。
In this case, the user
また、ユーザ指示取得部53は、文章データを音声再生する際の再生速度、及び、再生音量などを設定するユーザ指示を受け付けてもよい。ユーザ指示取得部53は、受け付けた再生速度、及び、再生音量などのユーザ設定を、ユーザ登録用データベース419に格納する。
Further, the user
音声変換部31は、文章データの音声再生時に、ユーザ登録用データベース419に再生速度、及び、再生音量などのユーザ設定が格納されている場合には、格納されているユーザ設定に基づいて再生速度、及び、再生音量などを決定する。なお、文章データの音声再生時に、ユーザ登録用データベース419にユーザ設定が格納されていない場合には、音声変換部31は、予め設定されているデフォルトの再生速度、及び、再生音量などを用いて音声再生を行えばよい。
If the
機能制御部54は、ユーザ指示取得部53から供給される制御指示であるユーザ指示に基づいて、電子機器1の機能を制御する。例えば、取得した制御指示が、電子機器1の各部への電源の供給を停止(すなわち、電源OFF)する制御指示である場合には、機能制御部54は、電子機器1が備える電源部(不図示)から各部への電源の供給を停止するよう制御する。
The
外部データ取得部55は、外部ネットワークから効果音、音楽、及び、画像などのデータを取得する手段である。具体的には、外部データ取得部55は、ユーザ指示取得部53からデータ取得指示が通知されると、外部ネットワークから、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかと関連する効果音、音楽、及び、画像などのデータを取得する。外部ネットワークから取得された効果音、音楽、及び、画像などのデータは、ユーザ登録用データベース419に格納されてもよし、効果音データベース415、音楽データベース416、及び、画像データベース417にそれぞれ格納されてもよい。
The external
なお、電子機器1と外部ネットワークとは、例えば、LANケーブルなどによって有線接続されていてもよいし、無線LANなどによって無線接続されていてもよい。 Note that the electronic device 1 and the external network may be wiredly connected by, for example, a LAN cable, or may be wirelessly connected by a wireless LAN or the like.
〔音声再生に関する処理〕
次に、本実施形態に係る電子機器1における、音声再生に関する処理について、図10から図13を参照して説明する。
[Processing related to audio playback]
Next, processing related to audio reproduction in the electronic apparatus 1 according to the present embodiment will be described with reference to FIGS. 10 to 13.
(音声再生処理)
まず、本実施形態に係る電子機器1における、音声再生処理について、図10を参照して説明する。図10は、本実施形態に係る電子機器1における音声再生処理の流れを示すフローチャートである。
(Audio playback processing)
First, audio reproduction processing in the electronic apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the flow of the audio reproduction process in the electronic apparatus 1 according to the present embodiment.
図10に示すように、属性情報読取部10は、文章データが入力されると、文章データからジャンル及び著者を含む属性情報を読み取る(ステップS101)。
As shown in FIG. 10, when the text data is input, the attribute
属性情報読取部10は、ジャンルデータベース411及び人名・性別データベース412を参照して、再生音声決定処理を行い、読み取った属性情報から再生に用いられる音声を決定する(ステップS102)。なお、再生音声決定処理については、図面を替えて後述する。
The attribute
また、属性情報読取部10は、読み取った属性情報を、データベース記憶部41に含まれる属性情報データベース418に格納し(ステップS103)、入力された文章データを文章解析部21に供給する。
The attribute
文章解析部21は、属性情報読取部10から文章データが供給されると、供給された文章データを読み込む(ステップS104)。
When the text data is supplied from the attribute
文章解析部21は、文章データを読み込むと、読み込んだ文章データを記憶部40に格納する(ステップS105)と共に、記憶部40に格納した文章データを、登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。
When the
文章解析部21から文章データが供給されると、登場人物解析部22は、供給された文章データから、登場人物の姓、名、愛称、及び、登場人物の年齢及び性別を含む属性を検出する。また、登場人物解析部22は、検出した登場人物の姓、名、愛称、及び、登場人物の属性をそれぞれ関連づけて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する。
When text data is supplied from the
音声解析部24は、文章解析部21から供給された文章データから、登場人物の姓、名、及び、愛称の何れかを検出する。音声解析部24は、音声データベース413において、登場人物データ格納領域おいて検出した登場人物の姓、名、及び、愛称の何れかと関連付けられている性別及び年齢を示す音声の種類と関連付けられている音声データを、登場人物の台詞に関する文章データを再生する音声に用いられる音声データとして決定する(ステップS106)。
The
文章解析部21、及び、テーマ解析部23は、文章データを構成する章毎のテーマを決定するテーマ決定処理を実行する(ステップS107)。なお、テーマ決定処理については、図面を代えて後述する。
The
効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS108)。
When the sentence data is supplied from the
また、効果音解析部25は、文章解析部21から文章データが供給されると、音楽データベース416において、文章を構成する各章に対してテーマ解析部23が決定したテーマと関連付けられている音楽データを、各章の音声再生に併せて再生される音楽として決定する(ステップS109)。
Further, when the sentence data is supplied from the
画像解析部26は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて表示される画像として決定する(ステップS110)。
When text data is supplied from the
次に、解析部20は、効果音解析部25、及び、画像解析部26において、音声の再生に併せて出力される効果音、音楽、及び、画像を決定すると、文章データと共に、音声データ、効果音データ、音楽データ、及び、画像データを、変換部30に供給する。
Next, when the sound
変換部30は、文章データ、音声データ、効果音データ、音楽データ、及び、画像データが供給されると、効果音、音楽、及び、画像を出力する出力時間を、決定する出力時間決定処理を実行する(ステップS111)。なお、出力時間決定処理については、図面を替えて後述する。
When the text data, voice data, sound effect data, music data, and image data are supplied, the
効果音、音楽、及び、画像を出力する出力時間が決定すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する(ステップS112)。
When the output time for outputting the sound effect, music, and image is determined, the
文章解析部21は、ステップS105において、読み込んだ文章データを登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する前に、一度、記憶部40に格納する。これは、文章データを読み込む処理に必要な時間と比較して、文章解析部21からデータが供給される各解析部22〜26における処理に必要な時間が長いため、各解析部22〜26の処理速度に応じて文章データを供給する必要があるためである。これによって、文章解析部21は、各解析部22〜26に対し、処理能力を上回る過度な文章データが供給されることを防ぐことができる。
In step S <b> 105, the
なお、本実施形態では、ステップS105において、文章解析部21が、読み込んだ文章データを記憶部40に格納した後に各解析部22〜26に供給する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、各解析部22〜26が個別にバッファを備えており、文章解析部21から記憶部40に格納されることなく供給される文章データが、各解析部22〜26が個別に備えるバッファに一時的に格納される構成を採用してもよい。この場合には、各解析部22〜26は、個別に備えるバッファに格納されている文章データを適宜読み出して、上述したステップの処理を実行すればよい。
In the present embodiment, the configuration in which the
なお、本実施形態では、ステップS103において、属性情報読取部10が、読み取った属性情報のみを属性情報データベース418に格納する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、属性情報読取部10は、ステップS103において、読み取った属性情報を、ステップS102において決定した再生に用いられる音声の情報と関連付けて、データベース記憶部41に含まれる属性情報データベース418に格納してもよい。この場合には、属性情報データベース418に、再生に用いられる音声の情報を格納する領域がさらに設けられていればよい。
In the present embodiment, the configuration in which the attribute
なお、本実施形態では、ステップS109において、効果音解析部25が、各章の音声再生に併せて再生される音楽を決定する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、効果音解析部25は、ステップS109において、文章解析部21から供給された文章データを構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、検出した語句の音声再生に併せて再生される音楽として決定してもよい。
In the present embodiment, the configuration in which the sound
(再生音声決定処理)
次に、再生音声決定処理(図10における、ステップS102)について、図11を参照して説明する。図11は、本実施形態に係る電子機器1における再生音声決定処理の流れを示すフローチャートである。
(Playback audio decision process)
Next, the playback sound determination process (step S102 in FIG. 10) will be described with reference to FIG. FIG. 11 is a flowchart showing the flow of the playback audio determination process in the electronic apparatus 1 according to the present embodiment.
属性情報読取部10は、文章データからジャンル及び著者を含む属性情報を読み取ると、図11に示すように、文章データのジャンルから、文章データの再生に用いられる音声の年齢層及び性別の双方が決まるか否かを判定する(ステップS201)。例えば、属性情報読取部10は、ジャンルデータベース411において、読み取った属性情報に含まれるジャンルに、再生に用いられる音声の年齢層及び性別が関連付けられているか否かを判定することによって、年齢層及び性別の双方が決まるか否かを判定すればよい。
When the attribute
文章データのジャンルから、文章データの再生に用いられる音声の年齢層及び性別の双方は決まらないと判定すると(ステップS201においてNO)、属性情報読取部10は、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まるか否かを判定する(ステップS202)。例えば、属性情報読取部10は、ジャンルデータベース411において、読み取った属性情報に含まれるジャンルと年齢層が関連付けられており、かつ、人名・性別データベース412において、読み取った属性情報に含まれる著者と性別とが関連付けられているか否かを判定することによって、年齢層及び性別が決まるか否かを判定すればよい。
If it is determined from the genre of the text data that neither the age group nor the gender of the voice used to reproduce the text data is determined (NO in step S201), the attribute
文章データのジャンルから文章データの再生に用いられる音声の年齢層及び性別の双方が決まるかと判定した場合(ステップS201においてYES)、又は、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まると判定した場合(ステップS202においてYES)、属性情報読取部10は、文章データの再生に用いる音声の年齢層及び性別を決定し、音声データベース413において、決定した年齢層及び性別を示す種類に関連付けられた音声データを、文章データの再生に用いる音声の音声データとして決定する(ステップS203)。
When it is determined from the genre of the text data whether both the age group and gender of the voice used for the playback of the text data are determined (YES in step S201), or from the genre and author of the text data, used for the playback of the text data When it is determined that the voice age group and gender are determined (YES in step S202), the attribute
また、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まらないと判定した場合(ステップS202においてNO)、属性情報読取部10は、デフォルトの音声データを、文章データの再生に用いる音声として決定する(ステップS204)。
Further, when it is determined from the genre and author of the text data that the age group and gender of the voice used to reproduce the text data are not determined (NO in step S202), the attribute
(テーマ決定処理)
次に、テーマ決定処理(図10における、ステップS107)について、図12を参照して説明する。図12は、本実施形態に係る電子機器1におけるテーマ決定処理の流れを示すフローチャートである。
(Theme determination process)
Next, the theme determination process (step S107 in FIG. 10) will be described with reference to FIG. FIG. 12 is a flowchart showing the flow of theme determination processing in the electronic apparatus 1 according to the present embodiment.
図12に示すように、文章解析部21は、文章データを構成するある章に、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている語句と一致する語句があるか否かを判定する(ステップS301)。
As shown in FIG. 12, the
ある章に、何れかのデータベースに登録されている語句と一致する語句があると判定すると(ステップS301においてYES)、文章解析部21は、ある章から、何れかのデータベースに登録されている語句と一致する語句を検出する。また、文章解析部21は、検出した語句を、検出した語句の検出回数と関連づけて、語句検出回数記憶部42に格納する(ステップS302)。例えば、各語句が始めて検出されたときに関連付けられる検出回数は、1であればよい。
If it is determined that there is a phrase that matches the phrase registered in any database (YES in step S301), the
文章解析部21は、同一の語句を検出すると、語句検出回数記憶部42に格納されている、検出した語句と関連付けられている検出回数の値を、1だけ増加させる(ステップS303)。また、文章解析部21は、検出した語句の語句検出回数記憶部42へ語句及び検出回数を格納すると、テーマ解析部23に、語句及び検出回数を格納した旨を示す信号を通知する。
When the
テーマ解析部23は、文章解析部21から、語句及び検出回数を格納した旨を示す信号を取得すると、語句検出回数記憶部42を参照し、章において、語句に関連付けられている検出回数が、予め設定されている閾値よりも多い語句が存在するか否かを判定する(ステップS304)。
When the
閾値よりも多い検出回数の語句が存在すると判定すると(ステップS304においてYES)、テーマ解析部23は、閾値よりも多い検出回数の語句のうち、最も検出回数の多い語句から順に、ランクを設定する(ステップS305)。
If it is determined that there are words with the number of detections greater than the threshold (YES in step S304), the
テーマ解析部23は、ある章において、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されているか否かを、最も高いランクが設定された語句から順に判定する(ステップS306)。
The
テーマ解析部23は、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されている場合(ステップS306にいてYES)、テーマデータベース414において、ランクが設定された語句と関連付けられているテーマのうち、最も高いランクが設定された語句と関連付けられているテーマを、ある章のテーマとして決定する(ステップS307)。
When the theme associated with the word / phrase for which the rank has been set is registered in the theme database 414 (YES in step S306), the
テーマ解析部23は、ある章のテーマを決定した後、全ての章のテーマを決定したか否かを判定する(ステップS308)。
After determining the theme of a certain chapter, the
文章解析部21において、ある章に、何れかのデータベースに登録されている語句と一致する語句がないと判定した場合(ステップS301においてNO)、テーマ解析部23において、閾値よりも多い検出回数の語句が存在しないと判定した場合(ステップS304においてNO)、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されていない場合(ステップS306にいてNO)、及び、全ての章のテーマを決定が決定されていない場合(ステップS308においてNO)、文章解析部21及びテーマ解析部23は、次の章に移り(ステップS309)、上述したステップS301からS308までの処理を繰り返す。
When the
全ての章のテーマを決定すると(ステップS308においてYES)、テーマ解析部23は、テーマ決定処理を終了する。
When the themes of all chapters are determined (YES in step S308), the
(出力時間決定処理)
次に、出力時間決定処理(図10における、ステップS111)について、図13を参照して説明する。図13は、本実施形態に係る電子機器1における出力時間決定処理の流れを示すフローチャートである。
(Output time determination process)
Next, the output time determination process (step S111 in FIG. 10) will be described with reference to FIG. FIG. 13 is a flowchart showing a flow of output time determination processing in the electronic apparatus 1 according to the present embodiment.
図13に示すように、変換部30は、文章データの再生と併せて出力される効果音、音楽及び画像が決定すると、それぞれのデータ(効果音データ、音楽データ及び画像データ)に関連付けられている語句の検出回数を、語句検出回数記憶部42から取得する(ステップS401)。
As shown in FIG. 13, when the sound effect, music, and image output together with the reproduction of the text data are determined, the
変換部30における効果音変換部32及び画像変換部33は、効果音データ、音楽データ及び画像データのそれぞれに関連付けられている語句の検出回数を取得すると、効果音、音楽及び画像の出力時間を、取得した語句の検出回数に応じて決定する(ステップS402)。
When the sound
検出回数に応じた出力時間として、例えば、効果音変換部32は、効果音データベースにおいて効果音データと関連付けられている語句の検出回数が、2回である場合には、効果音データが再生される時間を、10秒とすればよい。効果音変換部32は、音楽データベースにおいて音楽データと関連付けられている語句の検出回数が、5回である場合には、音楽データが再生される時間を、20秒とすればよい。また、画像変換部33は、画像データベースにおいて画像データと関連づけられている語句の検出回数が7回である場合には、画像データが表示される時間を、30秒とすればよい。
As the output time corresponding to the number of detections, for example, the sound
なお、本実施形態では、文章データの音声再生と併せて、効果音、音楽、及び、画像を出力する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、文章データの音声再生と併せて、効果音、音楽、及び、画像の少なくとも何れか1つを出力してもよい。この場合には、上述したように、ユーザ指示取得部53を介して組み合わせ設定指示を取得すればよい。
In the present embodiment, the configuration of outputting sound effects, music, and images together with the sound reproduction of the text data has been described as an example, but the present invention is not limited to this. For example, it is also possible to output at least one of sound effects, music, and images together with voice reproduction of text data. In this case, as described above, a combination setting instruction may be acquired via the user
なお、本実施形態では、各データベースに予め格納されている効果音、音楽、及び、画像のデータを参照することによって、文章データの音声再生と併せて再生又は表示される効果音、音楽、及び、画像を決定する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、上述したように、ユーザ指示取得部53を介してデータ取得指示を受け付けた場合に、電子機器1は、外部データ取得部から取得した効果音、音楽、及び、画像のデータを、文章データの音声再生と併せて再生又は表示してもよい。
In the present embodiment, sound effects, music, and sound that are reproduced or displayed together with sound reproduction of sentence data by referring to sound effects, music, and image data stored in advance in each database. The configuration for determining an image has been described as an example, but the present invention is not limited to this. For example, as described above, when a data acquisition instruction is received via the user
また、外部データ取得部が、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかに関連する効果音、音楽及び画像などのデータを、ユーザからのデータ取得指示によらずに外部ネットワークから取得する構成を採用してもよい。この場合には、外部データ取得部55は、取得した効果音、音楽及び画像などのデータをそれぞれ、効果音データベース415、音楽データベース416、及び、画像データベース417に格納すればよい。効果音解析部25、及び、画像解析部26は、効果音データベース415、音楽データベース416、及び、画像データベース417にそれぞれ格納されている、外部ネットワークから取得した効果音、音楽及び画像のデータを、文章データの再生と併せて再生又は表示する効果音、音楽及び画像として決定する。
In addition, the external data acquisition unit receives data such as sound effects, music, and images related to at least one of the phrase detected by the
これによって、電子機器1は、文章データの音声再生に適したデータを予めデータベース記憶部41が備える各データベースに格納しておかなくとも、外部データ取得部55によって文章データの音声再生に適したデータを取得し、出力することができる。
As a result, the electronic device 1 does not store data suitable for voice reproduction of text data in each database provided in the
上述した構成によって、文章データは、当該文章データに含まれる属性情報(文章データのジャンル、及び、著者)に応じて設定された設定情報に基づいて音声再生されるので、文章データの属性に合った音声再生を行うことが可能となる。これによって、上記電子機器は、上記文章データが、当該文章データの属性に合わない音声で再生されてしまうことを防ぐことができる。 With the configuration described above, the text data is played back based on the setting information set according to the attribute information (text data genre and author) included in the text data. It is possible to perform voice playback. Accordingly, the electronic device can prevent the text data from being reproduced with a sound that does not match the attribute of the text data.
このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データを十分に楽しむことができる。 As described above, the user can sufficiently enjoy the text data by enabling the audio reproduction suitable for the attribute of the text data.
また、電子機器1は、登場人物解析部22において解析した登場人物毎に音声を変え、それぞれの登場人物の属性に合った音声で、台詞などの登場人物に関係した文章を再生することができる。
In addition, the electronic device 1 can change the voice for each character analyzed by the
このように、登場人物の属性に合った音声再生を行うことを可能にすることで、ユーザは、文章データを、1つの音声で再生される場合よりも、より細やかな表現、及び、臨場感のある音声再生を聞くことができるため、文章データをさらに楽しむことができる。 In this way, by making it possible to perform audio reproduction that matches the attributes of the characters, the user can reproduce the sentence data in a more detailed expression and presence than when the sentence data is reproduced with a single audio. Since you can listen to the voice playback, you can enjoy the text data further.
また、効果音解析部25及び効果音変換部32、並びに、画像解析部26及び画像変換部33は、テーマに関係ない語句が検出された場合に、当該テーマに関係ない語句に応じた効果音及び画像を出力しないため、ユーザに違和感を与えてしまうことを低減することができる。したがって、ユーザは、文章データが再生される音声と併せて、適切な効果音及び画像などを楽しむことができる。
In addition, the sound
<実施形態2>
次に、本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<
Next, another embodiment of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.
〔電子機器〕
本実施形態に係る電子機器1が備える属性情報読取部10は、さらに、文章データが、電子メールであるか否かを判定する機能を備えている。
〔Electronics〕
The attribute
属性情報読取部10は、文章データが電子メールである場合、文章データの属性情報として、電子メールの送信元のアドレスを取得し、取得した属性情報に応じて電子メールを再生する音声を決定する。属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。
When the text data is an e-mail, the attribute
属性情報読取部10は、後述するアドレス帳データベースから、電子メールのアドレスに関連付けられている送信元相手の音声データを取得し、取得した音声データを、電子メールの再生に用いられる音声として決定する。
The attribute
また、属性情報読取部10は、アドレス帳データベースにおいて、電子メールのアドレスに送信元の相手の音声データが関連づけられていない場合、アドレス帳データベースにおいて、電子メールのアドレスに関連付けられている送信元相手の名前、年齢、及び、性別などを参照し、図5に示す音声データベースから、電子メールの再生に用いられる音声として決定する。
Further, the attribute
なお、属性情報読取部10は、アドレス帳データベースにおいて、電子メールのアドレスと、送信元相手の音声データ、年齢、及び、性別の何れも関連づけられていない場合、電子メールの再生に用いられる音声をデフォルトの音声とすることを決定してもよい。
In the address book database, the attribute
〔データベース〕
本実施形態に係る電子機器1において、記憶部40が有するデータベース記憶部41は、アドレス帳データベースを含んでいる。アドレス帳データベースについて、図14を参照して説明する。図14は、本実施形態に係るデータベース記憶部41に格納されている、アドレス帳データベースの一例を示す図である。
[Database]
In the electronic device 1 according to the present embodiment, the
(アドレス帳データベース)
アドレス帳データベースは、文章データが電子メールである場合に参照されるデータベースである。
(Address book database)
The address book database is a database that is referred to when the text data is an e-mail.
図14に示すように、アドレス帳データベースには、電子メールの送信元相手の名前、アドレス、年齢、性別、音声データ、及び、送信元相手を示すデータ、がそれぞれ関連づけられている。 As shown in FIG. 14, the address book database is associated with the name, address, age, gender, voice data, and data indicating the sender partner of the email sender.
例えば、アドレス帳データベースでは、送信元相手の名前「上田慎也」に対して、送信元相手を示すデータ「0001」、アドレス「disec@tokkyo.com」、年齢「32」、性別「男性」、及び、音声データ「O0001」がそれぞれ関連付けられている。 For example, in the address book database, for the name “Shinya Ueda” of the sender, the data “0001” indicating the sender, address “disec@tokkyo.com”, age “32”, gender “male”, and , Audio data “O0001” are associated with each other.
アドレス帳データベースに格納されている音声データは、例えば、送信元相手の音声であって、例えば、送信相手の音声を、五十音、数字、アルファベットなど、個別に録音して格納された音声データであってもよい。 The voice data stored in the address book database is, for example, the voice of the other party of the transmission source, for example, the voice data stored by individually recording the voice of the other party of transmission, such as a Japanese syllabary, numbers, alphabets, etc. It may be.
〔音声再生処理〕
次に、文章データが電子メールである場合の、音声再生処理について、図15を参照して説明する。図15は、本実施形態に係る電子機器1における、電子メールの音声再生処理の流れを示すフローチャートである。
[Audio playback processing]
Next, an audio reproduction process when the text data is an e-mail will be described with reference to FIG. FIG. 15 is a flowchart showing the flow of the voice reproduction process of the electronic mail in the electronic apparatus 1 according to the present embodiment.
属性情報読取部10は、文章データが入力されると、まず、文章データが電子メールであるか否かを判定し、文章データが電子メールである場合に、図15に示す、電子メールの音声決定処理を実行する。
When the text data is input, the attribute
(電子メールの音声決定処理)
属性情報読取部10は、文章データが電子メールである場合、まず、電子メールからアドレスを属性情報として取得する。
(E-mail voice decision processing)
When the text data is an electronic mail, the attribute
属性情報読取部10は、図15に示すように、電子メールからアドレスを取得すると、アドレス帳データベースに、取得したアドレスが登録されているか否かを判定する(ステップS501)。
As shown in FIG. 15, when the attribute
アドレス帳データベースに、取得したアドレスが登録されていないと判定した場合(ステップS501においてNO)、属性情報読取部10は、電子メールの再生に用いられる音声を、デフォルトの音声として決定する(ステップS502)。
If it is determined that the acquired address is not registered in the address book database (NO in step S501), the attribute
アドレス帳データベースに、取得したアドレスが登録されていると判定した場合(ステップS501においてYES)、属性情報読取部10は、取得したアドレスに、音声データが関連付けられているか否かを判定する(ステップS503)。
If it is determined that the acquired address is registered in the address book database (YES in step S501), the attribute
アドレス帳データベースにおいて、取得したアドレスに音声データが関連付けられていると判定した場合(ステップS503においてYES)、属性情報読取部10は、アドレスに関連付けられている音声データを、電子メールの再生に用いられる音声として決定する(ステップS504)。
If it is determined in the address book database that the voice data is associated with the acquired address (YES in step S503), the attribute
アドレス帳データベースに、取得したアドレスに音声データが関連付けられていないと判定した場合(ステップS503においてNO)、属性情報読取部10は、アドレスに関連付けられている送信元相手の年齢及び性別を参照し、図5に示す音声データベースにおいて、送信元相手の年齢及び性別が示す音声の種類と対応付けられている音声データを、電子メールの再生に用いられる音声として決定し(ステップS505)、電子メールの音声決定処理を終了する。
If it is determined that the voice data is not associated with the acquired address in the address book database (NO in step S503), the attribute
また、電子メールの音声決定処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する。
When the voice determination processing for the e-mail is completed, the
したがって、電子機器1は、上記文章データが電子メールである場合にも、アドレスデータ、すなわち、電子メールの送信元相手に応じた適切な音声で電子メールを音声再生することができる。これによって、ユーザは、電子メールを、当該電子メールの送信元相手に応じた適切な音声で楽しむことができる。 Therefore, even when the text data is an electronic mail, the electronic device 1 can reproduce the electronic mail by voice with an appropriate voice according to the address data, that is, the sender of the electronic mail. Thus, the user can enjoy the electronic mail with an appropriate voice corresponding to the other party of the electronic mail.
<実施形態3>
次に、本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<
Next, another embodiment of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.
〔データベース〕
まず、電子機器1が備える各部の説明に先立って、本実施形態に係る記憶部40が有するデータベース記憶部41に格納されているデータベースについて、以下に説明する。本実施形態に係る電子機器1において、記憶部40が有するデータベース記憶部41は、さらに、音声表現データベース、及び、略号データベースを含んでいる。
[Database]
First, prior to description of each unit included in the electronic device 1, a database stored in the
(音声表現データベース)
まず、電子機器1において再生する、文章データの再生に用いられる音声の表現を決定する際に参照される、音声表現データベースについて、図16を参照して説明する。図16は、データベース記憶部41に格納されている、音声表現データベースの一例を示す図である。
(Voice expression database)
First, an audio expression database that is referred to when determining an audio expression used for reproducing text data to be reproduced in the electronic apparatus 1 will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of a speech expression database stored in the
図16に示すように、音声表現データベースには、文章データにおける台詞の表現(すなわち、音声表現)を示す語句、音声を再生する際のパラメータ(図16においては、速度、音量、及び、Wait)、及び、表現データが関連付けられている。なお、Waitとは、直前の台詞や文章の音声再生が終了した時点から、次の台詞の音声が再生されるまでの時間である。 As shown in FIG. 16, the speech expression database includes words and phrases indicating speech expression (ie, speech expression) in sentence data, and parameters for reproducing sound (speed, volume, and wait in FIG. 16). And expression data are associated with each other. Note that “Wait” is the time from when the previous speech or sentence is reproduced, until the next dialogue is reproduced.
例えば、表現データ「K0001」と関連付けられている、音声表現を示す語句「ゆっくりと」に対して、パラメータとして速度「−3」、音量「0」、及び、Wait「0」が関連付けられている。また、表現データ「K0002」と関連付けられている、音声表現を示す語句「大きな声で」に対して、パラメータとして速度「0」、音量「+3」、及び、Wait「0」が関連付けられている。また、表現データ「K9998」と関連付けられている、音声表現を示す語句「蚊の鳴くような声」に対して、パラメータとして速度「0」、音量「−10」、及び、Wait「5秒」が関連付けられている。 For example, the speed “−3”, the volume “0”, and the wait “0” are associated as parameters with respect to the phrase “slowly” indicating the voice expression associated with the expression data “K0001”. . In addition, the speed “0”, the volume “+3”, and the wait “0” are associated as parameters with respect to the phrase “loud voice” indicating the speech expression, which is associated with the expression data “K0002”. . For the phrase “mosquito-speaking voice” indicating the voice expression associated with the expression data “K9998”, the speed “0”, volume “−10”, and Wait “5 seconds” are used as parameters. Is associated.
例えば、音声表現を示す語句「蚊の鳴くような声」を表現するように再生される台詞は、Waitが「5秒」であるので、当該台詞の直前の文章が再生された後、5秒後に再生される。また、「蚊の鳴くような声」を表現するように再生される台詞は、速度が「0」であるので、デフォルトの音声の再生速度と同じ速度で再生され、音量が「−10」であるので、デフォルトの音声の再生音量が「15」である場合、10だけ小さな音量「5」の音量で再生される。 For example, a line that is reproduced so as to express the phrase “voice like mosquito” that expresses the voice expression is “5 seconds”, so that 5 seconds after the sentence immediately before the line is reproduced. It will be played later. In addition, since the speech that is reproduced to express “voice that sounds like a mosquito” has a speed of “0”, it is played back at the same speed as the playback speed of the default voice, and the volume is “−10”. Therefore, when the playback volume of the default sound is “15”, playback is performed at a volume “5” that is smaller by 10.
また、後述する技術記号「***」には、パラメータとして速度「0」、音量「0」、及び、Wait「10秒」が関連付けられている。 In addition, a speed “0”, a volume “0”, and a wait “10 seconds” are associated as parameters with a technical symbol “***” described later.
(略号データベース)
次に、電子機器1において、文章データを技術記号又は略号に従って再生する場合に参照される、略号データベースについて、図17を参照して説明する。図17は、データベース記憶部41に格納されている、略号データベースの一例を示す図である。
(Abbreviation database)
Next, an abbreviation database that is referred to when text data is reproduced according to technical symbols or abbreviations in the electronic apparatus 1 will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of the abbreviation database stored in the
図17に示すように、略号データベースには、劇文学などにおいて使用される略号(又は技術記号)と、略号データと、音声、効果音及び音楽を再生する際に参照すべき参照先のデータベースとが関連付けられている。 As shown in FIG. 17, the abbreviation database includes abbreviations (or technical symbols) used in drama literature, abbreviation data, a database of reference destinations to be referred to when reproducing voice, sound effects, and music. Is associated.
例えば、後に続く文章が「ナレーション」であることを示す略号「N」には、データ「r001」、及び、略号「N」に続く文章データの再生に用いる音声を決定するために参照されるデータベース「音声データベース」がそれぞれ関連付けられている。 For example, the abbreviation “N” indicating that the sentence that follows is “narration” includes data “r001” and a database that is referred to in order to determine the voice used to reproduce the sentence data that follows the abbreviation “N”. Each “voice database” is associated.
また、後に続く文章と同時に音楽を流すことを指示する略号「BGM」には、データ「r003」、及び、再生する音楽を決定するために参照されるデータベース「音楽データベース」がそれぞれ関連付けられている。 Further, the data “r003” and the database “music database” referred to for determining the music to be played back are associated with the abbreviation “BGM” instructing to play music simultaneously with the following text. .
なお、図17に示す略号「M」は、後に続く文章が「モノローグ」であることを示し、略号「SE」は後に続く文章と同時に効果音を流すことを指示している。 Note that the abbreviation “M” shown in FIG. 17 indicates that the following sentence is “monologue”, and the abbreviation “SE” indicates that a sound effect is to be played simultaneously with the following sentence.
また、図17に示す技術記号「***」は、前後の文章が示す場面の間に、時間経過があることを示している。技術記号「***」は、例えば、ある文章が示す場面が、当該ある文章の直前の文章が示す場面の1時間後などである場合に用いられる。なお、前後の文章が示す場面の間に大きな時間経過があるには、技術記号「***」が2行並べられることもある。 Also, the technical symbol “***” shown in FIG. 17 indicates that there is a lapse of time between the scenes indicated by the preceding and following sentences. The technical symbol “***” is used, for example, when the scene indicated by a certain sentence is one hour after the scene indicated by the sentence immediately before the certain sentence. In addition, when there is a large time lapse between the scenes indicated by the preceding and following sentences, the technical symbol “***” may be arranged in two lines.
図17に示す略号データベースにおいて、技術記号「***」には、データ「r999」、及び、技術記号「***」に続く文章データを再生するために参照されるデータベース「音声表現データベース」が関連づけられている。図16を参照して上述したように、技術記号「***」に続く文章データを再生するために参照される音声表現データベースには、Wait「10秒」が関連付けられている。すなわち、技術記号「***」の直前の文章データが再生された後、10秒後に、技術記号「***」の直後の文章データが再生されることになる。 In the abbreviation database shown in FIG. 17, the technical symbol “***” includes data “r999” and a database “speech expression database” referred to for reproducing text data following the technical symbol “***”. Are associated. As described above with reference to FIG. 16, Wait “10 seconds” is associated with the speech expression database referred to for reproducing the text data following the technical symbol “***”. That is, the sentence data immediately after the technical symbol “***” is reproduced 10 seconds after the text data immediately before the technical symbol “***” is reproduced.
〔電子機器〕
本実施形態に係る電子機器1が備える属性情報読取部10は、さらに、文章データが、劇文学であるか否かを判定する機能を備えている。例えば、属性情報読取部10は、文章データのジャンルが劇文学である場合に、文章データを劇文学と判定すればよい。なお、劇文学とは、例えば、戯曲、及び、脚本などである。
〔Electronics〕
The attribute
属性情報読取部10は、文章データが劇文学である場合、文章データの属性情報として劇文学の著者を取得し、取得した属性情報に応じて劇文学を再生する音声を決定する。属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。
When the text data is dramatic literature, the attribute
属性情報読取部10は、まず、ジャンルデータベース411から、文章データのジャンル「劇文学」に関連付けられている年齢層を取得する。次に、属性情報読取部10は、人名・性別データベース412から、取得した文章データの著者の名前に関連付けられている性別を取得する。
The attribute
属性情報読取部10は、音声データベース413から、取得した年齢層、及び、性別を示す音声の種類に関連付けられている音声データを、劇文学を再生する音声として用いられる音声として決定する。
The attribute
文章解析部21は、文章データに含まれる「柱書き」及び「ト書き」を検出する。文章解析部21は、柱書き又はト書きの何れかを検出すると、文章データに柱書き又はト書きが含まれている旨を画像解析部26に通知する。また、文章解析部21は、文章データに含まれる柱書き及びト書きがナレーションとして再生されるよう、音声データベース413などを参照して、再生に用いられる音声を決定する。
The
ここで、柱書きとは、劇文学においては、シーンの最初に書かれ、その場所と時間を示している文章のことを指すのが一般的である。なお、柱書きの前には、1行の空白があり、柱書きの始まりには「○」が付されている。 Here, the pillar writing generally refers to a sentence written at the beginning of a scene and indicating the place and time in drama literature. Note that there is one line of blank before the column writing, and “○” is added at the beginning of the column writing.
また、ト書きとは、劇文学においては、登場人物の動作、照明、及び、効果音などの演出について、大まかな指示を記述する文章のことを指すのが一般的である。 In the drama literature, the general writing generally refers to a sentence describing rough instructions regarding the actions of the characters, lighting, and effects such as sound effects.
また、文章解析部21は、文章データに含まれる台詞に対し、登場人物データ格納部に格納されている、ある登場人物の台詞を文章データの始めから順に特定するための連番のフラグを設定する。
In addition, the
また、文章解析部21は、文章データから、音声表現データベースに格納されている音声表現を示す語句と一致する語句を検出し、音声解析部24に供給する。
In addition, the
また、文章解析部21は、文章データから、略号データベースに格納されている技術記号又は略号と一致する語句を検出し、音声解析部24、効果音解析部25、及び、画像解析部26に通知する。
In addition, the
登場人物解析部22は、劇文学である文章データに含まれる登場人物表から登場人物の姓、名、愛称、年齢、及び、性別などを読出し、登場人物データ格納部に格納する。登場人物解析部22は、登場人物データ格納領域に格納されている各登場人物に対し、図4(b)に示すように、登場人物を特定するためのフラグ(例えば、「F0001」、「F0002」など)を設定し、ある登場人物の台詞を文章データの始めから順に特定するために、フラグに連番を設定する(例えば、「F0001-1」、「F0001-2」、…、「F0001-n」(nは1以上の整数))を設定する(ステップS605)。
The
また、登場人物解析部22は、登場人物表に含まれていない登場人物については、文章データから検出した際に、適宜登録人物データ格納領域に格納する。
The
音声解析部24は、音声表現データベースを参照し、文章データの再生の速度、音量及び、Waitを決定する。
The
例えば、音声解析部24は、m番目の文に音声表現を示す「ゆっくりと」という語句が含まれている場合には、音声表現データベースにおいて「ゆっくりと」に関連付けられている速度のパラメータ「−3」を読出し、「ゆっくりと」と対応する台詞の再生速度を、デフォルトの再生速度よりもゆっくりと再生するよう決定する。
For example, when the phrase “slowly” indicating the speech expression is included in the m-th sentence, the
画像解析部26は、文章解析部21から、柱書き又はト書きの何れかを検出した旨の通知を取得すると、柱書き又はト書きの再生に併せて、再生される柱書き又はト書きが表示部52に表示されるよう動作する。具体的には、画像解析部26は、機能制御部54に、表示部52に電源が供給されているか(ON状態であるか)を判定させ、供給されていない状態(電源OFF状態)である場合には、柱書き又はト書きが表示部52に表示される時間だけ表示部52に電源が供給されるよう、機能制御部54に通知する。
When the
機能制御部54は、画像解析部26から供給される通知に基づき、表示部52のON状態とOFF状態とを切り替える。
The
〔音声再生処理〕
次に、文章データが劇文学である場合の音声再生処理について、図18を参照して説明する。図18は、本実施形態に係る電子機器1における、劇文学の音声再生処理の流れを示すフローチャートである。
[Audio playback processing]
Next, an audio reproduction process when the text data is dramatic literature will be described with reference to FIG. FIG. 18 is a flowchart showing the flow of drama literature audio reproduction processing in the electronic apparatus 1 according to the present embodiment.
属性情報読取部10は、文章データが入力されると、まず、文章データの属性情報を読み取る。電子機器1は、属性情報読取部10において読み取った属性情報に含まれる文章データのジャンルが劇文学である場合、図18に示す劇文学の音声決定処理を実行する。
When the text data is input, the attribute
(劇文学の音声決定処理)
解析部20は、文章データが供給されると、文章解析部21において、文章データを構成する一文毎に登場人物表であるか否かを判定する(ステップS601)。ここでは、文章データを構成する、m番目(mは1以上の整数)の文についての処理を例に挙げて説明する。
(Dramatic literature voice decision processing)
When the sentence data is supplied, the
文章解析部21においてm番目の文が登場人物表であると判定された場合(ステップS601においてYES)、登場人物解析部22は、登場人物表を読み出し、登場人物表に含まれている、登場人物の姓、名、愛称、年齢、及び、性別などをそれぞれ関連付けて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する(ステップS602)。
If the
登場人物データ格納領域に登場人物の姓、名、愛称、年齢、及び、性別などを格納すると、登場人物解析部22は、音声データベースから、登場人物データ格納領域に格納されている各登場人物の年齢及び性別を示す音声の種類に関連付けられている音声データを参照することにより、各登場人物の音声を選択する(ステップS603)。
When the surname, first name, nickname, age, gender, and the like of the character are stored in the character data storage area, the
また、登場人物解析部22は、音声データベースから選択したそれぞれの音声を、各登場人物の音声として決定する(ステップS604)。
In addition, the
登場人物解析部22は、登場人物データ格納領域に格納されている各登場人物に対し、登場人物を特定するためのフラグを設定し、さらに、フラグに連番を設定する(ステップS605)。
The
登場人物解析部22は、設定した連番のフラグを、登場人物データ格納領域に格納する(ステップS606)。
The
文章解析部21においてある一文が登場人物表でないと判定された場合(ステップS601においてYES)、文章解析部21は、m番目の文が柱書き又はト書であるか否かを判定する(ステップS607)。
If the
m番目の文が柱書き又はト書きであると判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文がナレーションとして再生されるよう、図11に示す、属性情報読取部10において実行する再生音声決定処理と同様の処理を実行する(ステップS608)。
When it is determined that the m-th sentence is a postscript or a top-notation (YES in step S607), the
また、m番目の文が柱書き又はト書きであると判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文が柱書き又はト書きである旨を画像解析部26に通知する。画像解析部26は、表示部52がON状態であるか否かを判定するよう、機能制御部54に通知する。機能制御部54は、画像解析部26から取得した通知に基づき、表示部52がON状態であるか否かを判定する(ステップS609)。
If it is determined that the m-th sentence is column writing or writing (YES in step S607), the
機能制御部54において表示部52がOFF状態であると判定された場合(ステップS609においてNO)、画像解析部26は、柱書き又はト書きであるm番目の文及び画像を表示する間のみ表示部52をON状態にする旨の信号を、機能制御部54に通知する。機能制御部54は、画像解析部26から供給された通知に基づき、柱書き又はト書であるm番目の文及び画像を表示する間のみ表示部52をON状態にする(ステップS610)。
When the
機能制御部54において表示部52がON状態であると判定された場合(ステップS609においてYES)、テーマ解析部23において、図12に示すテーマ決定処理を実行する(ステップS611)。
When the
また、m番目の文が柱書き又はト書きでないと判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文が台詞であるか否かを判定する(ステップS612)。
If it is determined that the m-th sentence is not a column writing or a top-notation (YES in step S607), the
m番目の文が台詞であると判定した場合(ステップS612においてYES)、文章解析部21は、m番目の文の台詞に、(m−1)番目までの文章に設定されている同一の登場人物の台詞と同一のフラグを設定する(ステップS613)。
When it is determined that the mth sentence is a dialogue (YES in step S612), the
また、文章解析部21は、同一登場人物の台詞に設定された同一のフラグに、さらに連番を設定し(ステップS614)、フラグを設定したm番目の文を、登場人物解析部22及び音声解析部24に供給する。
In addition, the
登場人物解析部22は、文章解析部21から供給されるm番目の文に設定されているフラグを、登場人物の姓、名、愛称、年齢、及び、性別とそれぞれ関連付けて登場人物データ格納領域に格納する(ステップS615)。
The
m番目の文が台詞でないと判定した場合(ステップS612においてNO)、文章解析部21は、m番目の文に、音声表現データベースに格納されている、音声表現を示す語句と一致する語句があるか否かを判定する(ステップS616)。
When it is determined that the mth sentence is not a dialogue (NO in step S612), the
文章解析部21において、音声表現データベースに格納されている音声表現を示す語句と一致する語句があると判定された場合(ステップS616においてYES)、音声解析部24は、音声表現データベースに格納されている音声表現を示す語句と一致する語句と、m番目の文と近い文章に含まれる、何れの登場人物の何れの台詞とが対応しているかを判定し、語句と、語句と対応している台詞とを関連づける(ステップS617)。
If the
音声表現データベースに格納されている、音声表現を示す語句と一致する語句がないと判定した場合(ステップS616においてNO)、文章解析部21は、m番目の文に技術記号又は略号が含まれているか否かを判定する(ステップS618)。
When it is determined that there is no phrase that matches the phrase indicating the speech expression stored in the speech expression database (NO in step S616), the
m番目の文が登場人物表であり、登場人物表を登場人物データ格納領域に格納された場合(ステップS606)、m番目の文が柱書き又はト書きであり、表示部52をON状態にした場合(ステップS610)、テーマ決定処理が行われた場合(ステップS611)、及び、m番目の文が音声表現を示す語句を含み、語句と対応する台詞とが関連づけられた場合(ステップS617)、m番目の文は、音声解析部24、効果音解析部25、及び、画像解析部26に供給される。
When the m-th sentence is the character table and the character table is stored in the character data storage area (step S606), the m-th sentence is the column writing or the top writing, and the
また、m番目の文に技術記号又は略号が含まれている場合(ステップS618においてYES)には、文章解析部21は、技術記号又は略号に応じて、音声解析部24、効果音解析部25、及び、画像解析部26の何れかに対し、文章データを供給する。例えば、文章解析部21は、音声再生に関する技術記号又は略号(例えば、ナレーションを示す「N」、モノローグを示す「M」など)である場合には、音声解析部24に、m番目の文を供給する。
When the technical symbol or abbreviation is included in the m-th sentence (YES in step S618), the
効果音解析部25は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて再生される効果音を決定する。また、効果音解析部25は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS619)。
When the m-th sentence is supplied, the sound
また、効果音解析部25は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて再生される音楽を決定する。また、効果音解析部25は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、音声の再生に併せて再生される音楽として決定する(ステップS620)。
In addition, when the m-th sentence is supplied, the sound
画像解析部26は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて表示される画像を決定する。また、画像解析部26は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて再生される画像として決定する(ステップS621)。
When the m-th sentence is supplied, the
また、音声解析部24は、音声表現データベースから、m番目の文に含まれる、音声表現を示す語句に関連付けられている表現のパラメータ(速度、音量、及び、Waitのパラメータ)を、音声表現を示す語句に対応する台詞が再生される際に参照されるパラメータとして決定する。また、音声解析部24は、文章解析部21からm番目の文が供給されると、m番目の文が台詞である場合には、台詞に設定されているフラグと登場人物データ格納領域とを参照して、何れの登場人物の台詞であるかを特定し、台詞が再生される音声を決定する(ステップS622)。
In addition, the
解析部20は、音声解析部24において決定された再生の速度、音量、及び、Waitのパラメータ、及び、文章解析部21においてm番目の文に含まれる台詞に設定された連番のフラグを、変換部30に供給する(ステップS623)。
The
解析部20は、再生の速度、音量、及び、Waitのパラメータ、及び、m番目の文に含まれる台詞に設定された連番のフラグを変換部30に供給すると、文章データを構成する全ての文について上述した処理を行ったか否かを判定する(ステップS624)。
When the
文章データを構成する全ての文について上述した処理を行っていない場合(ステップS624においてNO)、解析部20は、次の文(ここでは、m+1番目の文)に移り(ステップS625)、ステップS601からS624までの処理を繰り返す。
If the above-described processing has not been performed for all sentences constituting the sentence data (NO in step S624), the
文章データを構成する全ての文についてステップS601からS624までの処理を行った場合(ステップS624においてYES)、解析部20は、劇文学の音声再生処理を終了する。
When the processes from steps S601 to S624 are performed for all sentences constituting the sentence data (YES in step S624), the
また、劇文学の音声再生処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する。
Further, when the play reproduction process of drama literature ends, the
なお、文章データが劇文学である場合、文章データの始め(例えば、表紙)には、劇文学のタイトル及び著者などが含まれていることが一般的であるが、タイトル及び著者なども、柱書き及びト書きなどのナレーションの再生と同様にして再生すればよい。 If the text data is dramatic literature, the beginning of the text data (for example, the cover) generally includes the title and author of the dramatic literature, but the title and author are also pillars. What is necessary is just to reproduce | regenerate similarly to reproduction | regeneration of narrations, such as writing and writing.
このように、文章データに含まれる台詞にフラグを設定することにより、音声解析部24における、台詞の再生に用いられる音声を決定するまでの処理を、より簡単にすることができる。
As described above, by setting the flag to the dialogue included in the sentence data, it is possible to further simplify the processing until the
なお、本実施形態では、柱書き及びト書きなどのナレーションを、文章データの再生と併せて表示部52に表示する構成を例に挙げて説明したが、これに限定されるものではない。例えば、第2音声のように、ナレーションを他の文章データの再生と重ねて再生する構成を採用してもよいし、ナレーションを他の文章データの再生と重ねて再生すると共に、表示部52に表示する構成を採用してもよい。
In the present embodiment, a description has been given of a configuration in which narrations such as column writing and text writing are displayed on the
上述の構成によれば、劇文学である文章データの柱書き又はト書き部分を、表示部52に表示させることができる。これによって、ユーザは、ト書きで表現された、上記登場人物の動作、及び、柱書きで表現された、シーンの場所及び時間などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。
According to the above-described configuration, the writing portion or writing portion of the sentence data that is the dramatic literature can be displayed on the
また、表示部52がOFF状態である場合には、表示部52をON状態にした上で、柱書き又はト書き部分を表示させることで、ユーザは表示部52がOFF状態である場合であっても、柱書き又はト書きを見ることができる。
In addition, when the
また、登場人物の台詞を、当該登場人物の台詞の表現に関する語句によって表現された表現方法で、音声再生することによって、音声解析部24及び音声変換部31は、登場人物の台詞を、文章データの場面に沿った適切な表現で音声再生することができ、ユーザは、登場人物の台詞を、文章データの場面に沿った表現で楽しむことができる。
In addition, the
本発明は上述した実施形態および実施例に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上記実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments and examples, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in the above-described embodiments. Other embodiments are also included in the technical scope of the present invention.
<変形例>
次に、本発明の変形例について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<Modification>
Next, modifications of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.
上述した実施形態では、文章データが電子メールである場合、文章データの属性が劇文学である場合、及び、劇文学以外である場合、それぞれ個別に処理を実行する場合について説明を行ったが、もちろん、一連の処理として実行してもよい。 In the above-described embodiment, when the sentence data is an e-mail, when the attribute of the sentence data is drama literature, and when it is other than drama literature, the case where the process is executed individually has been described. Of course, it may be executed as a series of processes.
本変形例に係る電子機器1における音声再生処理について、図19を主に参照して説明する。図19は、本変形例に係る電子機器1における音声再生処理の流れを示す図である。 The audio reproduction process in the electronic apparatus 1 according to this modification will be described with reference mainly to FIG. FIG. 19 is a diagram showing a flow of audio reproduction processing in the electronic apparatus 1 according to this modification.
図19に示すように、電子機器1は、文章データが入力されると、属性情報読取部10において、文章データが電子メールであるか否かを判定する(ステップS701)。 As shown in FIG. 19, when the text data is input, the electronic device 1 determines whether the text data is an e-mail in the attribute information reading unit 10 (step S701).
文章データが電子メールである場合(ステップS701においてYES)、電子機器1は、図15に示す電子メールの音声決定処理を実行する(ステップS702)。 If the text data is an electronic mail (YES in step S701), the electronic device 1 executes an electronic mail voice determination process shown in FIG. 15 (step S702).
文章データが電子メールでない場合(ステップS701においてNO)、属性情報読取部10は、文章データから、ジャンル及び著者を含む属性情報を読み取る(ステップS703)。
If the text data is not an electronic mail (NO in step S701), the attribute
属性情報読取部10は、属性情報よ読み取ると、属性情報に含まれるジャンルから、文章データが劇文学であるか否かを判定する(ステップS704)。
When the attribute
文章データが劇文学であると判定すると(ステップS704においてYES)、電子機器1は、図18に示す劇文学の音声決定処理を実行する(ステップS705)。 If it is determined that the text data is dramatic literature (YES in step S704), the electronic device 1 executes the dramatic literature audio determination process shown in FIG. 18 (step S705).
文章データが劇文学でないと判定すると(ステップS704においてNO)、属性情報読取部10は、ジャンルデータベース411及び人名・性別データベース412を参照して、図11に示す再生音声決定処理を行い、読み取った属性情報から再生に用いられる音声を決定する(ステップS706)。
If it is determined that the text data is not dramatic literature (NO in step S704), the attribute
また、属性情報読取部10は、読み取った属性情報を、データベース記憶部41に含まれる属性情報データベース418に格納し(ステップS707)、入力された文章データを文章解析部21に供給する。
The attribute
文章解析部21は、属性情報読取部10から文章データが供給されると、供給された文章データを読み込む(ステップS708)。
When the text data is supplied from the attribute
文章解析部21は、文章データを読み込むと、読み込んだ文章データを記憶部40に格納する(ステップS709)と共に、読み込んだ文章データを、登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。
When the
文章解析部21から文章データが供給されると、登場人物解析部22は、供給された文章データから、登場人物の姓、名、愛称、及び、登場人物の年齢及び性別を含む属性を検出し、それぞれを関連づけて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する。
When the text data is supplied from the
音声解析部24は、文章解析部21から供給された文章データから、登場人物の姓、名、及び、愛称の何れかを検出し、音声データベース413において、登場人物データ格納領域おいて検出した登場人物の姓、名、及び、愛称の何れかと関連付けられている性別及び年齢を示す音声の種類と関連付けられている音声データを、登場人物の台詞に関する文章データを再生する音声に用いられる音声データとして決定する(ステップS710)。
The
文章解析部21、及び、テーマ解析部23は、文章データを構成する章毎のテーマを決定する、図12に示すテーマ決定処理を実行する(ステップS711)。
The
効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS712)。
When the sentence data is supplied from the
また、効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、音声の再生に併せて再生される音楽として決定する(ステップS713)。
In addition, when the sentence data is supplied from the
画像解析部26は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて表示される画像として決定する(ステップS714)。
When text data is supplied from the
解析部20は、効果音解析部25、及び、画像解析部26において、音声の再生に併せて出力される効果音、音楽、及び、画像を決定すると、文章データと共に、音声データ、効果音データ、音楽データ、及び、画像データを、変換部30に供給する。
When the sound
変換部30は、文章データ、音声データ、効果音データ、音楽データ、及び、画像データが供給されると、効果音、音楽、及び、画像を出力する出力時間を決定する、図13に示す出力時間決定処理を実行する(ステップS715)。
When the text data, voice data, sound effect data, music data, and image data are supplied, the
電子メールの音声決定処理、劇文学の音声決定処理、又は、出力時間決定処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する(ステップS716)。
When the voice determination process for e-mail, the voice determination process for drama literature, or the output time determination process ends, the
〔プログラム、記録媒体〕
電子機器1の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
[Program, recording medium]
Each block of the electronic device 1 may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be realized in software using a CPU (Central Processing Unit). .
後者の場合、電子機器1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである電子機器1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、電子機器1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 In the latter case, the electronic device 1 includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the electronic device 1 which is software that realizes the above-described functions is recorded in a computer-readable manner, This can also be achieved by supplying the electronic device 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
上記記録媒体としては、例えば、ハードディスク等の磁気ディスクやCD−ROM/CD−R/CD−RW/MO/DVD−ROM/DVD−R/DVD−RW/Blu−rayディスク(BD)−ROM/BD−R/BD−RE等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュメモリ等の半導体メモリ類などを用いることができる。 Examples of the recording medium include a magnetic disk such as a hard disk, a CD-ROM / CD-R / CD-RW / MO / DVD-ROM / DVD-R / DVD-RW / Blu-ray disk (BD) -ROM / Discs including optical disks such as BD-R / BD-RE, cards such as IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash memory, and the like are used. it can.
また、上記プログラムコードは、通信ネットワークを介して電子機器1に供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、LAN、CATV通信網、電話回線網、移動体通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、特定の構成または種類のものに限定されない。例えば、電話線、LANケーブル、ケーブルTV回線等のメタルケーブルや、FTTH等の光ファイバを利用した有線でも、携帯電話回線、WLAN等の電波、IrDAやリモコンのような赤外線などを利用した無線でも利用可能である。 The program code may be supplied to the electronic device 1 via a communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, LAN, CATV communication network, telephone line network, mobile communication network, etc. can be used. Also, the transmission medium constituting this communication network is not limited to a specific configuration or type. For example, a cable using a metal cable such as a telephone line, a LAN cable, a cable TV line, or an optical fiber such as FTTH, or a radio wave using a mobile phone line, a radio wave such as WLAN, or an infrared ray such as IrDA or a remote control. Is available.
本発明は上述した実施形態および実施例に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上記実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments and examples, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in the above-described embodiments. Other embodiments are also included in the technical scope of the present invention.
本発明は、電子書籍機器、携帯電話、パーソナルコンピュータなど、電子書籍を表示可能であって音声出力可能な装置に好適に利用することができる。 The present invention can be suitably used for an apparatus capable of displaying an electronic book and outputting a voice, such as an electronic book device, a mobile phone, and a personal computer.
1 電子機器
10 属性情報読取部(属性情報読取手段)
20 解析部
21 文章解析部(文章解析手段)
22 登場人物解析部(登場人物解析手段)
23 テーマ解析部(テーマ解析手段)
24 音声解析部(音声再生手段)
25 効果音解析部(効果音再生手段、音楽再生手段)
26 画像解析部(画像表示手段)
30 変換部
31 音声変換部(音声再生手段)
32 効果音変換部(効果音再生手段、音楽再生手段)
33 画像変換部(画像表示手段)
40 記憶部
41 データベース記憶部
42 語句検出回数記憶部
51 音声出力部
52 表示部
53 ユーザ指示取得部
54 機能制御部
55 外部データ取得部(外部データ取得手段)
1
20
22 Character analysis section (character analysis means)
23 Theme Analysis Department (Theme Analysis Method)
24 Voice analysis unit (voice playback means)
25 Sound effect analysis unit (sound effect reproduction means, music reproduction means)
26 Image analysis unit (image display means)
30
32 Sound effect converter (sound effect playback means, music playback means)
33 Image converter (image display means)
40
Claims (12)
上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、
上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、
ことを特徴とする電子機器。 Voice playback means for voice playback of sentence data;
Attribute information reading means for reading the attribute information included in the text data,
The voice reproduction means performs voice reproduction of the sentence data according to setting information associated with the attribute information read by the attribute information reading means.
An electronic device characterized by that.
ことを特徴とする請求項1に記載の電子機器。 The attribute information is information identifying the genre of the text data and the author.
The electronic device according to claim 1.
上記文章解析手段において検出された語句に基づいて、上記文章データを構成する一部分におけるテーマを解析するテーマ解析手段と、
上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた効果音を再生する効果音再生手段と、
上記テーマ解析手段において解析されたテーマに応じた音楽を再生する音楽再生手段と、
上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた画像を表示する画像表示手段と、をさらに備えている
ことを特徴とする請求項1又は2に記載の電子機器。 A sentence analysis means for detecting a phrase;
A theme analysis means for analyzing a theme in a part of the sentence data based on the phrase detected by the sentence analysis means;
When the phrase detected by the sentence analyzing means is a phrase related to the theme analyzed by the theme analyzing means, a sound effect reproducing means for reproducing a sound effect according to the phrase;
Music reproduction means for reproducing music according to the theme analyzed by the theme analysis means;
An image display means for displaying an image corresponding to the word / phrase when the word / phrase detected by the sentence analysis means is a word / phrase related to the theme analyzed by the theme analysis means; The electronic apparatus according to claim 1, wherein the electronic apparatus is characterized in that
上記音声再生手段は、上記登場人物解析手段による検出結果から、上記文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生する、
ことを特徴とする請求項3に記載の電子機器。 From the above sentence data, further comprising a character analysis means for detecting the characters included in the sentence data and the attributes of the characters,
The voice reproduction means reproduces the sentence data from the detection result by the character analysis means with a voice corresponding to the setting information associated with the attribute of each character.
The electronic device according to claim 3.
上記文章データが、柱書き又はト書きを含む劇文学である場合、
上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部に上記柱書き又はト書きを表示する、
ことを特徴とする請求項4に記載の電子機器。 A display unit for displaying an image;
When the above sentence data is dramatic literature including pillar writing or writing,
The image display means displays the pillar writing or writing on the display unit when the reproduction means starts to reproduce the text data corresponding to the writing or writing.
The electronic device according to claim 4.
ことを特徴とする請求項5に記載の電子機器。 The image display means starts the supply of power to the display unit at the time of starting the reproduction of the sentence data corresponding to the column writing or writing.
The electronic device according to claim 5, wherein:
上記音声再生手段は、上記登場人物に関連する文章のうち、当該登場人物の台詞を、上記文章解析手段によって検出された、上記台詞の表現に関する語句に応じた表現で音声再生する、
ことを特徴とする請求項5又は6に記載の電子機器。 The sentence analysis means detects a phrase related to the expression of the character's dialogue from the sentence data,
The voice reproduction means reproduces the speech of the character in the sentence related to the character with an expression corresponding to the phrase related to the expression of the dialogue detected by the sentence analysis means,
The electronic apparatus according to claim 5 or 6, wherein
上記属性情報読取手段は、上記電子メールのアドレスデータを属性情報として読み取り、
上記音声再生手段は、上記アドレスデータに対応付けられた設定情報に応じて上記電子メールの音声再生を行う、
ことを特徴とする請求項1に記載の電子機器。 If the text data is email,
The attribute information reading means reads the email address data as attribute information,
The voice reproduction means performs voice reproduction of the e-mail according to setting information associated with the address data.
The electronic device according to claim 1.
上記効果音再生手段は、上記外部データ取得手段において取得された効果音を再生し、
上記音楽再生手段は、上記外部データ取得手段において取得された音楽を再生し、
上記画像表示手段は、上記外部データ取得手段において取得された画像を表示する、
ことを特徴とする請求項4から7の何れか1項に記載の電子機器。 External data acquisition means for acquiring, from an external network, at least one of the words detected by the sentence analysis means and at least one of sound effects, music, and images associated with at least one of the themes analyzed by the theme analysis means In addition,
The sound effect reproduction means reproduces the sound effect acquired by the external data acquisition means,
The music reproduction means reproduces the music acquired by the external data acquisition means,
The image display means displays the image acquired by the external data acquisition means;
The electronic device according to claim 4, wherein the electronic device is an electronic device.
上記文章データに含まれる属性情報を読み取る属性情報読取ステップと、を含み、
上記音声再生ステップにおいて、上記属性情報読取ステップにて読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、
ことを特徴とする再生方法。 A voice playback step for voice playback of sentence data;
An attribute information reading step for reading the attribute information included in the sentence data,
In the voice reproduction step, the sentence data is reproduced by voice according to the setting information associated with the attribute information read in the attribute information reading step.
A reproduction method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011160252A JP2013025112A (en) | 2011-07-21 | 2011-07-21 | Electronic apparatus, reproduction method, program, and, recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011160252A JP2013025112A (en) | 2011-07-21 | 2011-07-21 | Electronic apparatus, reproduction method, program, and, recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013025112A true JP2013025112A (en) | 2013-02-04 |
Family
ID=47783509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011160252A Pending JP2013025112A (en) | 2011-07-21 | 2011-07-21 | Electronic apparatus, reproduction method, program, and, recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013025112A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023025596A (en) * | 2021-08-10 | 2023-02-22 | 株式会社スローネ | Photography plan support system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05333891A (en) * | 1992-05-29 | 1993-12-17 | Sharp Corp | Automatic reading device |
JPH0772888A (en) * | 1993-09-01 | 1995-03-17 | Matsushita Electric Ind Co Ltd | Information processor |
JPH08248971A (en) * | 1995-03-09 | 1996-09-27 | Hitachi Ltd | Text aloud reading device |
JPH08272388A (en) * | 1995-03-29 | 1996-10-18 | Canon Inc | Device and method for synthesizing voice |
JP2000339137A (en) * | 1999-05-31 | 2000-12-08 | Sanyo Electric Co Ltd | Electronic mail receiving system |
JP2002268664A (en) * | 2001-03-09 | 2002-09-20 | Ricoh Co Ltd | Voice converter and program |
JP2002297157A (en) * | 2001-03-30 | 2002-10-11 | Yamaha Corp | Device and method for information transmission and reception and storage medium |
JP2005077663A (en) * | 2003-08-29 | 2005-03-24 | Brother Ind Ltd | Speech synthesis apparatus, speech synthesis method, and speech synthesis program |
JP2008046425A (en) * | 2006-08-17 | 2008-02-28 | National Institute Of Information & Communication Technology | Impression expression output device and method |
-
2011
- 2011-07-21 JP JP2011160252A patent/JP2013025112A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05333891A (en) * | 1992-05-29 | 1993-12-17 | Sharp Corp | Automatic reading device |
JPH0772888A (en) * | 1993-09-01 | 1995-03-17 | Matsushita Electric Ind Co Ltd | Information processor |
JPH08248971A (en) * | 1995-03-09 | 1996-09-27 | Hitachi Ltd | Text aloud reading device |
JPH08272388A (en) * | 1995-03-29 | 1996-10-18 | Canon Inc | Device and method for synthesizing voice |
JP2000339137A (en) * | 1999-05-31 | 2000-12-08 | Sanyo Electric Co Ltd | Electronic mail receiving system |
JP2002268664A (en) * | 2001-03-09 | 2002-09-20 | Ricoh Co Ltd | Voice converter and program |
JP2002297157A (en) * | 2001-03-30 | 2002-10-11 | Yamaha Corp | Device and method for information transmission and reception and storage medium |
JP2005077663A (en) * | 2003-08-29 | 2005-03-24 | Brother Ind Ltd | Speech synthesis apparatus, speech synthesis method, and speech synthesis program |
JP2008046425A (en) * | 2006-08-17 | 2008-02-28 | National Institute Of Information & Communication Technology | Impression expression output device and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023025596A (en) * | 2021-08-10 | 2023-02-22 | 株式会社スローネ | Photography plan support system |
JP7381019B2 (en) | 2021-08-10 | 2023-11-15 | 株式会社スローネ | Shooting planning support system, script content display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9659572B2 (en) | Apparatus, process, and program for combining speech and audio data | |
JP6641045B1 (en) | Content generation system and content generation method | |
JP6277958B2 (en) | REPRODUCTION DEVICE, SETTING DEVICE, REPRODUCTION METHOD, AND PROGRAM | |
JP2012073519A (en) | Reading-aloud support apparatus, method, and program | |
US20090276064A1 (en) | Portable audio playback device and method for operation thereof | |
JP6587459B2 (en) | Song introduction system in karaoke intro | |
JP5296029B2 (en) | Sentence presentation apparatus, sentence presentation method, and program | |
KR20180078197A (en) | E-voice book editor and player | |
JP2005321706A (en) | Method for reproducing digital book and apparatus for the same | |
JP2013025112A (en) | Electronic apparatus, reproduction method, program, and, recording medium | |
KR100695209B1 (en) | Mobile communication terminal and method for storing recording contents of e-book | |
US20050103186A1 (en) | Music reproducing unit | |
JP2005285285A (en) | Content read system and musical piece reproduction apparatus | |
JP7341024B2 (en) | Audio information replacement system and program | |
JP2022051500A (en) | Related information provision method and system | |
JP2005077678A (en) | Text voice synchronization apparatus and text voice synchronization processing program | |
JP2000099308A (en) | Electronic book player | |
JP6664022B1 (en) | Sound story generation system and program | |
JP5242856B1 (en) | Music playback program and music playback system | |
JP2024109930A (en) | Playback control device, playback control system, playback control method, program, and recording medium | |
JP6810527B2 (en) | Reproduction control device, reproduction control system, reproduction control method, program and recording medium | |
JP2007256815A (en) | Audio playback device, audio playback method, and audio playback program | |
JP2004320233A (en) | Image recording/reproducing method and device thereof | |
KR20060006282A (en) | Portable File Players and Searching Files in the Player | |
JP6185136B1 (en) | Voice generation program and game device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150818 |