[go: up one dir, main page]

JP2013025112A - Electronic apparatus, reproduction method, program, and, recording medium - Google Patents

Electronic apparatus, reproduction method, program, and, recording medium Download PDF

Info

Publication number
JP2013025112A
JP2013025112A JP2011160252A JP2011160252A JP2013025112A JP 2013025112 A JP2013025112 A JP 2013025112A JP 2011160252 A JP2011160252 A JP 2011160252A JP 2011160252 A JP2011160252 A JP 2011160252A JP 2013025112 A JP2013025112 A JP 2013025112A
Authority
JP
Japan
Prior art keywords
data
sentence
voice
database
analysis unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011160252A
Other languages
Japanese (ja)
Inventor
Kimiya Murayama
公哉 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011160252A priority Critical patent/JP2013025112A/en
Publication of JP2013025112A publication Critical patent/JP2013025112A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus where when performing voice reproduction of sentence data included in an electronic book or the like, a user can fully enjoy the content of the sentence data.SOLUTION: In an electronic apparatus 1 according to the present invention, a voice analysis section 24 and a voice conversion section 31 perform voice reproduction of sentence data, in which the voice analysis section 24 and the voice conversion section 31 perform voice reproduction of sentence data in accordance with setting information associated with attribute information read by an attribute information reading section 10 for reading attribute information included in the sentence data.

Description

本発明は、文章データを音声再生する電子機器、及び、その再生方法に関するものである。   The present invention relates to an electronic apparatus for reproducing text data by voice and a method for reproducing the same.

近年、書籍の電子化と共に、電子化された書籍を、ユーザが紙の書籍を読むような感覚で読めるよう表示する電子書籍装置が普及してきている。このような電子書籍装置は、従来の紙の書籍と比較して、資源の消費を抑えることができる。また、電子書籍装置は、また、一つの装置で複数の電子書籍を表示することができるため、携帯に便利である。   In recent years, with the digitization of books, electronic book devices that display digitized books so that the user can read them as if they are reading paper books have become widespread. Such an electronic book device can suppress resource consumption as compared with a conventional paper book. The electronic book device is also convenient to carry because it can display a plurality of electronic books with one device.

また、電子書籍を利用する際の便利な機能として、電子書籍の本文に合わせて画像を表示する機能を備えた電子書籍装置が開発されている。   In addition, as a convenient function when using an electronic book, an electronic book device having a function of displaying an image in accordance with the text of the electronic book has been developed.

例えば、特許文献1には、文章に含まれる複数の語句のそれぞれの役割から取得した、語句に対応付けられている適切な語句イメージ画像が、役割に応じた位置に配置された、文章の内容をイメージさせる文章イメージ画像を生成する文章変換システムが開示されている。   For example, in Patent Document 1, the content of a sentence in which an appropriate phrase image image associated with a phrase acquired from each role of a plurality of phrases included in the sentence is arranged at a position corresponding to the role. A text conversion system for generating a text image that makes an image of a text is disclosed.

また、文章の作成に関する便利な機能として、特許文献2には、電子メール等の電子文章や通話相手の音声情報の感情解析の結果に応じた文章の作成を支援する機能を有する通信装置が開示されている。   Further, as a convenient function related to the creation of a sentence, Patent Document 2 discloses a communication apparatus having a function for supporting the creation of a sentence according to the result of emotion analysis of electronic text such as an e-mail or voice information of a call partner. Has been.

さらに、表示した電子書籍の本文を自動で朗読する自動再生機能、電子書籍の本文に合わせて画像を表示する機能などを備えた電子書籍装置も開発されてきている。   Further, an electronic book apparatus having an automatic reproduction function for automatically reading the text of the displayed electronic book and a function for displaying an image in accordance with the text of the electronic book has been developed.

例えば、特許文献3には、電子化された書籍本文の表示形態を下線引きなどにより順次加工し、加工された本文の到達位置(すなわち下線の到達位置)から音声、効果音、及び、画像を自動再生可能な電子書籍装置が開示されている。   For example, in Patent Document 3, the display form of the digitized book text is sequentially processed by underlining or the like, and voices, sound effects, and images are obtained from the processed text arrival position (that is, the underline arrival position). An electronic book device capable of automatic reproduction is disclosed.

特許文献4には、表示された書籍の文字、挿絵、及び、音声を、読む人の適当なはやさに合わせて出力することができる電子ブックプレーヤが開示されている。   Patent Document 4 discloses an electronic book player that can output characters, illustrations, and sounds of a displayed book in accordance with the appropriate speed of a reader.

このような、音声の自動再生機能を備えた電子書籍装置を用いれば、ユーザは電子書籍を直接読むことなく内容を把握することができるので、例えば、目の不自由なお年寄りなどの視角に障害を有している人であっても、電子書籍を楽しむことができる。   By using such an electronic book device having an automatic sound reproduction function, the user can grasp the contents without directly reading the electronic book. Even people who have can enjoy electronic books.

特開2010−244291号公報(2010年10月28日公開)JP 2010-244291 A (released on October 28, 2010) 特開2009−110056号公報(2009年5月21日公開)JP 2009-110056 (May 21, 2009) 特開2006−331257号公報(2006年12月7日公開)JP 2006-331257 A (released on December 7, 2006) 特開2000−099308号公報(2000年4月7日公開)JP 2000-099308 A (released on April 7, 2000)

ところで、特許文献3及び4に記載の技術では、電子書籍に含まれる文章データを単に読み上げるようにして音声再生を行っているだけであり、電子書籍のジャンル、著者などの書籍の属性に関係なく音声の再生がされるため、音声再生を行う際に、電子書籍の内容に応じた細やかな表現、及び、臨場感の付加が行われない。   By the way, in the techniques described in Patent Documents 3 and 4, the text data included in the electronic book is simply read out as if it were read out, regardless of the attribute of the book such as the genre of the electronic book and the author. Since sound is reproduced, detailed expression according to the contents of the electronic book and addition of a sense of reality are not performed when sound is reproduced.

従って、特許文献3及び4に記載の技術では、電子書籍を十分に楽しむことができないという問題が生じる。   Therefore, the techniques described in Patent Documents 3 and 4 have a problem that electronic books cannot be fully enjoyed.

例えば、再生しようとする電子書籍が女性の著者の自叙伝であるにも係わらず、男性の音声で再生される場合などでは、ユーザは再生される音声に違和感を感じてしまい、電子書籍を純粋に楽しむことができない。   For example, when an electronic book to be played is an autobiography of a female author but played with male voice, the user feels uncomfortable with the played voice, and the electronic book is purely I can't enjoy it.

また、再生しようとする電子書籍が戯曲(劇文学)や脚本の場合であっても、単に、記載された内容を朗読するだけでは、電子書籍に含まれている細やかな表現や臨場感といったものを味わうことができず、やはり、電子書籍を十分に楽しむことができないという問題が生じる。   In addition, even if the electronic book to be played is a play (dramatic literature) or a screenplay, simply reading the contents described will give you detailed expressions and realistic sensations included in the electronic book. Cannot be enjoyed, and there is still a problem that the electronic book cannot be fully enjoyed.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、電子書籍等に含まれる文章データの音声再生を行う際に、ユーザが当該文章データの内容を十分に楽しむことができる電子機器を提供することにある。   The present invention has been made in view of the above-described problems, and its purpose is to allow the user to fully enjoy the contents of the text data when performing voice playback of the text data included in an electronic book or the like. It is to provide an electronic device that can be used.

本発明に係る電子機器は、上記の課題を解決するために、文章データの音声再生を行う音声再生手段と、上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。   In order to solve the above-described problem, an electronic apparatus according to the present invention includes: a sound reproducing unit that performs sound reproduction of sentence data; and an attribute information reading unit that reads attribute information included in the sentence data. The reproduction means is characterized in that the sentence data is reproduced in accordance with setting information associated with the attribute information read by the attribute information reading means.

また、本発明に係る再生方法は、上記の課題を解決するために、文章データの音声再生を行う音声再生ステップと、上記文章データに含まれる属性情報を読み取る属性情報読取ステップと、を含み、上記音声再生ステップにおいて、上記属性情報読取ステップにて読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。   In addition, in order to solve the above-described problem, the reproduction method according to the present invention includes an audio reproduction step for performing audio reproduction of sentence data, and an attribute information reading step for reading attribute information included in the sentence data, In the voice reproduction step, the sentence data is voice-reproduced according to the setting information associated with the attribute information read in the attribute information reading step.

上記の構成によれば、上記文章データは、当該文章データに含まれる属性情報に応じて設定された設定情報に基づいて音声再生されるので、上記文章データの属性に合った音声再生を行うことが可能となる。   According to the above configuration, the text data is played back based on the setting information set according to the attribute information included in the text data, so that the voice playback according to the attribute of the text data is performed. Is possible.

ここで、上記文章データの属性に合った音声再生とは、例えば、上記文章データが女性の著者の自叙伝である電子書籍の場合には、女性の声で音声再生することなどを示している。これによって、上記電子機器は、上記文章データが、当該文章データの属性に合わない音声で再生されてしまうことを防ぐことができる。   Here, the sound reproduction suitable for the attribute of the text data indicates, for example, that the voice data is reproduced with a female voice when the text data is an autobiography of a female author. Accordingly, the electronic device can prevent the text data from being reproduced with a sound that does not match the attribute of the text data.

このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データの内容を十分に楽しむことができる。   As described above, the user can sufficiently enjoy the contents of the text data by enabling the audio reproduction suitable for the attributes of the text data.

本発明の電子機器において、上記属性情報は、上記文章データのジャンル、及び、著者を特定する情報である、ことが好ましい。   In the electronic device of the present invention, it is preferable that the attribute information is information that identifies a genre and an author of the text data.

上記の構成によれば、上記音声再生手段は、再生時に使用する属性情報が文章データのジャンル及び著者を特定する情報であるので、上記文章データのジャンル、及び、著者に合った音声で上記文章データの文章を音声再生することができる。ここで、文章データのジャンルを特定する情報は年齢層を特定する情報であり、著者を特定する情報は性別を特定する情報とすると、例えば、上記音声再生手段は、上記ジャンルに応じて決定された、再生に用いられる音声の年齢層と、上記著者の性別に応じて決定された、再生に用いられる音声の性別とから決定された音声を用いて上記文章データを音声再生することができる。   According to the above configuration, since the attribute information used at the time of reproduction is information for specifying the genre and author of the text data, the voice playback means uses the voice that matches the genre of the text data and the author. Data text can be played back by voice. Here, if the information specifying the genre of the text data is information specifying the age group, and the information specifying the author is information specifying the gender, for example, the sound reproduction means is determined according to the genre. In addition, the sentence data can be reproduced by using the voice determined from the age group of the voice used for reproduction and the gender of the voice used for reproduction determined according to the gender of the author.

これによって、ユーザは、上記文章データの内容を、上記ジャンル及び著者に適した音声で楽しむことができる。   Thereby, the user can enjoy the contents of the text data with the sound suitable for the genre and the author.

本発明に係る電子機器は、文章データを解析して予め設定した語句を検出する文章解析手段と、上記文章解析手段において検出された語句に基づいて、上記文章データを構成する一部分におけるテーマを解析するテーマ解析手段と、上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた効果音を再生する効果音再生手段と、上記テーマ解析手段において解析されたテーマに応じた音楽を再生する音楽再生手段と、上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた画像を表示する画像表示手段と、をさらに備えている、ことが好ましい。   An electronic apparatus according to the present invention analyzes sentence data by analyzing sentence data and detects a preset phrase, and analyzes a theme in a part of the sentence data based on the phrase detected by the sentence analysis means And a sound effect reproducing means for reproducing a sound effect corresponding to the word when the word detected in the sentence analyzing means is a word related to the theme analyzed in the theme analyzing means. When the music reproducing means for reproducing music according to the theme analyzed by the theme analyzing means and the phrase detected by the sentence analyzing means are words related to the theme analyzed by the theme analyzing means And an image display means for displaying an image corresponding to the word.

上記の構成によれば、上記テーマ解析手段は、上記文章データを構成する一部分毎に、テーマを解析する。また、上記効果音再生手段は、上記文章解析手段において検出された語句が、上記テーマと関連する場合にのみ、当該語句に応じた効果音を出力する。上記音楽再生手段は、上記テーマ解析手段において解析されたテーマに応じた音楽を出力する。また、上記画像表示手段は、上記文章解析手段において検出された語句が、上記テーマと関連する場合にのみ、当該語句に応じた画像を出力する。   According to said structure, the said theme analysis means analyzes a theme for every part which comprises the said text data. The sound effect reproducing means outputs a sound effect corresponding to the word only when the word detected by the sentence analyzing means is related to the theme. The music reproduction means outputs music according to the theme analyzed by the theme analysis means. The image display means outputs an image corresponding to the word only when the word detected by the text analysis means is related to the theme.

これによって、上記効果音再生手段、及び、上記画像表示手段は、上記テーマに関係ない語句が検出された場合に、当該テーマに関係ない語句に応じた効果音及び画像が出力されることを防ぎ、ユーザに違和感を与えてしまうことを低減することができる。したがって、ユーザは、上記文章データが再生される音声と併せて、適切な効果音、音楽及び画像などを楽しむことができる。   Thereby, the sound effect reproduction means and the image display means prevent a sound effect and an image corresponding to the word / phrase not related to the theme from being output when the word / phrase not related to the theme is detected. It is possible to reduce the feeling of discomfort to the user. Therefore, the user can enjoy appropriate sound effects, music, images, and the like in addition to the sound from which the text data is reproduced.

なお、上記文章データを構成する一部分としては、例えば、一文、段落、節、章などを挙げることができる。上記効果音としては、爆発音などの効果音を挙げることができ、上記音楽としては、BGMなどの効果音楽を挙げることができ、また、上記画像としては、写真、及び、絵などを挙げることができる。   In addition, as a part which comprises the said text data, a sentence, a paragraph, a section, a chapter etc. can be mentioned, for example. Examples of the sound effects include sound effects such as explosive sounds, examples of the music include effect music such as BGM, and examples of the images include photographs and pictures. Can do.

本発明の電子機器は、上記文章データから、当該文章データに含まれる登場人物、及び、当該登場人物の属性を検出する登場人物解析手段をさらに備え、上記音声再生手段は、上記登場人物解析手段による検出結果から、上記文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生する、ことが好ましい。   The electronic apparatus of the present invention further comprises a character analysis means for detecting a character included in the text data and an attribute of the character from the text data, and the sound reproduction means is the character analysis means. From the detection result of the above, it is preferable that the text data is reproduced with a sound corresponding to the setting information associated with the attribute of each character.

上記の構成によれば、上記音声再生手段が、上記登場人物解析手段による検出結果から、文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生することにより、登場人物毎に音声を変え、それぞれの登場人物の属性に合った音声で、台詞などの登場人物に関係した文章を再生することができる。上記登場人物の属性に合った音声での再生とは、例えば、文章データが小説などの電子書籍である場合に、小説の各登場人物の音声を変えて再生することを示す。   According to the above configuration, the voice reproduction unit reproduces the sentence data from the detection result of the character analysis unit by voice according to the setting information associated with the attribute of each character. You can change the voice for each person, and play sentences related to the characters, such as dialogue, with the voice that matches the attributes of each character. For example, when the text data is an electronic book such as a novel, the reproduction with the sound matching the attributes of the characters indicates that the sound of each character in the novel is changed and reproduced.

このように、上記登場人物の属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データを、1つの音声で再生される場合よりも、より細やかな表現、及び、臨場感のある音声再生を聞くことができるため、上記文章データの内容をさらに楽しむことができる。   In this way, by making it possible to perform audio reproduction that matches the attributes of the characters, the user can more finely express the sentence data than when it is reproduced with one audio, and Since it is possible to listen to realistic sound reproduction, the contents of the text data can be further enjoyed.

本発明に係る電子機器は、画像を表示する表示部をさらに備え、上記文章データが、柱書き又はト書きを含む劇文学である場合、上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部に上記柱書き又はト書きを表示する、ことが好ましい。   The electronic device according to the present invention further includes a display unit for displaying an image, and when the sentence data is a play literature including a column writing or a story writing, the image display unit is configured such that the reproduction unit includes the column writing or It is preferable to display the column writing or the text on the display unit at the time when the reproduction of the text data corresponding to the text is started.

上記の構成によれば、上記劇文学である文章データの柱書き部分又はト書き部分を、上記表示部に表示させることができる。これによって、ユーザは、上記柱書き又はト書きで表現された、上記登場人物の動作などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。   According to said structure, the writing part or writing part of sentence data which is the said dramatic literature can be displayed on the said display part. Thus, the user can know the action of the character expressed in the above-mentioned column writing or writing together with the text data reproduced by voice, and can enjoy the contents of the text data more.

なお、柱書きとは、劇文学においては、シーンの最初に書かれ、その場所と時間を示している文章のことを指すのが一般的である。また、ト書きとは、上記劇文学においては、例えば、上記登場人物の動作、照明、及び、効果音などの演出について、大まかな指示を記述する文章のことを指すのが一般的である。   In the drama literature, the column writing is generally written at the beginning of a scene and indicates the place and time. In addition, in the above-mentioned drama, for example, the general writing generally refers to a sentence that describes a rough instruction regarding the actions of the characters, lighting, and effects such as sound effects.

本発明に係る電子機器において、上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部への電源の供給を開始させる、ことが好ましい。   In the electronic apparatus according to the present invention, the image display means starts supplying power to the display unit when the reproducing means starts reproducing the text data corresponding to the writing or writing. Is preferred.

上記の構成によれば、上記劇文学である文章データの柱書き部分又はト書き部分を、上記表示部に電源が供給されていない状態(すなわち、表示部がOFF状態)である場合にも、当該表示部に電源が供給されている状態(すなわち、表示部がON状態)にした上で、当該表示部に表示させることができる。これによって、ユーザは、上記表示部がOFF状態である場合にも上記柱書き又はト書きで表現された、上記登場人物の動作などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。   According to the above configuration, even if the columnar portion or the portion of writing of the sentence data that is the drama is in a state where power is not supplied to the display unit (that is, the display unit is in an OFF state), The display unit can be displayed after power is supplied to the display unit (that is, the display unit is in an ON state). Thereby, even when the display unit is in the OFF state, the user can know the action of the character, etc. expressed in the column writing or writing together with the sentence data to be reproduced by voice, You can enjoy the contents of text data more.

本発明に係る電子機器において、上記文章解析手段は、上記文章データから、上記登場人物の台詞の表現に関する語句を検出し、上記音声再生手段は、上記登場人物に関連する文章のうち、当該登場人物の台詞を、上記文章解析手段によって検出された、上記台詞の表現に関する語句に応じた表現で音声再生する、ことが好ましい。   In the electronic device according to the present invention, the sentence analysis unit detects a phrase related to the expression of the character's dialogue from the sentence data, and the sound reproduction unit includes the appearance of the sentence related to the character. It is preferable that the speech of the person is reproduced by voice in an expression corresponding to the phrase related to the expression of the dialogue detected by the sentence analysis means.

上記の構成によれば、上記登場人物の台詞を、当該登場人物の台詞の表現に関する語句によって表現された表現方法で、音声再生する。例えば、上記文章解析手段が「ゆっくり」などという上記登場人物の台詞の表現に関する語句を検出した場合、当該台詞の表現に対応する台詞をゆっくり音声再生する。また、上記文章解析手段が「大きな声」などという上記登場人物という上記登場人物の台詞の表現に関する語句を検出した場合、当該台詞の表現に対応する台詞を、他の箇所よりも大きな音量で音声再生する。   According to the above configuration, speech of the character is reproduced by an expression method expressed by a phrase related to expression of the character's speech. For example, when the sentence analysis means detects a phrase related to the expression of the character's line such as “slow”, the line corresponding to the expression of the line is slowly reproduced by voice. In addition, when the sentence analysis means detects a phrase related to the expression of the character, such as the character, such as “loud voice”, the speech corresponding to the expression of the character is uttered with a louder volume than other parts. Reproduce.

これによって、上記音声再生手段は、上記登場人物の台詞を、上記文章データの場面に沿った適切な表現で音声再生することができ、ユーザは、上記登場人物の台詞を、上記文章データの場面に沿った表現で楽しむことができる。   Thereby, the voice reproduction means can reproduce the speech of the character in an appropriate expression along the scene of the text data, and the user can play the speech of the character in the scene of the text data. You can enjoy the expression along

本発明に係る電子機器において、上記文章データが、電子メールである場合、上記属性情報読取手段は、上記電子メールのアドレスデータを属性情報として読み取り、上記音声再生手段は、上記アドレスデータに対応付けられた設定情報に応じて上記電子メールの音声再生を行う、ことが好ましい。   In the electronic device according to the present invention, when the text data is an e-mail, the attribute information reading unit reads the address data of the e-mail as attribute information, and the voice reproduction unit is associated with the address data. It is preferable to perform voice reproduction of the e-mail according to the set information.

上記の構成によれば、上記属性情報読取手段は、上記アドレスデータを属性情報として読み出すことにより、電子メールの相手を特定することができる。したがって、上記電子機器は、上記文章データが電子メールである場合にも、上記アドレスデータ、すなわち、電子メールの相手に応じた音声で上記電子メールを音声再生することができる。これによって、ユーザは、上記電子メールを、当該電子メールの相手に応じた音声で楽しむことができる。   According to said structure, the said attribute information reading means can identify the other party of an electronic mail by reading the said address data as attribute information. Therefore, even when the text data is an electronic mail, the electronic device can reproduce the electronic mail by voice according to the address data, that is, the voice corresponding to the other party of the electronic mail. As a result, the user can enjoy the e-mail with sound corresponding to the other party of the e-mail.

本発明に係る電子機器は、上記文章解析手段において検出された語句、及び、上記テーマ解析手段において解析されたテーマの少なくとも何れかと関連する効果音、音楽、及び画像の少なくとも何れかを、外部ネットワークから取得する外部データ取得手段をさらに備え、上記効果音再生手段は、上記外部データ取得手段において取得された効果音を再生し、上記音楽再生手段は、上記外部データ取得手段において取得された音楽を再生し、上記画像表示手段は、上記外部データ取得手段において取得された画像を表示する、ことが好ましい。   An electronic apparatus according to the present invention is configured to transmit at least one of a word / phrase detected by the sentence analysis unit and a sound effect, music, and an image associated with at least one of the themes analyzed by the theme analysis unit. External sound data acquisition means for acquiring the sound data acquired by the external data acquisition means, and the music playback means for playing the music acquired by the external data acquisition means. Preferably, the image display means reproduces and displays the image acquired by the external data acquisition means.

上記の構成によれば、上記外部データ取得手段において、上記文章解析手段において検出された語句、及び、上記テーマ解析手段において解析されたテーマの少なくとも何れかと関連するデータを取得する。これによって、上記電子機器は、文章データの音声再生に適したデータを予め記憶しておかなくとも、上記外部データ取得手段によって文章データの音声再生に適したデータを取得し、出力することができる。   According to said structure, the said external data acquisition means acquires the data relevant to at least any one of the phrase detected in the said text analysis means, and the theme analyzed in the said theme analysis means. Thereby, the electronic device can acquire and output data suitable for voice reproduction of text data by the external data acquisition means without storing data suitable for voice reproduction of text data in advance. .

また、本発明に係る電子機器を動作させるためのプログラムであって、コンピュータを上記の各手段として機能させることを特徴とするプログラム、及び、これらのプログラムのうち少なくとも何れかを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   Further, a program for operating the electronic apparatus according to the present invention, which is a program that causes a computer to function as each of the above-described means, and a computer-readable program that records at least one of these programs Such recording media are also included in the scope of the present invention.

なお、ある着目した請求項に記載された構成と、その他の請求項に記載された構成との組み合わせが、その着目した請求項で引用された請求項に記載された構成との組み合わせのみに限られることはなく、本発明の目的を達成できる限り、その着目した請求項で引用されていない請求項に記載された構成との組み合わせが可能である。   A combination of a configuration described in a certain claim and a configuration described in another claim is limited to a combination of the configuration described in the claim cited in the claim. However, as long as the object of the present invention can be achieved, combinations with configurations described in the claims not cited in the focused claims are possible.

本発明に係る電子機器は、以上のように、文章データの音声再生を行う音声再生手段と、上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、ことを特徴としている。   As described above, the electronic apparatus according to the present invention includes voice playback means for playing back voice data of text data, and attribute information reading means for reading attribute information included in the text data. The sentence data is reproduced by voice according to the setting information associated with the attribute information read by the attribute information reading means.

上記の構成から、上記文章データは、当該文章データに含まれる属性情報に応じて設定された設定情報に基づいて音声再生されるので、上記文章データの属性に合った音声再生を行うことが可能となる。このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データの内容を十分に楽しむことができる。   From the above configuration, the sentence data is played back based on the setting information set according to the attribute information included in the sentence data, so that it is possible to perform the voice playback that matches the attribute of the sentence data. It becomes. As described above, the user can sufficiently enjoy the contents of the text data by enabling the audio reproduction suitable for the attributes of the text data.

本発明の一実施形態に係る電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されているデータベースを示すブロック図である。It is a block diagram which shows the database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、ジャンルデータベースの一例を示す図である。It is a figure which shows an example of the genre database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、人名・性別データベースの一例を示す図である。It is a figure which shows an example of the person name and sex database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、音声データベース413の一例を示す図である。It is a figure which shows an example of the audio | voice database 413 stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、テーマデータベースの一例を示す図である。It is a figure which shows an example of the theme database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、効果音データベースの一例を示す図である。It is a figure which shows an example of a sound effect database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、音楽データベースの一例を示す図である。It is a figure which shows an example of the music database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータベース記憶部に格納されている、画像データベースの一例を示す図である。It is a figure which shows an example of the image database stored in the database memory | storage part which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子機器における、音声再生処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the audio | voice reproduction | regeneration processing in the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子機器における、再生音声決定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the reproduction | regeneration audio | voice determination process in the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子機器における、テーマ決定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the theme determination process in the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子機器における、出力時間決定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the output time determination process in the electronic device which concerns on one Embodiment of this invention. 本発明の他の実施形態に係るデータベース記憶部に格納されている、アドレス帳データベースの一例を示す図である。It is a figure which shows an example of the address book database stored in the database memory | storage part which concerns on other embodiment of this invention. 本発明の他の実施形態に係る電子機器における、電子メールの音声再生処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the audio | voice audio | voice reproduction | regeneration processing in the electronic device which concerns on other embodiment of this invention. 本発明のさらに他の実施形態に係るデータベース記憶部に格納されている、音声表現データベースの一例を示す図である。It is a figure which shows an example of the speech expression database stored in the database memory | storage part which concerns on further another embodiment of this invention. 本発明のさらに他の実施形態に係るデータベース記憶部に格納されている、略号データベースの一例を示す図である。It is a figure which shows an example of the abbreviation database stored in the database memory | storage part which concerns on further another embodiment of this invention. 本発明のさらに他の実施形態に係る電子機器における、音声再生処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the audio | voice reproduction | regeneration processing in the electronic device which concerns on further another embodiment of this invention. 本発明の変形例に係る電子機器における、音声再生処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the audio | voice reproduction | regeneration processing in the electronic device which concerns on the modification of this invention.

<実施形態1>
本発明に係る電子機器の一実施形態について、図1から図13を参照して説明する。但し、この実施形態に記載されている構成は、特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例に過ぎない。
<Embodiment 1>
An embodiment of an electronic apparatus according to the present invention will be described with reference to FIGS. However, unless otherwise specified, the configuration described in this embodiment is not merely intended to limit the scope of the present invention, but is merely an illustrative example.

本実施形態に係る電子機器について、図1を参照して説明する。図1は、本実施形態に係る電子機器1の構成を示すブロック図である。   An electronic apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an electronic device 1 according to the present embodiment.

〔電子機器〕
本実施形態に係る電子機器について、図1を参照して説明する。図1は、本実施形態に係る電子機器1の構成を示すブロック図である。
〔Electronics〕
An electronic apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an electronic device 1 according to the present embodiment.

図1に示すように、電子機器1は、属性情報読取部(属性情報読取手段)10、解析部20、変換部30、記憶部40、音声出力部51、表示部52、ユーザ指示取得部53、機能制御部54、及び、外部データ取得部(外部データ取得手段)55を備えている。   As shown in FIG. 1, the electronic device 1 includes an attribute information reading unit (attribute information reading unit) 10, an analysis unit 20, a conversion unit 30, a storage unit 40, a voice output unit 51, a display unit 52, and a user instruction acquisition unit 53. , A function control unit 54, and an external data acquisition unit (external data acquisition means) 55.

〔データベース〕
まず、電子機器1が備える各部の説明に先立って、図1に示す記憶部40が有するデータベース記憶部41に格納されているデータベースについて、図2から図9を参照して説明する。図2は、データベース記憶部41に格納されているデータベースを示すブロック図である。
[Database]
First, prior to description of each unit included in the electronic device 1, a database stored in the database storage unit 41 included in the storage unit 40 illustrated in FIG. 1 will be described with reference to FIGS. FIG. 2 is a block diagram showing a database stored in the database storage unit 41.

図2に示すように、データベース記憶部41には、ジャンルデータベース411、人名・性別データベース412、音声データベース(設定情報)413、テーマデータベース414、効果音データベース415、音楽データベース416、画像データベース417、属性情報データベース418、及び、ユーザ登録用データベース419が格納されている。なお、これらのデータベースは、それぞれ、電子機器1が備える各部において適宜参照される。   As shown in FIG. 2, the database storage unit 41 includes a genre database 411, a person name / gender database 412, a sound database (setting information) 413, a theme database 414, a sound effect database 415, a music database 416, an image database 417, and attributes. An information database 418 and a user registration database 419 are stored. Note that these databases are referred to as appropriate in each unit of the electronic device 1.

(ジャンルデータベース)
まず、電子機器1に入力される文章データのジャンルと、電子機器1において文章データを再生する音声の属性とを関連付けている、ジャンルデータベース411について、図3を参照して説明する。図3は、データベース記憶部41に格納されている、ジャンルデータベース411の一例を示す図である。なお、音声の属性とは、図3においては、年齢層及び性別である。
(Genre database)
First, the genre database 411 that associates the genre of text data input to the electronic device 1 with the audio attributes for reproducing the text data in the electronic device 1 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of the genre database 411 stored in the database storage unit 41. Note that the audio attributes are an age group and a sex in FIG.

図3に示すように、例えば、文章データのジャンルが「エッセイ」である場合には、文章データを再生する音声の属性として、年齢層に「中年」、性別に「男性」が関連付けられている。また、文章データのジャンルが「冠婚葬祭」である場合には、文章データを再生する音声の属性として、年齢層に「中年」、性別に「女性」が関連付けられている。   As shown in FIG. 3, for example, when the genre of the text data is “essay”, “middle age” is associated with the age group and “male” is associated with the sex as the audio attributes for reproducing the text data. Yes. Further, when the genre of the text data is “ceremonial occasion”, “middle age” and “female” are associated with the age group as the audio attributes for reproducing the text data.

また、文章データのジャンルが「昔話・民話」である場合のように、文章データを再生する音声の属性として、年齢層に「高齢」が関連付けられているが、性別には何も関連付けられていないものも存在する。さらに、文章データのジャンルが「SF」である場合には、文章データを再生する音声の属性として、年齢層、及び、性別の何れも関連付けられていない。   In addition, as in the case where the genre of the text data is “old tales / folk tales”, “aged” is associated with the age group as an attribute of the voice for reproducing the text data, but nothing is associated with the gender. There are things that do not exist. Furthermore, when the genre of the text data is “SF”, neither the age group nor the gender is associated as an attribute of the voice for reproducing the text data.

なお、年齢層を、「中年」、「高齢」などとする代わりに、「30代」、「40代」などのように、より細かく設定する構成を採用してもよい。   In addition, instead of “middle-aged”, “aged”, etc., the age group may be set more finely, such as “30s”, “40s”, or the like.

(人名・性別データベース)
次に、名前と、性別とを関連付けている、人名・性別データベース412について、図4を参照して説明する。図4(a)(b)は、データベース記憶部41に格納されている、人名・性別データベース412の一例を示す図である。図4(a)は、予め人名・性別データベース412に格納されている、姓及び姓データ、名及び名データ、並びに、性別及び性別データの一例を示す図であり、(b)は、電子機器1に入力される文章データに登場する人物のデータを格納する登場人物データ格納領域の一例を示す図である。
(Person name / gender database)
Next, a personal name / gender database 412 in which names and genders are associated will be described with reference to FIG. FIGS. 4A and 4B are diagrams showing an example of the personal name / gender database 412 stored in the database storage unit 41. FIG. 4A is a diagram showing an example of surname and surname data, first name and last name data, and gender and gender data stored in the personal name / gender database 412 in advance, and FIG. It is a figure which shows an example of the character data storage area which stores the data of the person who appears in the text data input by 1. FIG.

人名・性別データベース412には、図4(a)に示すように、姓と姓データとが関連付けられている姓データテーブル、名前と名データとが関連付けられている名データテーブル、性別と性別データとが関連づけられている性別データテーブル、及び、(b)に示すように、電子機器1に入力される文章データに登場する人物のデータを格納する登場人物データ格納領域が含まれている。   As shown in FIG. 4A, the personal name / gender database 412 includes a surname data table in which surname and surname data are associated, a name data table in which name and surname data are associated, and gender and gender data. And a gender data table in which character data appearing in the text data input to the electronic device 1 is stored, as shown in FIG.

なお、図4(a)(b)に示すように、登場人物データ格納領域には、登場人物の姓、名、性別、及び、年齢が格納されるようになっているが、本発明はこれに限定されるものではなく、例えば、登場人物の愛称なども格納できる構成としてもよい。   As shown in FIGS. 4 (a) and 4 (b), the surname, first name, sex and age of the characters are stored in the character data storage area. However, the present invention is not limited to this. For example, a nickname of a character may be stored.

(音声データベース)
次に、電子機器1において文章データを再生する際に参照される、音声の種類と音声データとを関連付けている、音声データベース413について、図5を参照して説明する。図5は、データベース記憶部41に格納されている、音声データベース413の一例を示す図である。
(Voice database)
Next, an audio database 413 that associates audio types with audio data, which is referred to when text data is reproduced in the electronic apparatus 1, will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of the voice database 413 stored in the database storage unit 41.

図5に示すように、音声データベース413には、音声の種類と、音声データとが関連づけられている。例えば、音声の種類「男の子」に対し、音声データ「O0001」が関連付けられており、音声の種類「若い女性」に対し、音声データ「O0004」が関連付けられている。   As shown in FIG. 5, the audio database 413 associates audio types with audio data. For example, voice data “O0001” is associated with the voice type “boy”, and voice data “O0004” is associated with the voice type “young woman”.

(テーマデータベース)
次に、文章データを構成する一部分のテーマと、テーマに関係する語句とを関連づけている、テーマデータベース414について、図6を参照して説明する。図6は、データベース記憶部41に格納されている、テーマデータベース414の一例を示す図である。
(Theme database)
Next, a theme database 414 that associates a part of themes constituting the text data with words / phrases related to the theme will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of the theme database 414 stored in the database storage unit 41.

図6に示すように、テーマデータベース414には、テーマの種類として、例えば、「結婚式」、「誕生日」、「雨」及び「波止場」などが設定されており、それぞれ、データ番号「T0001」、「T0002」、「T0003」及び「T9999」にそれぞれ関連付けられている。また、テーマの種類が「結婚式」である場合には、例えば、関連語句として「式場」、「新郎」、「新婦」及び「ケーキ入刀」などが関連付けられている。また、テーマの種類が「波止場」である場合には、例えば、関連語句として「波止場」、「かもめ」、「霧笛」及び「ポンポン船」などが関連付けられている。   As shown in FIG. 6, in the theme database 414, for example, “wedding”, “birthday”, “rain”, “quayside”, and the like are set as the types of themes. ”,“ T0002 ”,“ T0003 ”, and“ T9999 ”, respectively. When the theme type is “wedding”, for example, “ceremony hall”, “groom”, “bride”, “cake sword”, and the like are associated as related terms. Further, when the type of theme is “quayside”, for example, “quayside”, “gull”, “fog” and “ponpon ship” are associated as related terms.

(効果音データベース)
次に、電子機器1において、文章データの音声再生に合わせて効果音を再生する場合に参照される、効果音データベース415について、図7を参照して説明する。図7は、データベース記憶部41に格納されている、効果音データベース415の一例を示す図である。
(Sound effect database)
Next, the sound effect database 415 that is referred to when the electronic device 1 reproduces the sound effect in accordance with the sound reproduction of the text data will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the sound effect database 415 stored in the database storage unit 41.

図7に示すように、効果音データベース415には、効果音の種類を示す語句と、効果音データとが関連付けられている。例えば、効果音の種類を示す語句「波止場」に対して、効果音データ「K0001」が関連付けられており、効果音の種類を示す語句「海」に対して、効果音データ「K0002」が関連付けられている。   As shown in FIG. 7, in the sound effect database 415, a phrase indicating the type of sound effect is associated with sound effect data. For example, the sound effect data “K0001” is associated with the word “quadro” indicating the type of sound effect, and the sound effect data “K0002” is associated with the word “sea” indicating the type of sound effect. It has been.

(音楽データベース)
次に、電子機器1において、文章データの音声再生に合わせて音楽を再生する場合に参照される、音楽データベース416について、図8を参照して説明する。図8は、データベース記憶部41に格納されている、音楽データベース416の一例を示す図である。
(Music database)
Next, the music database 416 that is referred to when the electronic device 1 reproduces music in accordance with the voice reproduction of the text data will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of the music database 416 stored in the database storage unit 41.

図8に示すように、音楽データベース416には、音楽の種類と、音楽データと、テーマとが関連付けられている。例えば、音楽の種類「結婚式の歌」に対し、音楽データ「M0001」及びテーマ「結婚式」が関連付けられており、音楽の種類「誕生日の歌」に対し、音楽データ「M0002」及びテーマ「誕生日」が関連付けられている。   As shown in FIG. 8, the music database 416 associates music types, music data, and themes. For example, the music data “M0001” and the theme “wedding” are associated with the music type “wedding song”, and the music data “M0002” and the theme are associated with the music type “birthday song”. “Birthday” is associated.

(画像データベース)
次に、電子機器1において、文章データの音声再生に合わせて画像を表示する場合に参照される、画像データベース417について、図9を参照して説明する。図9は、データベース記憶部41に格納されている、画像データベース417の一例を示す図である。
(Image database)
Next, the image database 417 that is referred to when the electronic device 1 displays an image in accordance with the voice reproduction of the text data will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of the image database 417 stored in the database storage unit 41.

図9に示すように、画像データベース417には、画像の種類、種類の詳細(図9において、「詳細」)、及び、画像データとが関連付けられている。例えば、画像の種類が「車」である場合、種類の詳細として「セダン」及び「トラック」が関連付けられている。より詳細には、画像の種類「車1」に対して、種類の詳細「セダン」、及び、画像データ「G0001」が関連付けられており、画像の種類「車2」に対して、種類の詳細「トラック」、及び、画像データ「G0002」が関連付けられている。   As shown in FIG. 9, the image database 417 associates image types, details of types (“details” in FIG. 9), and image data. For example, when the type of the image is “car”, “sedan” and “truck” are associated as details of the type. More specifically, the type of detail “sedan” and the image data “G0001” are associated with the type of image “car 1”, and the type of detail with respect to the type of image “car 2”. “Track” and image data “G0002” are associated with each other.

なお、画像データベース417に格納されている画像データとしては、写真、及び、絵などを挙げることができる。   Note that examples of the image data stored in the image database 417 include photographs and pictures.

なお、属性情報データベース418、ユーザ登録用データベース419、及び、記憶部40が有する語句検出回数記憶部42については、後述する。   The attribute information database 418, the user registration database 419, and the phrase detection count storage unit 42 included in the storage unit 40 will be described later.

なお、各データベースは、後述するように、ユーザ指示によって、新たに設定することも可能である。   Each database can be newly set by a user instruction, as will be described later.

〔電子機器の構成〕
次に、図1に示す電子機器1が備える各部の構成について、説明する。
[Configuration of electronic equipment]
Next, the structure of each part with which the electronic device 1 shown in FIG. 1 is provided is demonstrated.

属性情報読取部10は、入力された文章データから、文章データのジャンル及び著者などを特定するための属性情報を取得する(読み取る)手段である。属性情報読取部10は、取得した属性情報に応じて文章データを再生する音声を決定する。また、属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。   The attribute information reading unit 10 is means for acquiring (reading) attribute information for specifying the genre and author of the text data from the input text data. The attribute information reading unit 10 determines a sound for reproducing the text data according to the acquired attribute information. Further, the attribute information reading unit 10 stores the attribute information of the acquired text data in the attribute information database 418 included in the database storage unit 41 included in the storage unit 40.

属性情報読取部10は、ジャンルデータベース411から、取得した文章データのジャンルに関連付けられている年齢層及び性別を取得し、何れの年齢層であって何れの性別の音声を用いるかを決定する。   The attribute information reading unit 10 acquires the age group and gender associated with the genre of the acquired text data from the genre database 411, and determines which age group uses which gender sound.

また、ジャンルデータベース411において、年齢層の情報のみが取得した文章データのジャンルに関連付けられている場合、属性情報読取部10は、さらに、人名・性別データベース412を参照し、取得した著者の名前から、著者の性別を解析する。属性情報読取部10は、著者の性別を、文章データの音声再生に用いる音声の性別として決定する。   Further, in the genre database 411, when only the information on the age group is associated with the genre of the acquired text data, the attribute information reading unit 10 further refers to the personal name / gender database 412 to obtain the name of the acquired author. , Analyze the author's gender. The attribute information reading unit 10 determines the gender of the author as the gender of the voice used for voice reproduction of the text data.

なお、属性情報読取部10は、ジャンルデータベース411において、取得したジャンルに性別が関連付けられておらず、かつ、人名・性別データベース412において、取得した著者の名に性別が関連付けられていない場合、及び、ジャンルデータベース411において、取得したジャンルに年齢層及び性別の何れも関連付けられていない場合、文章データの音声再生に用いられる音声をデフォルトの音声とすることを決定してもよい。   In the genre database 411, the attribute information reading unit 10 does not associate a gender with the acquired genre, and the personal name / gender database 412 does not associate a gender with the acquired author name, and In the genre database 411, when neither the age group nor the gender is associated with the acquired genre, it may be determined that the sound used for the sound reproduction of the sentence data is the default sound.

また、属性情報読取部10は、入力された文章データを解析部20に供給する。   Further, the attribute information reading unit 10 supplies the input text data to the analysis unit 20.

(解析部)
解析部20は、属性情報読取部10から供給された文章データを解析し、文章データが電子機器1において音声再生される際に用いられる音声、及び、音声再生と共に出力される効果音及び画像などを決定する。解析部20は、図1に示すように、文章解析部(文章解析手段)21、登場人物解析部(登場人物解析手段)22、テーマ解析部(テーマ解析手段)23、音声解析部(音声再生手段)24、効果音解析部(効果音再生手段)25、及び、画像解析部(画像表示手段)26を備えている。
(Analysis Department)
The analysis unit 20 analyzes the text data supplied from the attribute information reading unit 10, the sound used when the text data is played back by the electronic device 1, the sound effect and the image output together with the playback of the sound, etc. To decide. As shown in FIG. 1, the analysis unit 20 includes a sentence analysis unit (sentence analysis unit) 21, a character analysis unit (character analysis unit) 22, a theme analysis unit (theme analysis unit) 23, a voice analysis unit (sound reproduction). Means) 24, a sound effect analysis unit (sound effect reproduction means) 25, and an image analysis unit (image display means) 26.

文章解析部21は、属性情報読取部10から供給された文章データを構成する一部分のそれぞれから予め設定された語句を検出する手段である。なお、文章データを構成する一部分としては、一文、段落、節、章、及び、目次などの単位を挙げることができる。以降、本実施形態では、文章データを構成する一部分が章である場合を例に挙げて説明する。   The sentence analysis unit 21 is a means for detecting a preset phrase from each of a part of the sentence data supplied from the attribute information reading unit 10. In addition, as a part which comprises text data, units, such as one sentence, a paragraph, a section, a chapter, and a table of contents, can be mentioned. Hereinafter, in the present embodiment, a case where a part of the sentence data is a chapter will be described as an example.

文章解析部21は、属性情報読取部10から供給された文章データの章毎に、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている語句と一致する語句を検出し、検出した語句を、記憶部40が備える語句検出回数記憶部42に、当該語句が検出された回数を示す検出回数と関連づけて格納する。例えば、初めて語句検出回数記憶部42に格納される語句に関連付けられる検出回数は、「1」である。文章解析部21は、検出した語句がすでに語句検出回数記憶部42に格納されている場合、当該語句に関連付けられている検出回数を1だけ増加させる。   For each chapter of the sentence data supplied from the attribute information reading unit 10, the sentence analysis unit 21 selects a phrase that matches the phrase registered in any one of the sound effect database 415, the music database 416, and the image database 417. The detected phrase is stored in the phrase detection count storage unit 42 of the storage unit 40 in association with the detection count indicating the number of times that the phrase has been detected. For example, the number of detections associated with the phrase stored in the phrase detection count storage unit 42 for the first time is “1”. When the detected word / phrase is already stored in the word / phrase detection count storage unit 42, the sentence analysis unit 21 increases the number of detections associated with the word / phrase by one.

また、文章解析部21は、文章データの1つの章から、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている全ての語句を検出すると、1つの章からの語句の検出が完了した旨を示す通知をテーマ解析部23に通知する。また、文章解析部21は、文章データを登場人物解析部22、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。   When the sentence analysis unit 21 detects all words registered in any one of the sound effect database 415, the music database 416, and the image database 417 from one chapter of the sentence data, A notification indicating that the phrase detection is completed is sent to the theme analysis unit 23. The sentence analysis unit 21 supplies the sentence data to the character analysis unit 22, the voice analysis unit 24, the sound effect analysis unit 25, and the image analysis unit 26.

登場人物解析部22は、文章解析部21から供給された文章データから、登場人物の姓名、及び、当該登場人物の性別及び年齢などの属性を解析する手段である。登場人物解析部22は、文章データから登場人物の姓、及び、名の少なくとも何れか一方(以降、単に登場人物の名前とも呼称する)を検出すると、図3に示す人名・性別データベース412に含まれる登場人物データ格納領域に、予め設定されているフラグを示すデータの何れかと関連付けて格納する。例えば、1番目に検出された登場人物の名前は、フラグ「F0001」と関連付けられて格納され、2番目に検出された登場人物の名前は、フラグ「F0002」と関連付けられて格納されればよい。   The character analysis unit 22 is a means for analyzing, from the text data supplied from the text analysis unit 21, the first and last names of the characters and attributes such as the gender and age of the characters. When the character analysis unit 22 detects at least one of the surname and first name of the character (hereinafter, also simply referred to as the name of the character) from the text data, the character analysis unit 22 includes the character name and gender database 412 shown in FIG. In the character data storage area to be stored in association with any of data indicating a preset flag. For example, the name of the first detected character may be stored in association with the flag “F0001”, and the name of the second detected character may be stored in association with the flag “F0002”. .

また、登場人物解析部22は、文章データから登場人物の性別及び年齢の少なくとも一方の属性を検出すると、検出された属性を有する登場人物の名前がすでに登場人物データ格納領域に格納されている場合には、登場人物の名前と属性とを関連づけて登場人物データ格納領域に格納する。また、登場人物解析部22は、検出した登場人物の属性を有する登場人物の名前が登場人物データ格納領域に格納されていない場合には、登場人物データ格納領域に予め設定されているフラグを示すデータの何れかと登場人物の属性とを関連付けて格納する。   Further, when the character analysis unit 22 detects at least one of the gender and age attributes of the characters from the text data, the name of the character having the detected attributes is already stored in the character data storage area. Is stored in the character data storage area in association with the names and attributes of the characters. The character analysis unit 22 indicates a flag set in advance in the character data storage area when the name of the character having the detected character attribute is not stored in the character data storage area. One of the data and the attributes of the characters are stored in association with each other.

また、登場人物解析部22は、登場人物の愛称を検出した場合には、検出した愛称を、当該愛称を有する登場人物と関連付けて、データ格納領域に格納する。登場人物の呼び方は、文章データの中で、姓名、姓のみ、名のみ、及び、愛称など、場面によって様々であることが一般的である。従って、登場人物の名前と関連付けて愛称などを格納することにより、登場人物の呼び方が一様でない場合にも、登場人物を一意に特定することができる。   In addition, when detecting the nickname of the character, the character analysis unit 22 associates the detected nickname with the character having the nickname and stores it in the data storage area. The names of characters are generally varied depending on the scene, such as first name, last name only, first name only, and nickname in text data. Therefore, by storing a nickname or the like in association with the name of the character, the character can be uniquely identified even when the characters are called differently.

テーマ解析部23は、語句検出回数記憶部42を参照し、各文章データを構成する1つの章におけるテーマを決定する手段である。   The theme analysis unit 23 is means for referring to the phrase detection count storage unit 42 and determining a theme in one chapter constituting each sentence data.

テーマ解析部23は、文章解析部21から、1つの章からの語句の検出が完了した旨を示す通知を取得すると、最も多い検出回数に関連付けられている語句から順にランクを設定する。このとき、文章解析部21は、例えば、語句検出回数記憶部42に格納されている語句の全てに対してランクを設定しても良いし、検出回数が最も多い語句から10番目に多い語句までにのみランクを設定してもよい。また、文章解析部21は、予め閾値を設定し、検出回数が閾値よりも多い語句に対してランクを設定してもよい。   When the theme analysis unit 23 receives a notification from the sentence analysis unit 21 indicating that the detection of words / phrases from one chapter has been completed, the theme analysis unit 23 sets ranks in order from the words / phrases associated with the largest number of detections. At this time, for example, the sentence analysis unit 21 may set ranks for all the words and phrases stored in the word / phrase detection frequency storage unit 42, or from the word / phrase having the highest detection frequency to the word / phrase having the highest number of detections. A rank may be set only for. In addition, the sentence analysis unit 21 may set a threshold value in advance, and may set a rank for a word whose number of detections is greater than the threshold value.

次に、テーマ解析部23は、1つの章において最も高いランクが設定された語句と関連付けられているテーマがテーマデータベース414に登録されているかを検索し、登録されている場合には、1つの章において最も高いランクが設定された語句と関連付けられたテーマを、当該1つの章のテーマとして決定する。なお、テーマ解析部23において、最も高いランクが設定された語句と関連づけられているテーマを1つの章のテーマとして決定する構成に代えて、10番目までのランクが設定された語句と最も多く関連付けられているテーマを当該1つの章のテーマとして決定する構成を採用してもよい。   Next, the theme analysis unit 23 searches the theme database 414 for a theme associated with the phrase set with the highest rank in one chapter. The theme associated with the phrase having the highest rank in the chapter is determined as the theme of the one chapter. In addition, in the theme analysis unit 23, instead of the configuration in which the theme associated with the phrase set with the highest rank is determined as the theme of one chapter, the theme analysis unit 23 associates with the phrase set with the tenth rank most frequently. A configuration may be adopted in which a set theme is determined as a theme of the one chapter.

テーマ解析部23は、決定したテーマを、効果音解析部25、及び、画像解析部26に供給する。   The theme analysis unit 23 supplies the determined theme to the sound effect analysis unit 25 and the image analysis unit 26.

音声解析部24は、文章解析部21から供給される文章データから、登場人物の台詞に関する文章(例えば、台詞、及び、登場人物の心理描写など)を検出し、検出した文章を音声再生するために参照される音声データを決定する手段である。具体的には、音声解析部24は、文章データから台詞を検出し、検出した台詞を発する登場人物を特定し、登場人物解析部22の検出結果に基づいて、各登場人物の属性に対応付けられた設定情報に応じた音声を再生音声として決定する。   The voice analysis unit 24 detects sentences (for example, lines and psychological descriptions of characters) from the sentence data supplied from the sentence analysis unit 21 and reproduces the detected sentences by voice. Is means for determining audio data to be referred to. Specifically, the voice analysis unit 24 detects a line from the sentence data, identifies a character that emits the detected line, and associates it with the attribute of each character based on the detection result of the character analysis unit 22. The sound corresponding to the set information is determined as the playback sound.

音声解析部24は、特定した登場人物の名前(又は愛称など)が登場人物データ格納領域に格納されている場合には、格納されている登場人物の名前(又は愛称など)に関連付けられている性別及び年齢を参照し、音声データベース413から、台詞の再生に用いる音声を決定する。例えば、台詞を発する登場人物の性別が「男性」であり、年齢が「10代」である場合、音声データベース413において、「男の子」である種類に関連付けられている音声データ「O0001」を台詞の再生に用いる音声として決定すればよい。   When the name (or nickname) of the identified character is stored in the character data storage area, the voice analysis unit 24 is associated with the name (or nickname) of the stored character. Referring to the gender and age, the voice database 413 determines the voice to be used for speech playback. For example, when the gender of a character who emits dialogue is “male” and the age is “teens”, the speech data “O0001” associated with the type of “boy” is stored in the speech database 413. What is necessary is just to determine as an audio | voice used for reproduction | regeneration.

また、音声解析部24は、文章データから、ナレーションに関する文章を検出し、検出するために参照される音声データを決定する。このとき、ナレーションに用いられる音声として、登場人物の台詞の再生に用いる音声として決定した音声と異なる音声を決定すればよい。また、音声解析部24は、検出したナレーションに関する文章が、登場人物の何れか(例えば、主人公など)が行うナレーションに関する文章である場合には、ナレーションに用いる音声として、ナレーションを行う登場人物の台詞の再生に用いる音声と同じ音声を決定してもよい。   In addition, the voice analysis unit 24 detects a narration sentence from sentence data, and determines voice data to be referenced for detection. At this time, as the voice used for the narration, a voice different from the voice determined as the voice used for reproducing the characters of the characters may be determined. In addition, when the sentence related to the detected narration is a sentence related to the narration performed by any of the characters (for example, the main character), the voice analysis unit 24 uses the speech of the character performing the narration as the voice used for the narration. You may determine the same audio | voice as the audio | voice used for reproduction | regeneration of.

効果音解析部25は、文章データの音声再生に併せて再生する効果音、及び、音楽(効果音楽)を決定する手段である。   The sound effect analysis unit 25 is a means for determining sound effects and music (effect music) to be reproduced along with the sound reproduction of the text data.

効果音解析部25は、再生する効果音を決定する場合、まず、文章データの各章から、効果音データベース415に格納されている、効果音の種類を示す語句と一致する語句を検出する。次に、効果音解析部25は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、効果音解析部25は、効果音データベース415において、検出した語句と関連付けられている効果音データを、当該検出した語句の音声再生に合わせて再生する効果音として決定する。   When determining the sound effect to be reproduced, the sound effect analysis unit 25 first detects a word that matches the word indicating the type of sound effect stored in the sound effect database 415 from each chapter of the text data. Next, the sound effect analysis unit 25 refers to the theme database 414 and determines whether or not the detected word / phrase is a word / phrase associated with the theme determined by the theme analysis unit 23 in the detected chapter. To do. When the detected word / phrase is associated with the theme in the theme database 414, the sound effect analysis unit 25 uses the sound effect data associated with the detected word / phrase in the sound effect database 415 to reproduce the sound of the detected word / phrase. It is determined as a sound effect to be played together.

例えば、ある章のテーマが「波止場」であり、当該ある章から「波止場」という語句を検出した場合には、効果音解析部25は、効果音データベース415に格納されている効果音データ「K0001」を、当該ある章における「波止場」の音声再生に併せて再生する効果音として決定すればよい。   For example, if the theme of a certain chapter is “Wharf” and the word “Wharf” is detected from the certain chapter, the sound effect analyzer 25 stores the sound effect data “K0001” stored in the sound effect database 415. "May be determined as a sound effect to be reproduced in conjunction with the audio reproduction of the" quayside "in the certain chapter.

効果音解析部25は、再生する音楽を決定する場合、まず、テーマ解析部23にて決定された文章データの各章のテーマが、テーマデータベース414における何れのテーマであるかを判定する。効果音解析部25は、音楽データベース416において、ある章におけるテーマと関連付けられている音楽データを、当該ある章の音声再生に合わせて再生する音楽として決定する。   When determining the music to be played back, the sound effect analysis unit 25 first determines which theme in the theme database 414 the theme of each chapter of the text data determined by the theme analysis unit 23 is. The sound effect analysis unit 25 determines, in the music database 416, music data associated with a theme in a certain chapter as music to be reproduced in accordance with the sound reproduction of the certain chapter.

例えば、効果音解析部25は、ある章のテーマが「結婚式」である場合には、音楽データベース416に格納されている、テーマ「結婚式」に関連付けられている音楽データ「M0001」を、当該ある章に含まれる文章が音声再生される間に再生する音楽として決定すればよい。   For example, when the theme of a chapter is “wedding”, the sound effect analysis unit 25 stores music data “M0001” associated with the theme “wedding” stored in the music database 416, What is necessary is just to determine as a music reproduced | regenerated while the text contained in the said chapter is sound-reproduced.

なお、効果音解析部25は、音楽データベース416に格納されている音楽データを、ある章に含まれる文章が音声再生される間に再生する音楽として決定する代わりに、ある章において、当該ある章のテーマに関連する語句が音声再生される際に再生する音楽として決定する構成を採用してもよい。   Note that the sound effect analysis unit 25 determines that the music data stored in the music database 416 is music to be played while a sentence included in a chapter is played back by voice, instead of the chapter. A configuration may be adopted in which the phrase related to the theme is determined as music to be played back when sound is played back.

この場合には、効果音解析部25は、まず、文章データの各章から、音楽データベース416に格納されている、音楽の種類を示す語句と一致する語句を検出すればよい。次に、効果音解析部25は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、効果音解析部25は、音楽データベース416において、検出した語句と関連付けられている音楽データを、当該検出した語句の音声再生に合わせて再生する音楽として決定する。   In this case, the sound effect analysis unit 25 may first detect a phrase that matches the phrase indicating the type of music stored in the music database 416 from each chapter of the sentence data. Next, the sound effect analysis unit 25 refers to the theme database 414 and determines whether or not the detected word / phrase is a word / phrase associated with the theme determined by the theme analysis unit 23 in the detected chapter. To do. When the detected word / phrase is associated with the theme in the theme database 414, the sound effect analysis unit 25 matches the music data associated with the detected word / phrase in the music database 416 with the sound reproduction of the detected word / phrase. Decide as music to play.

例えば、効果音解析部25は、ある章のテーマが「結婚式」である場合、当該ある章から「結婚式の歌」という語句を検出した場合に、音楽データベース416に格納されている、音楽の種類「結婚式の歌」に関連付けられている音楽データ「M0001」を、当該ある章における「結婚式の歌」という語句の音声再生に併せて再生する音楽として決定すればよい。   For example, if the theme of a certain chapter is “wedding” and the sound effect analysis unit 25 detects the phrase “wedding song” from the certain chapter, the music stored in the music database 416 is stored in the music database 416. The music data “M0001” associated with the type “wedding song” may be determined as the music to be played in conjunction with the audio playback of the phrase “wedding song” in the chapter.

画像解析部26は、文章データの音声再生に併せて表示する画像を決定する手段である。画像解析部26は、まず、文章データの各章から、画像データベース417に格納されている、画像の種類を示す語句と一致する語句を検出する。次に、画像解析部26は、テーマデータベース414を参照し、検出した語句が、検出した章において、テーマ解析部23にて決定されたテーマと関連付けられている語句であるか否かを判定する。検出した語句がテーマデータベース414においてテーマと関連付けられている場合、画像解析部26は、画像データベース417において、検出した語句と関連付けられている画像データを、当該検出した語句の音声再生に合わせて表示する画像として決定する。   The image analysis unit 26 is a means for determining an image to be displayed together with the voice reproduction of the text data. First, the image analysis unit 26 detects, from each chapter of the text data, a word that matches the word indicating the type of image stored in the image database 417. Next, the image analysis unit 26 refers to the theme database 414 and determines whether the detected word / phrase is a word / phrase associated with the theme determined by the theme analysis unit 23 in the detected chapter. . When the detected word / phrase is associated with the theme in the theme database 414, the image analysis unit 26 displays the image data associated with the detected word / phrase in the image database 417 in accordance with the sound reproduction of the detected word / phrase. To be determined.

例えば、ある章のテーマが「誕生日」であり、当該ある章から「ケーキ」という語句を検出した場合には、画像解析部26は、画像データ「G0003」を、当該ある章における「ケーキ」の音声再生に併せて表示する画像として決定すればよい。   For example, when the theme of a chapter is “birthday” and the word “cake” is detected from the chapter, the image analysis unit 26 uses the image data “G0003” as “cake” in the chapter. What is necessary is just to determine as an image displayed together with audio | voice reproduction | regeneration of this.

(変換部)
変換部30は、解析部20において決定された音声、効果音、音楽、及び、画像を出力可能に変換し、変換したデータが出力されるように音声出力部51、及び、表示部52を駆動する。変換部30は、図1に示すように、音声変換部(音声再生手段)31、効果音変換部(効果音再生手段)32、及び、画像変換部(画像表示手段)33を備えている。
(Conversion unit)
The conversion unit 30 converts the sound, sound effect, music, and image determined by the analysis unit 20 so as to be output, and drives the sound output unit 51 and the display unit 52 so that the converted data is output. To do. As shown in FIG. 1, the conversion unit 30 includes a sound conversion unit (sound reproduction unit) 31, a sound effect conversion unit (sound effect reproduction unit) 32, and an image conversion unit (image display unit) 33.

音声変換部31は、文章データが、属性情報読取部10において決定された音声用いて出力され、文章データに含まれる台詞が、音声解析部24において決定された登場人物の音声データを用いて出力されるように、音声出力部51を駆動する。なお、音声解析部24及び音声変換部31によって、音声再生手段を構成している。   The voice conversion unit 31 outputs the sentence data using the voice determined by the attribute information reading unit 10, and outputs the dialogue included in the sentence data using the voice data of the character determined by the voice analysis unit 24. As described above, the audio output unit 51 is driven. The voice analysis unit 24 and the voice conversion unit 31 constitute voice playback means.

効果音変換部32は、効果音解析部25において決定された効果音、及び、音楽が、文章データの音声の出力と共に出力されるように、音声出力部51を駆動する。なお、効果音解析部25及び効果音変換部32によって、効果音再生手段及び音楽再生手段を構成している。   The sound effect conversion unit 32 drives the sound output unit 51 so that the sound effect and music determined by the sound effect analysis unit 25 are output together with the sound output of the text data. The sound effect analyzing unit 25 and the sound effect converting unit 32 constitute sound effect reproducing means and music reproducing means.

画像変換部33は、画像解析部26において決定された画像が、文章データの音声の出力と共に表示されるように、表示部52を駆動する。なお、画像解析部26及び画像変換部33によって、画像表示手段を構成している。   The image conversion unit 33 drives the display unit 52 so that the image determined by the image analysis unit 26 is displayed together with the output of the text data. The image analysis unit 26 and the image conversion unit 33 constitute image display means.

また、効果音変換部32及び画像変換部33は、効果音及び音楽の再生時間、並びに、画像の表示時間を、語句検出回数記憶部42に格納されている語句の検出回数に応じて設定してもよい。例えば、効果音変換部32及び画像変換部33は、検出回数が少ない語句に関連付けられている効果音及び音楽の再生時間、並びに、画像の表示時間を短く設定し、検出回数が多い語句に関連付けられている効果音及び音楽の再生時間、並びに、画像の表示時間を長く設定してもよい。もちろん、効果音変換部32及び画像変換部33は、効果音及び音楽の再生時間、並びに、画像の表示時間を、語句検出回数記憶部42に格納されている語句の検出回数に係わらず、予め定められているデフォルトの長さに設定してもよい。   Further, the sound effect conversion unit 32 and the image conversion unit 33 set the sound effect and music playback time and the image display time according to the number of word detections stored in the word detection number storage unit 42. May be. For example, the sound effect conversion unit 32 and the image conversion unit 33 set the sound effect and music playback time and the image display time associated with a word with a small number of detections to be associated with a word with a large number of detections. The playback time of the sound effects and music that are recorded and the display time of the image may be set longer. Of course, the sound effect conversion unit 32 and the image conversion unit 33 set the sound effect and music playback time and the image display time in advance regardless of the number of word detection times stored in the word detection number storage unit 42. It may be set to a predetermined default length.

(ユーザ指示の取得)
ユーザ指示取得部53は、電子機器1を利用するユーザからの指示を受け付ける手段である。ユーザ指示取得部53は、例えば、ユーザがボタン及びパネルなどを押下することによって行う指示を受け付けるキーボード、十字キー、及び、タッチパネルなどで構成されていてもよく、ユーザが発した言葉をユーザ指示として受け付けるマイクなどで構成されていてもよい。
(Acquiring user instructions)
The user instruction acquisition unit 53 is a unit that receives an instruction from a user who uses the electronic device 1. The user instruction acquisition unit 53 may be configured with, for example, a keyboard, a cross key, a touch panel, and the like that accept an instruction given by a user pressing a button, a panel, or the like. You may be comprised with the microphone etc. which accept.

ユーザ指示取得部53は、ユーザ指示が、記憶部40が有するデータベース記憶部41に含まれるユーザ登録用データベース419にデータを登録する登録指示である場合には、取得した登録指示に含まれるデータをユーザ登録用データベース419に登録する。なお、ユーザ登録用データベース419に登録するデータとは、例えば、文章データが再生される際に用いられる音声、文章データに含まれるある語句が再生される際に併せて再生又は表示される効果音、音楽、及び、画像などを挙げることができる。また、ユーザ登録用データベース419に登録された効果音、音楽、及び、画像などは、それぞれ、効果音データベース415、音楽データベース416、及び、画像データベース417のフォーマットに合ったデータに変換され、それぞれのデータベースに自動で登録されてもよい。   When the user instruction is a registration instruction for registering data in the user registration database 419 included in the database storage unit 41 of the storage unit 40, the user instruction acquisition unit 53 stores the data included in the acquired registration instruction. Register in the user registration database 419. The data registered in the user registration database 419 is, for example, sound used when text data is played back, sound effect played back or displayed when a word or phrase included in the text data is played back. , Music and images. The sound effects, music, and images registered in the user registration database 419 are converted into data suitable for the formats of the sound effect database 415, music database 416, and image database 417, respectively. It may be automatically registered in the database.

また、ユーザ指示取得部53は、ユーザ指示が、電子機器1の機能を制御する制御指示である場合には、取得した制御指示を機能制御部54に供給する。   In addition, when the user instruction is a control instruction for controlling the function of the electronic device 1, the user instruction acquisition unit 53 supplies the acquired control instruction to the function control unit 54.

ユーザ指示が、例えば、文章データが再生される際に用いられる、書籍のジャンルに応じた音声を登録する登録指示である場合、ユーザ指示取得部53は、ユーザから指示された書籍のジャンルと、再生に用いられる音声とを関連付けて、ユーザ登録用データベース419に格納すればよい。なお、ユーザ指示が、例えば、文章データのジャンルと、再生に用いられる音声の属性(年齢層及び性別など)を登録する登録指示である場合には、ジャンルと、音声の属性とを関連付けてユーザ登録用データベース419に格納してもよく、ジャンルデータベース411に格納すればよい。   For example, when the user instruction is a registration instruction for registering sound corresponding to the genre of the book used when the text data is reproduced, the user instruction acquisition unit 53 includes the genre of the book instructed by the user, What is necessary is just to associate with the audio | voice used for reproduction | regeneration, and to store in the database 419 for user registration. When the user instruction is, for example, a registration instruction for registering the genre of text data and the audio attributes (such as age group and gender) used for reproduction, the user is associated with the genre and the audio attribute. It may be stored in the registration database 419 or may be stored in the genre database 411.

また、ユーザ指示が、ある語句に関連付けて効果音、音楽、及び、画像などを登録する旨を示す登録指示である場合、ユーザ指示取得部53は、指示された語句と、効果音、音楽、及び、画像などのデータとを関連付けてユーザ登録用データベース419に格納する。なお、ユーザ指示が効果音、音楽、及び、画像などを登録する登録指示である場合には、ユーザ指示取得部53は、ユーザ登録用データベース419に格納する代わりに、指示された語句と効果音とを関連付けて効果音データベース415に格納してもよいし、指示された語句と音楽とを関連づけて音楽データベース416に格納してもよいし、指示された語句と画像とを関連づけて画像データベース417に格納してもよい。   When the user instruction is a registration instruction indicating that sound effects, music, images, and the like are registered in association with a certain phrase, the user instruction acquisition unit 53 includes the instructed phrase, sound effects, music, In addition, the data is stored in the user registration database 419 in association with data such as an image. When the user instruction is a registration instruction for registering sound effects, music, images, and the like, the user instruction acquisition unit 53 stores the instructed words and sound effects instead of storing them in the user registration database 419. May be stored in the sound effect database 415, the instructed phrase and music may be stored in the music database 416, or the instructed phrase and image may be associated in the image database 417. May be stored.

さらに、ユーザ指示取得部53は、音声の再生、効果音及び音楽の再生、並びに、画像の表示などに関する設定を示すユーザ指示を受け付けてもよい。   Further, the user instruction acquisition unit 53 may accept a user instruction indicating settings relating to sound reproduction, sound effect and music reproduction, image display, and the like.

例えば、ユーザ指示取得部53は、登録指示によって登録された効果音、音楽、及び、画像などのデータを、予め効果音データベース415、音楽データベース416、及び、画像データベース417などに格納されているデータよりも優先して再生、又は、表示するように設定するユーザ指示を受け付けてもよい。   For example, the user instruction acquisition unit 53 stores data such as sound effects, music, and images registered by the registration instruction in data stored in the sound effect database 415, music database 416, image database 417, and the like in advance. A user instruction that is set to be reproduced or displayed with higher priority may be accepted.

また、ユーザ指示取得部53は、ユーザ指示として、音声再生に合わせて再生又は表示される効果音、音楽、及び、画像の組み合わせを設定する組み合わせ設定指示を受け付けてもよい。具体的には、ユーザ指示取得部53は、音声再生に合わせて、効果音の再生のみを行う設定、音楽の再生のみを行う設定、画像の再生のみを行う設定、効果音及び音楽の再生を行う設定、効果音の再生及び画像の表示を行う設定、並びに、音楽の再生及び画像の表示を行う設定などを受け付ける。   In addition, the user instruction acquisition unit 53 may accept a combination setting instruction for setting a combination of sound effects, music, and images that are reproduced or displayed in accordance with sound reproduction as a user instruction. Specifically, the user instruction acquisition unit 53 performs settings for performing only sound effect reproduction, settings for performing only music reproduction, settings for performing only image reproduction, sound effects and music reproduction in accordance with audio reproduction. Settings to perform, settings to play sound effects and display images, settings to play music and display images, and the like are accepted.

また、ユーザ指示取得部53は、ユーザ指示として、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかに関連する効果音、音楽、及び、画像などのデータを、電子機器1に接続されているインターネットなどの外部ネットワークから取得する旨のデータ取得指示を受け付けてもよい。ユーザ指示取得部53は、データ取得指示を受け付けると、受け付けたデータ取得指示を外部データ取得部55に通知する。なお、外部データ取得部55については後述する。   In addition, the user instruction acquisition unit 53 includes, as user instructions, sound effects, music, images, and the like related to at least one of the words and phrases detected by the sentence analysis unit 21 and the theme determined by the theme analysis unit 23. May be received from an external network such as the Internet connected to the electronic device 1. When receiving the data acquisition instruction, the user instruction acquisition unit 53 notifies the external data acquisition unit 55 of the received data acquisition instruction. The external data acquisition unit 55 will be described later.

この場合に、さらに、ユーザ指示取得部53は、外部ネットワークから取得された効果音、音楽、及び、画像などのデータを、予め効果音データベース415、音楽データベース416、及び、画像データベース417などに格納されているデータよりも優先して再生、又は、表示するように設定するユーザ指示を受け付けてもよい。   In this case, the user instruction acquisition unit 53 further stores data such as sound effects, music, and images acquired from the external network in advance in the sound effect database 415, music database 416, image database 417, and the like. A user instruction that is set to be reproduced or displayed in preference to the data that is being displayed may be received.

また、ユーザ指示取得部53は、文章データを音声再生する際の再生速度、及び、再生音量などを設定するユーザ指示を受け付けてもよい。ユーザ指示取得部53は、受け付けた再生速度、及び、再生音量などのユーザ設定を、ユーザ登録用データベース419に格納する。   Further, the user instruction acquisition unit 53 may accept a user instruction for setting a playback speed, a playback volume, and the like when the sentence data is played back by voice. The user instruction acquisition unit 53 stores user settings such as the received playback speed and playback volume in the user registration database 419.

音声変換部31は、文章データの音声再生時に、ユーザ登録用データベース419に再生速度、及び、再生音量などのユーザ設定が格納されている場合には、格納されているユーザ設定に基づいて再生速度、及び、再生音量などを決定する。なお、文章データの音声再生時に、ユーザ登録用データベース419にユーザ設定が格納されていない場合には、音声変換部31は、予め設定されているデフォルトの再生速度、及び、再生音量などを用いて音声再生を行えばよい。   If the user registration database 419 stores the playback speed and user settings such as the playback volume at the time of voice playback of the text data, the voice conversion unit 31 plays the playback speed based on the stored user settings. And the playback volume and the like are determined. When the user setting is not stored in the user registration database 419 at the time of voice reproduction of the text data, the voice conversion unit 31 uses a preset default playback speed, playback volume, and the like. Sound reproduction may be performed.

機能制御部54は、ユーザ指示取得部53から供給される制御指示であるユーザ指示に基づいて、電子機器1の機能を制御する。例えば、取得した制御指示が、電子機器1の各部への電源の供給を停止(すなわち、電源OFF)する制御指示である場合には、機能制御部54は、電子機器1が備える電源部(不図示)から各部への電源の供給を停止するよう制御する。   The function control unit 54 controls the function of the electronic device 1 based on a user instruction that is a control instruction supplied from the user instruction acquisition unit 53. For example, when the acquired control instruction is a control instruction for stopping the supply of power to each unit of the electronic device 1 (that is, turning off the power), the function control unit 54 includes the power supply unit (not configured) included in the electronic device 1. Control is performed so as to stop the supply of power to each unit.

外部データ取得部55は、外部ネットワークから効果音、音楽、及び、画像などのデータを取得する手段である。具体的には、外部データ取得部55は、ユーザ指示取得部53からデータ取得指示が通知されると、外部ネットワークから、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかと関連する効果音、音楽、及び、画像などのデータを取得する。外部ネットワークから取得された効果音、音楽、及び、画像などのデータは、ユーザ登録用データベース419に格納されてもよし、効果音データベース415、音楽データベース416、及び、画像データベース417にそれぞれ格納されてもよい。   The external data acquisition unit 55 is means for acquiring data such as sound effects, music, and images from an external network. Specifically, when the data acquisition instruction is notified from the user instruction acquisition unit 53, the external data acquisition unit 55 is determined by the phrase detected by the sentence analysis unit 21 and the theme analysis unit 23 from the external network. Data such as sound effects, music, and images associated with at least one of the selected themes. Data such as sound effects, music, and images acquired from the external network may be stored in the user registration database 419, or stored in the sound effect database 415, music database 416, and image database 417, respectively. Also good.

なお、電子機器1と外部ネットワークとは、例えば、LANケーブルなどによって有線接続されていてもよいし、無線LANなどによって無線接続されていてもよい。   Note that the electronic device 1 and the external network may be wiredly connected by, for example, a LAN cable, or may be wirelessly connected by a wireless LAN or the like.

〔音声再生に関する処理〕
次に、本実施形態に係る電子機器1における、音声再生に関する処理について、図10から図13を参照して説明する。
[Processing related to audio playback]
Next, processing related to audio reproduction in the electronic apparatus 1 according to the present embodiment will be described with reference to FIGS. 10 to 13.

(音声再生処理)
まず、本実施形態に係る電子機器1における、音声再生処理について、図10を参照して説明する。図10は、本実施形態に係る電子機器1における音声再生処理の流れを示すフローチャートである。
(Audio playback processing)
First, audio reproduction processing in the electronic apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the flow of the audio reproduction process in the electronic apparatus 1 according to the present embodiment.

図10に示すように、属性情報読取部10は、文章データが入力されると、文章データからジャンル及び著者を含む属性情報を読み取る(ステップS101)。   As shown in FIG. 10, when the text data is input, the attribute information reading unit 10 reads the attribute information including the genre and the author from the text data (step S101).

属性情報読取部10は、ジャンルデータベース411及び人名・性別データベース412を参照して、再生音声決定処理を行い、読み取った属性情報から再生に用いられる音声を決定する(ステップS102)。なお、再生音声決定処理については、図面を替えて後述する。   The attribute information reading unit 10 refers to the genre database 411 and the person name / gender database 412 to perform playback sound determination processing, and determines the sound used for playback from the read attribute information (step S102). The reproduction sound determination process will be described later with different drawings.

また、属性情報読取部10は、読み取った属性情報を、データベース記憶部41に含まれる属性情報データベース418に格納し(ステップS103)、入力された文章データを文章解析部21に供給する。   The attribute information reading unit 10 stores the read attribute information in the attribute information database 418 included in the database storage unit 41 (step S103), and supplies the input text data to the text analysis unit 21.

文章解析部21は、属性情報読取部10から文章データが供給されると、供給された文章データを読み込む(ステップS104)。   When the text data is supplied from the attribute information reading unit 10, the text analysis unit 21 reads the supplied text data (step S104).

文章解析部21は、文章データを読み込むと、読み込んだ文章データを記憶部40に格納する(ステップS105)と共に、記憶部40に格納した文章データを、登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。   When the sentence analysis unit 21 reads the sentence data, the sentence analysis unit 21 stores the read sentence data in the storage unit 40 (step S105), and also converts the sentence data stored in the storage unit 40 into the character analysis unit 22, the theme analysis unit 23, The sound analysis unit 24, the sound effect analysis unit 25, and the image analysis unit 26 are supplied.

文章解析部21から文章データが供給されると、登場人物解析部22は、供給された文章データから、登場人物の姓、名、愛称、及び、登場人物の年齢及び性別を含む属性を検出する。また、登場人物解析部22は、検出した登場人物の姓、名、愛称、及び、登場人物の属性をそれぞれ関連づけて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する。   When text data is supplied from the text analysis unit 21, the character analysis unit 22 detects the attributes including the character's last name, first name, nickname, and the age and sex of the character from the supplied text data. . In addition, the character analysis unit 22 associates the detected surname, first name, nickname, and character attributes of the detected characters, and stores them in the character data storage area included in the personal name / gender database 412.

音声解析部24は、文章解析部21から供給された文章データから、登場人物の姓、名、及び、愛称の何れかを検出する。音声解析部24は、音声データベース413において、登場人物データ格納領域おいて検出した登場人物の姓、名、及び、愛称の何れかと関連付けられている性別及び年齢を示す音声の種類と関連付けられている音声データを、登場人物の台詞に関する文章データを再生する音声に用いられる音声データとして決定する(ステップS106)。   The voice analysis unit 24 detects the surname, first name, and nickname of the character from the text data supplied from the text analysis unit 21. The voice analysis unit 24 is associated with the voice type indicating the gender and age associated with any of the surname, first name, and nickname of the character detected in the character data storage area in the voice database 413. The voice data is determined as voice data to be used for the voice for reproducing the sentence data related to the characters of the characters (step S106).

文章解析部21、及び、テーマ解析部23は、文章データを構成する章毎のテーマを決定するテーマ決定処理を実行する(ステップS107)。なお、テーマ決定処理については、図面を代えて後述する。   The sentence analysis unit 21 and the theme analysis unit 23 execute a theme determination process for determining a theme for each chapter constituting the sentence data (step S107). The theme determination process will be described later with reference to the drawings.

効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS108)。   When the sentence data is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 associates the phrase detected from each chapter constituting the sentence with the theme determined by the theme analysis unit 23 in the theme database 414. In this case, in the sound effect database 415, the sound effect data associated with the detected word / phrase is determined as the sound effect to be reproduced in conjunction with the sound reproduction (step S108).

また、効果音解析部25は、文章解析部21から文章データが供給されると、音楽データベース416において、文章を構成する各章に対してテーマ解析部23が決定したテーマと関連付けられている音楽データを、各章の音声再生に併せて再生される音楽として決定する(ステップS109)。   Further, when the sentence data is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 is associated with the theme determined by the theme analysis unit 23 for each chapter constituting the sentence in the music database 416. The data is determined as music to be played along with the voice playback of each chapter (step S109).

画像解析部26は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて表示される画像として決定する(ステップS110)。   When text data is supplied from the text analysis unit 21, the image analysis unit 26 associates words and phrases detected from each chapter constituting the text with the theme determined by the theme analysis unit 23 in the theme database 414. In addition, in the image database 417, the image data associated with the detected word / phrase is determined as an image to be displayed along with the reproduction of sound (step S110).

次に、解析部20は、効果音解析部25、及び、画像解析部26において、音声の再生に併せて出力される効果音、音楽、及び、画像を決定すると、文章データと共に、音声データ、効果音データ、音楽データ、及び、画像データを、変換部30に供給する。   Next, when the sound effect analysis unit 25 and the image analysis unit 26 determine the sound effect, music, and image that are output along with the sound reproduction, the analysis unit 20 determines the sound data, The sound effect data, music data, and image data are supplied to the conversion unit 30.

変換部30は、文章データ、音声データ、効果音データ、音楽データ、及び、画像データが供給されると、効果音、音楽、及び、画像を出力する出力時間を、決定する出力時間決定処理を実行する(ステップS111)。なお、出力時間決定処理については、図面を替えて後述する。   When the text data, voice data, sound effect data, music data, and image data are supplied, the conversion unit 30 performs output time determination processing that determines the output time for outputting the sound effects, music, and images. Execute (Step S111). The output time determination process will be described later with different drawings.

効果音、音楽、及び、画像を出力する出力時間が決定すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する(ステップS112)。   When the output time for outputting the sound effect, music, and image is determined, the conversion unit 30 uses the sound conversion unit 31, the sound effect conversion unit 32, and the image conversion unit 33 to read the sound, sound effect, music, and image of the sentence data. The voice output unit 51 and the display unit 52 are driven so that the voice data is reproduced, the sound effects and music are reproduced, and the image is displayed (step S112).

文章解析部21は、ステップS105において、読み込んだ文章データを登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する前に、一度、記憶部40に格納する。これは、文章データを読み込む処理に必要な時間と比較して、文章解析部21からデータが供給される各解析部22〜26における処理に必要な時間が長いため、各解析部22〜26の処理速度に応じて文章データを供給する必要があるためである。これによって、文章解析部21は、各解析部22〜26に対し、処理能力を上回る過度な文章データが供給されることを防ぐことができる。   In step S <b> 105, the sentence analysis unit 21 once supplies the read sentence data to the character analysis unit 22, the theme analysis unit 23, the voice analysis unit 24, the sound effect analysis unit 25, and the image analysis unit 26. And stored in the storage unit 40. This is because the time required for processing in each of the analysis units 22 to 26 to which data is supplied from the text analysis unit 21 is longer than the time required for processing for reading the text data. This is because it is necessary to supply text data according to the processing speed. Thereby, the sentence analysis part 21 can prevent that excessive sentence data exceeding a processing capability is supplied with respect to each analysis part 22-26.

なお、本実施形態では、ステップS105において、文章解析部21が、読み込んだ文章データを記憶部40に格納した後に各解析部22〜26に供給する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、各解析部22〜26が個別にバッファを備えており、文章解析部21から記憶部40に格納されることなく供給される文章データが、各解析部22〜26が個別に備えるバッファに一時的に格納される構成を採用してもよい。この場合には、各解析部22〜26は、個別に備えるバッファに格納されている文章データを適宜読み出して、上述したステップの処理を実行すればよい。   In the present embodiment, the configuration in which the sentence analysis unit 21 stores the read sentence data in the storage unit 40 and then supplies the read sentence data to the analysis units 22 to 26 in step S105 has been described as an example. Is not limited to this. For example, each analysis unit 22 to 26 has an individual buffer, and text data supplied from the text analysis unit 21 without being stored in the storage unit 40 is stored in the buffer that each analysis unit 22 to 26 has. You may employ | adopt the structure stored temporarily. In this case, each analysis part 22-26 should just read the text data stored in the buffer provided separately, and may perform the process of the step mentioned above.

なお、本実施形態では、ステップS103において、属性情報読取部10が、読み取った属性情報のみを属性情報データベース418に格納する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、属性情報読取部10は、ステップS103において、読み取った属性情報を、ステップS102において決定した再生に用いられる音声の情報と関連付けて、データベース記憶部41に含まれる属性情報データベース418に格納してもよい。この場合には、属性情報データベース418に、再生に用いられる音声の情報を格納する領域がさらに設けられていればよい。   In the present embodiment, the configuration in which the attribute information reading unit 10 stores only the read attribute information in the attribute information database 418 in step S103 has been described as an example. However, the present invention is not limited to this. is not. For example, in step S103, the attribute information reading unit 10 stores the read attribute information in the attribute information database 418 included in the database storage unit 41 in association with the audio information used for reproduction determined in step S102. Also good. In this case, the attribute information database 418 may be further provided with an area for storing audio information used for reproduction.

なお、本実施形態では、ステップS109において、効果音解析部25が、各章の音声再生に併せて再生される音楽を決定する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、効果音解析部25は、ステップS109において、文章解析部21から供給された文章データを構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、検出した語句の音声再生に併せて再生される音楽として決定してもよい。   In the present embodiment, the configuration in which the sound effect analysis unit 25 determines the music to be played in conjunction with the sound playback of each chapter in step S109 has been described as an example. However, the present invention is not limited to this. It is not something. For example, in step S109, the sound effect analysis unit 25 associates the phrase detected from each chapter constituting the text data supplied from the text analysis unit 21 with the theme determined by the theme analysis unit 23 in the theme database 414. In the music database 416, the music data associated with the detected word / phrase may be determined as music to be played along with the sound playback of the detected word / phrase.

(再生音声決定処理)
次に、再生音声決定処理(図10における、ステップS102)について、図11を参照して説明する。図11は、本実施形態に係る電子機器1における再生音声決定処理の流れを示すフローチャートである。
(Playback audio decision process)
Next, the playback sound determination process (step S102 in FIG. 10) will be described with reference to FIG. FIG. 11 is a flowchart showing the flow of the playback audio determination process in the electronic apparatus 1 according to the present embodiment.

属性情報読取部10は、文章データからジャンル及び著者を含む属性情報を読み取ると、図11に示すように、文章データのジャンルから、文章データの再生に用いられる音声の年齢層及び性別の双方が決まるか否かを判定する(ステップS201)。例えば、属性情報読取部10は、ジャンルデータベース411において、読み取った属性情報に含まれるジャンルに、再生に用いられる音声の年齢層及び性別が関連付けられているか否かを判定することによって、年齢層及び性別の双方が決まるか否かを判定すればよい。   When the attribute information reading unit 10 reads the attribute information including the genre and the author from the sentence data, as shown in FIG. 11, both the age group and the gender of the voice used for reproducing the sentence data are determined from the genre of the sentence data. It is determined whether it is determined (step S201). For example, the attribute information reading unit 10 determines in the genre database 411 whether or not the age group and the gender of the voice used for reproduction are associated with the genre included in the read attribute information. What is necessary is just to determine whether both sexes are decided.

文章データのジャンルから、文章データの再生に用いられる音声の年齢層及び性別の双方は決まらないと判定すると(ステップS201においてNO)、属性情報読取部10は、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まるか否かを判定する(ステップS202)。例えば、属性情報読取部10は、ジャンルデータベース411において、読み取った属性情報に含まれるジャンルと年齢層が関連付けられており、かつ、人名・性別データベース412において、読み取った属性情報に含まれる著者と性別とが関連付けられているか否かを判定することによって、年齢層及び性別が決まるか否かを判定すればよい。   If it is determined from the genre of the text data that neither the age group nor the gender of the voice used to reproduce the text data is determined (NO in step S201), the attribute information reading unit 10 determines the text from the genre and author of the text data. It is determined whether or not the age group and gender of the voice used for data reproduction are determined (step S202). For example, the attribute information reading unit 10 associates the genre and age group included in the read attribute information in the genre database 411 and the author and gender included in the read attribute information in the person name / gender database 412. It is only necessary to determine whether or not the age group and gender are determined by determining whether or not are associated with each other.

文章データのジャンルから文章データの再生に用いられる音声の年齢層及び性別の双方が決まるかと判定した場合(ステップS201においてYES)、又は、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まると判定した場合(ステップS202においてYES)、属性情報読取部10は、文章データの再生に用いる音声の年齢層及び性別を決定し、音声データベース413において、決定した年齢層及び性別を示す種類に関連付けられた音声データを、文章データの再生に用いる音声の音声データとして決定する(ステップS203)。   When it is determined from the genre of the text data whether both the age group and gender of the voice used for the playback of the text data are determined (YES in step S201), or from the genre and author of the text data, used for the playback of the text data When it is determined that the voice age group and gender are determined (YES in step S202), the attribute information reading unit 10 determines the voice age group and gender used to reproduce the text data, and the voice database 413 determines the determined age. The audio data associated with the type indicating the layer and the sex is determined as audio data of audio used for reproducing the text data (step S203).

また、文章データのジャンル及び著者から、文章データの再生に用いられる音声の年齢層及び性別が決まらないと判定した場合(ステップS202においてNO)、属性情報読取部10は、デフォルトの音声データを、文章データの再生に用いる音声として決定する(ステップS204)。   Further, when it is determined from the genre and author of the text data that the age group and gender of the voice used to reproduce the text data are not determined (NO in step S202), the attribute information reading unit 10 determines the default voice data as It is determined as a voice to be used for reproducing text data (step S204).

(テーマ決定処理)
次に、テーマ決定処理(図10における、ステップS107)について、図12を参照して説明する。図12は、本実施形態に係る電子機器1におけるテーマ決定処理の流れを示すフローチャートである。
(Theme determination process)
Next, the theme determination process (step S107 in FIG. 10) will be described with reference to FIG. FIG. 12 is a flowchart showing the flow of theme determination processing in the electronic apparatus 1 according to the present embodiment.

図12に示すように、文章解析部21は、文章データを構成するある章に、効果音データベース415、音楽データベース416及び画像データベース417の何れかのデータベースに登録されている語句と一致する語句があるか否かを判定する(ステップS301)。   As shown in FIG. 12, the sentence analysis unit 21 includes a phrase that matches a phrase registered in any one of the sound effect database 415, the music database 416, and the image database 417 in a chapter that constitutes the sentence data. It is determined whether or not there is (step S301).

ある章に、何れかのデータベースに登録されている語句と一致する語句があると判定すると(ステップS301においてYES)、文章解析部21は、ある章から、何れかのデータベースに登録されている語句と一致する語句を検出する。また、文章解析部21は、検出した語句を、検出した語句の検出回数と関連づけて、語句検出回数記憶部42に格納する(ステップS302)。例えば、各語句が始めて検出されたときに関連付けられる検出回数は、1であればよい。   If it is determined that there is a phrase that matches the phrase registered in any database (YES in step S301), the sentence analysis unit 21 starts the phrase registered in any database from the chapter. Find words that match. In addition, the sentence analysis unit 21 stores the detected word / phrase in the word / phrase detection count storage unit 42 in association with the detected number of detected words / phrases (step S302). For example, the detection count associated with the first detection of each word may be one.

文章解析部21は、同一の語句を検出すると、語句検出回数記憶部42に格納されている、検出した語句と関連付けられている検出回数の値を、1だけ増加させる(ステップS303)。また、文章解析部21は、検出した語句の語句検出回数記憶部42へ語句及び検出回数を格納すると、テーマ解析部23に、語句及び検出回数を格納した旨を示す信号を通知する。   When the sentence analysis unit 21 detects the same word / phrase, the sentence analysis unit 21 increases the value of the number of detections stored in the word / phrase detection number storage unit 42 and associated with the detected word / phrase by 1 (step S303). When the sentence analysis unit 21 stores the phrase and the number of detections in the phrase detection count storage unit 42 of the detected phrase, the sentence analysis unit 21 notifies the theme analysis unit 23 of a signal indicating that the phrase and the number of detections are stored.

テーマ解析部23は、文章解析部21から、語句及び検出回数を格納した旨を示す信号を取得すると、語句検出回数記憶部42を参照し、章において、語句に関連付けられている検出回数が、予め設定されている閾値よりも多い語句が存在するか否かを判定する(ステップS304)。   When the theme analysis unit 23 acquires a signal indicating that the phrase and the number of detections are stored from the sentence analysis unit 21, the theme analysis unit 23 refers to the phrase detection number storage unit 42, and the number of detections associated with the phrase in the chapter is It is determined whether or not there are more words than a preset threshold value (step S304).

閾値よりも多い検出回数の語句が存在すると判定すると(ステップS304においてYES)、テーマ解析部23は、閾値よりも多い検出回数の語句のうち、最も検出回数の多い語句から順に、ランクを設定する(ステップS305)。   If it is determined that there are words with the number of detections greater than the threshold (YES in step S304), the theme analysis unit 23 sets the rank in order from the word with the highest number of detections among the words with the number of detections greater than the threshold. (Step S305).

テーマ解析部23は、ある章において、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されているか否かを、最も高いランクが設定された語句から順に判定する(ステップS306)。   The theme analysis unit 23 determines in order from the phrase with the highest rank whether or not the theme associated with the phrase with the rank set is registered in the theme database 414 in a certain chapter (step) S306).

テーマ解析部23は、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されている場合(ステップS306にいてYES)、テーマデータベース414において、ランクが設定された語句と関連付けられているテーマのうち、最も高いランクが設定された語句と関連付けられているテーマを、ある章のテーマとして決定する(ステップS307)。   When the theme associated with the word / phrase for which the rank has been set is registered in the theme database 414 (YES in step S306), the theme analysis unit 23 associates the word / phrase with the rank set in the theme database 414. The theme associated with the word / phrase having the highest rank is determined as the theme of a chapter (step S307).

テーマ解析部23は、ある章のテーマを決定した後、全ての章のテーマを決定したか否かを判定する(ステップS308)。   After determining the theme of a certain chapter, the theme analysis unit 23 determines whether the themes of all chapters have been determined (step S308).

文章解析部21において、ある章に、何れかのデータベースに登録されている語句と一致する語句がないと判定した場合(ステップS301においてNO)、テーマ解析部23において、閾値よりも多い検出回数の語句が存在しないと判定した場合(ステップS304においてNO)、ランクが設定された語句と関連付けられているテーマが、テーマデータベース414に登録されていない場合(ステップS306にいてNO)、及び、全ての章のテーマを決定が決定されていない場合(ステップS308においてNO)、文章解析部21及びテーマ解析部23は、次の章に移り(ステップS309)、上述したステップS301からS308までの処理を繰り返す。   When the sentence analysis unit 21 determines that there is no phrase that matches a phrase registered in any database in the chapter (NO in step S301), the theme analysis unit 23 sets the number of detections greater than the threshold. If it is determined that the phrase does not exist (NO in step S304), the theme associated with the phrase for which the rank is set is not registered in the theme database 414 (NO in step S306), and all If the chapter theme has not been determined (NO in step S308), the sentence analysis unit 21 and the theme analysis unit 23 move to the next chapter (step S309), and repeat the above-described steps S301 to S308. .

全ての章のテーマを決定すると(ステップS308においてYES)、テーマ解析部23は、テーマ決定処理を終了する。   When the themes of all chapters are determined (YES in step S308), the theme analysis unit 23 ends the theme determination process.

(出力時間決定処理)
次に、出力時間決定処理(図10における、ステップS111)について、図13を参照して説明する。図13は、本実施形態に係る電子機器1における出力時間決定処理の流れを示すフローチャートである。
(Output time determination process)
Next, the output time determination process (step S111 in FIG. 10) will be described with reference to FIG. FIG. 13 is a flowchart showing a flow of output time determination processing in the electronic apparatus 1 according to the present embodiment.

図13に示すように、変換部30は、文章データの再生と併せて出力される効果音、音楽及び画像が決定すると、それぞれのデータ(効果音データ、音楽データ及び画像データ)に関連付けられている語句の検出回数を、語句検出回数記憶部42から取得する(ステップS401)。   As shown in FIG. 13, when the sound effect, music, and image output together with the reproduction of the text data are determined, the conversion unit 30 is associated with each data (sound effect data, music data, and image data). The number of detected words / phrases is acquired from the word / phrase detection number storage unit 42 (step S401).

変換部30における効果音変換部32及び画像変換部33は、効果音データ、音楽データ及び画像データのそれぞれに関連付けられている語句の検出回数を取得すると、効果音、音楽及び画像の出力時間を、取得した語句の検出回数に応じて決定する(ステップS402)。   When the sound effect conversion unit 32 and the image conversion unit 33 in the conversion unit 30 obtain the number of times of detection of the phrase associated with each of the sound effect data, the music data, and the image data, the output time of the sound effect, the music, and the image is calculated. Then, it is determined according to the number of detected words / phrases (step S402).

検出回数に応じた出力時間として、例えば、効果音変換部32は、効果音データベースにおいて効果音データと関連付けられている語句の検出回数が、2回である場合には、効果音データが再生される時間を、10秒とすればよい。効果音変換部32は、音楽データベースにおいて音楽データと関連付けられている語句の検出回数が、5回である場合には、音楽データが再生される時間を、20秒とすればよい。また、画像変換部33は、画像データベースにおいて画像データと関連づけられている語句の検出回数が7回である場合には、画像データが表示される時間を、30秒とすればよい。   As the output time corresponding to the number of detections, for example, the sound effect conversion unit 32 reproduces the sound effect data when the number of detections of the phrase associated with the sound effect data in the sound effect database is two. The time required for this may be 10 seconds. When the number of detections of the phrase associated with the music data in the music database is 5, the sound effect conversion unit 32 may set the time for reproducing the music data to 20 seconds. Further, the image conversion unit 33 may set the time for displaying the image data to 30 seconds when the number of detections of the phrase associated with the image data in the image database is seven.

なお、本実施形態では、文章データの音声再生と併せて、効果音、音楽、及び、画像を出力する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、文章データの音声再生と併せて、効果音、音楽、及び、画像の少なくとも何れか1つを出力してもよい。この場合には、上述したように、ユーザ指示取得部53を介して組み合わせ設定指示を取得すればよい。   In the present embodiment, the configuration of outputting sound effects, music, and images together with the sound reproduction of the text data has been described as an example, but the present invention is not limited to this. For example, it is also possible to output at least one of sound effects, music, and images together with voice reproduction of text data. In this case, as described above, a combination setting instruction may be acquired via the user instruction acquisition unit 53.

なお、本実施形態では、各データベースに予め格納されている効果音、音楽、及び、画像のデータを参照することによって、文章データの音声再生と併せて再生又は表示される効果音、音楽、及び、画像を決定する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、上述したように、ユーザ指示取得部53を介してデータ取得指示を受け付けた場合に、電子機器1は、外部データ取得部から取得した効果音、音楽、及び、画像のデータを、文章データの音声再生と併せて再生又は表示してもよい。   In the present embodiment, sound effects, music, and sound that are reproduced or displayed together with sound reproduction of sentence data by referring to sound effects, music, and image data stored in advance in each database. The configuration for determining an image has been described as an example, but the present invention is not limited to this. For example, as described above, when a data acquisition instruction is received via the user instruction acquisition unit 53, the electronic device 1 converts the sound effect, music, and image data acquired from the external data acquisition unit into text data. It may be reproduced or displayed together with the audio reproduction.

また、外部データ取得部が、文章解析部21において検出された語句、及び、テーマ解析部23において決定されたテーマの少なくとも何れかに関連する効果音、音楽及び画像などのデータを、ユーザからのデータ取得指示によらずに外部ネットワークから取得する構成を採用してもよい。この場合には、外部データ取得部55は、取得した効果音、音楽及び画像などのデータをそれぞれ、効果音データベース415、音楽データベース416、及び、画像データベース417に格納すればよい。効果音解析部25、及び、画像解析部26は、効果音データベース415、音楽データベース416、及び、画像データベース417にそれぞれ格納されている、外部ネットワークから取得した効果音、音楽及び画像のデータを、文章データの再生と併せて再生又は表示する効果音、音楽及び画像として決定する。   In addition, the external data acquisition unit receives data such as sound effects, music, and images related to at least one of the phrase detected by the sentence analysis unit 21 and the theme determined by the theme analysis unit 23 from the user. A configuration of acquiring from an external network without depending on the data acquisition instruction may be adopted. In this case, the external data acquisition unit 55 may store the acquired data such as sound effects, music, and images in the sound effect database 415, the music database 416, and the image database 417, respectively. The sound effect analysis unit 25 and the image analysis unit 26 store the sound effect, music, and image data acquired from the external network respectively stored in the sound effect database 415, the music database 416, and the image database 417. It is determined as sound effects, music and images to be reproduced or displayed together with the reproduction of text data.

これによって、電子機器1は、文章データの音声再生に適したデータを予めデータベース記憶部41が備える各データベースに格納しておかなくとも、外部データ取得部55によって文章データの音声再生に適したデータを取得し、出力することができる。   As a result, the electronic device 1 does not store data suitable for voice reproduction of text data in each database provided in the database storage unit 41 in advance, but data suitable for voice playback of text data by the external data acquisition unit 55. Can be obtained and output.

上述した構成によって、文章データは、当該文章データに含まれる属性情報(文章データのジャンル、及び、著者)に応じて設定された設定情報に基づいて音声再生されるので、文章データの属性に合った音声再生を行うことが可能となる。これによって、上記電子機器は、上記文章データが、当該文章データの属性に合わない音声で再生されてしまうことを防ぐことができる。   With the configuration described above, the text data is played back based on the setting information set according to the attribute information (text data genre and author) included in the text data. It is possible to perform voice playback. Accordingly, the electronic device can prevent the text data from being reproduced with a sound that does not match the attribute of the text data.

このように、上記文章データの属性に合った音声再生を行うことを可能にすることで、ユーザは、上記文章データを十分に楽しむことができる。   As described above, the user can sufficiently enjoy the text data by enabling the audio reproduction suitable for the attribute of the text data.

また、電子機器1は、登場人物解析部22において解析した登場人物毎に音声を変え、それぞれの登場人物の属性に合った音声で、台詞などの登場人物に関係した文章を再生することができる。   In addition, the electronic device 1 can change the voice for each character analyzed by the character analysis unit 22, and can reproduce a sentence related to the character, such as a dialogue, with the sound that matches the attribute of each character. .

このように、登場人物の属性に合った音声再生を行うことを可能にすることで、ユーザは、文章データを、1つの音声で再生される場合よりも、より細やかな表現、及び、臨場感のある音声再生を聞くことができるため、文章データをさらに楽しむことができる。   In this way, by making it possible to perform audio reproduction that matches the attributes of the characters, the user can reproduce the sentence data in a more detailed expression and presence than when the sentence data is reproduced with a single audio. Since you can listen to the voice playback, you can enjoy the text data further.

また、効果音解析部25及び効果音変換部32、並びに、画像解析部26及び画像変換部33は、テーマに関係ない語句が検出された場合に、当該テーマに関係ない語句に応じた効果音及び画像を出力しないため、ユーザに違和感を与えてしまうことを低減することができる。したがって、ユーザは、文章データが再生される音声と併せて、適切な効果音及び画像などを楽しむことができる。   In addition, the sound effect analysis unit 25 and the sound effect conversion unit 32, and the image analysis unit 26 and the image conversion unit 33, when a word / phrase not related to the theme is detected, the sound effect corresponding to the word / phrase not related to the theme And since an image is not output, it can reduce giving a user a sense of incongruity. Therefore, the user can enjoy appropriate sound effects, images, and the like in addition to the sound in which the text data is reproduced.

<実施形態2>
次に、本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<Embodiment 2>
Next, another embodiment of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.

〔電子機器〕
本実施形態に係る電子機器1が備える属性情報読取部10は、さらに、文章データが、電子メールであるか否かを判定する機能を備えている。
〔Electronics〕
The attribute information reading unit 10 included in the electronic device 1 according to the present embodiment further has a function of determining whether or not the text data is an e-mail.

属性情報読取部10は、文章データが電子メールである場合、文章データの属性情報として、電子メールの送信元のアドレスを取得し、取得した属性情報に応じて電子メールを再生する音声を決定する。属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。   When the text data is an e-mail, the attribute information reading unit 10 acquires the address of the e-mail transmission source as the text data attribute information, and determines a sound for reproducing the e-mail according to the acquired attribute information. . The attribute information reading unit 10 stores the attribute information of the acquired text data in the attribute information database 418 included in the database storage unit 41 included in the storage unit 40.

属性情報読取部10は、後述するアドレス帳データベースから、電子メールのアドレスに関連付けられている送信元相手の音声データを取得し、取得した音声データを、電子メールの再生に用いられる音声として決定する。   The attribute information reading unit 10 acquires voice data of a transmission source partner associated with an e-mail address from an address book database, which will be described later, and determines the acquired voice data as voice used for reproducing the e-mail. .

また、属性情報読取部10は、アドレス帳データベースにおいて、電子メールのアドレスに送信元の相手の音声データが関連づけられていない場合、アドレス帳データベースにおいて、電子メールのアドレスに関連付けられている送信元相手の名前、年齢、及び、性別などを参照し、図5に示す音声データベースから、電子メールの再生に用いられる音声として決定する。   Further, the attribute information reading unit 10, in the address book database, when the voice data of the transmission partner is not associated with the e-mail address, the transmission source partner associated with the e-mail address in the address book database. The name, age, gender, and the like are referred to, and the voice used for reproduction of the e-mail is determined from the voice database shown in FIG.

なお、属性情報読取部10は、アドレス帳データベースにおいて、電子メールのアドレスと、送信元相手の音声データ、年齢、及び、性別の何れも関連づけられていない場合、電子メールの再生に用いられる音声をデフォルトの音声とすることを決定してもよい。   In the address book database, the attribute information reading unit 10 selects the voice used for reproducing the e-mail when the e-mail address is not associated with the voice data, age, and gender of the sender. It may be decided to use the default voice.

〔データベース〕
本実施形態に係る電子機器1において、記憶部40が有するデータベース記憶部41は、アドレス帳データベースを含んでいる。アドレス帳データベースについて、図14を参照して説明する。図14は、本実施形態に係るデータベース記憶部41に格納されている、アドレス帳データベースの一例を示す図である。
[Database]
In the electronic device 1 according to the present embodiment, the database storage unit 41 included in the storage unit 40 includes an address book database. The address book database will be described with reference to FIG. FIG. 14 is a diagram illustrating an example of an address book database stored in the database storage unit 41 according to the present embodiment.

(アドレス帳データベース)
アドレス帳データベースは、文章データが電子メールである場合に参照されるデータベースである。
(Address book database)
The address book database is a database that is referred to when the text data is an e-mail.

図14に示すように、アドレス帳データベースには、電子メールの送信元相手の名前、アドレス、年齢、性別、音声データ、及び、送信元相手を示すデータ、がそれぞれ関連づけられている。   As shown in FIG. 14, the address book database is associated with the name, address, age, gender, voice data, and data indicating the sender partner of the email sender.

例えば、アドレス帳データベースでは、送信元相手の名前「上田慎也」に対して、送信元相手を示すデータ「0001」、アドレス「disec@tokkyo.com」、年齢「32」、性別「男性」、及び、音声データ「O0001」がそれぞれ関連付けられている。   For example, in the address book database, for the name “Shinya Ueda” of the sender, the data “0001” indicating the sender, address “disec@tokkyo.com”, age “32”, gender “male”, and , Audio data “O0001” are associated with each other.

アドレス帳データベースに格納されている音声データは、例えば、送信元相手の音声であって、例えば、送信相手の音声を、五十音、数字、アルファベットなど、個別に録音して格納された音声データであってもよい。   The voice data stored in the address book database is, for example, the voice of the other party of the transmission source, for example, the voice data stored by individually recording the voice of the other party of transmission, such as a Japanese syllabary, numbers, alphabets, etc. It may be.

〔音声再生処理〕
次に、文章データが電子メールである場合の、音声再生処理について、図15を参照して説明する。図15は、本実施形態に係る電子機器1における、電子メールの音声再生処理の流れを示すフローチャートである。
[Audio playback processing]
Next, an audio reproduction process when the text data is an e-mail will be described with reference to FIG. FIG. 15 is a flowchart showing the flow of the voice reproduction process of the electronic mail in the electronic apparatus 1 according to the present embodiment.

属性情報読取部10は、文章データが入力されると、まず、文章データが電子メールであるか否かを判定し、文章データが電子メールである場合に、図15に示す、電子メールの音声決定処理を実行する。   When the text data is input, the attribute information reading unit 10 first determines whether or not the text data is an e-mail, and when the text data is an e-mail, the e-mail voice shown in FIG. Execute the decision process.

(電子メールの音声決定処理)
属性情報読取部10は、文章データが電子メールである場合、まず、電子メールからアドレスを属性情報として取得する。
(E-mail voice decision processing)
When the text data is an electronic mail, the attribute information reading unit 10 first acquires an address from the electronic mail as attribute information.

属性情報読取部10は、図15に示すように、電子メールからアドレスを取得すると、アドレス帳データベースに、取得したアドレスが登録されているか否かを判定する(ステップS501)。   As shown in FIG. 15, when the attribute information reading unit 10 acquires an address from an e-mail, the attribute information reading unit 10 determines whether or not the acquired address is registered in the address book database (step S501).

アドレス帳データベースに、取得したアドレスが登録されていないと判定した場合(ステップS501においてNO)、属性情報読取部10は、電子メールの再生に用いられる音声を、デフォルトの音声として決定する(ステップS502)。   If it is determined that the acquired address is not registered in the address book database (NO in step S501), the attribute information reading unit 10 determines the voice used for reproducing the e-mail as the default voice (step S502). ).

アドレス帳データベースに、取得したアドレスが登録されていると判定した場合(ステップS501においてYES)、属性情報読取部10は、取得したアドレスに、音声データが関連付けられているか否かを判定する(ステップS503)。   If it is determined that the acquired address is registered in the address book database (YES in step S501), the attribute information reading unit 10 determines whether audio data is associated with the acquired address (step S501). S503).

アドレス帳データベースにおいて、取得したアドレスに音声データが関連付けられていると判定した場合(ステップS503においてYES)、属性情報読取部10は、アドレスに関連付けられている音声データを、電子メールの再生に用いられる音声として決定する(ステップS504)。   If it is determined in the address book database that the voice data is associated with the acquired address (YES in step S503), the attribute information reading unit 10 uses the voice data associated with the address for reproducing the e-mail. Is determined as a voice to be played (step S504).

アドレス帳データベースに、取得したアドレスに音声データが関連付けられていないと判定した場合(ステップS503においてNO)、属性情報読取部10は、アドレスに関連付けられている送信元相手の年齢及び性別を参照し、図5に示す音声データベースにおいて、送信元相手の年齢及び性別が示す音声の種類と対応付けられている音声データを、電子メールの再生に用いられる音声として決定し(ステップS505)、電子メールの音声決定処理を終了する。   If it is determined that the voice data is not associated with the acquired address in the address book database (NO in step S503), the attribute information reading unit 10 refers to the age and sex of the transmission source partner associated with the address. In the voice database shown in FIG. 5, the voice data associated with the voice type indicated by the age and sex of the transmission source partner is determined as the voice used for reproducing the e-mail (step S505). The voice determination process ends.

また、電子メールの音声決定処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する。   When the voice determination processing for the e-mail is completed, the conversion unit 30 causes the voice conversion unit 31, the sound effect conversion unit 32, and the image conversion unit 33 to output the voice, sound effect, music, and image of the text data. In addition, the voice output unit 51 and the display unit 52 are driven to execute voice reproduction of sentence data, reproduction of sound effects and music, and display of images.

したがって、電子機器1は、上記文章データが電子メールである場合にも、アドレスデータ、すなわち、電子メールの送信元相手に応じた適切な音声で電子メールを音声再生することができる。これによって、ユーザは、電子メールを、当該電子メールの送信元相手に応じた適切な音声で楽しむことができる。   Therefore, even when the text data is an electronic mail, the electronic device 1 can reproduce the electronic mail by voice with an appropriate voice according to the address data, that is, the sender of the electronic mail. Thus, the user can enjoy the electronic mail with an appropriate voice corresponding to the other party of the electronic mail.

<実施形態3>
次に、本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<Embodiment 3>
Next, another embodiment of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.

〔データベース〕
まず、電子機器1が備える各部の説明に先立って、本実施形態に係る記憶部40が有するデータベース記憶部41に格納されているデータベースについて、以下に説明する。本実施形態に係る電子機器1において、記憶部40が有するデータベース記憶部41は、さらに、音声表現データベース、及び、略号データベースを含んでいる。
[Database]
First, prior to description of each unit included in the electronic device 1, a database stored in the database storage unit 41 included in the storage unit 40 according to the present embodiment will be described below. In the electronic device 1 according to the present embodiment, the database storage unit 41 included in the storage unit 40 further includes a phonetic expression database and an abbreviation database.

(音声表現データベース)
まず、電子機器1において再生する、文章データの再生に用いられる音声の表現を決定する際に参照される、音声表現データベースについて、図16を参照して説明する。図16は、データベース記憶部41に格納されている、音声表現データベースの一例を示す図である。
(Voice expression database)
First, an audio expression database that is referred to when determining an audio expression used for reproducing text data to be reproduced in the electronic apparatus 1 will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of a speech expression database stored in the database storage unit 41.

図16に示すように、音声表現データベースには、文章データにおける台詞の表現(すなわち、音声表現)を示す語句、音声を再生する際のパラメータ(図16においては、速度、音量、及び、Wait)、及び、表現データが関連付けられている。なお、Waitとは、直前の台詞や文章の音声再生が終了した時点から、次の台詞の音声が再生されるまでの時間である。   As shown in FIG. 16, the speech expression database includes words and phrases indicating speech expression (ie, speech expression) in sentence data, and parameters for reproducing sound (speed, volume, and wait in FIG. 16). And expression data are associated with each other. Note that “Wait” is the time from when the previous speech or sentence is reproduced, until the next dialogue is reproduced.

例えば、表現データ「K0001」と関連付けられている、音声表現を示す語句「ゆっくりと」に対して、パラメータとして速度「−3」、音量「0」、及び、Wait「0」が関連付けられている。また、表現データ「K0002」と関連付けられている、音声表現を示す語句「大きな声で」に対して、パラメータとして速度「0」、音量「+3」、及び、Wait「0」が関連付けられている。また、表現データ「K9998」と関連付けられている、音声表現を示す語句「蚊の鳴くような声」に対して、パラメータとして速度「0」、音量「−10」、及び、Wait「5秒」が関連付けられている。   For example, the speed “−3”, the volume “0”, and the wait “0” are associated as parameters with respect to the phrase “slowly” indicating the voice expression associated with the expression data “K0001”. . In addition, the speed “0”, the volume “+3”, and the wait “0” are associated as parameters with respect to the phrase “loud voice” indicating the speech expression, which is associated with the expression data “K0002”. . For the phrase “mosquito-speaking voice” indicating the voice expression associated with the expression data “K9998”, the speed “0”, volume “−10”, and Wait “5 seconds” are used as parameters. Is associated.

例えば、音声表現を示す語句「蚊の鳴くような声」を表現するように再生される台詞は、Waitが「5秒」であるので、当該台詞の直前の文章が再生された後、5秒後に再生される。また、「蚊の鳴くような声」を表現するように再生される台詞は、速度が「0」であるので、デフォルトの音声の再生速度と同じ速度で再生され、音量が「−10」であるので、デフォルトの音声の再生音量が「15」である場合、10だけ小さな音量「5」の音量で再生される。   For example, a line that is reproduced so as to express the phrase “voice like mosquito” that expresses the voice expression is “5 seconds”, so that 5 seconds after the sentence immediately before the line is reproduced. It will be played later. In addition, since the speech that is reproduced to express “voice that sounds like a mosquito” has a speed of “0”, it is played back at the same speed as the playback speed of the default voice, and the volume is “−10”. Therefore, when the playback volume of the default sound is “15”, playback is performed at a volume “5” that is smaller by 10.

また、後述する技術記号「***」には、パラメータとして速度「0」、音量「0」、及び、Wait「10秒」が関連付けられている。   In addition, a speed “0”, a volume “0”, and a wait “10 seconds” are associated as parameters with a technical symbol “***” described later.

(略号データベース)
次に、電子機器1において、文章データを技術記号又は略号に従って再生する場合に参照される、略号データベースについて、図17を参照して説明する。図17は、データベース記憶部41に格納されている、略号データベースの一例を示す図である。
(Abbreviation database)
Next, an abbreviation database that is referred to when text data is reproduced according to technical symbols or abbreviations in the electronic apparatus 1 will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of the abbreviation database stored in the database storage unit 41.

図17に示すように、略号データベースには、劇文学などにおいて使用される略号(又は技術記号)と、略号データと、音声、効果音及び音楽を再生する際に参照すべき参照先のデータベースとが関連付けられている。   As shown in FIG. 17, the abbreviation database includes abbreviations (or technical symbols) used in drama literature, abbreviation data, a database of reference destinations to be referred to when reproducing voice, sound effects, and music. Is associated.

例えば、後に続く文章が「ナレーション」であることを示す略号「N」には、データ「r001」、及び、略号「N」に続く文章データの再生に用いる音声を決定するために参照されるデータベース「音声データベース」がそれぞれ関連付けられている。   For example, the abbreviation “N” indicating that the sentence that follows is “narration” includes data “r001” and a database that is referred to in order to determine the voice used to reproduce the sentence data that follows the abbreviation “N”. Each “voice database” is associated.

また、後に続く文章と同時に音楽を流すことを指示する略号「BGM」には、データ「r003」、及び、再生する音楽を決定するために参照されるデータベース「音楽データベース」がそれぞれ関連付けられている。   Further, the data “r003” and the database “music database” referred to for determining the music to be played back are associated with the abbreviation “BGM” instructing to play music simultaneously with the following text. .

なお、図17に示す略号「M」は、後に続く文章が「モノローグ」であることを示し、略号「SE」は後に続く文章と同時に効果音を流すことを指示している。   Note that the abbreviation “M” shown in FIG. 17 indicates that the following sentence is “monologue”, and the abbreviation “SE” indicates that a sound effect is to be played simultaneously with the following sentence.

また、図17に示す技術記号「***」は、前後の文章が示す場面の間に、時間経過があることを示している。技術記号「***」は、例えば、ある文章が示す場面が、当該ある文章の直前の文章が示す場面の1時間後などである場合に用いられる。なお、前後の文章が示す場面の間に大きな時間経過があるには、技術記号「***」が2行並べられることもある。   Also, the technical symbol “***” shown in FIG. 17 indicates that there is a lapse of time between the scenes indicated by the preceding and following sentences. The technical symbol “***” is used, for example, when the scene indicated by a certain sentence is one hour after the scene indicated by the sentence immediately before the certain sentence. In addition, when there is a large time lapse between the scenes indicated by the preceding and following sentences, the technical symbol “***” may be arranged in two lines.

図17に示す略号データベースにおいて、技術記号「***」には、データ「r999」、及び、技術記号「***」に続く文章データを再生するために参照されるデータベース「音声表現データベース」が関連づけられている。図16を参照して上述したように、技術記号「***」に続く文章データを再生するために参照される音声表現データベースには、Wait「10秒」が関連付けられている。すなわち、技術記号「***」の直前の文章データが再生された後、10秒後に、技術記号「***」の直後の文章データが再生されることになる。   In the abbreviation database shown in FIG. 17, the technical symbol “***” includes data “r999” and a database “speech expression database” referred to for reproducing text data following the technical symbol “***”. Are associated. As described above with reference to FIG. 16, Wait “10 seconds” is associated with the speech expression database referred to for reproducing the text data following the technical symbol “***”. That is, the sentence data immediately after the technical symbol “***” is reproduced 10 seconds after the text data immediately before the technical symbol “***” is reproduced.

〔電子機器〕
本実施形態に係る電子機器1が備える属性情報読取部10は、さらに、文章データが、劇文学であるか否かを判定する機能を備えている。例えば、属性情報読取部10は、文章データのジャンルが劇文学である場合に、文章データを劇文学と判定すればよい。なお、劇文学とは、例えば、戯曲、及び、脚本などである。
〔Electronics〕
The attribute information reading unit 10 included in the electronic apparatus 1 according to the present embodiment further has a function of determining whether or not the text data is dramatic literature. For example, the attribute information reading unit 10 may determine that the text data is dramatic literature when the genre of the text data is dramatic literature. In addition, drama literature is a drama, a script, etc., for example.

属性情報読取部10は、文章データが劇文学である場合、文章データの属性情報として劇文学の著者を取得し、取得した属性情報に応じて劇文学を再生する音声を決定する。属性情報読取部10は、取得した文章データの属性情報を、記憶部40が有するデータベース記憶部41に含まれる属性情報データベース418に格納する。   When the text data is dramatic literature, the attribute information reading unit 10 acquires the author of the dramatic literature as the attribute information of the text data, and determines the sound for reproducing the dramatic literature according to the acquired attribute information. The attribute information reading unit 10 stores the attribute information of the acquired text data in the attribute information database 418 included in the database storage unit 41 included in the storage unit 40.

属性情報読取部10は、まず、ジャンルデータベース411から、文章データのジャンル「劇文学」に関連付けられている年齢層を取得する。次に、属性情報読取部10は、人名・性別データベース412から、取得した文章データの著者の名前に関連付けられている性別を取得する。   The attribute information reading unit 10 first acquires the age group associated with the genre “dramatic literature” of the text data from the genre database 411. Next, the attribute information reading unit 10 acquires the gender associated with the name of the author of the acquired sentence data from the personal name / gender database 412.

属性情報読取部10は、音声データベース413から、取得した年齢層、及び、性別を示す音声の種類に関連付けられている音声データを、劇文学を再生する音声として用いられる音声として決定する。   The attribute information reading unit 10 determines the audio data associated with the acquired age group and the audio type indicating the sex from the audio database 413 as the audio to be used as audio for reproducing drama.

文章解析部21は、文章データに含まれる「柱書き」及び「ト書き」を検出する。文章解析部21は、柱書き又はト書きの何れかを検出すると、文章データに柱書き又はト書きが含まれている旨を画像解析部26に通知する。また、文章解析部21は、文章データに含まれる柱書き及びト書きがナレーションとして再生されるよう、音声データベース413などを参照して、再生に用いられる音声を決定する。   The sentence analysis unit 21 detects “post writing” and “part writing” included in the sentence data. When the sentence analysis unit 21 detects either column writing or writing, it notifies the image analysis unit 26 that the sentence data includes column writing or writing. Further, the sentence analysis unit 21 refers to the voice database 413 and the like so as to reproduce the column writing and the writing included in the sentence data as narration.

ここで、柱書きとは、劇文学においては、シーンの最初に書かれ、その場所と時間を示している文章のことを指すのが一般的である。なお、柱書きの前には、1行の空白があり、柱書きの始まりには「○」が付されている。   Here, the pillar writing generally refers to a sentence written at the beginning of a scene and indicating the place and time in drama literature. Note that there is one line of blank before the column writing, and “○” is added at the beginning of the column writing.

また、ト書きとは、劇文学においては、登場人物の動作、照明、及び、効果音などの演出について、大まかな指示を記述する文章のことを指すのが一般的である。   In the drama literature, the general writing generally refers to a sentence describing rough instructions regarding the actions of the characters, lighting, and effects such as sound effects.

また、文章解析部21は、文章データに含まれる台詞に対し、登場人物データ格納部に格納されている、ある登場人物の台詞を文章データの始めから順に特定するための連番のフラグを設定する。   In addition, the sentence analysis unit 21 sets a serial number flag for identifying a line of a certain character in order from the beginning of the sentence data stored in the character data storage unit for the lines included in the sentence data. To do.

また、文章解析部21は、文章データから、音声表現データベースに格納されている音声表現を示す語句と一致する語句を検出し、音声解析部24に供給する。   In addition, the sentence analysis unit 21 detects a phrase that matches the phrase indicating the speech expression stored in the speech expression database from the sentence data, and supplies the detected phrase to the speech analysis unit 24.

また、文章解析部21は、文章データから、略号データベースに格納されている技術記号又は略号と一致する語句を検出し、音声解析部24、効果音解析部25、及び、画像解析部26に通知する。   In addition, the sentence analysis unit 21 detects a phrase that matches a technical symbol or abbreviation stored in the abbreviation database from the sentence data, and notifies the speech analysis unit 24, the sound effect analysis unit 25, and the image analysis unit 26. To do.

登場人物解析部22は、劇文学である文章データに含まれる登場人物表から登場人物の姓、名、愛称、年齢、及び、性別などを読出し、登場人物データ格納部に格納する。登場人物解析部22は、登場人物データ格納領域に格納されている各登場人物に対し、図4(b)に示すように、登場人物を特定するためのフラグ(例えば、「F0001」、「F0002」など)を設定し、ある登場人物の台詞を文章データの始めから順に特定するために、フラグに連番を設定する(例えば、「F0001-1」、「F0001-2」、…、「F0001-n」(nは1以上の整数))を設定する(ステップS605)。   The character analysis unit 22 reads the surname, first name, nickname, age, gender, and the like of the character from the character table included in the text data that is dramatic literature, and stores it in the character data storage unit. As shown in FIG. 4B, the character analysis unit 22 sets flags (eg, “F0001”, “F0002”) for each character stored in the character data storage area, as shown in FIG. ”And the like, and a serial number is set in the flag (for example,“ F0001-1 ”,“ F0001-2 ”,... -n "(n is an integer greater than or equal to 1)) is set (step S605).

また、登場人物解析部22は、登場人物表に含まれていない登場人物については、文章データから検出した際に、適宜登録人物データ格納領域に格納する。   The character analysis unit 22 stores characters that are not included in the character table in the registered character data storage area as appropriate when detected from the text data.

音声解析部24は、音声表現データベースを参照し、文章データの再生の速度、音量及び、Waitを決定する。   The voice analysis unit 24 refers to the voice expression database and determines the reproduction speed, volume, and wait of the text data.

例えば、音声解析部24は、m番目の文に音声表現を示す「ゆっくりと」という語句が含まれている場合には、音声表現データベースにおいて「ゆっくりと」に関連付けられている速度のパラメータ「−3」を読出し、「ゆっくりと」と対応する台詞の再生速度を、デフォルトの再生速度よりもゆっくりと再生するよう決定する。   For example, when the phrase “slowly” indicating the speech expression is included in the m-th sentence, the speech analysis unit 24 sets the speed parameter “−” associated with “slowly” in the speech expression database. 3 ”is read, and the playback speed of the dialogue corresponding to“ slowly ”is determined to be played back more slowly than the default playback speed.

画像解析部26は、文章解析部21から、柱書き又はト書きの何れかを検出した旨の通知を取得すると、柱書き又はト書きの再生に併せて、再生される柱書き又はト書きが表示部52に表示されるよう動作する。具体的には、画像解析部26は、機能制御部54に、表示部52に電源が供給されているか(ON状態であるか)を判定させ、供給されていない状態(電源OFF状態)である場合には、柱書き又はト書きが表示部52に表示される時間だけ表示部52に電源が供給されるよう、機能制御部54に通知する。   When the image analysis unit 26 obtains notification from the text analysis unit 21 that either column writing or writing has been detected, the reproduced column writing or writing is displayed along with the reproduction of the column writing or writing. To be displayed. Specifically, the image analysis unit 26 causes the function control unit 54 to determine whether power is supplied to the display unit 52 (whether it is in an ON state), and is in a state where the power is not supplied (in a power OFF state). In such a case, the function control unit 54 is notified so that power is supplied to the display unit 52 for the time during which the column writing or writing is displayed on the display unit 52.

機能制御部54は、画像解析部26から供給される通知に基づき、表示部52のON状態とOFF状態とを切り替える。   The function control unit 54 switches between the ON state and the OFF state of the display unit 52 based on the notification supplied from the image analysis unit 26.

〔音声再生処理〕
次に、文章データが劇文学である場合の音声再生処理について、図18を参照して説明する。図18は、本実施形態に係る電子機器1における、劇文学の音声再生処理の流れを示すフローチャートである。
[Audio playback processing]
Next, an audio reproduction process when the text data is dramatic literature will be described with reference to FIG. FIG. 18 is a flowchart showing the flow of drama literature audio reproduction processing in the electronic apparatus 1 according to the present embodiment.

属性情報読取部10は、文章データが入力されると、まず、文章データの属性情報を読み取る。電子機器1は、属性情報読取部10において読み取った属性情報に含まれる文章データのジャンルが劇文学である場合、図18に示す劇文学の音声決定処理を実行する。   When the text data is input, the attribute information reading unit 10 first reads the attribute information of the text data. When the genre of the text data included in the attribute information read by the attribute information reading unit 10 is dramatic literature, the electronic device 1 executes the dramatic literature audio determination process shown in FIG.

(劇文学の音声決定処理)
解析部20は、文章データが供給されると、文章解析部21において、文章データを構成する一文毎に登場人物表であるか否かを判定する(ステップS601)。ここでは、文章データを構成する、m番目(mは1以上の整数)の文についての処理を例に挙げて説明する。
(Dramatic literature voice decision processing)
When the sentence data is supplied, the analysis unit 20 determines in the sentence analysis unit 21 whether or not each sentence constituting the sentence data is a character table (step S601). Here, an explanation will be given by taking as an example the processing for the m-th sentence (m is an integer equal to or greater than 1) constituting the sentence data.

文章解析部21においてm番目の文が登場人物表であると判定された場合(ステップS601においてYES)、登場人物解析部22は、登場人物表を読み出し、登場人物表に含まれている、登場人物の姓、名、愛称、年齢、及び、性別などをそれぞれ関連付けて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する(ステップS602)。   If the sentence analysis unit 21 determines that the m-th sentence is the character table (YES in step S601), the character analysis unit 22 reads the character table and includes the character table included in the character table. The surname, first name, nickname, age, gender, and the like of the person are associated with each other and stored in a character data storage area included in the person name / gender database 412 (step S602).

登場人物データ格納領域に登場人物の姓、名、愛称、年齢、及び、性別などを格納すると、登場人物解析部22は、音声データベースから、登場人物データ格納領域に格納されている各登場人物の年齢及び性別を示す音声の種類に関連付けられている音声データを参照することにより、各登場人物の音声を選択する(ステップS603)。   When the surname, first name, nickname, age, gender, and the like of the character are stored in the character data storage area, the character analysis unit 22 stores, from the voice database, each character stored in the character data storage area. The voice of each character is selected by referring to the voice data associated with the voice type indicating age and gender (step S603).

また、登場人物解析部22は、音声データベースから選択したそれぞれの音声を、各登場人物の音声として決定する(ステップS604)。   In addition, the character analysis unit 22 determines each sound selected from the sound database as the sound of each character (step S604).

登場人物解析部22は、登場人物データ格納領域に格納されている各登場人物に対し、登場人物を特定するためのフラグを設定し、さらに、フラグに連番を設定する(ステップS605)。   The character analysis unit 22 sets a flag for specifying a character for each character stored in the character data storage area, and further sets a serial number in the flag (step S605).

登場人物解析部22は、設定した連番のフラグを、登場人物データ格納領域に格納する(ステップS606)。   The character analysis unit 22 stores the set serial number flag in the character data storage area (step S606).

文章解析部21においてある一文が登場人物表でないと判定された場合(ステップS601においてYES)、文章解析部21は、m番目の文が柱書き又はト書であるか否かを判定する(ステップS607)。   If the sentence analysis unit 21 determines that one sentence is not the character table (YES in step S601), the sentence analysis unit 21 determines whether the m-th sentence is a column writing or a top-notation (step). S607).

m番目の文が柱書き又はト書きであると判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文がナレーションとして再生されるよう、図11に示す、属性情報読取部10において実行する再生音声決定処理と同様の処理を実行する(ステップS608)。   When it is determined that the m-th sentence is a postscript or a top-notation (YES in step S607), the sentence analysis unit 21 causes the attribute information reading unit 10 illustrated in FIG. 11 to reproduce the m-th sentence as a narration. The same processing as the playback sound determination processing executed in step S608 is executed (step S608).

また、m番目の文が柱書き又はト書きであると判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文が柱書き又はト書きである旨を画像解析部26に通知する。画像解析部26は、表示部52がON状態であるか否かを判定するよう、機能制御部54に通知する。機能制御部54は、画像解析部26から取得した通知に基づき、表示部52がON状態であるか否かを判定する(ステップS609)。   If it is determined that the m-th sentence is column writing or writing (YES in step S607), the sentence analysis unit 21 notifies the image analysis unit 26 that the m-th sentence is column writing or writing. . The image analysis unit 26 notifies the function control unit 54 to determine whether or not the display unit 52 is in the ON state. Based on the notification acquired from the image analysis unit 26, the function control unit 54 determines whether or not the display unit 52 is in an ON state (step S609).

機能制御部54において表示部52がOFF状態であると判定された場合(ステップS609においてNO)、画像解析部26は、柱書き又はト書きであるm番目の文及び画像を表示する間のみ表示部52をON状態にする旨の信号を、機能制御部54に通知する。機能制御部54は、画像解析部26から供給された通知に基づき、柱書き又はト書であるm番目の文及び画像を表示する間のみ表示部52をON状態にする(ステップS610)。   When the function control unit 54 determines that the display unit 52 is in the OFF state (NO in step S609), the image analysis unit 26 displays the display unit only while displaying the m-th sentence and image that are column writing or overwriting. The function control unit 54 is notified of a signal to turn 52 on. Based on the notification supplied from the image analysis unit 26, the function control unit 54 turns on the display unit 52 only while displaying the m-th sentence and the image that are the pillar writing or the top writing (step S610).

機能制御部54において表示部52がON状態であると判定された場合(ステップS609においてYES)、テーマ解析部23において、図12に示すテーマ決定処理を実行する(ステップS611)。   When the function control unit 54 determines that the display unit 52 is in the ON state (YES in step S609), the theme analysis unit 23 executes the theme determination process shown in FIG. 12 (step S611).

また、m番目の文が柱書き又はト書きでないと判定した場合(ステップS607においてYES)、文章解析部21は、m番目の文が台詞であるか否かを判定する(ステップS612)。   If it is determined that the m-th sentence is not a column writing or a top-notation (YES in step S607), the sentence analysis unit 21 determines whether the m-th sentence is a dialogue (step S612).

m番目の文が台詞であると判定した場合(ステップS612においてYES)、文章解析部21は、m番目の文の台詞に、(m−1)番目までの文章に設定されている同一の登場人物の台詞と同一のフラグを設定する(ステップS613)。   When it is determined that the mth sentence is a dialogue (YES in step S612), the sentence analysis unit 21 uses the same appearance set in the sentences up to the (m-1) th sentence in the dialogue of the mth sentence. The same flag as the person's dialogue is set (step S613).

また、文章解析部21は、同一登場人物の台詞に設定された同一のフラグに、さらに連番を設定し(ステップS614)、フラグを設定したm番目の文を、登場人物解析部22及び音声解析部24に供給する。   In addition, the sentence analysis unit 21 further sets a serial number to the same flag set in the dialogue of the same character (step S614), and the mth sentence with the flag set as the character analysis unit 22 and the voice. It supplies to the analysis part 24.

登場人物解析部22は、文章解析部21から供給されるm番目の文に設定されているフラグを、登場人物の姓、名、愛称、年齢、及び、性別とそれぞれ関連付けて登場人物データ格納領域に格納する(ステップS615)。   The character analysis unit 22 associates the flag set in the m-th sentence supplied from the text analysis unit 21 with the last name, first name, nickname, age, and gender of the character, and stores the character data storage area (Step S615).

m番目の文が台詞でないと判定した場合(ステップS612においてNO)、文章解析部21は、m番目の文に、音声表現データベースに格納されている、音声表現を示す語句と一致する語句があるか否かを判定する(ステップS616)。   When it is determined that the mth sentence is not a dialogue (NO in step S612), the sentence analysis unit 21 has a phrase that matches the phrase indicating the speech expression stored in the speech expression database in the mth sentence. It is determined whether or not (step S616).

文章解析部21において、音声表現データベースに格納されている音声表現を示す語句と一致する語句があると判定された場合(ステップS616においてYES)、音声解析部24は、音声表現データベースに格納されている音声表現を示す語句と一致する語句と、m番目の文と近い文章に含まれる、何れの登場人物の何れの台詞とが対応しているかを判定し、語句と、語句と対応している台詞とを関連づける(ステップS617)。   If the sentence analysis unit 21 determines that there is a phrase that matches the phrase indicating the speech expression stored in the speech expression database (YES in step S616), the speech analysis unit 24 stores the phrase in the speech expression database. A phrase that matches a phrase that indicates a voice expression and a dialogue of which character included in a sentence close to the m-th sentence correspond to each other, and the phrase corresponds to the phrase The dialogue is associated (step S617).

音声表現データベースに格納されている、音声表現を示す語句と一致する語句がないと判定した場合(ステップS616においてNO)、文章解析部21は、m番目の文に技術記号又は略号が含まれているか否かを判定する(ステップS618)。   When it is determined that there is no phrase that matches the phrase indicating the speech expression stored in the speech expression database (NO in step S616), the sentence analysis unit 21 includes a technical symbol or abbreviation in the mth sentence. It is determined whether or not there is (step S618).

m番目の文が登場人物表であり、登場人物表を登場人物データ格納領域に格納された場合(ステップS606)、m番目の文が柱書き又はト書きであり、表示部52をON状態にした場合(ステップS610)、テーマ決定処理が行われた場合(ステップS611)、及び、m番目の文が音声表現を示す語句を含み、語句と対応する台詞とが関連づけられた場合(ステップS617)、m番目の文は、音声解析部24、効果音解析部25、及び、画像解析部26に供給される。   When the m-th sentence is the character table and the character table is stored in the character data storage area (step S606), the m-th sentence is the column writing or the top writing, and the display unit 52 is turned on. In the case (step S610), when the theme determination process is performed (step S611), and when the m-th sentence includes a phrase indicating the phonetic expression and the phrase and the corresponding line are associated (step S617), The mth sentence is supplied to the sound analysis unit 24, the sound effect analysis unit 25, and the image analysis unit 26.

また、m番目の文に技術記号又は略号が含まれている場合(ステップS618においてYES)には、文章解析部21は、技術記号又は略号に応じて、音声解析部24、効果音解析部25、及び、画像解析部26の何れかに対し、文章データを供給する。例えば、文章解析部21は、音声再生に関する技術記号又は略号(例えば、ナレーションを示す「N」、モノローグを示す「M」など)である場合には、音声解析部24に、m番目の文を供給する。   When the technical symbol or abbreviation is included in the m-th sentence (YES in step S618), the sentence analysis unit 21 performs the speech analysis unit 24 and the sound effect analysis unit 25 according to the technical symbol or the abbreviation. Text data is supplied to any one of the image analysis unit 26. For example, if the sentence analysis unit 21 is a technical symbol or abbreviation related to voice reproduction (for example, “N” indicating narration, “M” indicating monologue, etc.), the sentence analysis unit 21 sends the m th sentence to the voice analysis unit 24. Supply.

効果音解析部25は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて再生される効果音を決定する。また、効果音解析部25は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS619)。   When the m-th sentence is supplied, the sound effect analysis unit 25 refers to the database associated with the technical symbol or abbreviation included in the m-th sentence in the abbreviation database, and plays the sound from the referenced database. The sound effect to be played is also determined. When the m-th sentence is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 associates the phrase detected from the m-th sentence with the theme determined in the theme determination process in the theme database 414. If so, the sound effect data associated with the detected word / phrase in the sound effect database 415 is determined as a sound effect to be reproduced along with the reproduction of the sound (step S619).

また、効果音解析部25は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて再生される音楽を決定する。また、効果音解析部25は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、音声の再生に併せて再生される音楽として決定する(ステップS620)。   In addition, when the m-th sentence is supplied, the sound effect analysis unit 25 refers to the database associated with the technical symbol or abbreviation included in the m-th sentence in the abbreviation database, and from the referenced database, Determine the music to be played along with the playback. When the m-th sentence is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 associates the phrase detected from the m-th sentence with the theme determined in the theme determination process in the theme database 414. If so, the music data associated with the detected word / phrase in the music database 416 is determined as the music to be played along with the playback of the voice (step S620).

画像解析部26は、m番目の文が供給されると、略号データベースにおいて、m番目の文に含まれる技術記号又は略号と関連付けられているデータベースを参照し、参照したデータベースから音声の再生に併せて表示される画像を決定する。また、画像解析部26は、文章解析部21からm番目の文が供給されると、m番目の文から検出した語句が、テーマ決定処理において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて再生される画像として決定する(ステップS621)。   When the m-th sentence is supplied, the image analysis unit 26 refers to the database associated with the technical symbol or the abbreviation included in the m-th sentence in the abbreviation database, and also reproduces the sound from the referenced database. The image to be displayed. Further, when the m-th sentence is supplied from the sentence analysis unit 21, the image analysis unit 26 associates the phrase detected from the m-th sentence in the theme database 414 with the theme determined in the theme determination process. In this case, in the image database 417, the image data associated with the detected word / phrase is determined as an image to be reproduced along with the reproduction of sound (step S621).

また、音声解析部24は、音声表現データベースから、m番目の文に含まれる、音声表現を示す語句に関連付けられている表現のパラメータ(速度、音量、及び、Waitのパラメータ)を、音声表現を示す語句に対応する台詞が再生される際に参照されるパラメータとして決定する。また、音声解析部24は、文章解析部21からm番目の文が供給されると、m番目の文が台詞である場合には、台詞に設定されているフラグと登場人物データ格納領域とを参照して、何れの登場人物の台詞であるかを特定し、台詞が再生される音声を決定する(ステップS622)。   In addition, the speech analysis unit 24 converts the expression parameters (speed, volume, and Wait parameters) associated with the phrase indicating the speech expression included in the m-th sentence from the speech expression database into the speech expression. It is determined as a parameter to be referred to when the dialogue corresponding to the phrase to be shown is reproduced. Further, when the m-th sentence is supplied from the sentence analysis unit 21, the speech analysis unit 24 displays the flag set in the dialogue and the character data storage area when the m-th sentence is a dialogue. Referring to which character's dialogue is specified, the voice in which the dialogue is reproduced is determined (step S622).

解析部20は、音声解析部24において決定された再生の速度、音量、及び、Waitのパラメータ、及び、文章解析部21においてm番目の文に含まれる台詞に設定された連番のフラグを、変換部30に供給する(ステップS623)。   The analysis unit 20 uses the playback speed, volume, and wait parameters determined by the voice analysis unit 24, and the serial number flag set in the dialogue included in the mth sentence in the sentence analysis unit 21, It supplies to the conversion part 30 (step S623).

解析部20は、再生の速度、音量、及び、Waitのパラメータ、及び、m番目の文に含まれる台詞に設定された連番のフラグを変換部30に供給すると、文章データを構成する全ての文について上述した処理を行ったか否かを判定する(ステップS624)。   When the analysis unit 20 supplies the conversion unit 30 with the playback speed, volume, and Wait parameters, and the serial number flag set in the dialogue included in the m-th sentence, all of the sentence data are configured. It is determined whether the above-described processing has been performed on the sentence (step S624).

文章データを構成する全ての文について上述した処理を行っていない場合(ステップS624においてNO)、解析部20は、次の文(ここでは、m+1番目の文)に移り(ステップS625)、ステップS601からS624までの処理を繰り返す。   If the above-described processing has not been performed for all sentences constituting the sentence data (NO in step S624), the analysis unit 20 moves to the next sentence (here, m + 1th sentence) (step S625), and step S601. To S624 are repeated.

文章データを構成する全ての文についてステップS601からS624までの処理を行った場合(ステップS624においてYES)、解析部20は、劇文学の音声再生処理を終了する。   When the processes from steps S601 to S624 are performed for all sentences constituting the sentence data (YES in step S624), the analysis unit 20 ends the play reproduction process of the dramatic literature.

また、劇文学の音声再生処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する。   Further, when the play reproduction process of drama literature ends, the conversion unit 30 outputs the sound, sound effect, music, and image of the sentence data in the sound conversion unit 31, the sound effect conversion unit 32, and the image conversion unit 33. In addition, the voice output unit 51 and the display unit 52 are driven to execute voice reproduction of sentence data, reproduction of sound effects and music, and display of images.

なお、文章データが劇文学である場合、文章データの始め(例えば、表紙)には、劇文学のタイトル及び著者などが含まれていることが一般的であるが、タイトル及び著者なども、柱書き及びト書きなどのナレーションの再生と同様にして再生すればよい。   If the text data is dramatic literature, the beginning of the text data (for example, the cover) generally includes the title and author of the dramatic literature, but the title and author are also pillars. What is necessary is just to reproduce | regenerate similarly to reproduction | regeneration of narrations, such as writing and writing.

このように、文章データに含まれる台詞にフラグを設定することにより、音声解析部24における、台詞の再生に用いられる音声を決定するまでの処理を、より簡単にすることができる。   As described above, by setting the flag to the dialogue included in the sentence data, it is possible to further simplify the processing until the speech analysis unit 24 determines the speech used for the speech reproduction.

なお、本実施形態では、柱書き及びト書きなどのナレーションを、文章データの再生と併せて表示部52に表示する構成を例に挙げて説明したが、これに限定されるものではない。例えば、第2音声のように、ナレーションを他の文章データの再生と重ねて再生する構成を採用してもよいし、ナレーションを他の文章データの再生と重ねて再生すると共に、表示部52に表示する構成を採用してもよい。   In the present embodiment, a description has been given of a configuration in which narrations such as column writing and text writing are displayed on the display unit 52 together with the reproduction of text data. However, the present invention is not limited to this. For example, as in the case of the second voice, a configuration may be adopted in which narration is played back with playback of other text data, or narration is played back with playback of other text data, and the display unit 52 You may employ | adopt the structure to display.

上述の構成によれば、劇文学である文章データの柱書き又はト書き部分を、表示部52に表示させることができる。これによって、ユーザは、ト書きで表現された、上記登場人物の動作、及び、柱書きで表現された、シーンの場所及び時間などを、音声再生される文章データと併せて知ることができ、上記文章データの内容をより楽しむことができる。   According to the above-described configuration, the writing portion or writing portion of the sentence data that is the dramatic literature can be displayed on the display unit 52. As a result, the user can know the action of the above-mentioned characters expressed by writing and the location and time of the scene expressed by pillar writing, together with the text data to be reproduced, You can enjoy the contents of text data more.

また、表示部52がOFF状態である場合には、表示部52をON状態にした上で、柱書き又はト書き部分を表示させることで、ユーザは表示部52がOFF状態である場合であっても、柱書き又はト書きを見ることができる。   In addition, when the display unit 52 is in the OFF state, the user can display the column writing or overwriting part after the display unit 52 is turned on, so that the user is in the OFF state. You can also see column writing or writing.

また、登場人物の台詞を、当該登場人物の台詞の表現に関する語句によって表現された表現方法で、音声再生することによって、音声解析部24及び音声変換部31は、登場人物の台詞を、文章データの場面に沿った適切な表現で音声再生することができ、ユーザは、登場人物の台詞を、文章データの場面に沿った表現で楽しむことができる。   In addition, the speech analysis unit 24 and the speech conversion unit 31 can convert the speech of the character into the text data by reproducing the speech of the character in an expression method expressed by a phrase related to the expression of the speech of the character. Therefore, the user can enjoy the speech of the characters in the expression along the scene of the text data.

本発明は上述した実施形態および実施例に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上記実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments and examples, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in the above-described embodiments. Other embodiments are also included in the technical scope of the present invention.

<変形例>
次に、本発明の変形例について、以下に説明する。なお、説明の便宜上、実施形態1に係る構成要素と同様の機能を有する構成要素には同一の番号を付し、その説明を省略する。本実施形態では、主に、実施形態1との相違点について説明するものとする。
<Modification>
Next, modifications of the present invention will be described below. For convenience of explanation, constituent elements having the same functions as those of the constituent elements according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. In the present embodiment, differences from the first embodiment will be mainly described.

上述した実施形態では、文章データが電子メールである場合、文章データの属性が劇文学である場合、及び、劇文学以外である場合、それぞれ個別に処理を実行する場合について説明を行ったが、もちろん、一連の処理として実行してもよい。   In the above-described embodiment, when the sentence data is an e-mail, when the attribute of the sentence data is drama literature, and when it is other than drama literature, the case where the process is executed individually has been described. Of course, it may be executed as a series of processes.

本変形例に係る電子機器1における音声再生処理について、図19を主に参照して説明する。図19は、本変形例に係る電子機器1における音声再生処理の流れを示す図である。   The audio reproduction process in the electronic apparatus 1 according to this modification will be described with reference mainly to FIG. FIG. 19 is a diagram showing a flow of audio reproduction processing in the electronic apparatus 1 according to this modification.

図19に示すように、電子機器1は、文章データが入力されると、属性情報読取部10において、文章データが電子メールであるか否かを判定する(ステップS701)。   As shown in FIG. 19, when the text data is input, the electronic device 1 determines whether the text data is an e-mail in the attribute information reading unit 10 (step S701).

文章データが電子メールである場合(ステップS701においてYES)、電子機器1は、図15に示す電子メールの音声決定処理を実行する(ステップS702)。   If the text data is an electronic mail (YES in step S701), the electronic device 1 executes an electronic mail voice determination process shown in FIG. 15 (step S702).

文章データが電子メールでない場合(ステップS701においてNO)、属性情報読取部10は、文章データから、ジャンル及び著者を含む属性情報を読み取る(ステップS703)。   If the text data is not an electronic mail (NO in step S701), the attribute information reading unit 10 reads attribute information including the genre and the author from the text data (step S703).

属性情報読取部10は、属性情報よ読み取ると、属性情報に含まれるジャンルから、文章データが劇文学であるか否かを判定する(ステップS704)。   When the attribute information reading unit 10 reads the attribute information, the attribute information reading unit 10 determines whether or not the text data is dramatic literature from the genre included in the attribute information (step S704).

文章データが劇文学であると判定すると(ステップS704においてYES)、電子機器1は、図18に示す劇文学の音声決定処理を実行する(ステップS705)。   If it is determined that the text data is dramatic literature (YES in step S704), the electronic device 1 executes the dramatic literature audio determination process shown in FIG. 18 (step S705).

文章データが劇文学でないと判定すると(ステップS704においてNO)、属性情報読取部10は、ジャンルデータベース411及び人名・性別データベース412を参照して、図11に示す再生音声決定処理を行い、読み取った属性情報から再生に用いられる音声を決定する(ステップS706)。   If it is determined that the text data is not dramatic literature (NO in step S704), the attribute information reading unit 10 refers to the genre database 411 and the person name / gender database 412 and performs the reproduction voice determination process shown in FIG. The sound used for reproduction is determined from the attribute information (step S706).

また、属性情報読取部10は、読み取った属性情報を、データベース記憶部41に含まれる属性情報データベース418に格納し(ステップS707)、入力された文章データを文章解析部21に供給する。   The attribute information reading unit 10 stores the read attribute information in the attribute information database 418 included in the database storage unit 41 (step S707), and supplies the input text data to the text analysis unit 21.

文章解析部21は、属性情報読取部10から文章データが供給されると、供給された文章データを読み込む(ステップS708)。   When the text data is supplied from the attribute information reading unit 10, the text analysis unit 21 reads the supplied text data (step S708).

文章解析部21は、文章データを読み込むと、読み込んだ文章データを記憶部40に格納する(ステップS709)と共に、読み込んだ文章データを、登場人物解析部22、テーマ解析部23、音声解析部24、効果音解析部25、及び、画像解析部26に供給する。   When the sentence analysis unit 21 reads the sentence data, the sentence analysis unit 21 stores the read sentence data in the storage unit 40 (step S709), and the read sentence data is converted into the character analysis unit 22, the theme analysis unit 23, and the voice analysis unit 24. To the sound effect analysis unit 25 and the image analysis unit 26.

文章解析部21から文章データが供給されると、登場人物解析部22は、供給された文章データから、登場人物の姓、名、愛称、及び、登場人物の年齢及び性別を含む属性を検出し、それぞれを関連づけて、人名・性別データベース412に含まれる登場人物データ格納領域に格納する。   When the text data is supplied from the text analysis unit 21, the character analysis unit 22 detects the attributes including the surname, first name, nickname, and the age and sex of the character from the supplied text data. Are associated with each other and stored in a character data storage area included in the personal name / gender database 412.

音声解析部24は、文章解析部21から供給された文章データから、登場人物の姓、名、及び、愛称の何れかを検出し、音声データベース413において、登場人物データ格納領域おいて検出した登場人物の姓、名、及び、愛称の何れかと関連付けられている性別及び年齢を示す音声の種類と関連付けられている音声データを、登場人物の台詞に関する文章データを再生する音声に用いられる音声データとして決定する(ステップS710)。   The voice analysis unit 24 detects the surname, first name, and nickname of the character from the text data supplied from the text analysis unit 21, and the appearance detected in the character data storage area in the voice database 413. Voice data associated with the type of voice indicating gender and age associated with one of the person's last name, first name, and nickname is used as voice data used to reproduce text data related to the line of characters. Determine (step S710).

文章解析部21、及び、テーマ解析部23は、文章データを構成する章毎のテーマを決定する、図12に示すテーマ決定処理を実行する(ステップS711)。   The sentence analysis unit 21 and the theme analysis unit 23 execute a theme determination process shown in FIG. 12 for determining a theme for each chapter constituting the sentence data (step S711).

効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、効果音データベース415において、検出した語句と関連付けられている効果音データを、音声の再生に併せて再生される効果音として決定する(ステップS712)。   When the sentence data is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 associates the phrase detected from each chapter constituting the sentence with the theme determined by the theme analysis unit 23 in the theme database 414. In this case, in the sound effect database 415, the sound effect data associated with the detected word / phrase is determined as the sound effect to be played in conjunction with the sound playback (step S712).

また、効果音解析部25は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、音楽データベース416において、検出した語句と関連付けられている音楽データを、音声の再生に併せて再生される音楽として決定する(ステップS713)。   In addition, when the sentence data is supplied from the sentence analysis unit 21, the sound effect analysis unit 25 associates the phrase detected from each chapter constituting the sentence with the theme determined by the theme analysis unit 23 in the theme database 414. If so, the music data associated with the detected word / phrase in the music database 416 is determined as the music to be played along with the playback of the voice (step S713).

画像解析部26は、文章解析部21から文章データが供給されると、文章を構成する各章から検出した語句が、テーマ解析部23において決定されたテーマとテーマデータベース414において関連付けられている場合に、画像データベース417において、検出した語句と関連付けられている画像データを、音声の再生に併せて表示される画像として決定する(ステップS714)。   When text data is supplied from the text analysis unit 21, the image analysis unit 26 associates words and phrases detected from each chapter constituting the text with the theme determined by the theme analysis unit 23 in the theme database 414. In addition, in the image database 417, the image data associated with the detected word / phrase is determined as an image to be displayed along with the sound reproduction (step S714).

解析部20は、効果音解析部25、及び、画像解析部26において、音声の再生に併せて出力される効果音、音楽、及び、画像を決定すると、文章データと共に、音声データ、効果音データ、音楽データ、及び、画像データを、変換部30に供給する。   When the sound effect analysis unit 25 and the image analysis unit 26 determine the sound effect, music, and image that are output along with the sound reproduction, the analysis unit 20 determines the sound data, sound effect data, along with the text data. The music data and the image data are supplied to the conversion unit 30.

変換部30は、文章データ、音声データ、効果音データ、音楽データ、及び、画像データが供給されると、効果音、音楽、及び、画像を出力する出力時間を決定する、図13に示す出力時間決定処理を実行する(ステップS715)。   When the text data, voice data, sound effect data, music data, and image data are supplied, the conversion unit 30 determines the output time for outputting the sound effects, music, and images. The output shown in FIG. Time determination processing is executed (step S715).

電子メールの音声決定処理、劇文学の音声決定処理、又は、出力時間決定処理が終了すると、変換部30は、音声変換部31、効果音変換部32及び画像変換部33において、文章データの音声、効果音、音楽及び画像が出力されるように、音声出力部51、及び、表示部52を駆動することによって、文章データの音声再生、効果音及び音楽の再生、及び、画像の表示を実行する(ステップS716)。   When the voice determination process for e-mail, the voice determination process for drama literature, or the output time determination process ends, the conversion unit 30 uses the voice conversion unit 31, the sound effect conversion unit 32, and the image conversion unit 33 to convert the voice of the sentence data. The voice output unit 51 and the display unit 52 are driven so that sound effects, music, and images are output, thereby executing voice playback of text data, playback of sound effects and music, and display of images. (Step S716).

〔プログラム、記録媒体〕
電子機器1の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
[Program, recording medium]
Each block of the electronic device 1 may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or may be realized in software using a CPU (Central Processing Unit). .

後者の場合、電子機器1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである電子機器1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、電子機器1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the electronic device 1 includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the electronic device 1 which is software that realizes the above-described functions is recorded in a computer-readable manner, This can also be achieved by supplying the electronic device 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、ハードディスク等の磁気ディスクやCD−ROM/CD−R/CD−RW/MO/DVD−ROM/DVD−R/DVD−RW/Blu−rayディスク(BD)−ROM/BD−R/BD−RE等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュメモリ等の半導体メモリ類などを用いることができる。   Examples of the recording medium include a magnetic disk such as a hard disk, a CD-ROM / CD-R / CD-RW / MO / DVD-ROM / DVD-R / DVD-RW / Blu-ray disk (BD) -ROM / Discs including optical disks such as BD-R / BD-RE, cards such as IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash memory, and the like are used. it can.

また、上記プログラムコードは、通信ネットワークを介して電子機器1に供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、LAN、CATV通信網、電話回線網、移動体通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、特定の構成または種類のものに限定されない。例えば、電話線、LANケーブル、ケーブルTV回線等のメタルケーブルや、FTTH等の光ファイバを利用した有線でも、携帯電話回線、WLAN等の電波、IrDAやリモコンのような赤外線などを利用した無線でも利用可能である。   The program code may be supplied to the electronic device 1 via a communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, LAN, CATV communication network, telephone line network, mobile communication network, etc. can be used. Also, the transmission medium constituting this communication network is not limited to a specific configuration or type. For example, a cable using a metal cable such as a telephone line, a LAN cable, a cable TV line, or an optical fiber such as FTTH, or a radio wave using a mobile phone line, a radio wave such as WLAN, or an infrared ray such as IrDA or a remote control. Is available.

本発明は上述した実施形態および実施例に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上記実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments and examples, and various modifications are possible within the scope shown in the claims, and can be obtained by appropriately combining technical means disclosed in the above-described embodiments. Other embodiments are also included in the technical scope of the present invention.

本発明は、電子書籍機器、携帯電話、パーソナルコンピュータなど、電子書籍を表示可能であって音声出力可能な装置に好適に利用することができる。   The present invention can be suitably used for an apparatus capable of displaying an electronic book and outputting a voice, such as an electronic book device, a mobile phone, and a personal computer.

1 電子機器
10 属性情報読取部(属性情報読取手段)
20 解析部
21 文章解析部(文章解析手段)
22 登場人物解析部(登場人物解析手段)
23 テーマ解析部(テーマ解析手段)
24 音声解析部(音声再生手段)
25 効果音解析部(効果音再生手段、音楽再生手段)
26 画像解析部(画像表示手段)
30 変換部
31 音声変換部(音声再生手段)
32 効果音変換部(効果音再生手段、音楽再生手段)
33 画像変換部(画像表示手段)
40 記憶部
41 データベース記憶部
42 語句検出回数記憶部
51 音声出力部
52 表示部
53 ユーザ指示取得部
54 機能制御部
55 外部データ取得部(外部データ取得手段)
1 Electronic Device 10 Attribute Information Reading Unit (Attribute Information Reading Unit)
20 Analysis unit 21 Sentence analysis unit (sentence analysis means)
22 Character analysis section (character analysis means)
23 Theme Analysis Department (Theme Analysis Method)
24 Voice analysis unit (voice playback means)
25 Sound effect analysis unit (sound effect reproduction means, music reproduction means)
26 Image analysis unit (image display means)
30 Conversion unit 31 Audio conversion unit (audio reproduction means)
32 Sound effect converter (sound effect playback means, music playback means)
33 Image converter (image display means)
40 storage unit 41 database storage unit 42 phrase detection count storage unit 51 voice output unit 52 display unit 53 user instruction acquisition unit 54 function control unit 55 external data acquisition unit (external data acquisition unit)

Claims (12)

文章データの音声再生を行う音声再生手段と、
上記文章データに含まれる属性情報を読み取る属性情報読取手段と、を備え、
上記音声再生手段は、上記属性情報読取手段によって読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、
ことを特徴とする電子機器。
Voice playback means for voice playback of sentence data;
Attribute information reading means for reading the attribute information included in the text data,
The voice reproduction means performs voice reproduction of the sentence data according to setting information associated with the attribute information read by the attribute information reading means.
An electronic device characterized by that.
上記属性情報は、上記文章データのジャンル、及び、著者を特定する情報である、
ことを特徴とする請求項1に記載の電子機器。
The attribute information is information identifying the genre of the text data and the author.
The electronic device according to claim 1.
語句を検出する文章解析手段と、
上記文章解析手段において検出された語句に基づいて、上記文章データを構成する一部分におけるテーマを解析するテーマ解析手段と、
上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた効果音を再生する効果音再生手段と、
上記テーマ解析手段において解析されたテーマに応じた音楽を再生する音楽再生手段と、
上記文章解析手段において検出された語句が、上記テーマ解析手段において解析されたテーマと関連する語句である場合に、当該語句に応じた画像を表示する画像表示手段と、をさらに備えている
ことを特徴とする請求項1又は2に記載の電子機器。
A sentence analysis means for detecting a phrase;
A theme analysis means for analyzing a theme in a part of the sentence data based on the phrase detected by the sentence analysis means;
When the phrase detected by the sentence analyzing means is a phrase related to the theme analyzed by the theme analyzing means, a sound effect reproducing means for reproducing a sound effect according to the phrase;
Music reproduction means for reproducing music according to the theme analyzed by the theme analysis means;
An image display means for displaying an image corresponding to the word / phrase when the word / phrase detected by the sentence analysis means is a word / phrase related to the theme analyzed by the theme analysis means; The electronic apparatus according to claim 1, wherein the electronic apparatus is characterized in that
上記文章データから、当該文章データに含まれる登場人物、及び、当該登場人物の属性を検出する登場人物解析手段をさらに備え、
上記音声再生手段は、上記登場人物解析手段による検出結果から、上記文章データを、各登場人物の属性に対応付けられた設定情報に応じた音声で再生する、
ことを特徴とする請求項3に記載の電子機器。
From the above sentence data, further comprising a character analysis means for detecting the characters included in the sentence data and the attributes of the characters,
The voice reproduction means reproduces the sentence data from the detection result by the character analysis means with a voice corresponding to the setting information associated with the attribute of each character.
The electronic device according to claim 3.
画像を表示する表示部をさらに備え、
上記文章データが、柱書き又はト書きを含む劇文学である場合、
上記画像表示手段は、上記再生手段が、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部に上記柱書き又はト書きを表示する、
ことを特徴とする請求項4に記載の電子機器。
A display unit for displaying an image;
When the above sentence data is dramatic literature including pillar writing or writing,
The image display means displays the pillar writing or writing on the display unit when the reproduction means starts to reproduce the text data corresponding to the writing or writing.
The electronic device according to claim 4.
上記画像表示手段は、上記柱書き又はト書きに対応する文章データの再生を開始する時点で、上記表示部への電源の供給を開始させる、
ことを特徴とする請求項5に記載の電子機器。
The image display means starts the supply of power to the display unit at the time of starting the reproduction of the sentence data corresponding to the column writing or writing.
The electronic device according to claim 5, wherein:
上記文章解析手段は、上記文章データから、上記登場人物の台詞の表現に関する語句を検出し、
上記音声再生手段は、上記登場人物に関連する文章のうち、当該登場人物の台詞を、上記文章解析手段によって検出された、上記台詞の表現に関する語句に応じた表現で音声再生する、
ことを特徴とする請求項5又は6に記載の電子機器。
The sentence analysis means detects a phrase related to the expression of the character's dialogue from the sentence data,
The voice reproduction means reproduces the speech of the character in the sentence related to the character with an expression corresponding to the phrase related to the expression of the dialogue detected by the sentence analysis means,
The electronic apparatus according to claim 5 or 6, wherein
上記文章データが、電子メールである場合、
上記属性情報読取手段は、上記電子メールのアドレスデータを属性情報として読み取り、
上記音声再生手段は、上記アドレスデータに対応付けられた設定情報に応じて上記電子メールの音声再生を行う、
ことを特徴とする請求項1に記載の電子機器。
If the text data is email,
The attribute information reading means reads the email address data as attribute information,
The voice reproduction means performs voice reproduction of the e-mail according to setting information associated with the address data.
The electronic device according to claim 1.
上記文章解析手段において検出された語句、及び、上記テーマ解析手段において解析されたテーマの少なくとも何れかと関連する効果音、音楽、及び画像の少なくとも何れかを、外部ネットワークから取得する外部データ取得手段をさらに備え、
上記効果音再生手段は、上記外部データ取得手段において取得された効果音を再生し、
上記音楽再生手段は、上記外部データ取得手段において取得された音楽を再生し、
上記画像表示手段は、上記外部データ取得手段において取得された画像を表示する、
ことを特徴とする請求項4から7の何れか1項に記載の電子機器。
External data acquisition means for acquiring, from an external network, at least one of the words detected by the sentence analysis means and at least one of sound effects, music, and images associated with at least one of the themes analyzed by the theme analysis means In addition,
The sound effect reproduction means reproduces the sound effect acquired by the external data acquisition means,
The music reproduction means reproduces the music acquired by the external data acquisition means,
The image display means displays the image acquired by the external data acquisition means;
The electronic device according to claim 4, wherein the electronic device is an electronic device.
文章データの音声再生を行う音声再生ステップと、
上記文章データに含まれる属性情報を読み取る属性情報読取ステップと、を含み、
上記音声再生ステップにおいて、上記属性情報読取ステップにて読み取られた属性情報に対応付けられた設定情報に応じて上記文章データの音声再生を行う、
ことを特徴とする再生方法。
A voice playback step for voice playback of sentence data;
An attribute information reading step for reading the attribute information included in the sentence data,
In the voice reproduction step, the sentence data is reproduced by voice according to the setting information associated with the attribute information read in the attribute information reading step.
A reproduction method characterized by the above.
コンピュータを請求項1から9の何れか1項に記載の電子機器として動作させるためのプログラムであって、上記コンピュータを上記電子機器の各手段として機能させるプログラム。   A program for operating a computer as the electronic device according to any one of claims 1 to 9, wherein the computer functions as each unit of the electronic device. 請求項11に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 11.
JP2011160252A 2011-07-21 2011-07-21 Electronic apparatus, reproduction method, program, and, recording medium Pending JP2013025112A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011160252A JP2013025112A (en) 2011-07-21 2011-07-21 Electronic apparatus, reproduction method, program, and, recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011160252A JP2013025112A (en) 2011-07-21 2011-07-21 Electronic apparatus, reproduction method, program, and, recording medium

Publications (1)

Publication Number Publication Date
JP2013025112A true JP2013025112A (en) 2013-02-04

Family

ID=47783509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011160252A Pending JP2013025112A (en) 2011-07-21 2011-07-21 Electronic apparatus, reproduction method, program, and, recording medium

Country Status (1)

Country Link
JP (1) JP2013025112A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023025596A (en) * 2021-08-10 2023-02-22 株式会社スローネ Photography plan support system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333891A (en) * 1992-05-29 1993-12-17 Sharp Corp Automatic reading device
JPH0772888A (en) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd Information processor
JPH08248971A (en) * 1995-03-09 1996-09-27 Hitachi Ltd Text aloud reading device
JPH08272388A (en) * 1995-03-29 1996-10-18 Canon Inc Device and method for synthesizing voice
JP2000339137A (en) * 1999-05-31 2000-12-08 Sanyo Electric Co Ltd Electronic mail receiving system
JP2002268664A (en) * 2001-03-09 2002-09-20 Ricoh Co Ltd Voice converter and program
JP2002297157A (en) * 2001-03-30 2002-10-11 Yamaha Corp Device and method for information transmission and reception and storage medium
JP2005077663A (en) * 2003-08-29 2005-03-24 Brother Ind Ltd Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP2008046425A (en) * 2006-08-17 2008-02-28 National Institute Of Information & Communication Technology Impression expression output device and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333891A (en) * 1992-05-29 1993-12-17 Sharp Corp Automatic reading device
JPH0772888A (en) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd Information processor
JPH08248971A (en) * 1995-03-09 1996-09-27 Hitachi Ltd Text aloud reading device
JPH08272388A (en) * 1995-03-29 1996-10-18 Canon Inc Device and method for synthesizing voice
JP2000339137A (en) * 1999-05-31 2000-12-08 Sanyo Electric Co Ltd Electronic mail receiving system
JP2002268664A (en) * 2001-03-09 2002-09-20 Ricoh Co Ltd Voice converter and program
JP2002297157A (en) * 2001-03-30 2002-10-11 Yamaha Corp Device and method for information transmission and reception and storage medium
JP2005077663A (en) * 2003-08-29 2005-03-24 Brother Ind Ltd Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP2008046425A (en) * 2006-08-17 2008-02-28 National Institute Of Information & Communication Technology Impression expression output device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023025596A (en) * 2021-08-10 2023-02-22 株式会社スローネ Photography plan support system
JP7381019B2 (en) 2021-08-10 2023-11-15 株式会社スローネ Shooting planning support system, script content display system

Similar Documents

Publication Publication Date Title
US9659572B2 (en) Apparatus, process, and program for combining speech and audio data
JP6641045B1 (en) Content generation system and content generation method
JP6277958B2 (en) REPRODUCTION DEVICE, SETTING DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP2012073519A (en) Reading-aloud support apparatus, method, and program
US20090276064A1 (en) Portable audio playback device and method for operation thereof
JP6587459B2 (en) Song introduction system in karaoke intro
JP5296029B2 (en) Sentence presentation apparatus, sentence presentation method, and program
KR20180078197A (en) E-voice book editor and player
JP2005321706A (en) Method for reproducing digital book and apparatus for the same
JP2013025112A (en) Electronic apparatus, reproduction method, program, and, recording medium
KR100695209B1 (en) Mobile communication terminal and method for storing recording contents of e-book
US20050103186A1 (en) Music reproducing unit
JP2005285285A (en) Content read system and musical piece reproduction apparatus
JP7341024B2 (en) Audio information replacement system and program
JP2022051500A (en) Related information provision method and system
JP2005077678A (en) Text voice synchronization apparatus and text voice synchronization processing program
JP2000099308A (en) Electronic book player
JP6664022B1 (en) Sound story generation system and program
JP5242856B1 (en) Music playback program and music playback system
JP2024109930A (en) Playback control device, playback control system, playback control method, program, and recording medium
JP6810527B2 (en) Reproduction control device, reproduction control system, reproduction control method, program and recording medium
JP2007256815A (en) Audio playback device, audio playback method, and audio playback program
JP2004320233A (en) Image recording/reproducing method and device thereof
KR20060006282A (en) Portable File Players and Searching Files in the Player
JP6185136B1 (en) Voice generation program and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150818