JP5220912B2 - Character information display device with speech synthesis function and control method thereof - Google Patents
Character information display device with speech synthesis function and control method thereof Download PDFInfo
- Publication number
- JP5220912B2 JP5220912B2 JP2011234732A JP2011234732A JP5220912B2 JP 5220912 B2 JP5220912 B2 JP 5220912B2 JP 2011234732 A JP2011234732 A JP 2011234732A JP 2011234732 A JP2011234732 A JP 2011234732A JP 5220912 B2 JP5220912 B2 JP 5220912B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- voice
- character string
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、表示中の項目を音声にて読み上げる機能を有する音声合成機能付き文字情報表示装置およびその制御方法に関するものである。 The present invention relates to a character information display device with a voice synthesis function having a function of reading out a displayed item by voice and a control method thereof.
近年、携帯端末装置としてキー操作に対応して、このキー操作により設定された機能名等をアナウンスするようにした携帯電話機が提案されている(たとえば特許文献1参照)。
この携帯電話機は、複数のキー操作部と、キー操作部の1あるいは複数のキー操作に従い電話機が備えた複数の機能のうち、キー操作に対応する機能に関して設定を行う制御部と、キー操作に連動して設定される機能名を音声出力する音声合成部とを有する。
In recent years, there has been proposed a mobile phone that announces a function name or the like set by a key operation corresponding to the key operation as a mobile terminal device (see, for example, Patent Document 1).
The mobile phone includes a plurality of key operation units, a control unit configured to set a function corresponding to the key operation among a plurality of functions provided in the telephone according to one or more key operations of the key operation unit, and a key operation. And a voice synthesizer that outputs a function name set in conjunction with the voice.
また、音声出力機能を採用したシステムとして、電子メールによりテキストを送信する際に、送信者が受信側でのテキスト読み上げに使用される音質を選択することができる電子メールシステムが提案されている(たとえば特許文献2参照)。 In addition, as a system that employs a voice output function, an e-mail system has been proposed in which a sender can select a sound quality used for text-to-speech on the receiving side when transmitting text by e-mail ( For example, see Patent Document 2).
ところで、上述したような音声読み上げ機能を有する携帯端末装置においては、読み上げるべき文章等を読み上げ用エンジン(制御部や音声合成部)に通知することで実現している。 By the way, in the portable terminal device having the speech reading function as described above, it is realized by notifying a text to be read out to a reading engine (control unit or speech synthesis unit).
ところが、インターネット等のブラウザからは文字列を表示するための描画情報が携帯端末装置側に通知されるが、読み上げ用の文字列は通知されない。
そして、その描画情報は、文字列が細かく分割されて通知されるため、そのまま読み上げエンジンに通知することができない。
また、文字列が通知される順番は、必ず表示される上部から通知されるわけではないことから、仮に通知される順序で読み上げを行うと、適切な文章とならない。
すなわち、描画のスタイルによっては同じ行の文字列であっても、座標値がずれて通知されるため、同一行の文字列として扱うことができない。
However, a browser such as the Internet notifies the mobile terminal device of drawing information for displaying a character string, but does not notify a character string for reading.
The drawing information is notified after the character string is finely divided and cannot be notified to the reading engine as it is.
In addition, since the order in which the character strings are notified is not necessarily notified from the upper part where they are displayed, if the reading is performed in the order in which they are notified, an appropriate sentence will not be obtained.
That is, depending on the drawing style, even if the character strings are on the same line, the coordinate values are notified with a shift, and therefore cannot be handled as the character strings on the same line.
また、多くのコンテンツでは、画面を遷移させるために、ユーザにリンクを押下させるように作成されている。そのため多くのリンクがコンテンツに配置されているのが現状である。したがって、ユーザのリンクを読み上げで認識させると同時に、リンク押下が正しく行われたことをユーザに読み上げで通知する必要がある。
すなわち、リンク箇所を音声で明確に通知することができず、リンクから遷移中であることを容易に認識することが困難である。
Many contents are created so that the user presses a link in order to change the screen. Therefore, at present, many links are arranged in the content. Therefore, it is necessary to recognize the user's link by reading, and at the same time notify the user that the link has been pressed correctly.
That is, the link location cannot be clearly notified by voice, and it is difficult to easily recognize that the transition from the link is in progress.
また、ブラウザ側に修正を加え、読み上げインタフェースを追加して音声読み上げを実現しているものも知られているが、この場合であっても、一般のサイト(HTML等)は表示することができず、特定サイトにしか対応してないのが現状である。 In addition, some browsers have been modified and a reading interface has been added to realize reading aloud, but even in this case, general sites (such as HTML) can be displayed. However, the current situation is that it only supports specific sites.
本発明の目的は、ブラウザで表示される画面上の文章についても、なめらかな音声読み上げを実現できることはもとより、リンク箇所を音声で明確に読み上げたり、リンクから遷移中であることを読み上げたりすることにより、容易にブラウザの状態を認識可能な音声合成機能付き文字情報表示装置およびその制御方法を提供することにある。 The object of the present invention is not only to be able to realize smooth speech reading on the screen text displayed on the browser, but also to clearly read out the link part by voice or to read out that the transition from the link is in progress. Accordingly, it is an object of the present invention to provide a character information display device with a speech synthesis function that can easily recognize the state of a browser and a control method thereof.
上記目的を達成するため、本発明の第1の観点の文字情報表示装置は、文字列を含む表示オブジェクトと、当該表示オブジェクトの表示方法を規定する表示規定とを含む文字情報を記憶する記憶部と、前記記憶部に記憶される表示オブジェクトを表示する表示部と、文字列を音声に変換する音声合成部と、前記表示部に表示中の前記文字情報に含まれる文字列を前記音声合成部にて音声に変換する際に、音声に変換する文字列の表示規定を参照し、所定の表示規定の場合には第1の音声で音声変換させ、所定の表示規定ではない場合には第2の音声にて音声変換させるように前記音声合成部を制御する制御部とを備える。 In order to achieve the above object, a character information display device according to a first aspect of the present invention stores a character information including a display object including a character string and a display rule defining a display method of the display object. A display unit for displaying a display object stored in the storage unit, a speech synthesis unit for converting a character string into speech, and a character string included in the character information being displayed on the display unit as the speech synthesis unit In the case of conversion to voice, the display regulation of the character string to be converted to speech is referred to. If the predetermined display regulation is used, the first voice is converted to voice. If the predetermined display regulation is not used, the second is converted. And a controller that controls the speech synthesizer so as to convert the voice into voice.
好適には、ネットワークに接続し、当該ネットワークに接続されるサーバから前記文字情報を取得する通信部を、さらに備える。 Preferably, the communication device further includes a communication unit that connects to a network and acquires the character information from a server connected to the network.
好適には、前記表示部に表示される文字情報に含まれる少なくとも一つの表示オブジェクトを選択指示する操作部を、さらに備え、前記所定の表示規定は、前記操作部により選択指示されている表示オブジェクトであることを示す選択位置表示規定を含む。 Preferably, an operation unit for selecting and instructing at least one display object included in the character information displayed on the display unit is further provided, and the predetermined display rule is selected and instructed by the operation unit. It includes a selection position display rule indicating that
好適には、前記所定の表示規定は、表示オブジェクトにリンク先が対応付けられていることを示すリンク先表示規定を含む。 Preferably, the predetermined display rule includes a link destination display rule indicating that a link destination is associated with a display object.
好適には、前記表示部に表示される文字情報に含まれる少なくとも一つの表示オブジェクトを選択指示または決定指示する操作部を、さらに備え、前記制御部は、前記リンク先の対応付けられた表示オブジェクトが前記操作部により選択指示または決定指示されると、当該表示オブジェクトに含まれる文字列を第3の音声にて前記音声合成部に音声変換させる。 Preferably, an operation unit for instructing or determining at least one display object included in the character information displayed on the display unit is further provided, and the control unit includes a display object associated with the link destination. When a selection instruction or a determination instruction is given by the operation unit, a character string included in the display object is converted into a voice by the voice synthesis unit using a third voice.
好適には、前記表示部に表示される文字情報に含まれる少なくとも一つの表示オブジェクトを決定指示する操作部を、さらに備え、前記制御部は、前記リンク先の対応付けられた表示オブジェクトが前記操作部により決定指示されると、前記通信部により前記リンク先へのアクセスがなされた後に、前記決定指示された表示オブジェクトに含まれる文字列を前記音声合成部に音声変換させる。 Preferably, an operation unit for determining and instructing at least one display object included in the character information displayed on the display unit is further provided, and the control unit is configured such that the display object associated with the link destination is the operation object. When the determination is instructed by the unit, the character string included in the display object instructed to be determined is converted into speech by the speech synthesis unit after the communication unit accesses the link destination.
好適には、前記表示部に表示される文字情報に含まれる少なくとも一つの表示オブジェクトの選択指示と決定指示とを行う操作部を、さらに備え、前記表示規定は、前記操作部により選択指示されている表示オブジェクトであることを示す選択位置表示規定を含み、前記制御部は、前記操作部により決定指示がなされると、前記選択位置表示規定にて規定される表示オブジェクトに含まれる文字列を前記音声変換部にて音声変換させる。 Preferably, an operation unit that performs an instruction to select and determine at least one display object included in the character information displayed on the display unit, and the display rule is selected by the operation unit. The control unit displays a character string included in the display object defined by the selection position display rule when a determination instruction is given by the operation unit. Voice conversion is performed by the voice converter.
本発明の第2の観点は、文字列を含む表示オブジェクトと、当該表示オブジェクトの表示方法を規定する表示規定とを含む文字情報を記憶し、前記表示オブジェクトを表示させる文字情報表示装置における音声合成方法であって、前記表示オブジェクトに含まれる文字列を音声に変換する音声合成ステップと、前記音声合成ステップにて音声に変換する際に、音声に変換する文字列の表示規定を参照するステップと、所定の表示規定にて規定される表示オブジェクトの文字列は第1の音声で音声変換するステップと、所定の表示規定にて規定されていない表示オブジェクトの文字列は第2の音声にて音声変換させるステップとを備える。 According to a second aspect of the present invention, speech synthesis is performed in a character information display device that stores character information including a display object that includes a character string and a display rule that defines a display method of the display object, and displays the display object. A method of synthesizing a character string included in the display object into speech; and referring to a display rule for a character string to be converted into speech when the speech synthesis step converts the character string into speech. The character string of the display object specified by the predetermined display rule is voice-converted by the first voice, and the character string of the display object not specified by the predetermined display rule is voiced by the second voice. Converting.
本発明の第3の観点は、文字列を含む表示オブジェクトと、当該表示オブジェクトの表示方法を規定する表示規定とを含む文字情報を記憶し、前記表示オブジェクトを表示させる文字情報表示装置における音声合成をコンピュータで実行可能な音声合成プログラムであって、前記表示オブジェクトに含まれる文字列を音声に変換する音声合成ステップと、前記音声合成ステップにて音声に変換する際に、音声に変換する文字列の表示規定を参照するステップと、所定の表示規定にて規定される表示オブジェクトの文字列は第1の音声で音声変換するステップと、所定の表示規定にて規定されていない表示オブジェクトの文字列は第2の音声にて音声変換させるステップとを備える。 According to a third aspect of the present invention, speech synthesis is performed in a character information display device that stores character information including a display object that includes a character string and a display rule that defines a display method of the display object, and displays the display object. A speech synthesis program that can be executed by a computer, a speech synthesis step for converting a character string included in the display object into speech, and a character string that is converted into speech when the speech is synthesized in the speech synthesis step The step of referring to the display rule, the step of converting the character string of the display object defined by the predetermined display rule into a first voice, and the character string of the display object not defined by the predetermined display rule Comprises the step of performing voice conversion with the second voice.
本発明によれば、Web画面におけるリンク箇所などを音声で再現することが可能で、ブラウザ画面の状態を音声によっても容易に認識可能である。 According to the present invention, a link location on a Web screen can be reproduced by voice, and the state of the browser screen can be easily recognized by voice.
以下、本発明の実施形態を添付図面に関連付けて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
図1は、本発明の音声合成機能付き文字情報表示装置としての携帯電話機10のシステム構成の一例を示すブロック図である。図2は、携帯電話機1の外観の一例を示す図である。
携帯電話機10は、可動機構を有する、いわゆる折り畳み式携帯電話機であって、図2(a)は開かれた状態(開状態)での正面図を、(b)は閉じられた状態(閉状態)での正面図を、(c)は開状態での側面図を、(d)は閉状態での側面図を、それぞれ示している。
FIG. 1 is a block diagram showing an example of a system configuration of a
The
本実施形態に係る携帯電話機10は、無線通信ネットワーク20に接続されるサーバ30から取得したWeb情報(取得情報)を表示部に表示可能に構成されている。
また、本実施形態に係る携帯電話機10は、通常の携帯電話機の機能に加えて、音声読み上げ機能を有し、たとえばブラウザから描画要求として通知される文字列を読み上げの文字列情報として扱い、ブラウザに手を加えずに通常のブラウザと同等の表示が可能となるように構成されている。
The
Further, the
さらに、本実施形態に係る携帯電話機10は、以下の処理機能を備えて構成されている。
携帯電話機10は、取得したWeb情報に基づいて、文字列や絵記号や画像などの表示すべき表示オブジェクトと、表示オブジェクトを提供するサーバ30上で運営されているコンテンツにて規定されるスタイル等の表示規定を抽出し、表示オブジェクトと表示規定を対応付けて記憶部に格納しておき、抽出したスタイル等の表示規定に準じて表示オブジェクトを表示する。なお、表示規定には、表示座標(X,Y)、ゴシック体などのフォントタイプやアンダーラインなどの付加的表示などを指示する表示形式(スタイル)、あるいは表示サイズを含んでいる。
そして、携帯電話機10は、取得したWeb情報の表示状態において、読み上げのために音声読み上げ機能(音声合成部)の起動が要求されると、記憶部に格納される表示方法を規定するスタイルなどの表示規定を参照して表示オブジェクトから抽出される文字列を音声合成部により音声に変換する機能を有する。
Furthermore, the
Based on the acquired Web information, the
Then, when the activation of the speech reading function (speech synthesizer) is requested for reading in the display state of the acquired Web information, the
携帯電話機10は、表示部に表示中の文字情報に含まれる文字列を音声に変換する際に、音声に変換する文字列の表示規定を参照し、所定の表示規定の場合には第1の音声で音声変換し、所定の表示規定でない場合には第2の音声にて音声変換する機能を有する。
ここで、所定の表示規定は、操作部により選択指示されている表示オブジェクトである(つまり、カーソルのあてられている)ことを示す選択位置表示規定を含む。また、所定の表示規定は、表示オブジェクトにリンク先が対応付けられていることを示すリンク先表示規定を含む。
そして、携帯電話機10は、リンク先の対応付けられた表示オブジェクトが操作部により選択指示または決定指示されると、この表示オブジェクトに含まれる文字列を第3の音声にて音声変換する機能を有する。
また、携帯電話機10は、リンク先の対応付けられた表示オブジェクトが操作部により決定指示されると、通信部によりリンク先へのアクセスがなされた後に、決定指示された表示オブジェクトに含まれる文字列を音声変換する機能を有する。
さらに、携帯電話機10は、操作部により決定指示がなされると、選択位置表示規定にて規定される表示オブジェクトに含まれる文字列を音声変換する機能を有する。
When the
Here, the predetermined display rule includes a selection position display rule that indicates that the display object is instructed to be selected by the operation unit (that is, the cursor is applied). The predetermined display rule includes a link destination display rule indicating that a link destination is associated with a display object.
Then, when the display object associated with the link destination is instructed to be selected or determined by the operation unit, the
In addition, when the display unit associated with the link destination is instructed to be determined by the operation unit, the
Further, the
また、携帯電話機10は、取得したWeb情報の表示状態において音声読み上げ機能(音声合成部)の起動が要求されると、記憶部に格納される表示オブジェクトをそれぞれの表示座標についてソートした上で音声に変換する機能を有する。
携帯電話機10は、複数の表示形式それぞれについて表示座標に対する補正値を格納しておき、表示オブジェクトのソートは、表示オブジェクトごとの表示形式に応じて補正値にて補正した上で行う機能を有する。
携帯電話機10は、複数の表示サイズそれぞれについて表示座標に対する補正値を格納しておき、表示オブジェクトのソートは、表示オブジェクトごとの表示サイズに応じて補正値にて補正した上で行う機能を有する。
携帯電話機10は、取得したWeb情報の表示状態において音声読み上げ機能(音声合成部)の起動が要求されると、記憶部に格納される複数の表示オブジェクトの中からカーソルの位置する表示を行うための表示形式の対応付けられる表示オブジェクトを検索し、検索された表示オブジェクトの有する文字列について、音声に変換する機能を有する。
Further, when the
The
The
When the activation of the speech reading function (speech synthesizer) is requested in the display state of the acquired Web information, the
以下、本実施形態に係る携帯電話機10の各部の構成、機能、並びに、音声読み上げ制御について順を追って説明する。
Hereinafter, the configuration and function of each unit of the
図1に示すように、携帯電話機10は、送受信アンテナ111を含む通信処理部11と、メモリ12と、キー操作部13と、ダイヤル入力部14と、サブ表示部15と、メイン表示部16と、スピーカ171およびマイクロフォン172を含む音声合成処理部17と、読み上げキー入力部18と、制御部(CPU)19とを有している。
また、図2(a)に示すように、携帯電話機10の本体ケース100は、第1の筐体としてのキー入力側本体ケース101と、第2の筐体としての表示側本体ケース102とが、図示しない可動機構により連結されて、開閉状態を形成するように構成される。
As shown in FIG. 1, the
2A, the
通信処理部11は、基地局を介した無線通信動作、たとえば、電話番号の発呼動作や電子メールの送受信動作などを行う。
通信処理部11は、送受信アンテナ111を含んで構成され、電波を利用した無線通信で行うために、制御部19で処理された音声情報、電子メール等を変調して送受信アンテナ111により図示しない基地局、通信ネットワーク20を介してサーバ30に送信する。
また、通信処理部11は、基地局から無線により送信され、送受信アンテナ111で受信した電子メールや音声情報等の各種情報を復調して制御部19に出力する。
通信処理部11は、無線通信ネットワーク20に接続されるサーバ30から取得したWeb情報(取得情報)を制御部19に出力する。
なお、本実施形態においては、送受信アンテナ111は、キー入力側本体ケース101または表示側本体ケース102に内蔵されている。
The
The
Further, the
The
In the present embodiment, the transmission / reception antenna 111 is built in the key input side
メモリ(記憶部)12は、EEPROM等の不揮発性メモリを含んで構成され、通話やメールの送受信のための制御プログラム、インターネットブラウザ、メッセージデータ、名前および電話番号が登録されたアドレス帳などを記憶する。
メモリ12は、後述する読み上げ機能に必要なテキスト列を含む音声読み上げデータベースを記憶する。このデータベースでは、読み上げのためのテキスト列について、前後の接続関係が文章として成立するように、体系的に整理されている。
メモリ12は、音声読み上げ機能の制御テーブル、重み付けテーブルを記憶する。
メモリ12は、表示部が表示するメニューの項目毎に、「標準テキスト」、「短縮テキスト」および「説明テキスト」を記憶する。
メモリ12には、制御部19においてWeb情報により抽出される表示オブジェクトと、表示オブジェクトを提供するサーバにて規定される、表示部16,15への表示方法を規定する表示規定とが対応付けられた形態で格納される。上述したように、この表示規定には、キー操作部13により選択指示される表示オブジェクトであることを示す選択位置表示規定、表示オブジェクトにリンク先が対応付けられていることを示すリンク先表示規定を含む。
また、メモリ12には、制御部19により複数の表示形式それぞれについて表示座標に対する補正値が格納される。
また、メモリ12には、制御部19により複数の表示サイズそれぞれについて表示座標に対する補正値が格納される。
The memory (storage unit) 12 includes a nonvolatile memory such as an EEPROM, and stores a control program for sending and receiving calls and mails, an Internet browser, message data, an address book in which names and telephone numbers are registered, and the like. To do.
The
The
The
The
Further, in the
In the
キー操作部13は、終了(終話)/電源キー、開始(発呼)キー、数字等に対応した複数のテンキー等を有し、これらのキーがユーザにより操作されることにより、ユーザからの入力情報を制御部19に出力する。
また、キー操作部13の操作により、メモリ12に記憶される音声読み上げ機能の制御テーブルの各項目の読み上げするか否か(ON/OFF)を制御部19を通して設定可能である。
キー操作部13の操作により、ユーザは表示部16,15に表示される文字情報に含まれる表示オブジェクトの選択指示と決定指示とを行うことが可能である。
The
Further, whether or not to read out each item of the control table of the voice reading function stored in the memory 12 (ON / OFF) can be set through the
By operating the
ダイヤル入力部14は、図2(c)に示すように、ユーザが開状態の携帯電話機10を保持した時にユーザの親指により操作がしやすくなるように、表示側本体ケース102の側面に配設されるダイヤル式の入力部であり、上下2方向の操作が可能に構成される。
ダイヤル入力部14に対する操作により、ユーザは、音声の出力音量やサブ表示部15およびメイン表示部16に表示する文字サイズを変更することが可能となる。
また、図2(c)および(d)から明らかなように、閉状態と開状態のダイヤル入力部14を比較すると、上下2方向の操作方向が物理的に逆転することになるが、本実施形態においては、ユーザにとって違和感が生じないように、ユーザから見た操作方向と操作に対する作用(たとえば、上述した音量変更や表示フォントサイズ(表示する文字サイズ)の変更)が常に一致するように、制御部19により制御される。
As shown in FIG. 2C, the
By operating the
Further, as apparent from FIGS. 2C and 2D, when the
サブ表示部15は、液晶表示装置(LCD)等の表示デバイスを有し、図2(c)に示すように、閉状態においてユーザに視認される。
メイン表示部16は、液晶表示装置(LCD)等の表示デバイスを有し、図2(a)に示すように、開状態においてユーザに視認される。
サブ表示部15およびメイン表示部16は、それぞれ閉状態および開状態において、制御部19の制御の下、受信した電子メールのテキストやメモリ12に格納された様々なテキストデータを表示する。
また、サブ表示部15およびメイン表示部16は、それぞれ閉状態および開状態において、制御部19の制御の下、取得したWeb情報をメモリ12に格納された表示規定(表示座標、表示形式、または/および表示サイズ)に従った形態で表示する。
The
The
The
In addition, the
音声合成処理部17は、音声処理回路を有し、通話機能のために音声出力を行うスピーカ171と音声入力を行うマイクロフォン172とが接続されている。
音声合成処理部17は、マイクロフォン172により収音した音声に対して所定の処理を行って制御部19に供給する。また、音声合成処理部17は、制御部19により供給された音声情報に対して所定の処理を行ってスピーカ171から出力させる。
また、図2(a),(b)に示すように、スピーカ171は、受話スピーカ171aおよびリンガスピーカ171bの2箇所の音声出力部を含み、読み上げ機能の処理結果である音声を出力する。
さらに、音声合成処理部17は、読み上げエンジンとして音声合成回路を有し、読み上げを行う際に、制御部19においてメモリ12から読み出され抽出されたテキストデータを音声データに変換して、音声出力部である受話スピーカ171aまたはリンガスピーカ171bにより音声合成して音声出力させる。
音声合成処理部17は、制御部19の制御の下、音声変換する際に、たとえばリンク先あり、カーソル位置表示などの所定の表示規定の場合には第1の音声で音声変換し、所定の表示規定で無い場合には第2の音声で音声変換し、リンク先の対応付けられた表示オブジェクトがキー操作部13により選択指示または決定指示されると、この表示オブジェクトに含まれる文字列を第3の音声にて音声変換する。
The voice
The voice
Further, as shown in FIGS. 2A and 2B, the
Furthermore, the speech
When the voice
読み上げキー操作部18は、図2(b)に示すように、表示側本体ケース102の中央に配設される押下式ボタン18aと、このボタンによるスイッチ入力に対する入力回路と、を含んで構成される。
本実施形態における携帯電話機10は、読み上げ機能を有し、押下式ボタン18aが押下(操作)されると、たとえば閉状態にリンガスピーカ171aにより音声出力し、開状態では受話スピーカ171aより音声出力するように制御部19により制御される。
As shown in FIG. 2B, the reading key operation unit 18 includes a push-
The
制御部19は、マイクロコンピュータを主体として構成され、携帯電話機1の全体の制御を行う。たとえば、制御部19は、通信処理部11における各種情報の無線による送受信の制御、音声処理部17に対する音声情報の処理、メイン表示部16への情報の表示制御、キー入力部13の入力情報に応じた処理、メモリ12に対するアクセス制御等を行う。
The
制御部19は、基本的にユーザによる押下式ボタン18aの操作がなされると、表示されるテキストの読み上げ機能を実行する。その際、読み上げ機能として、テキスト列を抽出/生成してそのテキストを読み上げるテキスト読み上げ方式を用いている。
Basically, when the user operates the
制御部19は、後で詳述するように、ブラウザが起動し、取得したWeb情報から表示オブジェクトと、この表示オブジェクトを提供するサーバ30上のコンテンツごとに規定される表示規定を抽出し、表示オブジェクトと表示規定とを対応付けてメモリ12に格納し、抽出した表示規定に準じて表示オブジェクトをメイン表示部16あるいはサブ表示部15に表示させる。
制御部19は、取得したWeb情報をメイン表示部16あるいはサブ表示部15に表示している表示状態において、たとえば読み上げキー操作部18の操作により音声合成処理部17の起動が要求されると、メモリ12に格納される表示規定を参照して表示オブジェクトから抽出される文字列を音声合成処理部17により音声に変換させる。
As will be described in detail later, the
When the
制御部19は、表示部16,15に表示中の文字情報に含まれる文字列を音声に変換する際に、音声に変換する文字列の表示規定を参照し、所定の表示規定(リンク先あり、カーソル位置表示など)の場合には第1の音声で音声変換し、所定の表示規定でない場合には第1の音声と音質等が異なる第2の音声にて音声変換するように音声合成処理部17を制御する。
また、制御部19は、リンク先の対応付けられた表示オブジェクトがキー操作部13により選択指示または決定指示されると、この表示オブジェクトに含まれる文字列を第3の音声にて音声変換するように音声合成処理部17を制御する。
このように、本実施形態の制御部19は、描画スタイルに応じて読み上げの声質、スピード、イントネーション等を変更し、また、選択可能オブジェクトの遷移時に、読み上げの声質、スピード、イントネーションを変更するように音声合成処理部17を制御する機能を有する。
制御部19は、リンク先の対応付けられた表示オブジェクトがキー操作部13により決定指示されると、通信部によりリンク先へのアクセスがなされた後に、決定指示された表示オブジェクトに含まれる文字列を音声変換するように音声合成処理部17を制御する。また、制御部19は、キー操作部13により決定指示がなされると、選択位置表示規定にて規定される表示オブジェクトに含まれる文字列を音声変換するように音声合成処理部17を制御する。
When the character string included in the character information being displayed on the
In addition, when the display operation associated with the link destination is instructed to be selected or determined by the
As described above, the
When the display object associated with the link destination is instructed to be determined by the
なお、制御部19は、取得したWeb情報をメイン表示部16あるいはサブ表示部15に表示している表示状態において、たとえば読み上げキー操作部18の操作により音声合成処理部17の起動が要求されると、メモリ12に格納される表示オブジェクトをそれぞれの表示座標についてソートした上で音声合成処理部17に音声への変換を行わせる。
制御部19は、メモリ12に複数の表示形式それぞれについて表示座標に対する補正値を格納する。そして、制御部19は、表示オブジェクトのソートは、表示オブジェクトごとの表示形式に応じてメモリ12に格納した補正値にて補正した上で行う。制御部19は、メモリ12に、複数の表示サイズそれぞれについて表示座標に対する補正値を格納する。そして、制御部19は、表示オブジェクトのソートは、表示オブジェクトごとの表示サイズに応じて前記補正値にて補正した上で行う。
Note that the
The
また、制御部19は、取得したWeb情報をメイン表示部16あるいはサブ表示部15に表示している表示状態において、たとえば読み上げキー操作部18の操作により音声合成処理部17の起動が要求されると、メモリ12に格納される複数の表示オブジェクトの中からカーソルの位置する表示を行うための表示形式の対応付けられる表示オブジェクトを検索し、検索された表示オブジェクトの有する文字列について音声合成処理部17に音声に変換させる。
In addition, the
制御部19は、別画面が表示されたときは読み上げを中断し、点滅などが指定されても同じ文字列に対して描画要求が複数通知されても一度目しか読み上げないように制御する。制御部19は、同じ声質で読み上げる場合、いくつかに、分割して通知された文字列をまとめて読み上げるように音声合成処理部17を制御する。制御部19は、読み上げ中断を防止するために、読み上げ中は、新規に表示された文字列をバッファリングする。また、制御部19は、別画面が表示されたときは読み上げを中断し、また、選択可能なオブジェクトにカーソル遷移した場合は読み上げを中断して該当オブジェクトを読み上げるように音声合成処理部17を制御する。また、制御部19は、重複した読み上げを防止するため、表示部16,15の表示エリアから一部はみだしている文字列については、座標値にて読み上げ対象範囲を決定する。また、制御部19は、キャッシュ表示など文字列が通知されない場合は、再描画要求にて再度文字列の通知を行うように構成されている。
The
次に、上記構成による動作を、ブラウザ起動時の情報の表示および音声読み上げ動作を中心に、図3から図8に関連付けて説明する。 Next, the operation according to the above configuration will be described with reference to FIG. 3 to FIG. 8 with a focus on information display and speech reading operation when the browser is activated.
図3は、ブラウザ起動時の情報の表示および音声読み上げ動作を説明するためのフローチャートである。
図4は、特定スタイルでの表示画像のイメージを示す図である。
図5は、通知された情報、現在の文字サイズ、およびスタイル(リンク)の補正値の一例を示す図である。
図6は、文字列のソーティング前の蓄積管理情報と文言の格納領域における格納例を示す図である。
図7は、文字列ソーティング後の蓄積管理情報と文言の格納領域における格納例を示す図である。
図8は、読み上げ要求のイメージ例を示す図である。
FIG. 3 is a flowchart for explaining the display of information and the speech-to-speech operation when the browser is activated.
FIG. 4 is a diagram illustrating an image of a display image in a specific style.
FIG. 5 is a diagram showing an example of the notified information, the current character size, and the correction value of the style (link).
FIG. 6 is a diagram illustrating an example of storage in the storage area for storage management information and wordings before sorting character strings.
FIG. 7 is a diagram showing an example of storage in the storage area for storage management information and wordings after character string sorting.
FIG. 8 is a diagram illustrating an image example of a reading request.
ブラウザが起動され(ST1)、描画開始要求通知が出されると(ST2)、描画すべき文字列、スタイル、座標が通知される(ST3)。
次に、取得した情報のうち、スタイル情報がオブジェクトの選択中であるか否かの判別を行う(ST4)。
ステップST4において、選択中ではないと判別すると、取得した文字列をたとえばメモリ12に格納(バッファリング)する(ST5)。
次に、取得したスタイルが補正対象スタイルであるか否かの判別を行う(ST6)。
ステップST6において、補正対象スタイルであると判別すると、座標値を補正(ST7)してステップST8の処理に移行し、補正対象スタイルではないと判別すると、ステップST7の補正処理を経ることなくステップST8の処理に移行する。
そして、ステップST8においては、座標が描画画面であるか否かの判別を行う。
描画画面でない場合は、文字列を破棄して(ST9)、ステップST10の処理に移行し、描画画面である場合には、ステップST9の処理を経ることなくステップST10の処理に移行する。
ステップST10においては、描画処理が終了したか否かの判別を行い、終了していない場合には、ステップST2からの処理に移行する。
そして、ステップST10において、描画終了したと判別すると、文字列のソーティング処理を行い(ST11)、同一スタイルの文字列を渡す(ST12)。
そして、ステップST4において、スタイルの選択中であると判別すると、該当オブジェクトの音声読み上げを行い(ST13)、文字列のバッファをクリアする(ST14)。
When the browser is activated (ST1) and a drawing start request notification is issued (ST2), the character string, style, and coordinates to be drawn are notified (ST3).
Next, it is determined whether or not style information is being selected from the acquired information (ST4).
If it is determined in step ST4 that it is not currently selected, the acquired character string is stored (buffered) in, for example, the memory 12 (ST5).
Next, it is determined whether or not the acquired style is a correction target style (ST6).
If it is determined in step ST6 that the style is a correction target style, the coordinate value is corrected (ST7) and the process proceeds to step ST8. If it is determined that the style is not a correction target style, step ST8 is performed without performing the correction process in step ST7. Move on to processing.
In step ST8, it is determined whether or not the coordinates are a drawing screen.
If it is not a drawing screen, the character string is discarded (ST9), and the process proceeds to step ST10. If it is a drawing screen, the process proceeds to step ST10 without passing through step ST9.
In step ST10, it is determined whether or not the drawing process has ended. If it has not ended, the process proceeds to step ST2.
If it is determined in step ST10 that drawing has ended, character string sorting processing is performed (ST11), and character strings of the same style are passed (ST12).
If it is determined in step ST4 that the style is being selected, the object is read aloud (ST13), and the character string buffer is cleared (ST14).
なお、本実施形態においては、ブラウザから描画要求として通知される文字列を読み上げの文字列情報として扱う。
そして、各要部ステップにおいては、具体的には以下に示すような処理が行われる。
In the present embodiment, a character string notified as a drawing request from the browser is handled as read-out character string information.
In each main step, the following processing is specifically performed.
ステップST7の座標補正は次のような処理となる。
たとえば図4に示すように、特定スタイルでの描画では座標位置がずれるため、表示形式(スタイル)と文字サイズに応じて座標位置を補正する。
"りんご"など特別な表示オブジェクト(リンク)の座標位置を補正する。描画要求にてリンクのスタイルが通知されたら、座標補正するためのデータベースから現在の文字サイズに応じた補正値を決定し補正する。
たとえば、図5に示すように、通知された"りんご"の情報が、座標値のXが0、Yが5、スタイルが「リンク」、文字数が「3」であり、現在の文字サイズ設定値が「文字サイズ標準」であり、スタイル(リンク)の補正値として、文字サイズ小が「Y−3」、文字サイズ標準が「Y−5」、文字サイズ大「Y−8」の場合を例とすると、次のように座標位置を補正する。
上記の情報を基に、座標値を補正する。スタイル(リンク)で文字サイズ標準であるため、"りんご"の3文字のY座標を−5加算し、座標値を(X:0、Y:0)とする。
The coordinate correction in step ST7 is as follows.
For example, as shown in FIG. 4, since the coordinate position is shifted in drawing in a specific style, the coordinate position is corrected according to the display format (style) and the character size.
Correct the coordinate position of a special display object (link) such as "Apple". When the link style is notified by the drawing request, a correction value corresponding to the current character size is determined and corrected from the database for coordinate correction.
For example, as shown in FIG. 5, the notified “apple” information has coordinate values X = 0, Y = 5, style “link”, and the number of characters “3”, and the current character size setting value Is “character size standard”, and the correction value of the style (link) is an example in which the small character size is “Y-3”, the standard character size is “Y-5”, and the large character size is “Y-8”. Then, the coordinate position is corrected as follows.
Based on the above information, the coordinate value is corrected. Since the character size is standard in the style (link), the Y coordinate of the three characters “apple” is added by −5, and the coordinate value is (X: 0, Y: 0).
また、ステップST11においては、描画要求を通知された順序で読み上げると文章にならないことがあることから、文字列に付随する座標値を用いてソート処理を行う。
なお、座標値は補正処理後の値を用いる。
図6に文字列のソーティング前の蓄積管理情報と文言の格納領域における格納例を示し、図7に文字列ソーティング後の格納例を示す。
これの例では、文字列ソーティング前の文言は、図6に示すように、「果物:」、「100円」、「2個」、「みかん」、「200円」、「メロン」、「300円」、「いちご」、「400円」、「りんご」の順であるものが、文字列ソーティング後は、図7に示すように、「果物:」、「りんご」、「100円」、「2個」、「みかん」、「200円」、「メロン」、「300円」、「いちご」、「400円」の順となっている。
In step ST11, if the drawing request is read out in the notified order, it may not be a sentence. Therefore, the sorting process is performed using the coordinate value attached to the character string.
The coordinate value is a value after correction processing.
FIG. 6 shows an example of storage in the storage area of the storage management information and wordings before sorting of character strings, and FIG. 7 shows an example of storage after character string sorting.
In this example, the words before the character string sorting are “fruit:”, “100 yen”, “two”, “mandarin orange”, “200 yen”, “melon”, “300” as shown in FIG. As shown in FIG. 7, the order of “yen”, “strawberry”, “400 yen”, and “apple” is “fruit:”, “apple”, “100 yen”, “ The order is “2”, “mandarin orange”, “200 yen”, “melon”, “300 yen”, “strawberry”, “400 yen”.
また、表示オブジェクトごとに異なる描画スタイルが通知されることから、表示オブジェクトに応じた読み上げを行う。
図4の画面イメージを例にすると、リンクの文字列を標準と異なる音声(設定した音声)を読み上げる。
Further, since a different drawing style is notified for each display object, reading is performed according to the display object.
Taking the screen image of FIG. 4 as an example, the voice of the link character string different from the standard (set voice) is read out.
また、カーソルが遷移しているオブジェクトを描画スタイルによって特定し、該当する文字列を音声の種別を変更して読み上げを行う。
図4の画面イメージを例にすると、"りんご"の文字列を標準と異なる音声で読み上げる。
Also, the object to which the cursor is transitioned is specified by the drawing style, and the corresponding character string is read out by changing the type of sound.
Taking the screen image of FIG. 4 as an example, the character string “apple” is read out in a voice different from the standard.
また、行またはオブジェクトごとに描画要求が通知されるため、バッファリングし複数の描画要求をまとめて読み上げエンジン(制御部および音声合成処理部)に通知することでなめらかな読み上げを行う。
たとえば、図8に示すように、1行ずつ文字列が通知されたとしても、改行などを無視して同じ読み上げ方法で読み上げることが可能である。
In addition, since a drawing request is notified for each row or object, smooth reading is performed by buffering and reporting a plurality of drawing requests together to the reading engine (control unit and speech synthesis processing unit).
For example, as shown in FIG. 8, even if a character string is notified line by line, it can be read out by the same reading method ignoring a line feed or the like.
また、読み上げ中の行スクロールは新規に表示された行をバッファリングし、読み上げが終了した時点で読み上げエンジンに受け渡す。 In addition, line scrolling during reading is performed by buffering a newly displayed line and passing it to the reading engine when reading is completed.
また、ページスクロールや別画面へのジャンプについては、読み上げ中の文字列を破棄し、ページの先頭から読み上げを行う。 For page scrolling and jumping to another screen, the character string being read out is discarded and reading is performed from the top of the page.
また、描画開始要求と描画終了要求の間に通知される文字列を読み上げ対象とする。
また、同一座標で通知された文字列は、先に通知された文字列を有効とする。
A character string notified between a drawing start request and a drawing end request is set as a reading target.
In addition, the character string notified in the same coordinates is the character string notified in advance.
選択可能なオブジェクトにカーソルを移動した場合は読み上げ中の文字列を中断して該当オブジェクトを読み上げる。 When the cursor is moved to a selectable object, the character string being read out is interrupted and the corresponding object is read out.
画面表示上、上部や下部において文字列が欠けて表示されることがあるが、この場合には座標値にて読み上げ対象範囲を決定する。 In some cases, the character string may be missing from the upper or lower part of the screen display. In this case, the range to be read out is determined by the coordinate value.
キャッシュに保存されている画面などを表示する場合は、描画要求が通知されないため、再描画要求を行うことで文字列を取得する。 When displaying a screen or the like stored in the cache, a drawing request is not notified, and a character string is acquired by performing a redrawing request.
文字列を有しないオブジェクトをスタイルによって判定し、特定の文言の読み上げを行う。
たとえば、ラジオボタンなど文字列を有しないオブジェクトについては、遷移、決定した時点で、処理部内部の文字列をエンジンである制御部に受け渡すことで読み上げを実現する。
An object having no character string is determined by style, and a specific wording is read out.
For example, for an object that does not have a character string such as a radio button, when the transition or determination is made, the character string in the processing unit is transferred to the control unit that is an engine, so that reading is realized.
次に、リンクを含んだコンテンツに対するブラウザの機能を含む具体的な処理について説明する。 Next, a specific process including a browser function for content including a link will be described.
本実施形態の携帯電話機10においては、リンクを含んだコンテンツに対して以下の処理を行う。
In the
1.リンクにカーソル遷移したとき、設定値とは異なる音質(たとえば設定した音質が男声の場合、女声)で読み上げを行う。
ブラウザから通知される文字種(リンク文字)によって判定する。
ブラウザではリンクを認識した場合、リンク文字(イタリック、青色、アンダーライン)などリンクに条件を付けて描画を行う。
1. When the cursor transitions to the link, reading is performed with a sound quality different from the set value (for example, a female voice when the set sound quality is male voice).
This is determined by the character type (link character) notified from the browser.
When the browser recognizes the link, it draws the link with conditions such as link characters (italics, blue, underline).
2.リンクの文字列を、次画面のタイトルとして扱う。
リンクにカーソル遷移したとき、リンクに指定されている文字列を全て取得し、リンクから次画面に遷移した後リンクの文字列を読み上げることで、タイトル読み上げ効果を演出可能である。
リンク押下による遷移は、リンク遷移先情報(URLto)が通知されたときにリンク先を判定する。
2. The character string of the link is handled as the title of the next screen.
When the cursor transitions to the link, all the character strings specified for the link are acquired, and after the transition from the link to the next screen, the character string of the link is read out, thereby producing a title reading effect.
The transition by pressing the link determines the link destination when the link transition destination information (URLto) is notified.
3.リンク中である旨をユーザに通知する。
リンクを押下し次画面へ遷移する場合、次画面の描画が始まるまでの間は、別途メモリ12に記憶しておいた次画面遷移中であることを示す文字列を読み上げ、ユーザにリンク中である旨を読み上げで通知する。
3. Notify the user that the link is in progress.
When transitioning to the next screen by pressing the link, the character string indicating that the next screen transition is being stored in the
4.リンクに指定されている文字列をすべて読み上げる。
リンクの文字列を読み上げ中にリンク押下で画面遷移を行った場合でも、リンクの文字列をすべて読み上げることを可能にする。
4). Read all strings specified in the link.
Even when the screen is changed by pressing the link while reading the link character string, it is possible to read the entire link character string.
5.画面中のリンクの文字列のみを抽出し、リンクのみを読み上げ可能とする。リンクにカーソル遷移したときは設定した音質(たとえば男声)で読み上げ、リンク押下時は設定値と異なる音質(たとえば設定した音質が男声の場合、女声)で読み上げを行う。 5. Only the character string of the link in the screen is extracted, and only the link can be read out. When the cursor transitions to the link, it is read out with the set sound quality (for example, male voice), and when the link is pressed, it is read out with a sound quality different from the set value (for example, when the set sound quality is male voice).
6.リンク押下後、画面遷移の通知が端末側に一定時間以上通知されていない場合は、ユーザに通信継続中である旨を別途メモリに記憶しておいた通信継続中である旨を示す文字列を読み上げることにより通知する。 6). After the link is pressed, if the notification of screen transition has not been notified to the terminal side for a certain period of time, a character string indicating that the communication is ongoing is stored in the memory separately indicating that the communication is ongoing to the user. Notify by reading aloud.
リンクを含んだコンテンツの記述例(リンク部分)は以下の通りである。
<a href=http://kyocera.jp title=京セラ>ジャンプする</a>
A description example (link part) of content including a link is as follows.
<a href = http: // kyocera. jp title = Kyocera> Jump </a>
上記のWeb記述言語の内容は以下の通りであり、その概要を図9に示す。
1.リンク指定タグ(aタグ)の中にリンク先を記述する。
2.Titleはソフトキー対応の領域に表示する(ガイド部分に表示する)。
3.“ジャンプする”の部分が実際のリンク文字列になる。
The contents of the Web description language are as follows, and an outline thereof is shown in FIG.
1. The link destination is described in the link designation tag (a tag).
2. Title is displayed in the soft key area (displayed in the guide).
3. The “jump” part is the actual link string.
上記Web記述言語をブラウザが解析して、端末側に以下の情報を通知する。
[リンク画面表示時]
“ジャンプする”をリンク文字スタイルで座標X,Yに書け。
[リンクにカーソル遷移したとき]
座標X,Yの色を反転しろ。
ガイド部分に”京セラ“を書け。
[リンク押下されたとき]
URLを通知するので遷移しろ。
The browser analyzes the Web description language and notifies the terminal side of the following information.
[When link screen is displayed]
Write “Jump” to the coordinates X and Y in the link character style.
[When the cursor moves to a link]
Invert the colors of coordinates X and Y.
Write “Kyocera” on the guide.
[When link is pressed]
Since the URL is notified, transition.
リンクを含んだ画面を表示させるときは、ブラウザが取得したWeb記述言語から文字列に対し、文字サイズ、文字種を決定して通知を行っている。
ブラウザがリンク部分の文字列の”ジャンプする”を取得した場合は、「青色の文字、イタリック文字でアンダーラインを付けて座標X,Yに表示」とリンクのための表示設定を行う。
読み上げキー18を押下した場合、画面の先頭から最後までの読み上げを行う。画面描画の際に用いた文字列の描画情報をメモリに格納しておき、文字列の座標をソートして座標の上位(画面上部)から順に読み上げを行う。リンク文字の”ジャンプする”は「青色の文字、イタリック文字でアンダーラインを付けて座標X,Yに表示」という指定があるため、この指定された文字列をリンクと判断し、読み上げエンジンに対し声種別を変更して読み上げを行う。
リンクが連続して表示されている場合は、声種別の設定を継続して読み上げを行うが、リンク文字列から通常のテキストが表示された場合は声種別を元に戻す。
When a screen including a link is displayed, notification is performed by determining the character size and character type for the character string from the Web description language acquired by the browser.
When the browser acquires “jump” of the character string of the link part, the display setting for the link is made as “blue characters, italic characters are displayed underlined at coordinates X and Y”.
When the reading key 18 is pressed, reading is performed from the beginning to the end of the screen. Character string drawing information used for screen drawing is stored in a memory, and the coordinates of the character string are sorted and read out in order from the top of the coordinates (upper part of the screen). The link character “jump” is specified as “blue character, italic character underlined and displayed at coordinates X, Y”. Change the voice type and read aloud.
If the link is displayed continuously, the voice type is continuously set to read out, but if the normal text is displayed from the link character string, the voice type is restored.
ユーザのキー操作によりカーソルを動かし、リンクにカーソルが遷移した場合は、リンク文字列の”ジャンプする”が指定されている座標を範囲指定して、色を反転して表示を行う。ブラウザでは、リンクにカーソル遷移を行ったとき、リンク部分にtitle“京セラ”が設定されていることを把握し、表示部に文字キーガイド部分に”京セラ”の表示を行う。
声は反転された契機を元にリンクにカーソルが遷移したとして扱い、声種別を変更して読み上げる。画面全体を描画後に、「特定座標の色を反転させろ」という命令はリンクにカーソル遷移した場合のみのため、読み上げ中の文字列を破棄して優先的にカーソル遷移しリンク文字列を読み上げる。
When the cursor is moved by the user's key operation and the cursor transitions to the link, the coordinates where “jump” of the link character string is designated are specified as a range, and the color is reversed and displayed. The browser recognizes that the title “Kyocera” is set in the link part when the cursor transitions to the link, and displays “Kyocera” in the character key guide part on the display part.
The voice is treated as if the cursor has transitioned to the link based on the reversed opportunity, and the voice type is changed and read out. After drawing the entire screen, the command “invert the color of a specific coordinate” is only when the cursor transitions to the link, so the character string being read out is discarded and the cursor transitions preferentially and the link character string is read out.
図9に示すように携帯電話機10は、ソフトキーSFTK1〜3を備えている。ここでいうソフトキーとは、画面の状態が遷移する都度、頻繁に用いる機能を特に割り当てられる、機能の固定されていないキーのことであり、表示部16の最下段にガイド領域を有し、このガイド領域に、画面に応じてソフトキーに現在割り当てられている機能が表示される。ソフトキーは決定キーSFTK2を含んで複数個を備えることが多い。
ユーザが方向キーを操作すると、制御部19は表示部16の画面上のカーソルを押下された方向に応じて移動させる。このときに、リンク文字列である“ジャンプする”の上にカーソルがあてられると、先に述べたような表示色の反転処理を行う。すなわち、制御部19のブラウザ機能としては、Web情報として取得した表示規定に対し、表示部16の描画としては色の反転処理という表示規定を付加した上で描画更新を行う。この表示規定に色の反転処理が加えたときにtitle“京セラ”という文字列も取得し、ガイド領域の特に決定キーSFTK2に対応させた箇所に表示させる。
As shown in FIG. 9, the
When the user operates the direction key, the
リンクを押下したときは、リンク先のURL“http://kyocera.jp”を遷移先に設定してサーバ30と通信を行い、サーバ30から取得した新たなWeb記述言語を元に遷移先の画面を描画する。
通信開始時にタイマにより計時し、一定時間経過後も新規画面が描画されない場合は、「接続中です」なども読み上げを可能にする。
リンク押下時に、リンク元のtitle“京セラ”をメモリに記憶しておき、新規画面の描画が完了したら、新規画面の文字列の読み上げに先んじて”京セラ”を読み上げることにより、タイトルの効果を出す。
When the link is pressed, the link destination URL “http://kyocera.jp” is set as the transition destination to communicate with the
When a communication is started, the timer counts, and if a new screen is not drawn after a certain period of time, "Ready to connect" can be read out.
When the link is pressed, the title “Kyocera” of the link source is stored in the memory, and when drawing of the new screen is completed, the title effect is produced by reading “Kyocera” before reading the character string of the new screen. .
図10は、本実施形態に係るWeb読み上げ機能の処理概要を示す概念図である。
この読み上げ機能は、全て制御部19の制御部のもとで処理され、デバイスレイヤ191にブラウザ192を含み、さらに、バッファ193、スピーチインタフェース194、音声エンジン部195を有する。音声エンジン部195は、音声合成処理部17の機能を含んで構成される。
FIG. 10 is a conceptual diagram showing an outline of processing of the Web reading function according to the present embodiment.
This reading-out function is all processed under the control unit of the
Web読み上げ機能の処理は、以下のように行われる。
1.サーバ30よりHTML(読み上げ対象)を取得する。
2.ブラウザ192がHTML中の文字の描画をデバイスレイヤ191に要求する。デバイスレイヤ191はこれをバッファ193に蓄積する。
3.ブラウザ192から描画完了をデバイスレイヤ191に通知する。
これを契機にスピーチインタフェース194に蓄積した文言の読み上げを要求する。
4.音声エンジン部195で文字列を音声に変換し、読み上げを行う。
The processing of the Web reading function is performed as follows.
1. HTML (reading target) is acquired from the
2. The
3. The
In response to this request, a request is made to read out the words stored in the
4). The
本実施形態においては、図11(A),(B)に示すようなアドレス情報がリンク付けられていることを示す<addr>タグでも声を反転して読み上げが可能である。
この場合の標記例は次の通りである。
<addr title=“addr link click”>html</addr>
このように、表示規定の例は多数存在する。もちろん他にも電話番号の対応付けられたものや、メールアドレス等もリンク付けがあれば表示規定に通常とは異なる規定が加わる。
In the present embodiment, the voice can be inverted and read out even with an <addr> tag indicating that address information as shown in FIGS. 11A and 11B is linked.
The title example in this case is as follows.
<addr title = “addr link click”> html </ addr>
Thus, there are many examples of display rules. Of course, if there is a link with a telephone number associated with a mail number or a mail address, a rule different from usual is added to the display rule.
ブラウザ192から文字列通知命令で描画文字列を受け取ってから、読み上げ文字列として音声エンジン部195のタスクにわたるまでは、以下の手順になる。
1.画面更新完了の通知、
2.X,Y座標によるソート、
の手順である。
以下、各手順について説明する。
The procedure is as follows from the time when the drawing character string is received from the
1. Notification of screen update completion,
2. Sort by X and Y coordinates,
It is a procedure.
Hereinafter, each procedure will be described.
1.画面更新完了の通知
ブラウザ192は、文字列通知命令により、何度も描画要求を行う。そこで、画面の描画が終わったという通知をブラウザから検出する必要がある。
これには、ブラウザ192から発行されるWML形式が変更されたことを示す通知関数を検知し、その後の画面更新が終わったという通知関数を検知することにより実現する。
1. Screen update completion notification The
This is realized by detecting a notification function indicating that the WML format issued from the
2.X,Y座標によるソート
描画される文字列は、ブラウザから文字列通知命令によりデバイスレイヤに通知される。図12に示すように、表示部16のピクト領域を除いた一番上の左上を基底として(0,0)、上から順に描画される文字列が通知される。
しかし、テキストによりリンク先が指定してある文字列が含まれており、かつそのリンクにカーソルが当たっている場合、文字列通知命令はその文字列のみ、一番最後に描画要求を行う。
その状態を図13(A),(B)に示す。
2. Sorting by X and Y coordinates A character string to be drawn is notified from the browser to the device layer by a character string notification command. As shown in FIG. 12, a character string drawn in order from the top is notified with the upper left corner excluding the pictogram area of the
However, when a character string whose link destination is specified by text is included and the cursor is placed on the link, the character string notification command makes a rendering request only for that character string at the end.
The state is shown in FIGS. 13 (A) and 13 (B).
このブラウザ192の描画要求の順に文字列を読み上げると、「ABCDEFGHIJIKLPQRSTUVWXYZMNO」となってしまう。つまり、正しい順序で読み上げるため、文字列のソート処理が必要になる。これには、描画要求の文字列通知命令の(X,Y)座標を基に行う。
図14(A)〜(C)に、ソートアルゴリズムを示す。
この例では、Y座標で昇順にソートする。ただし、Yの値が同じであった場合、X座標の値を昇順で比較する。Xの値も同じであった場合は、描画要求が先にあった方を優先する。
このソート処理の結果、読み上げ文字列は、「ABCDEFGHIJKLMNOPQRSTUVWXYZ」となる。
If the character string is read out in the order of the drawing request of the
14A to 14C show the sorting algorithm.
In this example, sorting is performed in ascending order by Y coordinate. However, if the Y values are the same, the X coordinate values are compared in ascending order. If the value of X is also the same, the one with the drawing request first is given priority.
As a result of the sorting process, the read-out character string is “ABCDEFGHIJKLMNOPQRSTUVWXYZ”.
次に、Web読み上げにおける全画面描画/スクロール描画判定について説明する。 Next, full screen drawing / scroll drawing determination in Web reading will be described.
<全画面描画判定>
図15は、ページ全体を読み上げる際の基本シーケンスを示す図である。
描画開始命令が呼ばれた直後の描画から、描画完了の描画終了命令が呼ばれる前までの描画を全画面描画とみなす。
この場合、文字列、描画座標、フォーカス有リンク/ノーマルをバッファ193に蓄積し描画する。
描画完了がデバイスレイヤ191に通知されると、所定時間、たとえば1秒待って座標でソートを行い、ソートバッファに蓄積する。
そして、デバイスレイヤ191は声指定する。ノーマルの場合は設定の声とし、フォーカス有リンクの場合は設定と異なる(逆)の声とする。たとえば、設定が男声なら女声とする。
デバイスレイヤ191は、スピーチインタフェース194に対して、同一声種別の文言をまとめて読み上げ要求する。デバイスレイヤ191はソートバッファに文言がある間この要求処理を、読み上げ完了の通知を受けるまで繰り返す。
<Full screen drawing judgment>
FIG. 15 is a diagram showing a basic sequence for reading the entire page.
Drawing from immediately after the drawing start command is called to before the drawing end command for drawing completion is called is regarded as full-screen drawing.
In this case, the character string, drawing coordinates, and link / normal with focus are stored in the
When the
The
The
<スクロール描画判定>
図16は、行方向スクロール時の読み上げシーケンスを示す図である。
スクロール開始命令が呼ばれた後の描画から、描画終了命令が呼ばれるまでの描画をスクロール描画とみなす。
また、スクロール開始命令が、プラス(+)の値でコールされれば下方向のスクロール、マイナス(-)の値でコールされれば上方向のスクロールと判定する。
既に描画した行の移動のための描画の場合にはバッファに蓄積せず、新しく現れた行の描画の場合には読み上げるために、バッファに蓄積する。
そして、デバイスレイヤ191は、スピーチインタフェース194に対して、同一声種別の文言をまとめて読み上げ要求する。デバイスレイヤ191はソートバッファに文言がある間この要求処理を、読み上げ完了の通知を受けるまで繰り返す。
<Scroll drawing determination>
FIG. 16 is a diagram illustrating a reading sequence when scrolling in the line direction.
Drawing from the drawing after the scroll start command is called until the drawing end command is called is regarded as scroll drawing.
If the scroll start command is called with a plus (+) value, it is determined to scroll downward, and if called with a minus (-) value, it is determined to scroll upward.
In the case of drawing for moving a line that has already been drawn, it is not stored in the buffer, but in the case of drawing of a newly appearing line, it is stored in the buffer for reading out.
Then, the
本実施形態によれば、メイン表示部16に表示中の文字情報に含まれる文字列を音声に変換する際に、音声に変換する文字列の表示規定を参照し、所定の表示規定(リンク先あり、カーソル位置表示など)の場合には第1の音声で音声変換し、所定の表示規定でない場合には第1の音声と音質等が異なる第2の音声にて音声変換するように音声合成処理部17を制御し、また、リンク先の対応付けられた表示オブジェクトがキー操作部13により選択指示または決定指示されると、この表示オブジェクトに含まれる文字列を第3の音声にて音声変換するように音声合成処理部17を制御する制御部19を有することから、リンク箇所を音声で明確に表示することが可能で、リンクから遷移中であることを容易に認識可能である。
また、通知された文字列のスタイルに応じて座標値を補正し、通知された順序ではなく、座標によりソーティング後の読み上げを行い、また、描画スタイルに応じて読み上げの声質、スピード、イントネーション等を変更し、また、選択可能オブジェクトの遷移時に、読み上げの声質、スピード、イントネーションを変更し、また、点滅など同じ文字列が通知されても一度しか読み上げないように構成したことから、以下の効果を得ることができる。
According to the present embodiment, when a character string included in character information being displayed on the
In addition, the coordinate value is corrected according to the notified character string style, and reading is performed after sorting according to the coordinates instead of the notified order, and the voice quality, speed, intonation, etc. are determined according to the drawing style. Since the voice quality, speed, and intonation of the reading are changed at the transition of the selectable object, and the same character string such as blinking is notified, it is configured to read out only once. Can be obtained.
なめらかな音声読み上げを実現することができる。
描画要求を用いた読み上げのため、ブラウザに手を加えることなく、実現可能であり、その結果、通常のブラウザと同等の表示が可能となる。
同じ声質で読み上げる場合、いくつかに、分割して通知された文字列をまとめて読み上げることにより、読み上げが途切れることを防止でき、また、熟語が正しく読まれる確率が高まる。
また、読み上げ中は、新規に表示された文字列をバッファリングすることから、読み上げ終了後にバッファリングされている文字列を読み上げることができ、これにより、読み上げの中断を防止することができる。
また、別画面が表示されたときは読み上げを中断することができ、画面と読み上げの同調を図ることができる。
また、選択可能なオブジェクトにカーソル遷移した場合は読み上げを中断して該当オブジェクトを読み上げることができ、これにより、選択されたタイミングを逃すことなく読み上げが可能である。
また、表示エリアから一部はみだしている文字列については、座標値にて読み上げ対象範囲を決定することができ、重複した読み上げを防止することができる。
キャッシュ表示など文字列が通知されない場合は、再描画要求にて再度文字列の通知を行うことができ、文字列を入手して再度描画されても同じ画面が表示されるので、ちらつきが発生しない。
また、文字列を有しないオブジェクトをスタイルで判定することにより、特定の文字列を与え読み上げることが可能である。
Smooth voice reading can be realized.
Since it is read out using a drawing request, it can be realized without modifying the browser, and as a result, a display equivalent to that of a normal browser is possible.
In the case of reading with the same voice quality, it is possible to prevent the reading from being interrupted and to increase the probability that the idiom is read correctly by reading the character strings that are divided and notified in batches.
Further, during reading, since the newly displayed character string is buffered, the buffered character string can be read out after the reading is completed, thereby preventing the reading from being interrupted.
Further, when another screen is displayed, the reading can be interrupted, and the screen and the reading can be synchronized.
Further, when the cursor transitions to a selectable object, the reading can be interrupted and the corresponding object can be read out, so that the reading can be performed without missing the selected timing.
Further, for character strings partially protruding from the display area, the range to be read out can be determined by the coordinate value, and overlapping reading can be prevented.
If the character string is not notified, such as a cache display, the character string can be notified again by a redraw request, and the same screen is displayed even if the character string is obtained and redrawn, so flicker does not occur .
Further, by determining an object having no character string by style, a specific character string can be given and read out.
なお、以上説明したような音声読み上げ処理は、端末装置(コンピュータ)で読み出し可能な記録媒体、半導体記憶装置(メモリ)、光ディスク、ハードディスク等に音声読み上げプログラムとして記録され、端末装置で読み出されて実行される。 The speech reading process as described above is recorded as a voice reading program on a recording medium, a semiconductor storage device (memory), an optical disk, a hard disk or the like that can be read by a terminal device (computer), and read by the terminal device. Executed.
10…携帯電話機
100…本体ケース
101…キー入力側本体ケース
102…表示側本体ケース
11…通信処理部
111…送受信アンテナ
12…メモリ
13…キー操作部
14…ダイヤル入力部
15…サブ表示部
16…メイン表示部
17…音声合成処理部
171…スピーカ
172…マイクロフォン
18…読み上げキー操作部
19…制御部
191…デバイスレイヤ
192…ブラウザ
193…バッファ
194…スピーチインタフェース
195…音声エンジン部
20…無線通信ネットワーク
30…サーバ
DESCRIPTION OF
Claims (8)
前記記憶部に記憶される表示オブジェクトを表示する表示部と、
文字列を音声に変換する音声合成部と、
前記表示部に表示中の前記文字情報に含まれる文字列を前記音声合成部にて音声に変換する際に、音声に変換する文字列が、リンク先の対応付けられた表示オブジェクトの場合には第1の音声で音声変換させ、リンク先の対応付けられた表示オブジェクトではない場合には第2の音声にて音声変換させるように前記音声合成部を制御する制御部と、
操作部と、
を備え、
前記制御部は、前記リンク先の対応付けられた表示オブジェクトが操作部により選択指示または決定指示されると、前記リンク先の対応付けられた表示オブジェクトに含まれる文字列を第3の音声にて音声変換させる
音声合成機能付き文字情報表示装置。 A storage unit that stores character information including a display object that includes a character string and a display rule that defines a display method of the display object;
A display unit for displaying a display object stored in the storage unit;
A speech synthesizer that converts text into speech;
When the character string included in the character information being displayed on the display unit is converted to speech by the speech synthesizer, the character string to be converted to speech is a display object associated with a link destination. A controller that controls the speech synthesizer to perform speech conversion with the first speech and convert the speech with the second speech if the display object is not associated with the link destination;
An operation unit;
With
When the display unit associated with the link destination is selected or determined by the operation unit, the control unit transmits the character string included in the display object associated with the link destination with a third voice. Character information display device with speech synthesis function for voice conversion.
請求項1に記載の音声合成機能付き文字情報表示装置。 The character information display device with a speech synthesis function according to claim 1, further comprising a communication unit that connects to a network and acquires the character information from a server connected to the network.
請求項2に記載の音声合成機能付き文字情報表示装置。 When the display unit associated with the link destination is instructed to be determined by the operation unit, the control unit is included in the display object instructed to determine after the communication unit has accessed the link destination. The character information display device with a speech synthesis function according to claim 2, wherein the speech synthesis unit converts the character string to be speech-converted.
前記リンク先の対応付けられた表示オブジェクトが操作部により選択指示または決定指示されると、前記リンク先の対応付けられた表示オブジェクトに含まれる文字列を第3の音声にて音声変換するステップを備える
音声合成機能付き文字情報表示装置の制御方法。 A storage unit that stores character information including a display object that includes a character string, a display rule that defines a display method of the display object, a display unit that displays a display object stored in the storage unit, and a character string A voice synthesizing unit for converting to speech, and a character string to be converted to speech when the character string included in the character information being displayed on the display unit is converted to speech by the speech synthesizing unit The voice synthesizer is controlled so that voice conversion is performed with the first voice in the case of the attached display object, and voice conversion is performed with the second voice when the display object is not associated with the link destination. In a control method of a character information display device with a speech synthesis function comprising a control unit and an operation unit,
When the display object associated with the link destination is instructed to be selected or determined by the operation unit, a step of voice-converting a character string included in the display object associated with the link destination with a third voice is performed. A method for controlling a character information display device with a speech synthesis function.
請求項4に記載の音声合成機能付き文字情報表示装置の制御方法。 The control method of the character information display device with a voice synthesis function according to claim 4, further comprising a communication unit that connects to a network and acquires the character information from a server connected to the network.
請求項5に記載の音声合成機能付き文字情報表示装置の制御方法。 When the display unit associated with the link destination is instructed to be determined by the operation unit, the control unit is included in the display object instructed to determine after the communication unit has accessed the link destination. The method for controlling a character information display device with a voice synthesis function according to claim 5, wherein the voice synthesizer converts the character string to be voiced into a voice.
前記表示部に表示中の文字情報に含まれる文字列がリンク先の対応付けられた表示オブジェクトの場合には第1の音声を用い、リンク先の対応付けられた表示オブジェクトではない場合には第2の音声を用いて音声変換する前記音声合成部を制御する制御部と、
操作部と、を備え、
前記制御部は、前記リンク先の対応付けられた表示オブジェクトが操作部により選択指示または決定指示されると、前記リンク先の対応付けられた表示オブジェクトに含まれる文字列を第3の音声にて音声変換させる
音声合成機能付き文字情報表示装置。 A display unit, a speech synthesis unit for converting a character string into speech,
When the character string included in the character information being displayed on the display unit is a display object associated with a link destination, the first sound is used, and when the character string is not a display object associated with a link destination, the first sound is used. A control unit that controls the voice synthesis unit that performs voice conversion using two voices;
An operation unit,
When the display unit associated with the link destination is selected or determined by the operation unit, the control unit transmits the character string included in the display object associated with the link destination with a third voice. Character information display device with speech synthesis function for voice conversion.
前記表示部に表示中の文字情報に含まれる文字列がリンク先の対応付けられた表示オブジェクトの場合には第1の音声を用い、リンク先の対応付けられた表示オブジェクトではない場合には第2の音声を用いて音声変換する前記音声合成部を制御する制御部と、
操作部と、を備える音声合成機能付き文字情報表示装置の制御方法であって、
前記制御部は、前記リンク先の対応付けられた表示オブジェクトが操作部により選択指示または決定指示されると、前記リンク先の対応付けられた表示オブジェクトに含まれる文字列を第3の音声にて音声変換させる
音声合成機能付き文字情報表示装置の制御方法。 A display unit, a speech synthesis unit for converting a character string into speech,
When the character string included in the character information being displayed on the display unit is a display object associated with a link destination, the first sound is used, and when the character string is not a display object associated with a link destination, the first sound is used. A control unit that controls the voice synthesis unit that performs voice conversion using two voices;
A control method of a character information display device with a speech synthesis function comprising an operation unit,
When the display unit associated with the link destination is selected or determined by the operation unit, the control unit transmits the character string included in the display object associated with the link destination with a third voice. A method for controlling a character information display device with a voice synthesis function for voice conversion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011234732A JP5220912B2 (en) | 2011-10-26 | 2011-10-26 | Character information display device with speech synthesis function and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011234732A JP5220912B2 (en) | 2011-10-26 | 2011-10-26 | Character information display device with speech synthesis function and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005100133A Division JP5259050B2 (en) | 2005-03-30 | 2005-03-30 | Character information display device with speech synthesis function, speech synthesis method thereof, and speech synthesis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012058745A JP2012058745A (en) | 2012-03-22 |
JP5220912B2 true JP5220912B2 (en) | 2013-06-26 |
Family
ID=46055836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011234732A Expired - Lifetime JP5220912B2 (en) | 2011-10-26 | 2011-10-26 | Character information display device with speech synthesis function and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5220912B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170309269A1 (en) * | 2014-11-25 | 2017-10-26 | Mitsubishi Electric Corporation | Information presentation system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326178A (en) * | 1997-03-21 | 1998-12-08 | Fujitsu Ltd | Information processing apparatus and program storage medium |
JP2000187493A (en) * | 1998-12-22 | 2000-07-04 | Sumitomo Electric Ind Ltd | Audio output device and in-vehicle computer |
JP4194741B2 (en) * | 2000-06-30 | 2008-12-10 | ヤフー株式会社 | Web page guidance server and method for users using screen reading software |
JP4080965B2 (en) * | 2003-07-15 | 2008-04-23 | 株式会社東芝 | Information presenting apparatus and information presenting method |
-
2011
- 2011-10-26 JP JP2011234732A patent/JP5220912B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2012058745A (en) | 2012-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5259050B2 (en) | Character information display device with speech synthesis function, speech synthesis method thereof, and speech synthesis program | |
US8515760B2 (en) | Mobile terminal and text-to-speech method of same | |
US20080182599A1 (en) | Method and apparatus for user input | |
US9535511B2 (en) | Character input device | |
JP2008129687A (en) | Special character input support device and electronic equipment with the same | |
JP5196912B2 (en) | Portable electronic devices | |
JP2010268207A (en) | Portable terminal | |
JP5220912B2 (en) | Character information display device with speech synthesis function and control method thereof | |
US9928084B2 (en) | Electronic device and method for activating application | |
JP2005234742A (en) | Text creating device and input word predicting method | |
JPWO2011074548A1 (en) | Portable electronic device and display control method | |
JP4586063B2 (en) | Terminal device | |
US20100318696A1 (en) | Input for keyboards in devices | |
JP5468923B2 (en) | Mobile terminal device | |
KR100568495B1 (en) | A portable electronic apparatus and a method for controlling the apparatus | |
JP5414458B2 (en) | Character information display device with speech synthesis function and speech synthesis method thereof | |
JP5340034B2 (en) | Character input device, character display system, and character conversion method | |
JP4583875B2 (en) | Electronic device and method for controlling voice reading of electronic device | |
JP5248051B2 (en) | Electronics | |
JP5187022B2 (en) | Information processing device | |
JP2008011478A (en) | Electronic equipment and program | |
JP2010257403A (en) | Input character converter | |
JP5062670B2 (en) | Electronics | |
JP5186080B2 (en) | Portable terminal | |
JP5098814B2 (en) | Character input device, character input method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130306 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5220912 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |