JP2003005950A - Web browser - Google Patents
Web browserInfo
- Publication number
- JP2003005950A JP2003005950A JP2001193335A JP2001193335A JP2003005950A JP 2003005950 A JP2003005950 A JP 2003005950A JP 2001193335 A JP2001193335 A JP 2001193335A JP 2001193335 A JP2001193335 A JP 2001193335A JP 2003005950 A JP2003005950 A JP 2003005950A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- display
- display format
- web browser
- home page
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 12
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 19
- 238000000034 method Methods 0.000 description 14
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 101100460719 Mus musculus Noto gene Proteins 0.000 description 1
- 101100219325 Phaseolus vulgaris BA13 gene Proteins 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、ウェブブラウザ
に関し、特に、音声入力及び認識機能を有するウェブブ
ラウザに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a web browser, and more particularly to a web browser having voice input and recognition functions.
【0002】[0002]
【従来の技術】インターネットを介して各種ホームペー
ジを閲覧するための装置として、ウェブブラウザが利用
されている。このウェブブラウザは、一度読んだことの
あるホームページをその後に容易に開くことができるよ
うにするために、しおり的機能として、ホームページの
アドレスを登録するブックマーク登録機能を有してい
る。このブックマーク登録機能により、登録された一覧
リストの中から、希望する項目をユーザが選択すること
で、その項目に対応づけられたホームページを開くこと
ができる。2. Description of the Related Art A web browser is used as a device for browsing various homepages via the Internet. This web browser has a bookmark registration function for registering the address of a home page as a bookmark function in order to easily open a home page that has been read once. This bookmark registration function allows the user to select a desired item from the registered list and open the home page associated with that item.
【0003】また、文字,記号及び単語等の読みを予め
登録しておき、入力した音声を認識して、この音声と読
みとを対応づけて文字列に変換する音声認識機能を持つ
各種コンピュータが利用されている。このような「ブッ
クマーク登録機能」と「音声認識機能」とを組み合わせ
ることにより、利用者が発声した音声を認識して文字列
に変換して、変換した文字列と対応することができる登
録されたホームページのアドレスを検索し、そのホーム
ページを開くような音声認識機能を備えたウェブブラウ
ザも実現されている。Further, various computers having a voice recognition function of previously registering readings of characters, symbols, words, etc., recognizing an inputted voice, and converting the voice and the reading into a character string in association with each other are available. It's being used. By combining the "bookmark registration function" and the "voice recognition function" as described above, it is possible to recognize the voice uttered by the user, convert it into a character string, and correspond to the converted character string. A web browser having a voice recognition function of searching a homepage address and opening the homepage has also been realized.
【0004】[0004]
【発明が解決しようとする課題】しかし、従来のウェブ
ブラウザでは、入力された音声を認識した結果の「文字
列」のみに注目し、この「文字列」に対応づけられたホ
ームページを、予め定められた表示形式で開くだけであ
り、入力された音声の性質を考慮してその表示形式を変
更するという機能を有していない。However, in the conventional web browser, attention is paid only to the "character string" as a result of recognizing the input voice, and the home page associated with this "character string" is predetermined. It only opens in the specified display format, and does not have the function of changing the display format in consideration of the nature of the input voice.
【0005】たとえば、家庭内で、複数人の利用者がウ
ェブブラウザを利用する場合、従来は発声した利用者の
男性,女性の区別をすることもなく、また年配層,若年
層という区別をすることもなく、ただ発声した音声の読
みに対応するホームページの表示をしていた。すなわ
ち、入力される音声の性質が異なっても、予め設定され
た1通りの表示形式のみに基づいて、画面上の表示が行
われていた。For example, when a plurality of users use a web browser at home, conventionally, it is not necessary to distinguish between the male and female users who have uttered, and to distinguish between the elderly and the young. Without any notice, I was just displaying the home page that corresponds to the reading of the uttered voice. That is, even if the nature of the input voice is different, the display on the screen is performed based on only one preset display format.
【0006】ここで、ホームページに精通している男性
の場合には、文字が小さくても、できるだけ多くの情報
を画面上に表示することを望むが、精通していない女性
の場合は、視覚的にわかりやすい表示を望む場合があ
る。また、年配層の者が利用者の場合は、それほど多く
の情報の表示は望まず、できるだけ大きな文字を画面上
に表示することを望む場合があり、また、音声認識の結
果を画面上への文字の表示により確認するよりも、音声
で確認したい場合もある。[0006] Here, a man who is familiar with the home page wants to display as much information as possible on the screen even if the characters are small, but a woman who is not familiar with it can visually In some cases, you may want an easy-to-understand display. Also, if the elderly are users, they may not want to display so much information and may want to display as large characters as possible on the screen, and the results of voice recognition may not be displayed on the screen. In some cases, it may be desirable to confirm by voice rather than confirming by displaying characters.
【0007】さらに、利用者ごと、性別,年齢,時刻,
身体状態などによって、画面上の表示形式または内容を
変更したい場合もある。男女,子供等の利用者ごとに、
開くことのできるホームページの種類を制限したい場合
もある。Further, for each user, sex, age, time,
Depending on your physical condition, you may want to change the display format or contents on the screen. For each user such as men and women, children,
Sometimes you want to limit the types of homepages you can open.
【0008】そこで、この発明は、以上のような事情を
考慮してなされたものであり、発声された音声の性質等
を判断することにより、表示形式を変更して、各利用者
にとってわかりやすい表示を、特別な操作をすることな
く容易に提供することを課題とする。Therefore, the present invention has been made in consideration of the above circumstances, and the display format is changed by judging the nature of the uttered voice or the like to make the display easy to understand for each user. It is an object of the present invention to provide easily without any special operation.
【0009】[0009]
【課題を解決するための手段】この発明は、外部ネット
ワークに接続された情報提供者のホームページを閲覧す
る通信手段と、ホームページを表示する表示手段と、発
声された音声を録音する録音手段と、ホームページのア
ドレスを登録する登録手段と、所定の音声性質情報とホ
ームページの表示形式とを関係付ける関係付け手段と、
録音された音声を読みに変換する音声認識手段と、前記
読みとホームページのアドレスとを関係づけて記憶する
記憶手段と、録音された音声の性質を分析する分析手段
とを備え、分析された音声の性質に相当する前記音声性
質情報と関係付けられた表示形式を選択して、表示手段
がその表示形式による表示をすることを特徴とするウェ
ブブラウザを提供するものである。この発明によれば、
音声の性質に基づいて利用者ごとに表示形式の異なる表
示ができるため、その利用者にとってわかりやすい表示
をすることができる。According to the present invention, there is provided a communication means for browsing a homepage of an information provider connected to an external network, a display means for displaying the homepage, and a recording means for recording a uttered voice. Registration means for registering the address of the homepage, and associating means for associating the predetermined voice property information with the display format of the homepage,
A voice recognition means for converting a recorded voice into a reading, a storage means for storing the reading in association with an address of a home page, and an analyzing means for analyzing a property of the recorded voice are analyzed. The present invention provides a web browser characterized by selecting a display format associated with the voice property information corresponding to the property, and displaying by the display means in the display format. According to this invention,
Since different display formats can be displayed for each user based on the nature of the voice, the display can be made easy for the user.
【0010】この発明において、通信手段は、公衆回
線,専用回線,無線を通して外部ネットワークと接続す
る機能を有する部分であり、たとえば、一般加入電話回
線,ISDN,CATV,各種DSL,光通信,携帯電
話などの無線通信を利用して通信を行う機能を有する。
また、録音手段は、マイクから入力された音声をデジタ
ル化してRAM等のメモリへ記録する手段である。In the present invention, the communication means is a part having a function of connecting to an external network through a public line, a private line, or a radio, for example, a general subscriber telephone line, ISDN, CATV, various DSL, optical communication, a mobile phone. It has a function of performing communication using wireless communication such as.
The recording means is a means for digitizing the voice input from the microphone and recording it in a memory such as a RAM.
【0011】録音手段,登録手段,関係付け手段及び分
析手段は、いわゆるCPUを中心としたマイクロコンピ
ュータを用いることができ、これらの手段の機能は、マ
イクロコンピュータが、RAMまたはROM等に記憶さ
れたプログラムに基づいて動作することにより実現され
る。記憶手段は、RAM,ROMのような半導体メモリ
の他、CD−ROM,ハードディスク,MD,MO,D
VD,FDなど現在利用されているあらゆる記憶媒体及
び装置を利用することができる。A microcomputer centering on a so-called CPU can be used as the recording means, the registration means, the relating means and the analyzing means, and the functions of these means are stored in the RAM or ROM of the microcomputer. It is realized by operating based on a program. The storage means is a semiconductor memory such as RAM or ROM, as well as a CD-ROM, a hard disk, MD, MO, D.
Any storage medium and device currently used such as VD and FD can be used.
【0012】また、この発明は、前記関係付け手段によ
って関係付けられる音声性質情報が、性別,年齢または
身体状態の情報であり、利用者ごとにその情報を変更す
るための変更手段を備えてもよい。これにより、利用者
自身の好みに合わせて、表示形式を変更することができ
る。Further, according to the present invention, the voice characteristic information related by the associating means is information on sex, age or physical condition, and a changing means for changing the information for each user is provided. Good. Thus, the display format can be changed according to the user's own preference.
【0013】さらに現在時刻を発生する時刻発生手段を
備え、前記関係付け手段が所定の時刻と前記表示形式と
を関係づけ、前記時刻発生手段が音声が発声された現在
時刻を発生し、表示手段がその現在時刻と関係付けられ
た表示形式による表示をするようにしてもよい。また、
前記表示手段が、分析手段が発声された音声に対して行
った音声の性質の分析結果と音声認識手段による認識さ
れた読みとを、表示するようにしてもよい。これによ
り、実際にホームページの呼出す前に、音声認識の結果
を、画面上で文字で確認することができる。The present invention further comprises a time generating means for generating a current time, the associating means correlates a predetermined time with the display format, and the time generating means generates the current time when the voice is uttered, and the displaying means. May be displayed in a display format associated with the current time. Also,
The display means may display the analysis result of the nature of the voice performed by the analysis means on the voice uttered and the reading recognized by the voice recognition means. As a result, the result of voice recognition can be confirmed by characters on the screen before actually calling the home page.
【0014】また、音声合成手段及び音声出力手段とを
さらに備え、音声の性質の分析結果と認識された読み
を、音声合成手段により音声に変換して音声出力手段に
より出力してもよい。これにより、音声認識の結果を画
面上で確認しなくても、音声で容易に確認できる。Further, a voice synthesizing means and a voice output means may be further provided, and the reading recognized as the analysis result of the nature of the voice may be converted into voice by the voice synthesizing means and output by the voice output means. As a result, the result of voice recognition can be easily confirmed by voice without confirming it on the screen.
【0015】[0015]
【発明の実施の形態】以下、図面に示す実施の形態に基
づいてこの発明を詳述する。なお、これによってこの発
明が限定されるものではない。図1に、この発明のウェ
ブブラウザの一実施例の概略構成ブロック図を示す。ウ
ェブブラウザは、一般的なコンピュータを構成する主要
構成要素からなるが、主として、入力手段としてのキー
ボード17,マイク19,出力手段としての表示部1
2,表示制御部13,スピーカ18,現在時刻を発生す
る時刻発生部14,インターネット16等の外部ネット
ワークに接続するための通信部15,記憶手段としての
メモリ10,音声認識部20,上記入力手段等の制御を
行うCPU11とを備えている。BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below based on the embodiments shown in the drawings. The present invention is not limited to this. FIG. 1 shows a schematic block diagram of an embodiment of a web browser of the present invention. The web browser is composed of main constituent elements that make up a general computer, but mainly includes a keyboard 17 as a input unit, a microphone 19, and a display unit 1 as an output unit.
2, a display control unit 13, a speaker 18, a time generation unit 14 for generating a current time, a communication unit 15 for connecting to an external network such as the Internet 16, a memory 10 as a storage unit, a voice recognition unit 20, and the input unit. And a CPU 11 for controlling the above.
【0016】ここで、キーボード17は、文字,記号等
を入力するものであるが、この他に、マウス,トラック
ボールのようなポインティングデバイスや、タッチパネ
ルなどを備えてもよい。タッチパネルは、表示部12上
に重ねて配置される。表示部12としては、CRT,L
CD,ELなどを用途に応じて用いることができる。通
信部15は、インターネット16などの既存ネットワー
クとの接続及び送受信をするためのハードウェア及びソ
フトウェアを意味する。The keyboard 17 is used for inputting characters, symbols and the like, but in addition thereto, a pointing device such as a mouse and a trackball, a touch panel, etc. may be provided. The touch panel is arranged so as to overlap the display unit 12. As the display unit 12, CRT, L
CD, EL, etc. can be used according to the application. The communication unit 15 means hardware and software for connecting to and receiving from an existing network such as the Internet 16.
【0017】音声認識部20は、マイクから入力された
音声を文字,記号等に変更する部分であり、ソフトウェ
アまたはCPUや特別のハードウェアにより実現され
る。メモリ10は、録音された音声データや登録された
情報、所定の音声性質情報、表示形式の内容などを記憶
する不揮発性で書き換え可能なメモリ(RAM,ハード
ディスクなど)と、CPUに音声認識,録音,登録,分
析,関係付けなどの各機能を実現させるためのプログラ
ムを記憶するメモリ(ROM,RAM,ハードディス
ク)などから構成される。The voice recognition section 20 is a section for changing the voice input from the microphone into characters, symbols, etc., and is realized by software or a CPU or special hardware. The memory 10 is a non-volatile rewritable memory (RAM, hard disk, etc.) for storing recorded voice data, registered information, predetermined voice property information, display format contents, etc., and CPU for voice recognition and recording. , A memory (ROM, RAM, hard disk) for storing programs for realizing various functions such as registration, analysis, and association.
【0018】時刻発生部14は、現在の時刻をCPU1
1に知らせるものであり、ソフトウェアあるいは専用の
ハードウェアにより実現される。または、通信部15を
介してインターネット16等にアクセスすることにより
日及び時刻情報を得てもよい。The time generation unit 14 uses the current time as the CPU 1
1 is notified to the user and is realized by software or dedicated hardware. Alternatively, the date and time information may be obtained by accessing the Internet 16 or the like via the communication unit 15.
【0019】CPU11は、ROM,SRAM,タイマ
ー,I/Oコントローラなどからなるマイクロコンピュ
ータであり、メモリ10に記録されたプログラムに基づ
いて、音声認識,通信,登録,録音,分析,関連付け処
理などのこの発明のウェブブラウザに関する処理を実行
する。The CPU 11 is a microcomputer including a ROM, an SRAM, a timer, an I / O controller, etc., and performs voice recognition, communication, registration, recording, analysis, association processing, etc. based on a program recorded in the memory 10. The processing relating to the web browser of the present invention is executed.
【0020】この発明のメモリ10のうち、書き換え可
能なメモリ、たとえばハードディスクには、次のような
データが記録される。
(1)音声性質登録データ100:音声の性質と表示形
式
(2)ホームページ登録データ101:ホームページア
ドレスと読み
(3)音声データ102:マイクから録音された音声
(4)読みデータ103:音声認識用の文字、記号の音
声サンプルデータOf the memory 10 of the present invention, the following data is recorded in a rewritable memory such as a hard disk. (1) Voice property registration data 100: Voice properties and display format (2) Homepage registration data 101: Homepage address and reading (3) Voice data 102: Voice recorded from microphone (4) Reading data 103: For voice recognition Sample character and symbol voice sample data
【0021】ここで、「音声性質登録データ100」と
は、後述するAction登録で登録されるデータであ
り、録音された音声の性質と表示形式内容とを対応付け
たものである。この対応付けられたデータは、図8に示
すようにAction Table28のデータとして
メモリ10の中に記憶される。Here, the "speech property registration data 100" is data registered in the Action registration, which will be described later, and associates the property of the recorded sound with the display format content. The associated data is stored in the memory 10 as the data of the Action Table 28 as shown in FIG.
【0022】Action登録で登録されるデータと
は、音声の性質(音声タイプとも呼ぶ)として、「男性
または女性」,「若年または年配」,「元気またはお疲
れ」というような分類項目280を設け、それぞれの分
類項目について一日のうちの時間帯(281,282,
283)で細分類する。時間帯とはたとえば、「朝」,
「昼」,「夜」の3分類とする。また、「表示形式」と
は、表示部12に表示する文字のフォントの種類(Fon
t),文字のサイズ(Size),表示する色(Color)など
をいう。The data registered in the Action registration includes classification items 280 such as "male or female", "young or elderly", and "genki or tired" as the nature of the voice (also called voice type). , For each category, the time of day (281, 282,
283). The time zone is, for example, "morning",
There are 3 categories, "day" and "night". In addition, the “display format” means the font type (Fon
t), character size (Size), display color (Color), etc.
【0023】たとえば、図8において、「男性」という
音声タイプについては、「朝」の項目としてFontにゴシ
ック体、「昼」の項目としてFontに明朝体、「夜」の項
目としてPOPが登録されている。これは、「朝」281
の時間帯に「男性」の声と認識された音声が入力された
場合には、表示部12の表示はゴシック体で行われるこ
とを意味し、さらに「昼」282の時間帯に男性の音声
が入力された場合は明朝体で表示し、「夜」283の時
間帯であればPOP体で表示することを意味する。同様
に、図8によれば、「年配」の声と認識された音声が入
力された場合には、表示部12の表示は、朝,昼,夜の
いずれの動作の場合も、大きなサイズの文字で表示する
ことを意味する。For example, in FIG. 8, for the voice type "male", Gothic font is registered in Font as "morning", Mincho font is registered in Font as "day", and POP is registered as "night". Has been done. This is "morning" 281
When a voice recognized as a “male” voice is input in the time zone of, the display on the display unit 12 is displayed in Gothic, and the voice of the male is displayed in the time zone of “day” 282. When is input, it means to display in Mincho type, and in the time zone of "night" 283, it means to display in POP type. Similarly, according to FIG. 8, when the voice recognized as the “elderly” voice is input, the display on the display unit 12 is displayed in a large size regardless of whether the motion is morning, daytime, or night. Means to display in characters.
【0024】図8においては、表示形式として、Font,
Size及びColorの3つを示しているが、例示であってこ
れに限るものではない。この他の表示形式としては、た
とえば、網かけ,下線,点滅表示,ボールド(強調),
イタリック(傾斜)などがあげられる。また、各音声タ
イプについてただ1つの表示形式を示しているが、1つ
に限るものではなく、複数以上登録できるようにしても
よい。たとえば、「元気」の項目について、Colorの
他、Font及びSizeも登録できるようにし、朝の動作28
1として、Color=青,Font=ゴシック,Size=中の3
つの条件を満たす表示をするようにしてもよい。In FIG. 8, as the display format, Font,
Although three of Size and Color are shown, they are examples and not limited to these. Other display formats include, for example, shading, underline, blinking display, bold (emphasis),
For example, italics (tilt). Further, although only one display format is shown for each voice type, the number is not limited to one, and a plurality of registration formats may be registered. For example, with regard to the item of “genki”, it is possible to register Font and Size in addition to Color, and the morning operation 28
1, Color = blue, Font = Gothic, Size = 3 in the middle
You may make it display the one condition.
【0025】「ホームページ登録データ101」とは、
いわゆるブックマークの登録によって記録されたデータ
であり、図6に示すように、TABLE24のデータと
してメモリ10の中に記憶されるものである。ここでT
ABLE24の内容は、主としてタイトル241,アド
レス242,よみ243から構成される。"Homepage registration data 101" means
This is data recorded by so-called bookmark registration, and is stored in the memory 10 as data of the TABLE 24 as shown in FIG. Where T
The contents of the ABLE 24 are mainly composed of a title 241, an address 242, and a reading 243.
【0026】タイトル241は、ホームページの表題
(たとえば、毎朝新聞)に相当し、アドレス242は、
ホームページのURL(たとえば、http://www.maicho.
co.jp/)に相当し、よみ243は、利用者がこのホーム
ページを呼び出すときの音声に対応する文字列(たとえ
ば、マイチョー)に相当する。The title 241 corresponds to the title of the home page (for example, every morning newspaper), and the address 242 is
Home page URL (for example, http: //www.maicho.
Co.jp/), and the reading 243 corresponds to a character string (for example, my cho) corresponding to the voice when the user calls this home page.
【0027】たとえば、利用者がマイク19に向かって
「マイチョー」という音声を発したときに、音声認識に
より「マイチョー」と認識されたとすると、TABLE
24の検索によりこのよみ243「マイチョー」に対応
するアドレス242が選択されて、そのアドレス242
のホームページをアクセスする動作が実行される。For example, if the user utters the voice "My cho" into the microphone 19, the voice recognition recognizes "My cho".
By searching 24, the address 242 corresponding to this reading 243 “My cho” is selected, and the address 242 is selected.
The operation of accessing the homepage of is executed.
【0028】メモリ10に記憶される「音声データ10
2」とは、マイク19から入力された音声をA/D変換
して記憶したものであり、音声認識部20は、この音声
データ102をもとに音声認識を行う。「読みデータ1
03」は、音声認識のために利用される文字,記号等の
音声サンプルデータであり、録音された音声データ10
2とこの読みデータ103とのマッチングを行うことに
より、音声認識が行われ、該当する文字列などが生成さ
れる。[Voice data 10 stored in the memory 10
“2” means that the voice input from the microphone 19 is A / D converted and stored, and the voice recognition unit 20 performs voice recognition based on the voice data 102. "Reading data 1
“03” is voice sample data such as characters and symbols used for voice recognition, and recorded voice data 10
By matching 2 with the reading data 103, voice recognition is performed and a corresponding character string or the like is generated.
【0029】この発明の音声認識では、従来行われてい
るような「音声の文字化」のみならず、音声の性質の分
析も行うものとする。たとえば、録音された音声の性
別,年齢,身体状態の分析を行う。In the voice recognition of the present invention, not only the "characterization of voice" which is conventionally performed, but also the analysis of the nature of voice is performed. For example, the recorded voice is analyzed for gender, age, and physical condition.
【0030】ここで、たとえば「性別」を分析するため
には、録音された音声の周波数を測定する。そして音声
の周波数が所定の周波数よりも高い場合は「女性」の声
と判断し、逆に低い場合は「男性」の声と判断する。
「年齢」を分析するためには、録音された音声の発声速
度を測定する。そして、発声の速度が所定の速度よりも
速い場合には、「若年」の声と判断し、遅い場合は「年
配」の声と判断する。Here, in order to analyze, for example, "sex", the frequency of the recorded voice is measured. When the frequency of the voice is higher than the predetermined frequency, it is determined that the voice is “female”, and when the frequency is low, it is determined that the voice is “male”.
To analyze "age", the speaking rate of the recorded voice is measured. Then, when the utterance speed is higher than a predetermined speed, it is determined that the voice is "young", and when it is slow, the voice is "elderly".
【0031】「身体状態」を分析するためには、録音さ
れた音声の音量を測定する。そして音量が所定の音量よ
りも大きい場合は、「元気」であると判断し、小さい場
合は「疲れている」と判断する。以上の判断基準は、例
示であって、これに限るものではない。また、以上のよ
うな分析をするために、音声認識部20は、周波数測定
部,発生速度測定部,音量測定部を少なくとも備える必
要があるが、これらは、既存の測定装置やソフトウェア
により実現することができる。To analyze the "body condition", the volume of the recorded voice is measured. When the volume is higher than the predetermined volume, it is determined that the user is “alive”, and when the volume is low, the user is “tired”. The above judgment criteria are examples, and the invention is not limited to these. Further, in order to perform the above-described analysis, the voice recognition unit 20 needs to include at least a frequency measurement unit, a generation speed measurement unit, and a sound volume measurement unit, which are realized by an existing measurement device or software. be able to.
【0032】また、メモリ10には、音声認識や分析,
通信等の各処理を実行するときに必要なデータが一時的
に格納される。たとえば、「マイチョー」という音声が
録音されたときには、「マイチョー」という認識後の文
字列,録音された音声の性質を分析した結果である「男
性」,「若年」,「元気」という特徴、音声が入力され
た現在時刻の時間帯情報(たとえば「朝」)が、一時的
にメモリ10内に格納される。In the memory 10, voice recognition and analysis,
Data necessary for executing each process such as communication is temporarily stored. For example, when the voice "My cho" is recorded, the character string after recognition "my cho", the result of analyzing the nature of the recorded voice "male", "young", "genki" characteristics, voice The time zone information (for example, "morning") of the current time when is input is temporarily stored in the memory 10.
【0033】図2に、この発明のウェブブラウザの一実
施例の処理の概略説明図を示す。図2の(a),
(b),(c)の流れは、「ホームページの登録」の流
れを示したものであり、(a),(d),(e)の流れ
は「Action登録」の流れを示したものである。図
2の(a)は、利用者に提示される表示部及び操作部の
一実施例を示している。表示部12には、図のようにた
とえば「毎朝新聞のホームページ」の内容が表示され
る。下側部分には、3つの操作ボタンが備えられ、右側
にはマイク19,スピーカ18が備えられている。操作
ボタン21は、現在表示されているホームページの登録
を行うための「マークボタン」であり、操作ボタン25
は、後述するAction登録を行うための「Acti
onボタン」であり、操作ボタン30は、ホームページ
の表示を実行するための「ジャンプボタン」である。FIG. 2 is a schematic explanatory view of the processing of one embodiment of the web browser of the present invention. 2 (a),
The flow of (b) and (c) shows the flow of "homepage registration", and the flow of (a), (d), and (e) shows the flow of "Action registration". is there. FIG. 2A shows an example of the display unit and the operation unit presented to the user. On the display unit 12, as shown in the figure, for example, the contents of "every morning newspaper home page" are displayed. The lower portion is provided with three operation buttons, and the right side is provided with a microphone 19 and a speaker 18. The operation button 21 is a “mark button” for registering the currently displayed homepage, and the operation button 25
"Acti" for performing the Action registration described later.
The operation button 30 is an “on button”, and the operation button 30 is a “jump button” for executing the display of the home page.
【0034】図2の(a)の表示状態のときに、マーク
ボタン21が押されたとすると、図2の(b)の表示が
されホームページの登録処理が実行できるようになる。
図2の(b)では、いわゆるブックマーク22として登
録される内容が表示される。ここで、タイトル241に
は、図2の(a)で表示されていたホームページのタイ
トル(毎朝新聞ホームページ)が表示され、URL24
2には、現在表示されているホームページのURL(ht
tp://www.maicho.co.jp)が表示される(図5参照)。When the mark button 21 is pressed in the display state of FIG. 2A, the display of FIG. 2B is displayed and the homepage registration process can be executed.
In FIG. 2B, the content registered as a so-called bookmark 22 is displayed. Here, in the title 241, the title of the home page (every morning newspaper home page) displayed in FIG. 2A is displayed, and the URL 24
2 is the URL of the home page currently displayed (ht
(tp: //www.maicho.co.jp) is displayed (see Fig. 5).
【0035】この表示241,242が適切であれば利
用者は確認するだけでよいが、必要に応じて利用者が図
示していないキーボードやマウスなどの入力装置を用い
てタイトル241等を変更してもよい。よみ243の欄
は、次回このホームページを音声入力で呼出すときに利
用するよみを指定するものであり、音声認識の際に利用
される。このよみ243は、利用者がキーボードなどを
利用して入力してもよく、また、マイク19に向かって
音声入力をしてもよい。If the displays 241 and 242 are appropriate, the user only has to confirm, but if necessary, the user can change the title 241 and the like by using an input device such as a keyboard and a mouse not shown. May be. The reading column 243 is used for designating a reading to be used when calling this home page by voice input next time, and is used for voice recognition. The reading 243 may be input by the user using a keyboard or the like, or may be input by voice into the microphone 19.
【0036】図5は、このよみ243に、「マイチョ
ー」と入力した状態を示している。図2の(b)におい
て、3つの項目(241,242,243)の入力をし
た後、「登録ボタン23」を押すことにより、図2の
(c)に示すようにこの3つの項目の内容が、メモリ1
0内のTable24のそれぞれの領域に登録される
(図6参照)。次回、毎朝新聞のホームページを呼出し
たいときは、利用者は、マイク19に向かって「マイチ
ョー」と発声すればよい。この音声が音声認識部によっ
て「マイチョー」と認識されたとすると、この認識結果
の「マイチョー」と、Table24のよみ243の
「マイチョー」とがマッチングされる。そして、これに
対応するホームページアドレス242が読み出されて、
このアドレスに接続する処理が行われ、毎朝新聞のホー
ムページが表示部12に表示される。FIG. 5 shows a state in which “my cho” is input to the reading 243. 2 (b), after inputting the three items (241, 242, 243), by pressing the "register button 23", the contents of these three items as shown in FIG. 2 (c). But memory 1
It is registered in each area of the Table 24 within 0 (see FIG. 6). The next time the user wants to call the homepage of the newspaper every morning, the user may say "My cho" into the microphone 19. If this voice is recognized as “my cho” by the voice recognition unit, “my cho” of this recognition result and “my cho” of the reading 243 of the Table 24 are matched. Then, the homepage address 242 corresponding to this is read out,
The process of connecting to this address is performed, and the homepage of the newspaper is displayed on the display unit 12 every morning.
【0037】図2の(a)において、Actionボタ
ン25が押されたとすると、図2の(d)に示す「Ac
tion登録26」の画面が表示され、音声タイプ28
0に対応する表示形式の登録ができるようになる。Ac
tion登録とは、音声の性質ごとに表示形式を登録す
ることをいう。図7に、Action登録26の画面の
表示内容の一実施例を示す。図8に、Action登録
で登録されたデータを記憶したAction Tabl
e28を示す。If the Action button 25 is pressed in FIG. 2A, "Ac" shown in FIG.
"Registration 26" screen is displayed and voice type 28
The display format corresponding to 0 can be registered. Ac
Toion registration refers to registering a display format for each property of voice. FIG. 7 shows an example of the display contents of the screen of the action registration 26. FIG. 8 shows the Action Table storing the data registered in the Action registration.
e28 is shown.
【0038】図7において、音声タイプ280として、
性別を区別する項目(男性,女性)、年齢を区別する項
目(若年,年配)、身体状態を区別する項目(元気,お
疲れ)を示しており、それぞれの項目について3つの時
間帯に細分類している。時間帯とは、音声入力がされる
時刻範囲をいい、図7では朝281(0時〜8時)、昼
282(8時〜16時)、夜283(16時〜0時)の
3つに分類されている。In FIG. 7, as a voice type 280,
It shows items that distinguish gender (male, female), items that distinguish age (younger, older), and items that distinguish physical condition (genki, tired). Each item is subdivided into three time zones. is doing. The time zone refers to a time range in which voice input is performed, and in FIG. 7, it is three in the morning 281 (0:00 to 8:00), day 282 (8:00 to 16:00), and night 283 (16:00 to 0:00). It is classified into.
【0039】この3つの時間帯の分類の中には、登録さ
れた表示形式の内容が表示されている。利用者は、この
登録内容を確認して変更する必要がある場合には、その
表示形式の部分の内容を、キーボード等を用いて変更す
る。また、この登録内容を登録する場合には、登録ボタ
ン27を押す。登録ボタン27を押すと、図2の(e)
及び図8のように、メモリ10の中のActionTa
ble28の領域に、図7に示したような表示形式の内
容が登録される。このAction Table28
は、音声入力でホームページの呼出しがされた場合にそ
のホームページの表示が行われる際に参照される。The contents of the registered display format are displayed in the classification of these three time zones. If the user needs to confirm and change the registered contents, the user changes the contents of the display format portion using a keyboard or the like. Further, when registering this registration content, the registration button 27 is pressed. When the registration button 27 is pressed, (e) in FIG.
And as shown in FIG. 8, the ActionTa in the memory 10
The contents of the display format as shown in FIG. 7 are registered in the area of the ble 28. This Action Table28
Is referred to when the home page is displayed when the home page is called by voice input.
【0040】音声認識の際に、登録された音声の性質が
分析されて音声の性質が「若年」と判断され、その音声
が入力されたときが10時であるとすると、このAct
ion Table28を参照することにより、表示形
式として、若年かつ昼の動作に対応する「Size=
小」が選択される。そして、表示文字のサイズが「小」
の状態で、ホームページの内容が表示される。以上が、
ホームページの登録、及びAction登録の処理の概
要である。At the time of voice recognition, if the registered voice is analyzed and the voice is judged to be "young" and the voice is input at 10 o'clock, this Act is assumed.
By referring to the ion table 28, as a display format, “Size =” that corresponds to a young and daytime motion is displayed.
"Small" is selected. And the size of the displayed characters is "small"
The contents of the homepage are displayed in the state of. More than,
It is an outline of processing of registration of homepage and registration of Action.
【0041】次に、ホームページの呼出し及び画面の表
示形式の変更について、図3を用いて説明する。図3
は、図2の(a)と同様に表示部12及び操作部の状態
を示している。表示部12にホームページが表示されて
いない状態で音声入力がされるか、あるいは、ホームペ
ージが表示されているが、そのホームページとは関係の
ない音声入力がされたとする。たとえば、利用者がマイ
ク19に向かって「マイチョー」と発声したとする。発
声された音声が録音されると、音声認識部20による音
声の認識と、音声の性質の分析が行われる。Next, the calling of the home page and the change of the display format of the screen will be described with reference to FIG. Figure 3
Shows the states of the display unit 12 and the operation unit as in the case of FIG. It is assumed that voice input is performed in a state where the home page is not displayed on the display unit 12, or that the home page is displayed but the voice input is not related to the home page. For example, it is assumed that the user utters "My cho" into the microphone 19. When the uttered voice is recorded, the voice recognition unit 20 recognizes the voice and analyzes the nature of the voice.
【0042】音声の認識では、「マイチョー」という音
声が、「マイチョー」という文字列に変換される。音声
の性質の分析では、前記したように周波数測定,発声速
度の測定,及び音量の測定が行われ、それぞれの測定結
果と所定の判断基準との比較により、男性/女性の判
断、若年/年配の判断、身体状態の元気/お疲れの判断
がされる。すなわち音声の性質分析により、音声のタイ
プが判断される。In the voice recognition, the voice "My cho" is converted into the character string "My cho". In the analysis of voice characteristics, frequency measurement, vocalization speed measurement, and sound volume measurement are performed as described above, and by comparing the respective measurement results with predetermined judgment criteria, judgment of male / female, young / aged Is judged, and whether the person is healthy or tired is judged. That is, the type of voice is determined by analyzing the characteristics of the voice.
【0043】さらに、時刻発生部14から音声が入力さ
れた現在時刻を得て、現在の時間帯が、朝,昼または夜
のいずれであるか判断される。そして、以上の判断によ
り得られた「時間帯」と「音声のタイプ」とを用いてA
ction Table28を参照し、表示形式が決定
される。Further, the present time when the voice is input from the time generation unit 14 is obtained, and it is judged whether the present time zone is morning, noon or night. Then, using the “time zone” and the “voice type” obtained by the above judgment, A
The display format is determined by referring to the action Table 28.
【0044】たとえば、音声の性質分析で、「女性」,
「年配」及び「お疲れ」と判断され、時間帯が「夜」と
判断されたとすると、Action Table28よ
り表示形式として、「Font=丸文字,Size=
大,Color=淡緑」が決定される。For example, in the analysis of the characteristics of voice, "female",
If it is determined that “elderly” and “tired” and the time zone is “night”, the action table 28 displays “Font = circle character, Size =” as the display format.
Large, Color = light green ”is determined.
【0045】このように、表示形式が決定された後、そ
の表示形式の内容を確認するために、図3(a)に示す
ような表示をする。図3(a)では、決定した表示形式
のうちの1つである「フォントを大きくします」という
表示29を表示している状態を示している。また、この
表示29を行う際に、同時に、決定した表示形式の内容
を合成音声を用いてスピーカ18から出力するようにし
てもよい。このような合成音声の出力をすることによ
り、利用者は画面上を確認しなくても、容易に、表示形
式を確認することができる。After the display format is determined in this way, a display as shown in FIG. 3A is displayed in order to confirm the contents of the display format. FIG. 3A shows a state in which the display 29 “Enlarge font”, which is one of the determined display formats, is displayed. Further, when the display 29 is performed, the contents of the determined display format may be simultaneously output from the speaker 18 using synthetic voice. By outputting such a synthesized voice, the user can easily check the display format without checking the screen.
【0046】そして、この表示形式の確認の後、Tab
le24が参照されて、「マイチョー」というよみに対
応するホームページアドレスが読み出されて、接続動作
を行い、図3(b)に示すように表示部12に、毎朝新
聞のホームページ210が表示される。After confirming the display format, Tab
le24 is referred to, the homepage address corresponding to the phrase "My Cho" is read out, the connection operation is performed, and the homepage 210 of the newspaper is displayed on the display unit 12 every morning as shown in FIG. 3 (b). .
【0047】図9,図10及び図11に、この発明のウ
ェブブラウザが行う処理の一実施例のフローチャートを
示す。図9は、ウェブブラウザの処理のうち、この発明
に関連する部分の全体フローチャートである。この処理
は、CPU11がプログラムに基づいて実行するもので
ある。まず、ホームページの登録数Nを、0に初期化す
る(ステップS1)。次に、指定されたページの表示を
行う(ステップS2)。初期状態では表示は行わない。
次に、図2(a)の状態で、マークボタン21,Act
ionボタン25,マイク19からの音声、またはジャ
ンプボタン30のいずれかから、入力があるか否かを監
視する(ステップS3)。FIG. 9, FIG. 10 and FIG. 11 show flow charts of an embodiment of the processing performed by the web browser of the present invention. FIG. 9 is an overall flowchart of a portion of the processing of the web browser, which is relevant to the present invention. This processing is executed by the CPU 11 based on the program. First, the number of registered homepages N is initialized to 0 (step S1). Next, the designated page is displayed (step S2). No display is made in the initial state.
Next, in the state of FIG. 2A, the mark button 21, Act
Whether there is an input from any of the ion button 25, the voice from the microphone 19 or the jump button 30 is monitored (step S3).
【0048】マークボタン21が押下げられた場合は、
図2(b),(c)に示すようなホームページ登録処理
(ステップS4)を行い、ステップS2へ戻る。Act
ionボタン25が押下げられた場合は、図2の(d)
に示すAction登録の画面表示を行う(ステップS
5)。次に、各音声タイプ別及び時間帯別に、利用者が
表示形式の内容を入力する(ステップS6)。そして、
図2の(d)の登録ボタン27が押下げられたかどうか
チェックする(ステップS7)。When the mark button 21 is pushed down,
Homepage registration processing (step S4) as shown in FIGS. 2B and 2C is performed, and the process returns to step S2. Act
When the ion button 25 is pressed, (d) in FIG.
The screen for the action registration shown in is displayed (step S
5). Next, the user inputs the contents of the display format for each voice type and each time zone (step S6). And
It is checked whether or not the registration button 27 shown in FIG. 2D has been pressed (step S7).
【0049】登録ボタン27が押下げられたとき、ステ
ップS6で入力された表示形式のデータを、Actio
n Table28に登録する(ステップS8)。ジャ
ンプボタン30が押下げられた場合は、ホームページの
アドレスの入力をうながすための表示をする(ステップ
S15)。そして、図示しないキーボードや特定のボタ
ン押下によりアドレスの入力がされた後、そのアドレス
を持つホームページに接続する動作をして、表示ページ
を切替える(ステップS16)。When the registration button 27 is pressed, the data in the display format input in step S6 is changed to Actio.
It is registered in the n Table 28 (step S8). When the jump button 30 is pressed, a display is displayed to prompt the input of the homepage address (step S15). Then, after an address is input by pressing a keyboard (not shown) or a specific button, an operation of connecting to a home page having the address is performed to switch the display page (step S16).
【0050】ステップS3で、マイク19から音声が入
力されたことが確認されると、その入力された音声がデ
ータ102としてメモリ10上に登録され、音声認識部
20による音声認識を行う(ステップS9)。ここで、
マイク19から音声が入力されたことの確認は、CPU
に対する割込処理などを用いて行うことができる。音声
認識により、録音された音声に対応する文字列が生成さ
れるが、その結果を変数Resultに格納するものと
する。When it is confirmed in step S3 that the voice is input from the microphone 19, the input voice is registered in the memory 10 as the data 102, and the voice recognition unit 20 performs the voice recognition (step S9). ). here,
Confirm that the voice is input from the microphone 19 by checking the CPU
It can be performed by using an interrupt process or the like. The character string corresponding to the recorded voice is generated by the voice recognition, and the result is stored in the variable Result.
【0051】次に、このResultを利用して、図2
の(c)に示したTable24とのマッチング処理を
行う(ステップS10)。マッチング処理とは、音声認
識の結果生成された文字列と一致可能なものがTabl
e24に登録されている「よみ243」の中に存在する
か否かを確認することである。後述するように、このマ
ッチング処理では一致可能なよみが存在する場合には変
数「status」=OKとなり、存在しない場合は
「status」=NGとなるとする。Next, using this Result, as shown in FIG.
The matching process with the Table 24 shown in (c) is performed (step S10). The matching process is Tabl if it can match the character string generated as a result of the voice recognition.
It is to confirm whether or not it exists in the "reading 243" registered in e24. As will be described later, in this matching process, the variable “status” = OK if there is a matchable read, and the variable “status” = NG if there is no matchable read.
【0052】次に、マッチング処理の結果、「stat
us」=OKか否かを判断し(ステップS11)、OK
ならば、入力された音声データの性質を分析する処理を
行う(ステップS12)。ここで分析処理とは、前記し
たような周波数測定,発生速度の測定,音量測定をい
い、これらの測定結果と、所定の判断基準値との比較を
行うことにより、性別,年齢及び身体状態の判断を行
う。判断された性別,年齢,身体状態と現在の時刻と、
Action Tableの内容とから表示形式を決定する。ステッ
プS2ではその表示形式で表示を行う。Next, as a result of the matching processing, "stat
"us" = OK is determined (step S11), and OK
If so, a process of analyzing the property of the input voice data is performed (step S12). Here, the analysis processing means the frequency measurement, the generation speed measurement, and the sound volume measurement as described above. By comparing these measurement results with a predetermined judgment reference value, it is possible to determine the sex, age, and physical condition. Make a decision. The determined gender, age, physical condition and current time,
Determine the display format from the contents of Action Table. In step S2, display is performed in that display format.
【0053】そして、この判断の結果、表示形式が変更
されることになった場合、表示部12に、画面の表示形
式を変更する旨の表示をする(ステップS13)。ここ
で、同時に、音声認識の結果も表示してもよい。さら
に、この表示と同じ内容を合成音声を用いて、スピーカ
から出力する(ステップS14)。When the display format is changed as a result of this determination, the display section 12 displays a message indicating that the display format of the screen is to be changed (step S13). Here, at the same time, the result of voice recognition may be displayed. Further, the same content as this display is output from the speaker using the synthetic voice (step S14).
【0054】以上が、この発明のウェブブラウザの全体
のフローチャートであるが、主として、ホームページ登
録機能,表示形式を登録するAction登録機能,音
声認識及び音声性質分析機能,ホームページ切替機能を
備えることを特徴とする。The above is the overall flow chart of the web browser of the present invention. It is mainly equipped with a home page registration function, an action registration function for registering the display format, a voice recognition and voice property analysis function, and a home page switching function. And
【0055】特に、入力された音声の性質を分析して、
分析された性質に対応した表示形式で表示を行うように
しているので、利用者ごとに、わかりやすい表示をする
ことができる。また、入力された音声の分析結果に基づ
いて表示形式が変更されるので、利用者が特別な操作を
することもなく、表示形式変更のための利用者の負担も
少ない。さらに、表示形式の変更をする旨や、音声認識
の結果を確認する表示をしたり、合成音声で通知するよ
うにしているので、誤動作を防止でき、利用者にとって
より使いやすい機能を提供できる。In particular, by analyzing the nature of the input voice,
Since the display is made in the display format corresponding to the analyzed property, it is possible to make the display easy to understand for each user. Further, since the display format is changed based on the analysis result of the input voice, the user does not perform a special operation and the burden on the user for changing the display format is small. Further, since the display format is changed, the result of the voice recognition is confirmed, and the notification is made by the synthetic voice, the malfunction can be prevented, and the function which is easier for the user to use can be provided.
【0056】図10に、ステップS4に示したホームペ
ージの登録の詳細フローチャートを示す。まず、現在表
示されているホームページに記載されているタイトル
を、変数Titleに格納する(ステップS21)。現
在表示されているホームページのアドレスを、変数UR
Lに格納する(ステップS22)。図2の(b)に示し
たような、登録用画面を、表示部12に表示する(ステ
ップS23)。FIG. 10 shows a detailed flowchart of registration of the home page shown in step S4. First, the title described in the currently displayed home page is stored in the variable Title (step S21). The address of the home page currently displayed is the variable UR
It is stored in L (step S22). The registration screen as shown in FIG. 2B is displayed on the display unit 12 (step S23).
【0057】利用者は、タイトル及びURLを確認し、
変更したい場合は、編集作業をする(ステップS2
4)。さらに利用者が音声認識用の読みを入力すると、
その読みを、変数Yomiに格納する(ステップS2
5)。この後、登録ボタン23が押下げられたか否かを
確認する(ステップS26)。登録ボタン23が押下げ
られた場合、一時格納されていた変数Title,UR
L,Yomiのデータを、Table24の中のN番目
の領域Table[N]に、記憶する(ステップS2
7)。そして、変数Nに1を加算し(ステップS2
8)、処理を終了する。The user confirms the title and URL,
If you want to change it, edit it (step S2).
4). Furthermore, if the user inputs a reading for voice recognition,
The reading is stored in the variable Yomi (step S2).
5). After that, it is confirmed whether or not the registration button 23 is pushed down (step S26). When the registration button 23 is pressed, the variables Title and UR that have been temporarily stored are stored.
The L and Yomi data are stored in the N-th area Table [N] in the Table 24 (step S2).
7). Then, 1 is added to the variable N (step S2
8), the process ends.
【0058】図11に、ステップS10に示したTab
leとのマッチングの詳細フローチャートを示す。ま
ず、マッチングを調べる番号を示す変数iを、ゼロに初
期化する(ステップS31)。Table24のi番目
の読みと、音声認識の結果が格納されている変数Res
ultとが一致するか否かチェックする(ステップS3
2)。一致すれば、変数statusを“OK”として
終了する(ステップS36)。一致しない場合は、変数
iに1を加算し(ステップS33)、変数iがTabl
e24に登録されている数Nよりも小さいか否か確認し
(ステップS34)、小さい場合はステップS32へ戻
る。i≧Nの場合は、登録された読みには一致するもの
がなかったということで、変数statusに“NG”
をセットして終了する(ステップS35)。FIG. 11 shows the Tab shown in step S10.
The detailed flowchart of the matching with le is shown. First, the variable i indicating the number for checking the matching is initialized to zero (step S31). Variable Res in which the i-th reading of Table 24 and the result of voice recognition are stored
It is checked whether or not they match with ult (step S3).
2). If they match, the variable status is set to "OK" and the process ends (step S36). If they do not match, 1 is added to the variable i (step S33), and the variable i is Tabl.
It is confirmed whether the number N is smaller than the number N registered in e24 (step S34), and if smaller, the process returns to step S32. If i ≧ N, there is no match in the registered readings, so “NG” is set in the variable status.
Is set and the process ends (step S35).
【0059】以上、ホームページの登録と、Table
24とのマッチングについて詳細フローチャートを示し
たが、この処理の流れは一実施例であり、これに限定す
るものではない。たとえば、ステップS32の読みが一
致するか否かは、文字列すべてが完全一致するか否かを
判断するのではなく、前方一致や後方一致など、一部分
が一致するものがあるか否かを判断してもよい。As described above, registration of the homepage and Table
Although the detailed flowchart for matching with 24 is shown, the flow of this processing is an example, and the present invention is not limited to this. For example, whether the readings in step S32 match or not does not determine whether all the character strings completely match, but determines whether there is a partial match such as a forward match or a backward match. You may.
【0060】また、一致するものがTable24の中
に複数個ある場合には、その複数個の候補を表示して利
用者に選択させるようにしてもよいが、後に登録された
ものを優先するなどの処理をして、選択候補を1つにし
ぼってもよい。When there are a plurality of matching items in the Table 24, the plurality of candidates may be displayed and the user may be selected, but the one registered later has priority. The processing may be performed to narrow down the selection candidates to one.
【0061】また、読みが一致しても、入力された音声
の性質が設定したものと異なれば、そのホームページを
呼び出せないようにしてもよい。たとえば、「あいうえ
お」という読みと、「女性」という音声の性質とを対に
して記憶しておき、「あいうえお」という音声が女性の
声で入力されたと判断されたときのみ、そのホームペー
ジを開くことができ、「あいうえお」という音声が男性
の声で入力されたと判断されたときは、そのホームペー
ジは開けないようにすれば、より利用者にとって便利な
機能を提供できる。Even if the readings match, the home page may not be called if the input voice has a different property from the set one. For example, memorize the reading "aiueo" and the character of the voice "female" as a pair, and open the home page only when it is determined that the voice "aiueo" is input by a female voice. When it is determined that the voice "aiueo" is input by a male voice, it is possible to provide a more convenient function for the user by not opening the home page.
【0062】[0062]
【発明の効果】この発明によれば、音声の性質を分析し
て表示形式を選択するようにしているので、利用者が特
別な操作をすることなく容易に表示形式が決定され、利
用者ごとにわかりやすいホームページの表示をすること
ができる。また、利用者自身の好みに合わせた表示形式
の変更が可能である。さらに、音声認識の結果及び音声
の性質の分析結果を、表示画面上や、合成音声で容易に
確認できる。According to the present invention, the display format is selected by analyzing the nature of the voice, so that the display format can be easily determined without any special operation by the user. The home page can be displayed easily. Also, the display format can be changed according to the user's own preference. Furthermore, the result of voice recognition and the result of analysis of the nature of voice can be easily confirmed on the display screen or on the synthesized voice.
【図1】この発明のウェブブラウザの一実施例の概略構
成ブロック図である。FIG. 1 is a schematic block diagram of an embodiment of a web browser of the present invention.
【図2】この発明のウェブブラウザの一実施例の処理の
概略説明図である。FIG. 2 is a schematic explanatory diagram of a process of an embodiment of a web browser of the present invention.
【図3】この発明のウェブブラウザのホームページの呼
出し処理の概略説明図である。FIG. 3 is a schematic explanatory view of a call processing of a home page of a web browser of the present invention.
【図4】この発明の表示部及び操作部の一実施例の説明
図である。FIG. 4 is an explanatory diagram of an embodiment of a display unit and an operation unit of the present invention.
【図5】この発明のブックマークの内容の説明図であ
る。FIG. 5 is an explanatory diagram of contents of a bookmark according to the present invention.
【図6】この発明のホームページ登録用のTableの
説明図である。FIG. 6 is an explanatory diagram of a homepage registration table of the present invention.
【図7】この発明のAction登録の説明図である。FIG. 7 is an explanatory diagram of Action registration of the present invention.
【図8】この発明のAction Tableの説明図
である。FIG. 8 is an explanatory diagram of an Action Table of the present invention.
【図9】この発明のブラウザの一実施例の全体フローチ
ャートである。FIG. 9 is an overall flowchart of one embodiment of the browser of the present invention.
【図10】この発明のホームページ登録の一実施例のフ
ローチャートである。FIG. 10 is a flowchart of an embodiment of home page registration of the present invention.
【図11】この発明のTableとのマッチングの一実
施例のフローチャートである。FIG. 11 is a flowchart of an embodiment of matching with Table according to the present invention.
10 メモリ 11 CPU 12 表示部 13 表示制御部 14 時刻発生部 15 通信部 16 インターネット 17 キーボード 18 スピーカ 19 マイク 20 音声認識部 21 マークボタン 22 ブックマーク 23 登録ボタン 24 Table 25 Actionボタン 26 Action登録 27 登録ボタン 28 Action Table 29 表示 30 ジャンプボタン 100 音声性質登録データ 101 ホームページ登録データ 102 音声データ 103 読みデータ 10 memory 11 CPU 12 Display 13 Display control unit 14 Time generator 15 Communication 16 Internet 17 keyboard 18 speakers 19 microphone 20 Speech recognition unit 21 mark button 22 Bookmarks 23 Registration button 24 Table 25 Action button 26 Action Registration 27 Registration button 28 Action Table 29 display 30 jump button 100 Voice property registration data 101 Homepage registration data 102 audio data 103 reading data
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 561C 15/10 R 15/22 S 15/28 551P 21/06 561D 531N Fターム(参考) 5B075 KK07 ND16 PQ02 PQ41 PQ48 PQ49 UU40 5D015 KK01 LL05 5D045 AB26 5E501 AA01 AB15 AC33 BA13 CA02 CA03 CA04 CB02 CB05 CB09 CB10 CB15 DA14 DA15 EA05 EA10 EA21 EB05 FA03 FB26 FB27 FB28 FB30 FB34 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G10L 15/00 G10L 3/00 561C 15/10 R 15/22 S 15/28 551P 21/06 561D 531N F Terms (reference) 5B075 KK07 ND16 PQ02 PQ41 PQ48 PQ49 UU40 5D015 KK01 LL05 5D045 AB26 5E501 AA01 AB15 AC33 BA13 CA02 CA03 CA04 CB02 CB05 CB09 CB10 CB15 DA14 DA15 EA05 EA10 EA21 FB30 FB30 FA27 FB30 FA27 FB30 FB30
Claims (5)
者のホームページを閲覧する通信手段と、ホームページ
を表示する表示手段と、発声された音声を録音する録音
手段と、ホームページのアドレスを登録する登録手段
と、所定の音声性質情報とホームページの表示形式とを
関係付ける関係付け手段と、録音された音声を読みに変
換する音声認識手段と、前記読みとホームページのアド
レスとを関係づけて記憶する記憶手段と、録音された音
声の性質を分析する分析手段とを備え、分析された音声
の性質に相当する前記音声性質情報と関係付けられた表
示形式を選択して、表示手段がその表示形式による表示
をすることを特徴とするウェブブラウザ。1. A communication means for browsing a homepage of an information provider connected to an external network, a display means for displaying the homepage, a recording means for recording voiced voice, and a registration means for registering an address of the homepage. And associating means for associating the predetermined voice property information with the display format of the homepage, a voice recognizing means for converting the recorded voice into a reading, and a storage means for storing the reading and the address of the homepage in association with each other. And analysis means for analyzing the characteristics of the recorded voice, selecting a display format associated with the voice characteristic information corresponding to the analyzed characteristics of the voice, and displaying by the display means. A web browser characterized by:
る音声性質情報が、性別,年齢または身体状態の情報で
あり、利用者ごとにその情報を変更するための変更手段
を備えることを特徴とする請求項1のウェブブラウザ。2. The voice characteristic information associated by the associating means is information on sex, age, or physical condition, and a change means for changing the information for each user is provided. Item 1 Web browser.
え、前記関係付け手段が所定の時刻と前記表示形式とを
関係づけ、前記時刻発生手段が音声が発声された現在時
刻を発生し、表示手段がその現在時刻と関係付けられた
表示形式による表示をすることを特徴とする請求項1の
ウェブブラウザ。3. A time generating means for generating a current time is provided, the associating means associates a predetermined time with the display format, and the time generating means generates and displays the current time when a voice is uttered. The web browser of claim 1 wherein the means provides a display in a display format associated with its current time.
音声に対して行った音声の性質の分析結果と音声認識手
段による認識された読みとを、表示することを特徴とす
る請求項1のウェブブラウザ。4. The display means displays the result of analysis of the nature of the voice performed by the analysis means on the uttered voice and the reading recognized by the voice recognition means. Web browser.
に備え、音声の性質の分析結果と認識された読みとを、
音声合成手段により音声に変換して音声出力手段により
出力することを特徴とする請求項4のウェブブラウザ。5. A voice synthesis unit and a voice output unit are further provided, and the analysis result of the nature of the voice and the recognized reading are
5. The web browser according to claim 4, wherein the voice is converted by the voice synthesizing unit and output by the voice outputting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001193335A JP2003005950A (en) | 2001-06-26 | 2001-06-26 | Web browser |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001193335A JP2003005950A (en) | 2001-06-26 | 2001-06-26 | Web browser |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003005950A true JP2003005950A (en) | 2003-01-10 |
Family
ID=19031644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001193335A Pending JP2003005950A (en) | 2001-06-26 | 2001-06-26 | Web browser |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003005950A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006134178A (en) * | 2004-11-08 | 2006-05-25 | Nippon Telegr & Teleph Corp <Ntt> | Web content browsing apparatus, control method and program for web content browsing apparatus |
JP2011248020A (en) * | 2010-05-25 | 2011-12-08 | Sony Corp | Search device, search method, and program |
JP2013214141A (en) * | 2012-03-30 | 2013-10-17 | Nifty Corp | Content display program using biological information, content distribution device, method and program |
JP2015505106A (en) * | 2012-01-17 | 2015-02-16 | テンセント テクノロジー (シェンツェン) カンパニー リミテッド | Web page display method and display system |
JP2016024636A (en) * | 2014-07-18 | 2016-02-08 | ヤフー株式会社 | Control apparatus, control method, and control program |
JP2018041494A (en) * | 2017-11-02 | 2018-03-15 | ヤフー株式会社 | Control device, control method, and control program |
-
2001
- 2001-06-26 JP JP2001193335A patent/JP2003005950A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006134178A (en) * | 2004-11-08 | 2006-05-25 | Nippon Telegr & Teleph Corp <Ntt> | Web content browsing apparatus, control method and program for web content browsing apparatus |
JP2011248020A (en) * | 2010-05-25 | 2011-12-08 | Sony Corp | Search device, search method, and program |
JP2015505106A (en) * | 2012-01-17 | 2015-02-16 | テンセント テクノロジー (シェンツェン) カンパニー リミテッド | Web page display method and display system |
JP2013214141A (en) * | 2012-03-30 | 2013-10-17 | Nifty Corp | Content display program using biological information, content distribution device, method and program |
JP2016024636A (en) * | 2014-07-18 | 2016-02-08 | ヤフー株式会社 | Control apparatus, control method, and control program |
JP2018041494A (en) * | 2017-11-02 | 2018-03-15 | ヤフー株式会社 | Control device, control method, and control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20050131686A1 (en) | Information processing apparatus and data input method | |
JP4277903B2 (en) | Electronic device and program with dictionary function | |
US20060293890A1 (en) | Speech recognition assisted autocompletion of composite characters | |
WO2005101235A1 (en) | Dialogue support device | |
JP2001306067A (en) | Device and method for text generation and recording medium with recorded text generating program | |
JP2003513389A (en) | Language input user interface | |
JP4787634B2 (en) | Music font output device, font database and language input front-end processor | |
US20050114138A1 (en) | Character inputting method and character inputting apparatus | |
JPH07225767A (en) | Language information furnishing device | |
CN108073293A (en) | A kind of definite method and apparatus of target phrase | |
JP2003005950A (en) | Web browser | |
JP4872323B2 (en) | HTML mail generation system, communication apparatus, HTML mail generation method, and recording medium | |
JP5152588B2 (en) | Voice quality change determination device, voice quality change determination method, voice quality change determination program | |
JP2003280683A (en) | Voice recognition device, voice recognition control method of the device, and dictionary controller related to voice processing | |
KR101403795B1 (en) | Mobile communication terminal and method of user interface setting the same | |
JP5938897B2 (en) | Information display device, information display program, and information display method | |
JP5321661B2 (en) | Electronic device and program with dictionary function | |
KR20000030906A (en) | Method of Executing Command Using Speech Recognition and Method of Transforming Text Selected by Application Program to Voice Using Text-to-Speech | |
JP5008248B2 (en) | Display processing apparatus, display processing method, display processing program, and recording medium | |
JP4636842B2 (en) | Information processing apparatus and document display method thereof | |
Yalla et al. | Advanced auditory menus | |
JP7711406B2 (en) | Information search device, information search support method and program | |
JP3975914B2 (en) | Language input system | |
JPH1011457A (en) | Portable retrieval device | |
JP2005106844A (en) | Audio output device, server, and program |