JP2009109586A - Voice recognition control device - Google Patents
Voice recognition control device Download PDFInfo
- Publication number
- JP2009109586A JP2009109586A JP2007279456A JP2007279456A JP2009109586A JP 2009109586 A JP2009109586 A JP 2009109586A JP 2007279456 A JP2007279456 A JP 2007279456A JP 2007279456 A JP2007279456 A JP 2007279456A JP 2009109586 A JP2009109586 A JP 2009109586A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- command
- user
- unit
- tendency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012217 deletion Methods 0.000 claims description 6
- 230000037430 deletion Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 40
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 25
- 239000004973 liquid crystal related substance Substances 0.000 description 17
- 238000013500 data storage Methods 0.000 description 11
- 239000003595 mist Substances 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 230000003313 weakening effect Effects 0.000 description 5
- 241000238557 Decapoda Species 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 230000002950 deficient Effects 0.000 description 3
- 230000007257 malfunction Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 241001494479 Pecora Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 229920002494 Zein Polymers 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003287 bathing Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000005019 zein Substances 0.000 description 1
- 229940093612 zein Drugs 0.000 description 1
Images
Abstract
Description
本発明は、ユーザが発話する音声を入力し、入力された音声が所定の音声コマンドに該当すると認識した場合、認識した音声コマンドに対応する制御を実行する音声認識制御装置に関する。 The present invention relates to a voice recognition control apparatus that inputs a voice uttered by a user and executes control corresponding to the recognized voice command when the input voice is recognized as corresponding to a predetermined voice command.
発声の仕方や個人差によって、発話がなまける、例えば、発話する音声の語頭又は語尾が弱くなったり、欠落したり、或いはrの子音が抜けたりすることがある。このように、なまけて発話した音声が音声認識制御装置に入力される場合、各制御内容に対応する音声コマンドが1つしか登録されていないと、音声認識制御装置は、入力された音声から音声コマンドを認識することができず制御を実行することができない。 Depending on the utterance method and individual differences, the utterance may be lost, for example, the beginning or ending of the uttered voice may be weakened or missing, or r consonant may be lost. As described above, when the voice that is spoken is input to the voice recognition control apparatus, if only one voice command corresponding to each control content is registered, the voice recognition control apparatus starts the voice from the input voice. The command cannot be recognized and control cannot be executed.
そこで、従来から、音声コマンドをなまけて発話した時の音声に対応するコマンド(以後、「なまけコマンド」という)を予め前記の音声コマンドとは別に管理しておくことにより、発話がなまけた場合であっても音声認識制御装置はなまけコマンドを認識して当該なまけコマンドに対応する制御を実行できるようにしている(特許文献1参照)。
しかし、なまけて発話した音声を音声認識装置が認識できるようにしただけでは、ユーザは、自分の発話がなまけているか否か、なまけている場合、どのようななまけの傾向があるのかを把握することができないので、自分の発話のなまけを修正することができず、正しい発話方法を習得することが難しい。 However, simply by allowing the speech recognition device to recognize the spoken speech, the user knows whether or not his speech is being slack, and if so, what kind of slack tends to be found Because it is not possible to correct the utterance of my utterance, it is difficult to learn the correct utterance method.
本発明は、上記問題点を解決するために成されたものであり、その目的は、ユーザに正しい発話方法を容易に習得させることができる音声認識制御装置を提供することである。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a speech recognition control apparatus that allows a user to easily learn a correct speech method.
本発明の特徴は、少なくともユーザが発話する音声が所定の音声コマンドに該当すると認識した場合、認識した音声コマンドに対応する制御を実行する音声認識制御装置であって、ユーザが発話する音声を入力する音声入力部と、入力された音声が所定の音声コマンド又は当該音声コマンドをなまけて発話した時の音声に対応するなまけコマンドに該当するか否かを判定する音声認識部と、入力された音声がなまけコマンドに該当すると音声認識部が判定した場合は、ユーザの発話なまけの傾向を特定するなまけ傾向特定部と、なまけ傾向特定部により特定された発話なまけの傾向をユーザに対して教示するユーザ教示手段とを備えることである。 A feature of the present invention is a voice recognition control device that executes control corresponding to a recognized voice command when at least voice uttered by the user corresponds to a predetermined voice command, and inputs voice uttered by the user A voice input unit, a voice recognition unit for determining whether or not the input voice corresponds to a predetermined voice command or a voice command corresponding to the voice when the voice command is spoken, and the input voice If the speech recognition unit determines that the command corresponds to a gamanake command, the user who teaches the user the tendency of the utterance blurring specified by the lenient tendency specifying unit that identifies the user's tendency of utterance And teaching means.
入力された音声がなまけコマンドに該当すると判定した場合に、ユーザの発話なまけの傾向を特定し、これをユーザに対して教示することにより、ユーザは自分の発話なまけの傾向を容易に把握することができるので、ユーザに正しい発話方法を容易に習得させることができる。例えば、語頭又は語尾の一音が弱くなる又は欠落する、或いは「r」等の子音が抜けるなどの発話なまけの傾向をユーザは何ら負担を受けることなく把握することができる。 When it is determined that the input voice corresponds to a sloppy command, the user's tendency to sneak utterance is identified, and this is taught to the user so that the user can easily grasp the tendency of his utterance sloppy Therefore, the user can easily learn the correct utterance method. For example, the user can grasp the tendency of utterance blurring, such as a single sound at the beginning or end of the word becoming weak or missing, or a consonant such as “r” being missing.
なお、なまけ傾向特定部は、過去に認識したなまけコマンドの履歴又は当該なまけコマンドが属する発話なまけの傾向を記憶する記憶部を備え、当該記憶部のデータを参照して、所定の回数又は頻度でなまけコマンドが認識された場合に、当該なまけコマンドが属する傾向を「発話なまけの傾向」として特定してもよい。或いは、なまけコマンドが1回認識されただけで、当該なまけコマンドが属する傾向を「発話なまけの傾向」として特定しても構わない。 The slack tendency identifying unit includes a storage unit that stores a history of a slack command that has been recognized in the past or a trend of a slack utterance to which the slack command belongs, and refers to data in the storage unit at a predetermined number or frequency. When a slack command is recognized, the tendency to which the slack command belongs may be specified as the “spoken slack tendency”. Alternatively, the tendency to which the slack command belongs may be specified as the “spoken slack tendency” only by recognizing the slack command once.
本発明の特徴において、ユーザ教示手段は、正しい音声コマンドに基づく発音をユーザに対して報知してもよい。ユーザは何ら負担を受けることなく正しい音声コマンドに基づく発音を把握することができる。 In the feature of the present invention, the user teaching means may notify the user of a pronunciation based on a correct voice command. The user can grasp the pronunciation based on the correct voice command without any burden.
本発明の特徴において、なまけ傾向特定部は、入力された音声がなまけコマンドに該当すると音声認識部が判定した場合、当該なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が不足している箇所を特定する不足箇所特定部を有し、ユーザ教示手段は、不足箇所特定部により特定された不足箇所をユーザに対して教示してもよい。 In the feature of the present invention, the lenient tendency specifying unit, when the speech recognition unit determines that the input voice corresponds to the lenient command, in response to the voice command corresponding to the voice when the utterance is made without slicking the lenient command. It may have a deficient part specifying unit that specifies a part where the input voice is insufficient, and the user teaching unit may teach the user the deficient part specified by the deficient part specifying unit.
なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が不足している箇所を特定し、この不足箇所をユーザに対して教示することにより、ユーザが発話する音声のどの箇所の音が弱い或いは欠落しているのかを提示することができるので、ユーザは、正しい発話方法を容易に学習することができる。例えば、語頭又は語尾が弱くなる又は欠落するなどの発話なまけの傾向が有る場合、音声コマンドに対して入力された音声が不足している語頭又は語尾をユーザに対して教示すればよい。 The user utters by identifying a point where the input voice is insufficient for the voice command corresponding to the voice when speaking without using the slack command, and teaching the user of the shortage part. Since it is possible to present which part of the sound is weak or missing, the user can easily learn the correct speech method. For example, when there is a tendency for utterance dullness such as the beginning or end of the word to be weak or missing, the beginning or end of the speech that is lacking in voice input to the voice command may be taught to the user.
本発明の特徴において、なまけ傾向特定部は、入力された音声がなまけコマンドに該当すると音声認識部が判定した場合、なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が変更されている箇所を特定する変更箇所特定部を有し、教示手段は、変更箇所特定部により特定された変更箇所をユーザに対して教示してもよい。 In the feature of the present invention, the slack tendency identifying unit inputs a voice command corresponding to a voice when a speech is spoken without a slack command when the speech recognition unit determines that the input voice corresponds to a slack command. The change part specifying part which specifies the place where the made sound is changed may be provided, and the teaching means may teach the user the change part specified by the change part specifying part.
なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が変更されている箇所を特定し、この変更箇所をユーザに対して教示することにより、ユーザが発話する音声のどの箇所が間違っているのかを提示することができるので、ユーザは、正しい発話方法を容易に学習することができる。例えば、「r」等の子音が抜ける発話なまけの傾向が有る場合、音声コマンドに対して入力された音声が変更されている「r」等の子音箇所をユーザに対して教示すればよい。 The user utters by specifying the location where the input voice is changed in response to the voice command corresponding to the voice when uttering without slicking the command, and teaching the user of the changed location. Since it is possible to present which part of the voice is wrong, the user can easily learn the correct speech method. For example, if there is a tendency to utter utterances where consonants such as “r” are missing, a consonant location such as “r” where the voice input in response to the voice command is changed may be taught to the user.
本発明の特徴において、音声認識部は、なまけ傾向特定部により特定された発話なまけの傾向に属さないなまけコマンドを照合対象から削除する照合対象削除部を備えていてもよい。 In the feature of the present invention, the voice recognition unit may include a collation target deletion unit that deletes, from the collation target, a slack command that does not belong to the utterance slack tendency specified by the slack trend identification unit.
なまけ傾向特定部により特定された発話なまけの傾向に属さないなまけコマンドを照合対象から削除することにより、ユーザにとって必要のないなまけコマンドが照合対象から削除されるので、照合対象となる照合用データのデータ量が削減され、音声認識率が向上し、誤認識及びこれによる誤動作が抑制される。 By deleting the slack commands that do not belong to the trend of utterance slack specified by the slack trend identification unit from the collation target, the slack commands that are not necessary for the user are deleted from the collation target. The amount of data is reduced, the speech recognition rate is improved, and erroneous recognition and malfunction caused thereby are suppressed.
本発明の特徴において、音声認識制御装置は、ユーザが発話する音声が所定の音声コマンドに該当すると認識した場合は、当該認識した音声コマンドに対応する制御を実行し、ユーザが発話する音声が当該音声コマンドをなまけて発話した時の音声に対応するなまけコマンドに該当すると認識した場合は、前記音声コマンドに対応する制御を実行する制御部を備えていてもよい。 In the feature of the present invention, when the voice recognition control device recognizes that the voice uttered by the user corresponds to the predetermined voice command, the voice recognition control device executes control corresponding to the recognized voice command, and the voice uttered by the user When it is recognized that the voice command corresponds to the voice command corresponding to the voice when the voice command is spoken, the control unit may execute a control corresponding to the voice command.
本発明の音声認識制御装置によれば、発話なまけを特定し、これをユーザに対して教示することにより、ユーザに正しい発話方法を容易に習得させることができる。 According to the speech recognition control device of the present invention, the user can easily learn the correct utterance method by specifying the utterance slack and teaching it to the user.
以下図面を参照して、本発明の実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係わる音声認識制御装置10及び被制御機器20の具体的な構成を説明する。音声認識制御装置10は、ユーザが発話する音声による命令(コマンド)を認識し、この音声による命令に応じた被制御機器20の制御を実行する装置である。また、音声認識制御装置10は、被制御機器20の制御に限らず、音声認識制御装置10内の各構成要素の制御をこの音声による命令に基づいて実行する。なお、本発明の実施の形態においては、浴室に設置された様々な被制御機器20を音声認識制御装置10が制御する場合を例にとり説明する。
Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same portions are denoted by the same reference numerals, and description thereof is omitted.
(First embodiment)
With reference to FIG. 1, specific configurations of the speech
具体的に、音声認識制御装置10は、ユーザインターフェースを形成するコントローラ11と、コントローラ11を介して入力されたユーザの音声による命令が所定の音声コマンド又はなまけコマンドに該当するか否かを判断する音声認識部12と、音声認識部12により認識された音声コマンド又はなまけコマンドに対応する被制御機器20の制御を実行するための制御信号を出力する制御実行部13と、制御実行部13から出力された制御信号を被制御機器20へ送信する制御IF部15と、ユーザに対して出力する音声を合成する音声合成部と、音声認識制御装置10が認識することができる音声コマンドの照合用データ及びなまけコマンドの照合用データを格納する照合用データ記憶部14と、音声認識部12による判定の結果に基づいて、ユーザの発話なまけの傾向を特定するなまけ傾向特定部16とを備える。
Specifically, the voice
通常、発声の仕方や個人差によって、例えば、発話する音声の語頭又は語尾が弱くなったり、欠落したり、或いはrの子音が抜けたりする等、発話のなまけが発生することがある。本発明の実施形態における「なまけコマンド」は、音声コマンドをなまけて発話した時の音声に対応するコマンドであり、「音声コマンド」は、音声による命令をなまけることなく、正しく発話した時の音声に対応するコマンドである。なまけコマンドの詳細については、図4及び図5を参照して後述する。 Usually, depending on the manner of utterance and individual differences, utterance slack may occur, for example, the beginning or ending of speech to be uttered may be weak, missing, or r consonants may be missing. In the embodiment of the present invention, the “name command” is a command corresponding to the voice when the voice command is spoken, and the “voice command” is the voice when the voice is spoken correctly without uttering the voice command. Corresponding command. Details of the slack command will be described later with reference to FIGS.
コントローラ11は、ユーザが発する音声を入力し、これを電気信号(音声信号)として出力する音声入力部40と、音声合成部によって合成された音声を出力する音声出力部50と、ユーザに対して所定の画面などを表示する表示部70とを備える。なお、図1には示さないが、本実施形態においてコントローラ11はユーザのボタン操作を受け付ける操作ボタン部を更に備えている。コントローラ11の詳細については図3を参照して後述する。
The
また、コントローラ11は、なまけ傾向特定部16により特定された発話なまけの傾向をユーザに対して教示するユーザ教示部60(ユーザ教示手段)を備える。ユーザ教示部60には、発話なまけの傾向を画面に表示する表示部70及び発話なまけの傾向を音声で案内する音声出力部50が含まれる。
In addition, the
音声入力部40は、ユーザの発話音声を入力し、これを音声信号に変換するマイクと、この音声信号を増幅する増幅部と、増幅された音声信号をデジタル信号に変換するA/D変換部と、このデジタル化された音声信号から雑音成分を除去する雑音減算部とを備える。雑音減算部により雑音が除去された音声信号は、音声認識部12へ送信される。
The
音声出力部50は、音声合成部にて合成された音声信号をアナログ信号に変換するD/A変換部と、アナログ化された音声信号を増幅する増幅部と、増幅された音声信号を音声に変換して出力するスピーカとを備える。
The
表示部70は、点灯/消灯/点滅によって被制御機器20の動作状況をユーザに対して表示するLEDと、文字や絵図等の画像により被制御機器20の動作状況をユーザに対して表示する液晶表示装置とを有する。
The
操作ボタン部は、被制御機器20の動作設定などをユーザの手入力により行うための各種ボタンからなり、この中には、コントローラ11の運転のオン/オフ状態を切替えるコントローラオン/オフスイッチが含まれる。
The operation button unit includes various buttons for manually setting the operation of the controlled
音声認識部12は、音声入力部40から出力された音声信号と照合用データ記憶部14に記憶されている照合用データとを照合して、音声入力部40に入力された音声が所定の音声コマンド又はなまけコマンドに該当するか否かを判定する。具体的に、音声認識部12は、音声入力部40から出力された音声信号(音声データ)と照合用データ記憶部14に格納された照合用データとを比較することによりユーザが発する音声が所定の音声コマンド又はなまけコマンドに該当するか否かを判定し、音声コマンド又はなまけコマンドに該当すると判定した場合には当該音声コマンド又はなまけコマンドに対応する所定の信号を制御実行部13及びなまけ傾向特定部16へ出力する。
The
なまけコマンドの照合方法の詳細は次の通りである。照合用データ記憶部14には音声コマンドごとに想定されるなまけコマンドの照合用データが記憶されている。音声認識部12は、音声入力部40から入力された音声信号を、音素ごとの音声信号として識別し、入力された文字が例えば(て)(え)(び)であると認識する。そして、なまけコマンドの照合用データの中に(て)(え)(び)があるか否かを照合する。なお、照合用データ記憶部14が、なまけコマンドの照合用データとして、(て)(え)(び)という“言葉”の音声データを保持している場合は、音声入力部40から入力された音声信号を、直接なまけコマンドの照合用データと照合することができる。このように、音声認識部12は、音声入力部40から入力された音声信号を、音素ごとに分けて照合しても良いし、コマンド単位で照合しても構わない。
The details of the check method of the namaze command are as follows. The collation
なお、音声認識部12は、なまけ傾向特定部16により特定された発話なまけの傾向に属さないなまけコマンドを照合対象から削除する照合対象削除部19を備える。
Note that the
なまけ傾向特定部16は、入力された音声が所定の音声コマンド又はなまけコマンドに該当するか否かの判定の結果に基づいて、ユーザの発話なまけの傾向を特定する。通常、発話のなまけには、発話する音声の語頭又は語尾が弱くなったり、欠落したり、或いはrの子音が抜けたりするなどの幾つかの傾向があるが、なまけ傾向特定部16は、なまけコマンドに該当するか否かの判定結果に基づいて、ユーザがどの発話なまけの傾向にあるかを特定する。発話なまけの傾向については、図4を参照して後述する。
The slack
なまけ傾向特定部16は、音声入力部40に入力された音声がなまけコマンドに該当すると音声認識部12が判定した場合、当該なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が不足している箇所を特定する不足箇所特定部17と、入力された音声がなまけコマンドに該当すると音声認識部12が判定した場合、当該なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が変更されている箇所を特定する変更箇所特定部18とを有する。
When the
不足箇所特定部17が不足箇所を特定した場合、ユーザ教示部60は当該不足箇所及び正しい発話方法をユーザに対して教示する。変更箇所特定部18が変更箇所を特定した場合、ユーザ教示部60は当該変更箇所及び正しい発話方法をユーザに対して教示する。入力された音声に不足箇所或いは変更箇所が認められる場合、不足箇所或いは変更箇所及び正しい発話方法をユーザに対して教示することにより、ユーザが発話する音声のどの箇所の音が弱い又は欠落しているのか、或いは、どの箇所が間違っているのかを提示することができるので、ユーザは、正しい発話方法を容易に学習することができる。例えば、語頭又は語尾が弱くなる又は欠落するなどの発話なまけの傾向が有る場合、音声コマンドに対して入力された音声が不足している語頭又は語尾をユーザに対して教示すればよい。或いは「r」等の子音が抜ける発話なまけの傾向が有る場合、音声コマンドに対して入力された音声が変更されている「r」等の子音箇所をユーザに対して教示すればよい。なお、ユーザに対して不足箇所或いは変更箇所を教示する具体例については、図6(a)及び図6(b)を参照して後述する。 When the lacking part identifying unit 17 identifies the lacking part, the user teaching unit 60 teaches the user about the lacking part and the correct utterance method. When the changed part specifying unit 18 specifies the changed part, the user teaching unit 60 teaches the user about the changed part and the correct utterance method. If there are missing or changed parts in the input voice, teaching the user of the missing or changed parts and the correct utterance method will cause the user to speak any part of the voice that is uttered. Or which part is wrong can be presented, so that the user can easily learn the correct speech method. For example, when there is a tendency for utterance dullness such as the beginning or end of the word to be weak or missing, the beginning or end of the speech that is lacking in voice input to the voice command may be taught to the user. Alternatively, if there is a tendency to utter utterance that consonants such as “r” are missing, it is only necessary to teach the user the consonant location such as “r” in which the voice input in response to the voice command is changed. A specific example of teaching a user a shortage or change will be described later with reference to FIGS. 6 (a) and 6 (b).
照合対象削除部19は、照合用データ記憶部14から当該なまけコマンドの照合用データを削除するのではなく、音声認識部12が音声入力部40から出力された音声信号(音声データ)と比較する照合用データの中から、ユーザにとって必要のないなまけコマンドの照合用データを削除する。よって、なまけコマンドの照合用データは音声認識部12の照合対象から削除されても、照合用データ記憶部14には依然として格納されている。このように、なまけ傾向特定部16により特定された発話なまけの傾向に属さないなまけコマンドを音声認識部12の照合対象から削除することにより、当該ユーザにとって必要のないなまけコマンドを削除することができるので、音声認識部12の照合対象となる照合用データのデータ量が削減され、音声認識率が向上し、誤認識及びこれによる誤動作が抑制される。
The collation
制御実行部(制御部)13は、ユーザが発話する音声が所定の音声コマンドに該当すると音声認識部12が認識した場合、当該認識した音声コマンドに対応する制御を実行し、ユーザが発話する音声が当該音声コマンドをなまけて発話した時の音声に対応するなまけコマンドに該当すると認識した場合は、前記音声コマンドに対応する制御を実行する。
When the
制御実行部13は、マイクロコンピュータと所定の記憶領域(RAM)を備え、所定のプログラムに従って被制御機器20及び音声認識制御装置10の各構成要素の動作を制御する。具体的に、制御実行部13は、音声認識部12が認識した音声コマンド又はなまけコマンドに対応する所定の信号を受信するか、操作ボタン部のボタン操作による所定の信号を受信すると、被制御機器20又は音声認識制御装置10の各構成要素に対して、当該音声コマンド又はなまけコマンド或いはボタン操作に相当する制御信号を送信する。
The
被制御機器20には、照明機器21、空調機器22、給湯器23、テレビ24、ジェット噴流バス装置25、及びミストサウナ装置26が含まれる。照明機器21は、浴室内を人工的な光で照らして明るくするための装置であり、浴室全体を明るくする主照明や光源からの光を間接的に照射する間接照明が含まれる。空調機器22は、浴室の壁や窓などに取り付けられ、空気の温度・湿度や清浄度などが調節された空気をモーターで羽根を回転させて浴室内に送出し、浴室内を快適な状態に保つための装置である。ジェット噴流バス装置25は、浴槽の壁面の数カ所に設置された噴出口から気泡混じりの湯を噴き出し、入浴者の背中や足腰などに当てる装置である。ミストサウナ装置26は、浴室内に暖められた霧状の水蒸気を送出する装置であって、送出される水蒸気をユーザが浴びることによりユーザの体を温める入浴方法において使用される装置である。
The controlled
図2は、図1に示した音声認識制御装置10及び被制御機器20の配置例を示す浴室内の外観図である。被制御機器20として、照明機器21に属する主照明21a及び間接照明21bや空調機器22が浴室内天井に設置され、浴室の浴槽3付近の壁面にテレビ24及びミストサウナ装置26が設置され、ジェット噴流バス装置25の噴出口25a及び吸込口25bが浴室の浴槽3内に設置されている。また、浴室の浴槽3付近の壁面には、コントローラ11が設置されている。なお、被制御機器20の1つである給湯器23やジェット噴流バス装置25のポンプ装置、ミストサウナ装置26の熱源機、及び音声認識制御装置10のコントローラ以外の構成要素は浴室外に設置されている。
FIG. 2 is an external view in the bathroom showing an example of the arrangement of the voice
なお、図2で示した配置例は一例であり、音声認識制御装置10及び被制御機器20は他のレイアウトを取り得る。また、図1及び図2では、照明機器21、空調機器22、給湯器23、テレビ24、ジェット噴流バス装置25及びミストサウナ装置26を被制御機器20の例として挙げたが、これに限らず、被制御機器20には、カセットテープ、CD、MD、DVDなどの記録媒体に格納された音楽や映像を再生する電気器具や、暖房機器やパーソナルコンピュータなど、浴室内においてユーザが利用する電気器具が含まれる。
The arrangement example shown in FIG. 2 is an example, and the voice
次に、図3を参照して、図1及び図2に示したコントローラ11の操作面のレイアウトを説明する。コントローラ11の操作面には、音声入力部40のマイク41、音声出力部50のスピーカ53、各種操作ボタン60a〜60i、及び表示部70としてのLED71及び液晶表示装置72が配置されている。
Next, the layout of the operation surface of the
各種操作ボタン60a〜60iは、メニューボタン60a、確定ボタン60b、戻るボタン60c、十字キー60d、優先ボタン60e、追いだきボタン60f、ふろ自動ボタン60g、通話ボタン60h及びコントローラオンオフスイッチ60iからなる。これらボタン60a〜60iのうち、優先ボタン60e、追いだきボタン60f、ふろ自動ボタン60g、及び通話ボタン60hは、給湯器23の制御のために用いられる。また、他のボタン及びスイッチは、給湯器23に限らず、その他の被制御機器20及び音声認識制御装置10の各構成要素の制御のためにも用いられる。このように、コントローラ11は、被制御機器20をスイッチ操作により制御する浴室リモコンと、音声認識制御装置10のコントロールパネルとの機能を兼ねる構成となっている。
The
具体的に、優先ボタン60eは、浴室で給湯温度やシャワー温度を設定したいときに使用するボタンである。一般的に水や湯は、浴室以外にも台所等で用いられる。このため、給湯器23の給湯温度やシャワー温度を設定しても他の箇所で水や湯を使用されると、実際の給湯温度やシャワー温度にズレが生じる可能性がある。そこで、優先ボタン60eを押下することにより、他の箇所よりも浴室を優先し、実際の給湯温度やシャワー温度にズレが生じ難いようにすることができる。また、優先ボタン60eが押下されると、LED71が点灯する、又は液晶表示装置72に優先状態を表示する等の方法により、表示部70に優先マーク(不図示)が表示される。
Specifically, the
追いだきボタン60fは、浴槽内の湯水の温度を高くするときに使用されるボタンである。追いだきボタン60fが押下されると、前記の優先マークと同様にして、表示部70に追いだきマーク(不図示)が表示される。ふろ自動ボタン60gは、予め設定した湯量と温度とで浴槽内にお湯をはるときに使用されるボタンである。ふろ自動ボタン60gが押下されると、前記の優先マークと同様にして、表示部70に自動マーク(不図示)が表示される。
The
通話ボタン60hは、浴室外、例えば台所などに設置される台所用リモコンと通話するときに使用されるボタンである。通話ボタン60hが押下されると、前記の優先マークと同様にして、表示部70に通話マーク(不図示)が表示される。
The
メニューボタン60aは、手入力により被制御機器20及び音声認識制御装置10の動作を設定するためのボタンである。メニューボタン60aが押下されると、被制御機器20及び音声認識制御装置10の動作項目(例えば空調機器オフ、テレビ電源オン、テレビチャンネル+1、ミストサウナ装置オン、音声認識部オンなど)が液晶表示装置72に複数個表示される。ユーザは、これら複数の動作項目から十字キー60dを操作して1つの動作項目を選択することとなる。
The
確定ボタン60bは、十字キー60dを操作して選択された動作項目の動作を被制御機器20及び音声認識制御装置10に実行させる際に押下されるボタンである。戻るボタン60cは、液晶表示装置72に表示される画面を1つ前の状態に戻すときなどに使用されるボタンである。例えば、液晶表示装置72上に動作項目の一部しか表示できない場合、十字キー60dを操作することにより、次の画面に移行して、残りの動作項目を表示させることができる。また、戻るボタン60cを押下すれば、移行した画面を元に戻して、前回画面の動作項目を液晶表示装置72に表示させることができる。十字キー60dは、給湯温度やシャワー温度の温度設定、湯量の設定、動作項目の選択、オン/オフの選択などに用いられるボタンである。
The
コントローラオンオフスイッチ60iは、コントローラ11の電源をオン又はオフするためのボタンであり、コントローラオンオフスイッチ60iを押下する度に、コントローラ11の電源のオンとオフが切り替わる。コントローラオンオフスイッチ60iによりコントローラ11の電源がオフされた場合、液晶表示装置72の表示は消去し、コントローラ11のスイッチ操作を介した被制御機器20及び音声認識制御装置10の制御が無効となり、かつ音声認識による被制御機器20及び音声認識制御装置10の制御も無効となる。
The controller on / off
上記した各種操作ボタン60a〜60iのボタン操作による制御は、ユーザの発話音声の音声認識機能を用いても同様にして実行することができる。即ち、照合用データ記憶部14は、上記したコントローラ11のボタン操作と同等な制御に相当する音声コマンド及びなまけコマンドの照合用データを格納し、音声認識部12は、音声入力部40から出力された音声信号(音声データ)と照合用データ記憶部14に格納された照合用データとを比較することにより、上記した各種操作ボタン60a〜60iのボタン操作と同等な制御に相当する音声コマンド及びなまけコマンドを認識することができる。
The above-described control by the button operation of the
液晶表示装置72は、時刻、浴槽内の湯水の量及び温度、給湯温度、シャワー温度などを表示する。また、液晶表示装置72は、なまけ傾向特定部16により特定された発話なまけの傾向を画面に表示する。また、液晶表示装置72による画面表示と併せて、或いは画面表示の代わりに、スピーカ53から同様な内容を音声にて案内してもよい。このように、画面表示及び音声案内によってなまけ傾向特定部16により特定された発話なまけの傾向をユーザに対して教示することにより、ユーザは自分の発話なまけの傾向を容易に把握することができる。
The
次に、図4及び図5を参照して、なまけ傾向特定部16により特定される発話なまけの傾向を説明する。なまけ傾向特定部16は、入力された音声が音声コマンド又はなまけコマンドに該当するか否かの判定結果に基づいて、ユーザがどの発話なまけの傾向にあるかを特定する。図4に示すように、発話なまけの傾向には、例えば、発話する音声の語頭が弱くなるか欠落する「語頭の弱化(なまけ傾向1)」、発話する音声の語尾が弱くなるか欠落する「語尾の弱化(なまけ傾向2)」、及びrの子音が抜ける「rの抜け(なまけ傾向3)」がある。
Next, with reference to FIG. 4 and FIG. 5, the tendency of speech utterance specified by the lenient
図5に示すように、例えば、「テレビ24の電源をオンする」制御内容に対応する音声コマンドが「てれびをつけて」である場合、当該「てれびをつけて」に対応するなまけコマンドのうち、「語頭の弱化(なまけ傾向1)」に属するなまけコマンドは「れびをつけて」であり、「語尾の弱化(なまけ傾向2)」に属するなまけコマンドは「てれびをつけ」であり、「rの抜け(なまけ傾向3)」に属するなまけコマンドは「てえびをつけて」である。
As shown in FIG. 5, for example, when the voice command corresponding to the control content of “turning on the power of the
同様に、「照明機器21の電源をオンする」制御内容に対応する音声コマンドが「あかりをつけて」である場合、当該「あかりをつけて」に対応するなまけコマンドのうち、「語頭の弱化(なまけ傾向1)」に属するなまけコマンドは「かりをつけて」であり、「語尾の弱化(なまけ傾向2)」に属するなまけコマンドは「あかりをつけ」であり、「rの抜け(なまけ傾向3)」に属するなまけコマンドは「あかいをつけて」である。
Similarly, when the voice command corresponding to the control content “turn on the
図示は省略するが、この他に、なまけ傾向特定部16は、以下のような発話なまけの傾向も特定する。
(a)「ei」が「ee」に変化する。例「ていし(停止)」が「てえし」へ変化する等、
(b)「ou」が「oo」に変化する。例「ぼこう(母校)」が「ぼこお」へ変化する等、
(c)「し」と「ひ」が入れ替わる。例「ひつじ(羊)」と「しつじ」等、
(d)その他、ルール化できないもの。例「ぜんいん(全員)」が「ぜえいん」へ変化する、「ばあい(場合)」が「ばわい」へ変化する等。
Although illustration is omitted, in addition to this, the slack
(A) “ei” changes to “ee”. Example: “Tashishi (stop)” changes to “Teshishi”, etc.
(B) “ou” changes to “oo”. Example: “Boko (home school)” changes to “Bokoo”
(C) “shi” and “hi” are interchanged. Examples: “sheep” and “sheep”
(D) Others that cannot be ruled. Examples: “Zenin (all)” changes to “Zein”, “Bai (if)” changes to “Bai”, etc.
また、図5では、語頭及び語尾の弱化の例として、語頭及び語尾の1音が弱化した場合を示したが、語頭及び語尾の2以上の音が弱化した「なまけコマンド」を用意しておいても構わない。次の図6(a)では語尾の3音が弱化している発話なまけの例を示す。 In addition, in FIG. 5, as an example of weakening of the beginning and ending, a case where one sound of the beginning and ending is weakened, but a “name command” in which two or more sounds of the beginning and ending are weakened is prepared. It does not matter. Next, FIG. 6 (a) shows an example of utterance blurring in which the last three sounds are weakened.
図6(a)及び図6(b)は、ユーザに対して発話なまけの傾向及び不足箇所或いは変更箇所を表示する液晶表示装置72の画面例を示す。図6(a)の画面例は、入力された音声がなまけコマンド「てれびを」に該当すると音声認識部12が認識し、「てれびを」をなまけずに発話したときの音声に相当する音声コマンド(例えば、「てれびをつけて」や「てれびをけして」など)に対して「てれびを」が不足している箇所を不足箇所特定部17が特定した場合に表示される。図6(a)の画面例では、ユーザがなまけ傾向2(語尾の弱化)を有していることを明示している。また、「てれびを」をなまけずに発話したときの音声に相当する音声コマンドを1つに絞り込むことができないので、不足箇所を1つに特定していないが、その代わりに、装置10が認識できた音声「てれびを」を明示し、その後に続く言葉を最後まで発話するようにユーザに対して正しい発話方法を指導している。なお、図6(a)の画面例において、その後に続く言葉(例えば、「つけて」や「けして」)の候補を追加して表示しても構わない。
FIG. 6A and FIG. 6B show screen examples of the liquid
図6(b)の画面例は、入力された音声がなまけコマンド「てえびをつけて」に該当すると音声認識部12が認識し、「てえびをつけて」をなまけずに発話したときの音声に相当する音声コマンド「てれびをつけて」に対して変更されている箇所を変更箇所特定部18が特定した場合に表示される。図6(b)の画面例では、ユーザがなまけ傾向3(rの抜け)を有していることを明示している。また、入力された音声が「てえびをつけて」と認識されたことを示し、rをはっきりと発音するようにユーザに対して正しい発話方法を指導している。
In the screen example of FIG. 6B, the
次に、図8を参照して、図1の音声認識制御装置10の動作手順の一例を説明する。
Next, an example of the operation procedure of the voice
(イ)先ず、ステップS101において、液晶表示装置72にユーザに発話を促す画面を表示するか、或いはスピーカ53からユーザに発話を促す音声案内を出力することにより、音声入力部40へ音声を入力することをユーザに促す。
(A) First, in step S101, a voice prompt is input to the
(ロ)ステップS103に進み、音声入力部40にユーザの発話音声が入力されたか否かを判断する。ユーザの発話音声が入力されて音声信号が音声認識部12へ出力された場合(S103でYES)ステップS105へ進み、発話音声が入力されなかった場合(S103でNO)、ステップS101に戻り、再度、音声入力をユーザに促す。
(B) Proceeding to step S103, it is determined whether or not the user's speech is input to the
(ハ)ステップS105において、音声認識部12は、照合用データ記憶部14に格納された照合用データと音声入力部40から出力された音声信号とを照合して、入力された音声が所定の音声コマンド又はなまけコマンドに該当するか否かを判定する。音声コマンド又はなまけコマンドに該当すると判定した(音声認識に成功した)場合(S105でYES)、当該音声コマンド又はなまけコマンドに対応する所定の信号をなまけ傾向特定部16へ出力し、ステップS107に進む。一方、音声コマンド又はなまけコマンドに該当すると判定しない(音声認識に失敗した)場合(S105でNO)、音声認識できない旨を液晶表示装置72に表示し、その後、S101に戻る。
(C) In step S105, the
(ニ)ステップS107において、なまけ傾向特定部16は、ステップS105の判定の結果に基づいて、ユーザの発話なまけの傾向を特定する。その後、ステップS109に進む。入力された音声になまけ傾向が有る場合(S109でYES)、ステップS111へ進み、ユーザ教示部60は、なまけ傾向特定部16により特定された発話なまけの傾向(なまけ傾向1、2、3、・・・)をユーザに対して教示し、図8のフローチャートは終了する。なお、入力された音声になまけ傾向が無い場合(S109でNO)、ステップS111を実施せずに、図8のフローチャートは終了する。
(D) In step S107, the trend
以上説明したように、本発明の第1の実施の形態によれば、以下の作用効果が得られる。 As described above, according to the first embodiment of the present invention, the following operational effects can be obtained.
音声入力部40に入力された音声が所定の音声コマンド又はなまけコマンドに該当するか否かの判定結果から、なまけ傾向特定部16がユーザの発話なまけの傾向を特定し、ユーザ教示部60がユーザに対して発話なまけの傾向を教示することにより、ユーザは自分の発話なまけの傾向を容易に把握することができるので、ユーザに正しい発話方法を容易に習得させることができる。例えば、語頭又は語尾の一音が弱くなる又は欠落する、或いは「r」等の子音が抜けるなどの発話なまけの傾向をユーザは何ら負担を受けることなく把握することができる。
From the determination result of whether or not the voice input to the
音声認識部12は、なまけ傾向特定部16により特定された発話なまけの傾向に属さないなまけコマンドを照合対象から削除する照合対象削除部19を備えることにより、ユーザにとって必要のないなまけコマンドが音声認識部12の照合対象から削除されるので、照合対象となる照合用データのデータ量が削減され、音声認識率が向上し、誤認識及びこれによる誤動作が抑制される。
(第2の実施の形態)
図9を参照して、第2の実施の形態に係わる音声認識制御装置10の動作手順の一例を説明する。ここでは、なまけ傾向があると認められる場合に、不足箇所及び変更箇所の有無を判断し、不足箇所及び変更箇所及び正しい発話方法をユーザに教示する手順を説明する。
The
(Second Embodiment)
With reference to FIG. 9, an example of an operation procedure of the speech
(イ)図9のステップS201〜S209における処理動作は、図8のステップS101〜S109と同じであるため説明を省略する。 (A) Since the processing operations in steps S201 to S209 in FIG. 9 are the same as those in steps S101 to S109 in FIG.
(ロ)ステップS211において、不足箇所特定部17は、音声認識部12が認識したなまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が不足している箇所を特定する。不足箇所が特定された場合(S211でYES)、ステップS213に進み、ユーザ教示部60は当該不足箇所及び正しい発話方法をユーザに対して教示する。その後、ステップS215へ進む。不足箇所が特定されない場合(S211でNO)、ステップS215へ進む。
(B) In step S211, the lacking part specifying unit 17 is a part where the input voice is insufficient for the voice command corresponding to the voice when the
(ハ)ステップS215において、変更箇所特定部18は、音声認識部12が認識したなまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が変更されている箇所を特定する。変更箇所が特定された場合(S215でYES)、ステップS217に進み、ユーザ教示部60は当該変更箇所及び正しい発話方法をユーザに対して教示して、図9のフローチャートは終了する。変更箇所が特定されない場合(S215でNO)、ステップS217を実施せずに、図9のフローチャートは終了する。
(C) In step S215, the changed part specifying unit 18 is a part where the input voice is changed with respect to the voice command corresponding to the voice when the utterance command recognized by the
以上説明したように、本発明の第2の実施の形態によれば、以下の作用効果が得られる。 As described above, according to the second embodiment of the present invention, the following operational effects can be obtained.
なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が不足している箇所を特定し、この不足箇所をユーザに対して教示することにより、ユーザが発話する音声のどの箇所の音が弱い或いは欠落しているのかを提示することができるので、ユーザは、正しい発話方法を容易に学習することができる。 The user utters by identifying a point where the input voice is insufficient for the voice command corresponding to the voice when speaking without using the slack command, and teaching the user of the shortage part. Since it is possible to present which part of the sound is weak or missing, the user can easily learn the correct speech method.
なまけコマンドをなまけずに発話した時の音声に相当する音声コマンドに対して入力された音声が変更されている箇所を特定し、この変更箇所をユーザに対して教示することにより、ユーザが発話する音声のどの箇所が間違っているのかを提示することができるので、ユーザは、正しい発話方法を容易に学習することができる。 The user utters by specifying the location where the input voice is changed in response to the voice command corresponding to the voice when uttering without slicking the command, and teaching the user of the changed location. Since it is possible to present which part of the voice is wrong, the user can easily learn the correct speech method.
上記のように、本発明は、2つの実施形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 As described above, the present invention has been described in terms of two embodiments, but it should not be understood that the discussion and drawings that form part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.
本発明の実施の形態では、ユーザが発話する音声がなまけコマンドに該当すると認識した場合、認識したなまけコマンドに対応する制御を実行する音声認識制御装置10について説明したが、本発明の音声認識制御装置は、これに限らず、なまけコマンドを認識した場合、なまけコマンドに対応する機器の制御を実行しなくても構わない。すなわち、少なくとも音声コマンドを認識した場合に、認識した音声コマンドに対応する制御を実行すればよく、なまけコマンドを認識した場合に、対応する制御を実行してもしなくてもどちらでもよい。
In the embodiment of the present invention, the voice
本発明に係わる音声認識制御装置は、浴室に限らず、寝室、リビング、会社のデスク付近及び会議室など、他の箇所に適用することが可能であり、これらの部屋に設置されている電気器具の制御を行うことができる。また、本発明に係わる音声認識制御装置は、自動車等のナビゲーション装置、携帯電話、パーソナルコンピュータなど、音声認識機能を用いて操作可能な機器に対しても適用可能である。 The speech recognition control device according to the present invention is not limited to a bathroom, and can be applied to other places such as a bedroom, a living room, a company desk, and a conference room, and the electric appliances installed in these rooms. Can be controlled. The voice recognition control device according to the present invention can also be applied to devices that can be operated using a voice recognition function, such as navigation devices such as automobiles, mobile phones, and personal computers.
また、図7に示すように、被制御機器20ごとに、音声コマンドと制御内容の対応関係をまとめた表を、液晶表示装置72に表示したり、或いは音声認識制御装置10の使用説明書などに記載しておく。これにより、ユーザは、所望する制御内容に対応する音声コマンドを直ぐに認識できるので、音声による命令の正しい発話方法を容易に学習することができる。
Further, as shown in FIG. 7, for each controlled
このように、本発明はここでは記載していない様々な実施の形態等を包含するということを理解すべきである。したがって、本発明はこの開示から妥当な特許請求の範囲に係る発明特定事項によってのみ限定されるものである。 Thus, it should be understood that the present invention includes various embodiments and the like not described herein. Therefore, the present invention is limited only by the invention specifying matters according to the scope of claims reasonable from this disclosure.
3…浴槽
10…音声認識制御装置
11…コントローラ
12…音声認識部
13…制御実行部
14…照合用データ記憶部
15…制御IF部
16…なまけ傾向特定部
17…不足箇所特定部
18…変更箇所特定部
19…照合対象削除部
20…被制御機器
21…照明機器
21a…主照明
21b…間接照明
22…空調機器
23…給湯器
24…テレビ
25…ジェット噴流バス装置
25a…噴出口
25b…吸込口
26…ミストサウナ装置
40…音声入力部
41…マイク
50…音声出力部
53…スピーカ
60…ユーザ教示部(ユーザ表示手段)
60a…メニューボタン
60b…確定ボタン
60c…戻るボタン
60d…十字キー
60e…優先ボタン
60f…追いだきボタン
60g…自動ボタン
60h…通話ボタン
60i…コントローラオンオフスイッチ
70…表示部
71…LED
72…液晶表示装置
DESCRIPTION OF
60a ...
72 ... Liquid crystal display device
Claims (6)
前記ユーザが発話する音声を入力する音声入力部と、
入力された音声が所定の音声コマンド又は前記音声コマンドをなまけて発話した時の音声に対応するなまけコマンドに該当するか否かを判定する音声認識部と、
前記入力された音声が前記なまけコマンドに該当すると前記音声認識部が判定した場合は、前記ユーザの発話なまけの傾向を特定するなまけ傾向特定部と、
前記なまけ傾向特定部により特定された前記発話なまけの傾向を前記ユーザに対して教示するユーザ教示手段と
を備えることを特徴とする音声認識制御装置。 When it is recognized that at least the voice uttered by the user corresponds to a predetermined voice command, in the voice recognition control device that executes control corresponding to the recognized voice command,
A voice input unit for inputting voice uttered by the user;
A voice recognizing unit that determines whether or not the input voice corresponds to a predetermined voice command or a slack command corresponding to a voice uttered by speaking the voice command;
When the voice recognition unit determines that the input voice corresponds to the lenient command, a lenient tendency identifying unit that identifies a tendency of the user to utter utterance,
A voice recognition control device comprising: user teaching means for teaching the user the tendency of utterance blurring specified by the smoothing tendency specifying unit.
前記ユーザ教示手段は、前記不足箇所特定部により特定された前記不足箇所をユーザに対して教示することを特徴とする請求項1又は2に記載の音声認識制御装置。 When the voice recognition unit determines that the input voice corresponds to the lick command, the lick tendency specifying unit is configured to input the voice command corresponding to the voice when the utterance is made without singing the lick command. A lacking part identifying part that identifies the part where the recorded audio is lacking,
The voice recognition control device according to claim 1, wherein the user teaching means teaches the user the shortage portion specified by the shortage portion specifying unit.
前記教示手段は、前記変更箇所特定部により特定された前記変更箇所をユーザに対して教示することを特徴とする請求項1又は2に記載の音声認識制御装置。 When the voice recognition unit determines that the input voice corresponds to the lick command, the lick tendency specifying unit is configured to input the voice command corresponding to the voice when the utterance is made without singing the lick command. A change location identifying unit that identifies the location where the recorded audio has been changed,
The voice recognition control apparatus according to claim 1, wherein the teaching unit teaches the user about the changed part specified by the changed part specifying unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007279456A JP2009109586A (en) | 2007-10-26 | 2007-10-26 | Voice recognition control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007279456A JP2009109586A (en) | 2007-10-26 | 2007-10-26 | Voice recognition control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009109586A true JP2009109586A (en) | 2009-05-21 |
Family
ID=40778159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007279456A Pending JP2009109586A (en) | 2007-10-26 | 2007-10-26 | Voice recognition control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009109586A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247553A (en) * | 2011-05-26 | 2012-12-13 | Fujitsu Ltd | Acoustic model generation device, acoustic model generation method, and computer program for acoustic model generation |
WO2014107076A1 (en) * | 2013-01-07 | 2014-07-10 | Samsung Electronics Co., Ltd. | Display apparatus and method of controlling a display apparatus in a voice recognition system |
JP2015102728A (en) * | 2013-11-26 | 2015-06-04 | 株式会社デンソーアイティーラボラトリ | Control device, control method, and program |
KR20170055466A (en) * | 2017-05-12 | 2017-05-19 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20180048510A (en) * | 2018-04-26 | 2018-05-10 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20190128615A (en) * | 2019-11-11 | 2019-11-18 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20200029422A (en) * | 2020-03-10 | 2020-03-18 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
JP2021029726A (en) * | 2019-08-27 | 2021-03-01 | Toto株式会社 | Bathroom system |
-
2007
- 2007-10-26 JP JP2007279456A patent/JP2009109586A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247553A (en) * | 2011-05-26 | 2012-12-13 | Fujitsu Ltd | Acoustic model generation device, acoustic model generation method, and computer program for acoustic model generation |
CN109343819A (en) * | 2013-01-07 | 2019-02-15 | 三星电子株式会社 | The display device and method of display device are controlled in speech recognition system |
WO2014107076A1 (en) * | 2013-01-07 | 2014-07-10 | Samsung Electronics Co., Ltd. | Display apparatus and method of controlling a display apparatus in a voice recognition system |
US9880808B2 (en) | 2013-01-07 | 2018-01-30 | Samsung Electronics Co., Ltd. | Display apparatus and method of controlling a display apparatus in a voice recognition system |
JP2015102728A (en) * | 2013-11-26 | 2015-06-04 | 株式会社デンソーアイティーラボラトリ | Control device, control method, and program |
WO2015079669A1 (en) * | 2013-11-26 | 2015-06-04 | 株式会社デンソー | Control device, control method, and program |
KR102045539B1 (en) * | 2017-05-12 | 2019-11-15 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20170055466A (en) * | 2017-05-12 | 2017-05-19 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20180048510A (en) * | 2018-04-26 | 2018-05-10 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR102051480B1 (en) * | 2018-04-26 | 2019-12-03 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
JP2021029726A (en) * | 2019-08-27 | 2021-03-01 | Toto株式会社 | Bathroom system |
JP7283306B2 (en) | 2019-08-27 | 2023-05-30 | Toto株式会社 | bathroom system |
KR20190128615A (en) * | 2019-11-11 | 2019-11-18 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR102089593B1 (en) * | 2019-11-11 | 2020-03-16 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR20200029422A (en) * | 2020-03-10 | 2020-03-18 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
KR102124396B1 (en) * | 2020-03-10 | 2020-06-18 | 삼성전자주식회사 | Display apparatus, Method for controlling display apparatus and Method for controlling display apparatus in Voice recognition system thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009109586A (en) | Voice recognition control device | |
JP2009109587A (en) | Voice recognition control device | |
Hawley et al. | A speech-controlled environmental control system for people with severe dysarthria | |
JP2009104020A (en) | Voice recognition device | |
JP2020525850A (en) | Method, electronic device, home appliance network and storage medium | |
WO2018100743A1 (en) | Control device and apparatus control system | |
WO2017042906A1 (en) | In-vehicle speech recognition device and in-vehicle equipment | |
JP2001034293A (en) | Method and device for transferring voice | |
DE60235674D1 (en) | Apparatus and method for menu-driven voice control of characters in a game environment | |
JP2003076389A (en) | Information terminal having operation controlled through touch screen or voice recognition and instruction performance method for this information terminal | |
JP2002169584A (en) | Voice operation system | |
JP2009109585A (en) | Voice recognition control device | |
JP2003114698A (en) | Command acceptance device and program | |
WO2004019197A1 (en) | Control system, method, and program using rhythm pattern | |
JP2009101056A (en) | Voice recognition controller for bathroom | |
JP2009080183A (en) | Speech recognition control device | |
JP2008268517A (en) | Operating device with speech recognition function | |
JP6522009B2 (en) | Speech recognition system | |
JP2009109536A (en) | Voice recognition system and voice recognizer | |
JP4915665B2 (en) | Controller with voice recognition function | |
JP2000250587A (en) | Speech recognition device and speech recognition translation device | |
JP2005031150A (en) | Apparatus and method for speech processing | |
JP2019117282A (en) | Karaoke device | |
JP2002229586A (en) | Method and system for automatically controlling function during speech | |
JP2009109535A (en) | Voice recognizer |