JP2020046478A - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP2020046478A JP2020046478A JP2018172875A JP2018172875A JP2020046478A JP 2020046478 A JP2020046478 A JP 2020046478A JP 2018172875 A JP2018172875 A JP 2018172875A JP 2018172875 A JP2018172875 A JP 2018172875A JP 2020046478 A JP2020046478 A JP 2020046478A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- voice
- voice recognition
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims abstract description 258
- 238000004891 communication Methods 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 description 41
- 230000002452 interceptive effect Effects 0.000 description 28
- 230000004048 modification Effects 0.000 description 27
- 238000012986 modification Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000001771 impaired effect Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
本発明の第1実施形態によるロボットシステムについて、図1から図5を参照して説明する。
まず、第1実施形態によるロボットシステムの概要について図1を用いて説明する。
図1は、ロボットシステム1の概略構成およびロボットシステム1のユースケースの一例を示す図である。ロボットシステム1は、複数のロボット(本例ではロボットA,Bの2台のロボット)を連携させるロボットシステムである。
また、ロボットシステム1を構成するロボットA,Bは、例えば自律的に移動(歩行や走行)可能に構成されており、配置されている建物内等を適宜移動(歩行または走行)可能である。したがって、ロボットシステム1を構成する複数のロボット(ロボットA,B)のうち一部のロボット(例えばロボットB)が、発話を行っているユーザ(本例ではユーザ500)の近傍に位置していない、すなわちユーザの発話音声が届く範囲に位置していない場合もある。ここで、ユーザの近傍とは、ロボットシステム1における各ロボットが、ユーザの発話音声を音声認識に十分な音量かつ環境音(ノイズ)の少ない状態で収音できる範囲を示す。
このような場合にも、ロボットシステム1は、上述の通信機能によって複数のロボットが連携可能であるため、ユーザの発話音声が届く範囲に位置しているロボット(本例ではロボットA)による精度の高い音声認識結果を、他のロボット(本例ではユーザ500の近傍に位置していないロボットB)と共有することができる。このため、ロボットシステム1は、システム全体としてユーザの発話音声についての音声認識の精度を向上させることができる。またこれにより、ロボットシステム1は、ユーザの発話音声が到達しない位置にあるロボットにおいてもユーザに対して適切な応答をすることができ、利便性を向上することができる。
ここで、図2を用いてロボットシステム1におけるロボットA,Bの構成について説明する。本実施形態においてロボットA,Bは同一の構成を有している。このため、以下の説明では、ロボットAの構成について説明し、ロボットBの構成の説明は省略する。
なお、理解を容易にするため、図2にはロボットAにおいて本実施形態の説明に必須の構成のみを図示し、その他の構成は図示を省略する。
音響処理部110は、音声入力部11からアナログ信号として入力された入力音声をアナログ−デジタル(A−D)変換してデジタル信号による音声データ(デジタル音声データ)を生成し、生成したデジタル音声データを音声認識部113に出力する。また、音声入力部11が複数の収音装置(マイクロフォン)により形成されている場合、音響処理部110は、音声入力部11から入力されたユーザの発話音声に基づいてユーザの位置(音源方向)を推定することで音源方向推定データを取得可能である。音響処理部110は、音源方向推定データ取得すると、当該データを必要に応じて統括制御部10に出力する。
ロボットAは、音声認識部113を有していることで、インターネットに接続して所定の音声認識サーバを利用することなく、自機内(ローカル環境)においてユーザの発話に基づく入力音声の音声認識処理(意味解析処理を含む)を実行することができる。
また、データ受信時において通信部13は、他のロボット(例えばロボットB)から受信したデータを統括制御部10または音声認識部113に出力する。これにより、他のロボットから受信したデータが共有されて、統括制御部10によって利用する(例えば各構成に出力する)ことが可能となる。
図2に示すように、応答制御部120は、応答文生成部122を有している。応答文生成部122は、応答制御部120に入力された音声認識結果に基づいて、応答文を生成する。応答文生成部122が生成する応答文は、例えばテキストデータである。
応答文生成部122が生成した応答文は、応答制御部120から応答部15に出力される。なお、応答文生成部122が生成する応答文(テキストデータ)は、プレーンテキストであってもよいし、音声合成マークアップ言語(SSML)形式等であってもよい。
応答音声生成部151は、テキストデータである応答文を音声変換し、応答文の内容と一致する内容の応答音声を合成音声によって生成すると、音声出力部153に出力する。音声出力部153は所定のスピーカであって、入力された応答音声を自機(本例では、ロボットA)が配置された空間に出力する。これにより、ロボットAは、音声入力部11に入力されたユーザの発話音声に対応する応答音声を応答部15の音声出力部153から出力し、ユーザとの対話を成立させることができる。
なお、上述のように、ロボットBもロボットAと同様の構成を有するため、ロボットAと同様の作用効果を奏する。
次に、本実施形態によるロボットシステム1のユースケースと、当該ユースケースにおけるロボットシステム1の動作の一例について、図1および図2を参照しつつ、図3および図4を用いて説明する。図3は、図1に示すユースケースの状況において、ロボットシステム1のロボットAおよびロボットB間でロボットAによる音声認識結果を共有する動作の一例を示すシーケンス図である。
例えば、ロボットAとユーザ500との距離αは1メートル未満であって、ユーザ500の発話音声は音声認識の実行に十分な音量でロボットAに到達する。また、ロボットAがユーザ500の近傍に位置しているため、ロボットAにおける音声認識への周囲の環境音(ノイズ)の影響も少ない。したがって、ロボットAは十分な精度でユーザ500の発話音声を音声認識することができる。
ロボットBは、通信部13においてロボットAの音声認識結果を受信し(ステップS108)、統括制御部10に出力する。これにより、ロボットAの音声認識結果がロボットBに共有される。
このような構成を有する複数の対話ロボットを含むロボットシステム1は、各ロボットの通信部13によって連携関係にある複数の対話ロボット間で音声認識結果を共有することができる。
これにより、一のロボット(例えばロボットB)の音声認識部113において音声認識ができず音声認識結果を取得できない場合においても、他のロボット(例えばロボットA)における音声認識結果を取得して、あたかも自機で音声認識したかのようにユーザに応答することができる。
このように、ロボットシステム1は、ユーザ(本例では、ユーザ500)が呼びかけたロボット(本例では、ロボットB)が応答しない、または呼びかけたロボット以外のロボット(本例では、ロボットA)が応答するといったストレスをユーザに感じさせることなく、対話サービスを提供することができる。また、ロボットシステム1内のロボット間で、ユーザの近傍に位置して精度の高い音声認識が可能なロボットによる音声認識結果を共有することができる。これにより、ロボットシステム1は、システム全体としてユーザの発話音声についての音声認識の精度を向上させることで利便性を向上させることができる。
図4は、本実施形態によるロボットシステム1において、ロボットAがロボットBをユーザの現在位置まで誘導する場合の動作の一例を示すシーケンス図である。図4に示す動作は、図1に示すユースケースの状況と同様に、ロボットAがユーザ500の近傍(距離α)に位置し、ロボットBがユーザ500の遠方(距離β)に位置している状況におけるロボットシステム1の動作である。なお、図4において、図3に示すシーケンス図と同様の処理を行うステップには図3と同じ符号を付し、説明を省略する。
これにより、ロボットシステム1は、通信部13による連携関係にある複数台の対話ロボット間で音声認識結果を共有し、かつユーザから離れた位置にいるロボットをユーザの近傍に誘導することができる。このため、ロボットシステム1は、ユーザの発話音声についての音声認識の精度を向上することができ、かつユーザに提供するロボットとの対話サービスにおける対話機能の向上させることで利便性の向上を図ることができる。また、ロボットシステム1は、遠方にいるロボットをユーザの近傍に誘導することで、呼びかけに応じてロボットが近づいてきたという満足感をユーザに感じさせることができる。
これにより、ロボットシステム1は、ユーザから離れた位置にいるロボットをユーザの近傍、すなわちユーザに近い位置にいるロボットの近傍に誘導することで、不要な音声認識結果の送受信を防止して、複数のロボット間の通信による処理負荷を低減することができる。
上記第1実施形態において、ロボットシステム1は、複数台の対話ロボット間において音声認識結果を共有するとしたが、本発明はこれに限られない。例えば、ロボットシステム1は、複数台の対話ロボット間においてユーザの発話音声を共有してもよい。この場合、音声認識部113は、音響処理部110から入力された入力音声データ(デジタル信号)を応答制御部120を介して統括制御部10に出力する。
図5は、本変形例におけるロボットシステム1の動作を説明するシーケンス図である。なお、図5において、図3に示すシーケンス図と同様の処理を行うステップには図3と同じ符号を付し、説明を省略する。なお図5に示すロボットシステム1の動作時においても、ユーザ500、ロボットA,Bは、それぞれ図1に示すのと同様の位置関係にあるとする。
なお、本変形例において、ロボットAはステップS131において、ユーザ500の発話音声と合わせてユーザ500の位置情報をロボットBに送信してもよい。これにより、ロボットシステム1は、図4に示すシーケンス図を用いて説明した動作と同様に、ユーザの発話音声を共有する場合においてもユーザの遠方にいるロボットをユーザの近傍の位置(ユーザから距離αの位置)に誘導することができる。
また、上記第1実施形態において、統括制御部10は、音声認識結果に含まれるロボットの呼称に基づいてユーザの発話対象のロボットを特定するとしたが、本発明はこれに限られない。例えば、ロボットシステム1において、各ロボットが音声認識において認識可能な話題(ドメイン)が異なる場合には、ユーザが発話した内容が示す話題によって、ユーザの発話対象となるロボットを特定してもよい。ここで、各ロボットが対応可能な話題は、音声認識時において、音声認識部113における音声認識エンジンが用いるモデル(言語モデルおよび音響モデル)と辞書の構成に依存する。
また、上記第1実施形態によるロボットシステム1において、複数台のロボットはいずれも音声認識機能を有するとしたが、本発明はこれに限られない。例えば、複数台のロボット(本例では、ロボットA,B)において、一部のロボット(例えばロボットB)は、音声認識機能を有しなくてもよい。
例えば、ロボットBは、音声入力部11、音響処理部110および音声認識部113といった音声認識機能を実現する構成要素を有していなくてもよい。この場合、ロボットBの通信部13は、例えばロボットAから受信したデータを全て統括制御部10に出力する。
本変形例において、音声認識機能を有しないロボットBには、音声認識機能を実現する構成要素が不要となるため、ロボットBの作製コストは低減される。このため、ロボットシステム1は、利便性の向上と、ロボットシステム1の構築に係る費用の低減とを両立することができる。また、ロボットBの作製コストの低減に伴い、音声認識機能を有しないロボットの価格を低減することが可能となるため、ロボットシステム1を導入する企業や店舗の運営者にとっても複数台のロボットを購入する際の費用を低減することができる。したがって、結果としてロボットシステム1は、企業や店舗における当該システムの導入を促進させることができる。このように、本変形例によるロボットシステム1は、対話ロボットの作製コストおよび本システムの導入費用を低減し、かつ複数のロボットにおける音声認識の精度を向上させて利便性の向上を図ることができる。また、本変形例において、音声認識機能を有するロボットと音声認識機能を有しないロボットとの対応関係は、1対1であってもよいし、1対多であってもよいし、多対1であってもよい。
次に、本発明の第2実施形態によるロボットシステム2について図2、図6および図7を用いて説明する。図6は、本実施形態によるロボットシステム2の概略構成およびロボットシステム2のユースケースの一例を示す図である。
一方、本実施形態によるロボットシステム2は、ロボットシステム2を構成する複数のロボット間において主従関係が形成されている点でロボットシステム1と異なる。
上記第2実施形態におけるユースケースにおいては、主ロボットであるロボットCが従ロボットであるロボットDよりも先にユーザ700に応答する例を説明したが、本発明はこれに限られない。ロボットシステム2においては、応答順序判定情報の内容によって、従ロボットが先に応答し、次いで主ロボットが応答する場合も生じる。この場合、主ロボットであるロボットCは、応答順序を決定すると(ステップS141)、次いで応答指示信号をロボットDに送信する(ステップS143)。従ロボットであるロボットDは自機における応答音声の発話を終了すると、統括制御部10において応答終了を示す信号(応答終了信号)を生成し、通信部13を介してロボットCに送信する。ロボットCは、通信部13において応答終了信号を受信すると、応答文を生成し(ステップS109)、応答音声を再生する(ステップS111)。
次に、本発明の第3実施形態によるロボットシステム3について図2、図8および図9を用いて説明する。図8は、本実施形態によるロボットシステム3の概略構成およびロボットシステム3のユースケースの一例を示す図である。
一方、本実施形態によるロボットシステム3は、ロボットシステム3を構成する複数のロボット(ロボットE,F)のそれぞれの音声認識部113が互いに異なる言語の音声認識を実行可能であり、複数のロボットのうち音声認識部113における音声認識結果の信頼度が最も高いロボットが、ユーザに対して応答する点でロボットシステム2と異なる。
これにより、ロボットシステム3においては、ユーザの発話音声に対応する言語で音声認識を行うロボットが、ユーザの発話内容と対応する応答音声を再生することが可能となる。したがって、ロボットシステム3は、対話機能が損なわれることを防止して複数のロボットにおける音声認識の精度を向上し利便性の向上を図ることができる。
具体的には、ロボットシステム3において複数のロボットには、1つの主ロボット(ロボットF)と該主ロボット以外の残余のロボットであって該主ロボットに従属する従ロボット(本例では、ロボットF)が含まれ、従ロボットは、主ロボットに音声認識結果を送信し、主ロボットは、該主ロボットおよび従ロボットのうち信頼度が最も高い音声認識結果を導出したロボットを、ユーザに対して応答するロボットに決定する。
上記第3実施形態において、ロボットシステム3は、複数のロボット(ロボットE,F)が主従関係を形成し、主ロボットがユーザの発話に対する応答音声の言語(応答言語)を決定するとしたが、本発明はこれに限られない。
ここで、第3実施形態の変形例について、図10および図11を用いて説明する。図10は、本変形例によるロボットシステム3の概略構成およびロボットシステム3のユースケースの一例を示す図である。また、図11は、本変形例におけるロボットシステム3の動作を説明するシーケンス図である。
また、ロボットFの音声認識部113は自機の音声認識結果を応答制御部120を介して統括制御部10に出力し、統括制御部10は通信部13を介してロボットEに自機の音声認識結果を送信する(ステップS172)。これにより、ロボットE,Fにおいて互いの音声認識結果が共有される。
具体的には、ロボットEの統括制御部10は、ロボットE,Fの音声認識結果のうち信頼度の高い音声認識結果の言語を応答言語に決定し、応答言語が自機の音声認識の言語であれば、自機による応答音声の再生が可能と判定する。本変形例において、上記第3実施形態と同様に、ロボットFがユーザの発話音声の言語と一致する言語(英語)によって音声認識を行っている。このため、音声認識結果の信頼度は、日本語によって音声認識を行っているロボットEの音声認識結果よりも、ロボットFの音声認識結果の方が高くなっている。したがって、ロボットEの統括制御部10は、応答言語を英語に決定し、かつ自機において応答音声(日本語)を再生しないことを決定する。
ロボットFの統括制御部10は、ステップS174において自機が応答音声を再生すると決定したことに基づいて、応答制御部120の応答文生成部122に応答文(英語)を生成させ(ステップS110)、応答部15は応答音声生成部151において生成した応答音声(英語)を音声出力部153において再生する(ステップS112)。これにより、本変形例によるロボットシステム3において、ユーザ900の英語による発話に対して、ロボットFが英語による音声認識結果に基づいて英語による応答音声を再生することができる。
これにより、本変形例によるロボットシステム3は、上記第3実施形態によるロボットシステム3と同様に、ユーザの発話音声に対応する言語で音声認識を行うロボットのみが、ユーザの発話内容と対応する応答音声を再生することが可能となり、複数ロボットにおける音声認識の精度を向上させて利便性の向上を図ることができる。さらに、本変形例によるロボットシステム3は、各ロボットが1つの主ロボットに依存することなく各ロボットが自律的に応答可否を決定することができる。このため、本変形例によるロボットシステム3は、もし主ロボットに不具合が生じた場合においても対話機能の低減を防止して、利便性を向上させることができる。
10 統括制御部
11 音声入力部
13 通信部
15 応答部
17 画像入力部
19 駆動部
110 音響処理部
113 音声認識部
120 応答制御部
122 応答文生成部
151 応答音声生成部
153 音声出力部
170 画像処理部
190 駆動制御部
A、B、C、D、E、F ロボット
Claims (8)
- 互いに連携可能かつ移動可能な複数のロボットを備えるロボットシステムであって、
前記複数のロボットは、
ユーザが発した音声を入力可能な音声入力部と、
前記音声入力部から入力された入力音声の音声認識を実行し音声認識結果を導出可能な音声認識部と、
前記複数のロボット間における前記音声認識結果の送受信が可能な通信部と、
前記音声認識結果に基づいてユーザに対して応答する応答部と、
を有すること
を特徴とするロボットシステム。 - 前記複数のロボットには、第一ロボットと前記第一ロボットよりもユーザから遠い位置にある第二ロボットが含まれ、
前記第一ロボットは、該第一ロボットの前記音声認識結果を、前記通信部によって前記第二ロボットに送信し、
前記第二ロボットは、前記通信部において受信した前記第一ロボットの前記音声認識結果に基づいて前記応答部によってユーザに対して応答すること
を特徴する請求項1記載のロボットシステム。 - 前記第一ロボットは、ユーザの位置情報を前記通信部によって前記第二ロボットに送信し、
前記第二ロボットは、ユーザの前記位置情報に基づいて、ユーザの発話音声を音声認識可能な位置に移動すること
を特徴とする請求項2記載のロボットシステム。 - 前記複数のロボットのうち一のロボットは、前記複数のロボットのうちいずれのロボットでユーザに対して応答するかを決定すること
を特徴とする請求項1記載のロボットシステム。 - 前記一のロボットは、前記複数のロボットのそれぞれがユーザに対して応答する順序を決定すること
を特徴とする請求項4記載のロボットシステム。 - 互いに連携可能かつ移動可能な複数のロボットを備え、
前記複数のロボットは、
ユーザが発した音声を入力可能な音声入力部と、
前記音声入力部から入力された入力音声の音声認識を実行し音声認識結果を導出可能な音声認識部と、
前記複数のロボット間における前記音声認識結果の送受信が可能な通信部と、
前記音声認識結果に基づいてユーザに対して応答する応答部と、
を有し、
前記複数のロボットの前記音声認識部は、互いに異なる言語の音声認識が可能であり、
前記複数のロボットのうち前記音声認識結果の信頼度が最も高いロボットが、ユーザに対して応答すること
を特徴とするロボットシステム。 - 前記複数のロボットには、1つの主ロボットと該主ロボット以外の残余のロボットであって該主ロボットに従属する従ロボットが含まれ、
前記従ロボットは、前記主ロボットに前記音声認識結果を送信し、
前記主ロボットは、該主ロボットおよび前記従ロボットのうち信頼度が最も高い音声認識結果を導出したロボットを、ユーザ対して応答するロボットに決定すること
を特徴とする請求項6記載のロボットシステム。 - 前記複数のロボットは、前記通信部による前記音声認識結果の送受信によって互いの前記音声認識結果を共有し、共有した音声認識結果と自らの音声認識結果を比較し、
前記複数のロボットのうち信頼度が最も高い音声認識結果を導出したロボットが、ユーザに対して応答すること
を特徴とする請求項6記載のロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018172875A JP2020046478A (ja) | 2018-09-14 | 2018-09-14 | ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018172875A JP2020046478A (ja) | 2018-09-14 | 2018-09-14 | ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020046478A true JP2020046478A (ja) | 2020-03-26 |
Family
ID=69901282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018172875A Pending JP2020046478A (ja) | 2018-09-14 | 2018-09-14 | ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020046478A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020203067A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2022043901A (ja) * | 2020-09-04 | 2022-03-16 | 新東工業株式会社 | 対話システム、対話ロボット、プログラム、および情報処理方法 |
US11465287B2 (en) * | 2019-10-28 | 2022-10-11 | Lg Electronics Inc. | Robot, method of operating same, and robot system including same |
US20220357752A1 (en) * | 2021-05-06 | 2022-11-10 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
WO2022252938A1 (zh) * | 2021-05-31 | 2022-12-08 | 华为技术有限公司 | 一种语音交互应答方法和电子设备 |
JP7649580B1 (ja) | 2024-05-10 | 2025-03-21 | 株式会社計数技研 | 移動体、及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345435A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | ロボットおよびロボットシステム |
JP2004230480A (ja) * | 2003-01-28 | 2004-08-19 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2005342862A (ja) * | 2004-06-04 | 2005-12-15 | Nec Corp | ロボット |
JP2006181651A (ja) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2008152504A (ja) * | 2006-12-18 | 2008-07-03 | Hitachi Ltd | 案内ロボット装置及び案内システム |
JP2010231580A (ja) * | 2009-03-27 | 2010-10-14 | Kyoto Sangyo Univ | 教育支援システムと教育支援方法 |
JP2018013545A (ja) * | 2016-07-19 | 2018-01-25 | トヨタ自動車株式会社 | 音声対話装置および発話制御方法 |
-
2018
- 2018-09-14 JP JP2018172875A patent/JP2020046478A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345435A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | ロボットおよびロボットシステム |
JP2004230480A (ja) * | 2003-01-28 | 2004-08-19 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2005342862A (ja) * | 2004-06-04 | 2005-12-15 | Nec Corp | ロボット |
JP2006181651A (ja) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2008152504A (ja) * | 2006-12-18 | 2008-07-03 | Hitachi Ltd | 案内ロボット装置及び案内システム |
JP2010231580A (ja) * | 2009-03-27 | 2010-10-14 | Kyoto Sangyo Univ | 教育支援システムと教育支援方法 |
JP2018013545A (ja) * | 2016-07-19 | 2018-01-25 | トヨタ自動車株式会社 | 音声対話装置および発話制御方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020203067A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US12057118B2 (en) | 2019-03-29 | 2024-08-06 | Sony Group Corporation | Information processing apparatus and information processing method |
US11465287B2 (en) * | 2019-10-28 | 2022-10-11 | Lg Electronics Inc. | Robot, method of operating same, and robot system including same |
JP2022043901A (ja) * | 2020-09-04 | 2022-03-16 | 新東工業株式会社 | 対話システム、対話ロボット、プログラム、および情報処理方法 |
US20220357752A1 (en) * | 2021-05-06 | 2022-11-10 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
WO2022236002A1 (en) * | 2021-05-06 | 2022-11-10 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
KR20220151517A (ko) * | 2021-05-06 | 2022-11-15 | 베어 로보틱스, 인크. | 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR102506113B1 (ko) * | 2021-05-06 | 2023-03-03 | 베어 로보틱스, 인크. | 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
US11934203B2 (en) * | 2021-05-06 | 2024-03-19 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
WO2022252938A1 (zh) * | 2021-05-31 | 2022-12-08 | 华为技术有限公司 | 一种语音交互应答方法和电子设备 |
JP7649580B1 (ja) | 2024-05-10 | 2025-03-21 | 株式会社計数技研 | 移動体、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6520878B2 (ja) | 音声取得システムおよび音声取得方法 | |
JP2020046478A (ja) | ロボットシステム | |
US10304452B2 (en) | Voice interactive device and utterance control method | |
US10276164B2 (en) | Multi-speaker speech recognition correction system | |
JP4718987B2 (ja) | インターフェース装置およびそれを備えた移動ロボット | |
US20160048508A1 (en) | Universal language translator | |
JP5750380B2 (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
WO2011048826A1 (ja) | 音声翻訳システム、制御装置、および制御方法 | |
JP6084654B2 (ja) | 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法 | |
US9792901B1 (en) | Multiple-source speech dialog input | |
JP2007264473A (ja) | 音声処理装置、音声処理方法および音声処理プログラム | |
JP6614080B2 (ja) | 音声対話システムおよび音声対話方法 | |
JP2018185362A (ja) | ロボットおよびその制御方法 | |
CN109568973A (zh) | 对话装置、对话方法、服务器装置及计算机可读存储介质 | |
KR20120127773A (ko) | 음성인식 정보검색 시스템 및 그 방법 | |
JP5206151B2 (ja) | 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法 | |
CN113299309A (zh) | 语音翻译方法及装置、计算机可读介质和电子设备 | |
JP2017191531A (ja) | コミュニケーションシステム、サーバ及びコミュニケーション方法 | |
WO2018198791A1 (ja) | 信号処理装置および方法、並びにプログラム | |
JP7400364B2 (ja) | 音声認識システム及び情報処理方法 | |
JP7055327B2 (ja) | 会話収集装置、会話収集システム及び会話収集方法 | |
WO2019150708A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
EP3833459A1 (en) | Systems and devices for controlling network applications | |
JP2015187738A (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
CN111429882A (zh) | 播放语音的方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221213 |