JP2013086226A - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP2013086226A JP2013086226A JP2011230562A JP2011230562A JP2013086226A JP 2013086226 A JP2013086226 A JP 2013086226A JP 2011230562 A JP2011230562 A JP 2011230562A JP 2011230562 A JP2011230562 A JP 2011230562A JP 2013086226 A JP2013086226 A JP 2013086226A
- Authority
- JP
- Japan
- Prior art keywords
- user
- expression
- response
- robot
- spoken
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 54
- 230000014509 gene expression Effects 0.000 claims abstract description 84
- 238000006243 chemical reaction Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 230000004044 response Effects 0.000 claims description 82
- 241001465754 Metazoa Species 0.000 claims description 9
- 239000002245 particle Substances 0.000 claims description 6
- 230000009471 action Effects 0.000 description 23
- 241000282414 Homo sapiens Species 0.000 description 14
- 230000000694 effects Effects 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 7
- 230000002889 sympathetic effect Effects 0.000 description 6
- 230000009118 appropriate response Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、検知した音声から身体動作を生成するコミュニケーションロボットに関するものである。 The present invention relates to a communication robot that generates a body motion from detected voice.
人間とのコミュニケーションを目的としたコミュニケーションロボット(以下単に「ロボット」とも称す)の開発が進められている。この種のロボットには、言葉によるバーバルコミュニケーションを実施するにとどまらず、表情を変化させる、ジェスチャーを行うといった身体動作によるノンバーバルコミュニケーション(以下「聞き手動作」とも称す)を実施するものがある。 Development of communication robots (hereinafter also simply referred to as “robots”) for the purpose of communicating with human beings is underway. This type of robot includes not only verbal communication by words but also non-verbal communication by body movement (hereinafter referred to as “listener movement”) such as changing facial expressions and performing gestures.
このような聞き手動作を実施するロボットによると、人間がロボットに話しかけるとき、ロボットに聞く姿勢が形成される。このことにより、話し手である人間は、あたかも人間と話しているかのような自然なコミュニケーションを実感でき、物体に話しかけているという違和感を覚えることがない。そのため、ロボットに話しかけるとき、人間がより話し易くなるという所謂引き込み効果を奏することができる。このようなロボットが、例えば、非特許文献1に開示されている。 According to the robot that performs such a listener operation, when a human talks to the robot, a posture to listen to the robot is formed. As a result, a person who is a speaker can feel natural communication as if he / she is talking to a person, and does not feel uncomfortable that he / she is talking to an object. Therefore, when talking to the robot, a so-called pull-in effect that makes it easier for humans to speak can be achieved. Such a robot is disclosed in Non-Patent Document 1, for example.
ところで、近年、人とロボットの共生に係る研究が注目されている。即ち、病院等の公共施設、レストラン等の商業施設、学校等の教育施設、ゲームセンター等の娯楽施設、ケアセンター等の介護施設といった、社会における様々な人の生活環境において、人の知識獲得の手助けをしたり、人と共に労働したりするロボットの開発が広く行われている。 In recent years, research related to the coexistence of humans and robots has attracted attention. In other words, people's knowledge acquisition in various living environments such as hospitals and other public facilities, restaurants and other commercial facilities, schools and other educational facilities, game centers and other recreational facilities, and care centers and other nursing homes Robots that help or work with people are widely developed.
本発明者らは、このような人と共生するロボットとして、人間の社会生活における感情的な面をサポートするロボットの開発を考えた。具体的には、社会生活によって人間が受けるストレスをロボットの動作によって解消することを考えた。 The present inventors considered the development of a robot that supports the emotional aspect of human social life as a robot that coexists with such a person. Specifically, we considered that the stress of human beings due to social life can be eliminated by robot movement.
本発明者らがストレスを解消する手段について調査した結果、愚痴を聴いてもらうことがストレスの解消に効果的であることが判明した。しかしながら、人がロボットに対して愚痴を言うとき、ロボットが従来の聞き手動作を実施したのでは、人は十分にストレスを解消することができなかった。 As a result of the inventors investigating the means for relieving stress, it has been found that listening to bitches is effective in relieving stress. However, when a person complains about a robot, if the robot performs a conventional listener operation, the person cannot sufficiently relieve stress.
このことにつき、以下のような理由が考えられる。一般的に愚痴をこぼすとき、話し手は、聴き手が相手の発言を傾聴するという態度を見せることにより、愚痴をこぼし易くなる。また、話し手は、聴き手が強く同意してくれることにより、わだかまりが消えて気持ちがよくなる。換言すると、愚痴を聴くとき、聴き手には、通常の会話を実施するときより、話し手に対して強い共感が求められる。
しかし、従来のロボットが実施する聞き手動作では、話し手である使用者に対し、発話内容に共感していることを十分に感じさせることができなかった。
The following reasons can be considered for this. In general, when complaining, a speaker can easily complain by showing the attitude that the listener listens to the other person's remarks. Also, if the listener strongly agrees with the listener, the wad will disappear and the feeling will improve. In other words, when listening to bitches, the listener is required to have a stronger empathy for the speaker than when conducting a normal conversation.
However, in the listener operation performed by the conventional robot, the user who is a speaker cannot fully feel that he / she is sympathetic with the utterance content.
そこで本発明は、使用者がロボットに向けて発話するとき、使用者がより話し易く、より親しみを感じることができるコミュニケーションロボットの提供を課題とするものである。 Therefore, an object of the present invention is to provide a communication robot that allows a user to speak more easily and feel more familiar when the user speaks toward the robot.
上記課題を解決するための本発明の一態様は、使用者が発する話し言葉を検知する音声検知手段と、使用者が視覚的及び/又は聴覚的に関知できる所定の応答反応を表出する反応表出手段とを有し、使用者の話し言葉に反応して反応表出手段が予め定められた複数パターンの応答反応を表出するコミュニケーションロボットであって、前記音声検知手段が検知した話し言葉の内容を判定する音声判定手段を有し、当該音声判定手段は、前記話し言葉が通常表現であるか否かの判定、前記話し言葉が同意要求表現であるか否かの判定、前記話し言葉が断定表現であるか否かの判定の少なくともいずれかの判定が可能であり、音声判定手段の判定結果に基づいて、異なる応答反応が表出されることを特徴とするコミュニケーションロボットである。 One aspect of the present invention for solving the above-described problems is that a voice detection unit that detects spoken words emitted by a user and a reaction table that expresses a predetermined response response that the user can visually and / or auditorily know. A communication robot that responds to a user's spoken word and the response expression means expresses a plurality of patterns of response responses determined in advance, the content of the spoken word detected by the voice detection means Voice determination means for determining, wherein the voice determination means determines whether or not the spoken word is a normal expression, determines whether or not the spoken word is a consent request expression, and whether or not the spoken word is an assertive expression It is a communication robot capable of determining at least one of determination of whether or not, and displaying different response responses based on the determination result of the sound determination means
本発明の一態様では、話し言葉の内容を判定する音声判定手段を有しており、話し手である使用者の話し言葉が、どのような内容であるのかを判定することができる。そして、判定した話し言葉の内容に応じた適切な応答反応を表出することができる。例えば、使用者の会話の内容によって、相槌を打つ、同意する、より強く同意する等の動作を切り替えることができる。このことにより、ロボットの応答が人間(動物)の応答に近いものとなり、使用者との間により自然なコミュニケーションが成立する。このことにより、使用者がロボットに語りかけるとき、より話し易くなるという効果がある。
さらに、使用者の話の内容に応じた適切な応答反応を表出することにより、使用者に対し、「話し相手(ロボット)が自分の意見に強く共感していること」を感じさせることができる。具体的には、使用者が語りかけているとき、適切なタイミングで相槌を入れる等の所定の動作を実施すると、使用者は話し相手(ロボット)が自分の話しを傾聴しているように感じる。そして、所定の動作が、例えば首を縦に振るといった、承認や同意を示す動作であった場合、使用者は、話し相手(ロボット)が話しの内容に同意したかのように感じる。そして、使用者は、話し相手(ロボット)が自分の話しを熱心に聴き、同意してくれることから、話し相手(ロボット)が自分の意見に強く共感していると感じる。このことから、使用者が話し相手(ロボット)に対してより親しみを感じるという効果がある。
なお、ここでいうロボットとは、プログラムによって動作する有形の物体(機器、ハードウェア、人形)を含むものである。
In one aspect of the present invention, a voice determination unit that determines the content of a spoken word is provided, and the content of the spoken word of a user who is a speaker can be determined. Then, it is possible to express an appropriate response response according to the content of the determined spoken language. For example, depending on the content of the user's conversation, operations such as hitting, agreeing, and strongly agreeing can be switched. As a result, the response of the robot is close to that of a human (animal), and natural communication is established with the user. This has the effect of making it easier to talk when the user talks to the robot.
Furthermore, by displaying an appropriate response response according to the content of the user's story, the user can feel that the other party (robot) is strongly sympathizing with his / her opinion. . Specifically, when the user is speaking, if the user performs a predetermined operation such as putting a match at an appropriate timing, the user feels that the other party (robot) is listening to his / her speech. When the predetermined operation is an operation indicating approval or consent, for example, shaking the head vertically, the user feels as if the talking partner (robot) has agreed to the content of the talk. And the user feels that the other party (robot) is strongly sympathetic to his / her opinion because the other party (robot) listens and agrees eagerly. From this, there is an effect that the user feels more familiar with the talking partner (robot).
Here, the robot includes a tangible object (device, hardware, doll) that operates according to a program.
本発明の第二の態様は、使用者が発する話し言葉を検知する音声検知手段と、使用者が視覚的及び/又は聴覚的に関知できる所定の応答反応を表出する反応表出手段とを有し、使用者の話し言葉に反応して反応表出手段が予め定められた複数パターンの応答反応を表出するコミュニケーションロボットであって、前記音声検知手段が検知した話し言葉の内容を判定する音声判定手段を有し、当該音声判定手段は、使用者が発する話し言葉の語尾の音又は語尾近傍の音、話し言葉の長さ、声の強度の少なくともいずれかの情報に基づいて話し言葉の内容がどのような内容であるかを判定し、音声判定手段の判定結果に基づいて、異なる応答反応が表出されることを特徴とするコミュニケーションロボットである。 The second aspect of the present invention includes voice detection means for detecting a spoken language spoken by the user, and reaction expression means for expressing a predetermined response response that the user can visually and / or audibly know. And a voice determination means for determining the content of the spoken language detected by the voice detection means, wherein the response expression means responds to the user's spoken language and the response expression means expresses a plurality of predetermined response responses. The speech determination means includes the content of the spoken word based on at least one of the sound at the end of the spoken word or the sound near the word ending, the length of the spoken word, or the strength of the voice. The communication robot is characterized in that different response responses are expressed based on the determination result of the voice determination means.
本発明の第二の態様では、話し言葉の内容を判定する音声判定手段を有しており、使用者が発する話し言葉の語尾の音、語尾近傍の音、話し言葉の長さ、声の強度等の情報から、話し言葉の内容を判定することができる。そして、判定した話し言葉の内容に応じた適切な応答反応を表出することができる。即ち、上記した態様と同様に、話の内容によって応答反応を変えることで、ロボットの応答が人間の応答に近いものとなり、使用者との間により自然なコミュニケーションが成立する。このことにより、使用者がロボットに語りかけるとき、より話し易くなるという効果がある。
また、使用者の話の内容に応じた適切な応答反応を表出することにより、上記した態様と同様に、使用者に対して「話し相手(ロボット)が自分の意見に強く共感していること」を感じさせることができ、使用者に親しみを感じさせることができるという効果がある。
In the second aspect of the present invention, there is a voice determination means for determining the content of the spoken word, and information such as the sound at the end of the spoken word, the sound near the word ending, the length of the spoken word, the voice strength, etc. Therefore, the content of spoken language can be determined. Then, it is possible to express an appropriate response response according to the content of the determined spoken language. That is, similarly to the above-described aspect, by changing the response response according to the content of the story, the response of the robot becomes close to the response of a human, and natural communication with the user is established. This has the effect of making it easier to talk when the user talks to the robot.
In addition, by expressing an appropriate response response according to the content of the user's story, as with the above-described mode, the user is told that the other party (robot) is strongly sympathetic to his / her opinion. Can be felt, and the user can feel familiar.
本発明の第三の態様は、上記した態様のコミュニケーションロボットにおいて、前記音声判定手段は、使用者が発する話し言葉の終助詞に基づいて、話し言葉の内容を判定することを特徴とする。 According to a third aspect of the present invention, in the communication robot according to the aspect described above, the voice determination means determines the content of the spoken word based on the final particle of the spoken word uttered by the user.
本発明の第三の態様では、使用者が発する話し言葉の終助詞に基づいて話し言葉の内容を判定する。このことにより、文や句の全体から話し言葉の内容を判定する場合に比べて、ハードウェア実現が比較的容易なアルゴリズムで判定を実施することができる。また、文や句の全体から話し言葉の内容を判定しないので、実行時に素早く判定結果を得ることが可能となる。
なお、ここでいう終助詞とは、間投助詞を含むものであり、より具体的には、文や句の末尾について意味を付け加える品詞全般を含むものとする。さらに、英語、ドイツ語等の外国語において、付加疑問文の末尾の部分のような、文や句の末尾に付加されて意味を付け加える部分についても含むものとする。
In the third aspect of the present invention, the content of the spoken word is determined based on the final particle of the spoken word emitted by the user. As a result, it is possible to carry out the determination with an algorithm that is relatively easy to implement as compared with the case where the content of spoken words is determined from the entire sentence or phrase. Moreover, since the content of the spoken word is not determined from the whole sentence or phrase, it is possible to obtain a determination result quickly at the time of execution.
The term final particle as used herein includes an interposition particle, and more specifically includes a general part of speech that adds meaning to the end of a sentence or phrase. Furthermore, in a foreign language such as English or German, a part added to the end of a sentence or phrase, such as a part at the end of an additional question sentence, is added.
本発明の第四の態様は、上記した態様のコミュニケーションロボットにおいて、前記応答反応は、特定の動作の実施回数を変化させることで、異なる応答反応とするものであり、音声判定手段の判定結果に基づいて、前記特定の動作を実施する回数が変化することを特徴とする。 According to a fourth aspect of the present invention, in the communication robot according to the aspect described above, the response reaction is a different response reaction by changing the number of executions of a specific operation. Based on this, the number of times of performing the specific operation varies.
本発明の第四の態様では、特定の動作の実施回数を変化させることで、異なる応答反応とする。つまり、同じ動作を繰り返すことにより、動作が示す意味に強弱をつける。例えば、ロボットが1回頷く動作を実施する場合と、ロボットが複数回頷く動作を実施する場合とでは、後者の方が強く同意していることを示すことができる。したがって、同じ動作の回数の違いによって、同意していることを表現する応答と、強く同意していることを表現する応答の2通りの応答を行うことができる。このように、特定の動作の実施回数を変化させることで、異なる応答反応とすると、使用者の話し言葉に対する応答反応がより人間の応答に近いものとなる。 In the fourth aspect of the present invention, different response responses are obtained by changing the number of executions of a specific operation. That is, by repeating the same operation, the meaning indicated by the operation is strengthened. For example, it can be shown that the latter agrees more strongly in the case where the robot performs the operation of whispering once and the case where the robot performs the operation of whispering multiple times. Therefore, depending on the difference in the number of times of the same operation, two types of responses can be performed: a response expressing that the user agrees and a response expressing that the user strongly agrees. In this way, by changing the number of executions of a specific operation, if the response response is different, the response response to the user's spoken language becomes closer to a human response.
本発明の第五の態様は、上記した態様のコミュニケーションロボットにおいて、前記音声判定手段は、使用者が発する話し言葉の語尾が下記の(1)〜(4)の語から選ばれた1又は2以上の語である場合に、同意要求表現と判定することを特徴とする。
(1)「ね」
(2)「う」
(3)「お」
(4)「か」
According to a fifth aspect of the present invention, in the communication robot according to the aspect described above, the voice determination means includes one or more selected from the following words (1) to (4) whose endings of the spoken language the user utters: If it is a word, it is determined that it is a consent request expression.
(1) "Ne"
(2) "U"
(3) "O"
(4) "ka"
本発明の第五の態様では、使用者が発する話し言葉の語尾が上記の(1)〜(4)の語から選ばれた1又は2以上の語である場合に、同意要求表現と判定する。
使用者が日本語で発話し、話し言葉の語尾が上記の(1)〜(4)の語から選ばれた1又は2以上の語である場合、使用者が話した内容について同意を要求している可能性が十分に高い。したがって、このような場合に、話し言葉の内容が同意要求表現であると判定することで、話し言葉の内容を判定する判定動作の精度を高めることができる。
In the fifth aspect of the present invention, the consent request expression is determined when the ending of the spoken language given by the user is one or more words selected from the words (1) to (4).
If the user speaks in Japanese and the ending of the spoken word is one or more words selected from the words (1) to (4) above, request consent from the user The possibility is high enough. Therefore, in such a case, it is possible to improve the accuracy of the determination operation for determining the content of the spoken word by determining that the content of the spoken word is the consent request expression.
本発明の第六の態様は、上記した態様のコミュニケーションロボットにおいて、前記音声判定手段は、使用者が発する話し言葉の語尾が下記の(5)及び(6)の語から選ばれた1又は2の語である場合に、断定表現と判定することを特徴とする。
(5)「だ」
(6)「や」
According to a sixth aspect of the present invention, in the communication robot according to the aspect described above, the voice determination unit is configured such that the ending of a spoken word uttered by the user is selected from the following words (5) and (6): If it is a word, it is determined to be an assertive expression.
(5) "Da"
(6) "Ya"
本発明の第六の態様では、使用者が発する話し言葉の語尾が上記の(5)及び(6)の語から選ばれた1又は2の語である場合に、断定表現と判定する。
使用者が日本語で発話し、話し言葉の語尾が上記の(5)及び(6)の語から選ばれた1又は2の語である場合、使用者が話した内容について断定している可能性が十分に高い。したがって、このような場合に、話し言葉の内容が断定表現であると判定することで、話し言葉の内容を判定する判定動作の精度を高めることができる。
In the sixth aspect of the present invention, when the ending of a spoken word uttered by the user is one or two words selected from the above words (5) and (6), it is determined as an asserted expression.
If the user speaks in Japanese and the ending of the spoken word is one or two words selected from the words (5) and (6) above, there is a possibility that the content spoken by the user has been determined Is high enough. Therefore, in such a case, it is possible to improve the accuracy of the determination operation for determining the content of the spoken word by determining that the content of the spoken word is the asserted expression.
本発明の第七の態様は、上記した態様のコミュニケーションロボットにおいて、人又は動物を模した形状であることを特徴とする。 According to a seventh aspect of the present invention, in the communication robot according to the aspect described above, the communication robot has a shape imitating a person or an animal.
本発明の第七の態様では、ロボットの形状が、一般的に人が親しみ易く、話しかけ易い人間や動物、又はそれらの特徴を誇張、強調して簡略化、省略化した形状となっている。このことにより、使用者がロボットに語りかけるとき、物体に話しかけているという使用者の違和感をより確実に解消でき、使用者がより話し易くなるという効果がある。
なお、ここでいう「人又は動物」には、映画、小説、漫画等の創作物等の実在しない登場人物、対称物を擬人化したものも含むものとする。
In the seventh aspect of the present invention, the shape of the robot is generally simplified and omitted by exaggerating and emphasizing humans and animals, or their characteristics, which are generally familiar to people and easy to talk to. As a result, when the user talks to the robot, the user's uncomfortable feeling that he / she is talking to the object can be more reliably eliminated, and the user can speak more easily.
Here, “human or animal” includes non-existing characters such as movies, novels, comics, etc., and anthropomorphic symmetric objects.
本発明の第八の態様は、上記した態様のコミュニケーションロボットにおいて、前記応答反応は、下記の(1)〜(3)の動作から選ばれた1又は2以上の動作の複合であることを特徴する。
(1)頷く
(2)鳴く
(3)四股のいずれかを動かす
According to an eighth aspect of the present invention, in the communication robot according to the aspect described above, the response reaction is a composite of one or more operations selected from the following operations (1) to (3). To do.
(1) whisper (2) cry (3) move one of the four legs
本発明の第八の態様では、ロボットが、あたかも人や動物が行う動作のような応答反応を表出するため、使用者がロボットに語りかけるとき、使用者にあたかも人や動物に語りかけているような印象を与えることができる。このため、使用者は、物体に話しかけているという違和感を覚えることがなく、より話し易くなるという効果がある。 In the eighth aspect of the present invention, since the robot expresses a response response as if a human or animal performs, when the user talks to the robot, the robot seems to talk to the human or animal. Can give an impression. For this reason, the user does not feel uncomfortable that he / she is talking to an object, and the user can speak more easily.
本発明の第九の態様は、上記した態様のコミュニケーションロボットにおいて、前記音声判定手段は、使用者が発する話し言葉の語尾が下記の(1)〜(4)の語から選ばれた1又は2以上の語である場合に、同意要求表現と判定し、使用者が発する話し言葉の語尾が下記の(5)及び(6)の語から選ばれた1又は2の語である場合に、断定表現と判定し、使用者が発する話し言葉が同意要求表現及び断定表現でない場合、通常表現と判定するものであり、前記応答反応は、頷く動作の実施回数を変化させることで、異なる応答反応とするものであって、前記同意要求表現と判定された場合に実施する頷く動作の回数は、前記通常表現と判定された場合に実施する頷く動作の回数より多く、前記断定表現と判定された場合に実施する頷く動作の回数は、前記同意要求表現と判定された場合に実施する頷く動作の回数より多いことを特徴する。
(1)「ね」
(2)「う」
(3)「お」
(4)「か」
(5)「だ」
(6)「や」
According to a ninth aspect of the present invention, in the communication robot according to the aspect described above, the voice determination means includes one or two or more selected from the following words (1) to (4) whose endings of the spoken language the user utters: It is determined that it is a consent request expression, and when the ending of the spoken word that the user utters is one or two words selected from the following words (5) and (6), When the spoken language that the user utters is not the consent request expression and the assertion expression, it is determined as a normal expression, and the response response is a different response response by changing the number of times the crawl operation is performed. In this case, the number of snooping operations to be performed when it is determined as the consent request expression is larger than the number of snooping operations to be performed when it is determined as the normal expression, and is performed when it is determined as the assertion expression. Moving The number is characterized by more than the number of operations nods to be carried out when it is determined that the consent request representation.
(1) "Ne"
(2) "U"
(3) "O"
(4) "ka"
(5) "Da"
(6) "Ya"
本発明の第九の態様では、話し言葉の内容を判定する判定動作の高い精度で実施可能であり、判定した話し言葉の内容に基づいて、あたかも人間のような応答反応を表出する。より具体的には、話し言葉の内容によって、相槌を打つように少ない回数だけ頷いたり、強い同意を示すように何度も頷いたりする。このことにより、ロボットの応答が人間の応答により近いものとなり、使用者との間により自然なコミュニケーションが成立する。このことにより、使用者がロボットに語りかけるとき、より話し易くなるという効果がある。さらに、話し言葉の内容に即した応答反応を表出することにより、上記したように、使用者に対し、「話し相手(ロボット)が自分の意見に強く共感していること」を感じさせることができる。このことから、使用者が話し相手(ロボット)に対してより親しみを感じるという効果がある。 In the ninth aspect of the present invention, the determination operation for determining the content of the spoken word can be performed with high accuracy, and a response response like a human is expressed based on the determined content of the spoken word. More specifically, depending on the content of the spoken language, it may be asked a few times so as to strike a conflict, or it may be asked many times so as to show a strong agreement. As a result, the response of the robot becomes closer to that of a human, and natural communication with the user is established. This has the effect of making it easier to talk when the user talks to the robot. Furthermore, by displaying a response response that matches the content of the spoken language, as described above, the user can feel that the other party (robot) is strongly sympathizing with their opinions. . From this, there is an effect that the user feels more familiar with the talking partner (robot).
本発明は、ロボットの応答が人間(動物)の応答に近いので、使用者との間により自然なコミュニケーションを成立させることができる。そのため、使用者がロボットに語りかけるとき、話し易くなるという効果がある。
また本発明は、使用者がロボットに語りかけたとき、ロボットが話の内容に応じた適切な応答反応を表出する。このことにより、使用者に対して、「話し相手(ロボット)が自分の意見に強く共感している」という印象を与えることができる。このことにより、使用者に、ロボットに対する親しみを感じさせることができるという効果がある。
In the present invention, since the response of the robot is close to that of a human (animal), more natural communication can be established with the user. Therefore, when the user talks to the robot, there is an effect that it becomes easy to speak.
Further, according to the present invention, when the user speaks to the robot, the robot expresses an appropriate response response according to the content of the story. This can give the user the impression that the other party (robot) is strongly sympathetic to his / her opinion. This has the effect of making the user feel familiar with the robot.
以下さらに、本発明の各実施形態について説明するが、本発明はこれらの例に限定されるものではない。 Hereinafter, although each embodiment of the present invention is described, the present invention is not limited to these examples.
本発明の第1実施形態のロボット1(コミュニケーションロボット)は、使用者が話しかけると、話し言葉を発話情報として取得する。そして、取得した発話情報とメモリに記憶された行動プログラムに基づいて、規定のコミュニケーション動作を実施する。 The robot 1 (communication robot) of the first embodiment of the present invention acquires spoken words as utterance information when the user speaks. Then, based on the acquired utterance information and the action program stored in the memory, a prescribed communication operation is performed.
以下、このようなロボットについて詳細に説明する。 Hereinafter, such a robot will be described in detail.
ロボット1は、図1で示されるように、人を模した形状であって、胴体2と、胴体2と一体に取り付けられた頭部3、手部4、足部5から構成されている。
As shown in FIG. 1, the robot 1 has a shape imitating a person, and includes a
頭部3(反応表出手段)は、図示しないモータ、カム機構、クランク機構等から形成される機械構造部を介して、胴体2に取付けられている。そのため、頭部3は、胴体2に対して回動、姿勢を傾斜させる動作(応答反応)が可能となっている。即ち、頭部3は、頷く、首を振る等の動作が可能な状態で取付けられている。
The head 3 (reaction display means) is attached to the
また、手部4、足部5も機械構造部を介して胴体2に取付けられており、胴体2に対して手部4の先端、足部5の先端が揺動可能となっている。即ち、手部4や足部5は、手を振る、足を上げる等の動作が可能な状態で取付けられている。
Further, the hand portion 4 and the foot portion 5 are also attached to the
次に、ロボット1の電気的構成について、図2を参照しつつ説明する。
ロボット1は、CPU15、メモリ16、マイク17(音声検知手段)を備えており、これらはバスを介して接続されている。また、CPU15は、バスを介して対話内容DB18、対話行動DB19に接続している。
Next, the electrical configuration of the robot 1 will be described with reference to FIG.
The robot 1 includes a
CPU15は、周知のCPUであり、マイクロプロセッサとも称されるものであって、記憶装置上のプログラムを読み込み、実行することにより、情報の加工演算が可能なものである。
The
メモリ16は、EPROMやEEPROMといったROM、DRAMやSDRAMといったRAMに加え、フラッシュメモリやHDDといった補助記憶装置又は二次記憶装置と称されるものを含む記憶装置であって、これらを1又は複数組み合わせて構成されている。メモリ16には、ロボット1の動作を制御するための音声解析部22,対話行動実行部23を主とする各種プログラム、データが記憶されている。なお、このメモリ16は、ハードディスク、フロッピーディスク(登録商標)、MO、CD、DVD、BD、磁気テープ等々の外部記憶装置とそれらの読取り装置によって構成してもよい。
The
音声解析部22は、マイク17から送信された発話情報を表す信号と、後述する対話内容DB18に格納された情報に基づいて、発話情報の内容(表現の種類)を特定する機能を有する。
The
対話行動実行部23は、音声解析部22によって特定された発話情報の内容(表現の種類)と、後述する対話内容DB18に格納された情報に基づいて、ロボット1に特定の動作を実行させる機能を有する。
The dialogue
マイク17は、周知のマイクであって、外部音を集音して電気信号に変換可能なものである。
The
対話内容DB18には、会話の語尾となり得る語と、表現の種類とが関連付けられて記憶されている。本実施形態では「ね」,「う」,「お」,「か」,「だ」,「や」の6つの語、及びこれらを末尾の語とする語(語句)を含む語の群と、「同意要求表現」,「断定表現」を含む表現の種類の群とが関連付けられて記憶されている。さらに具体的には、少なくとも、「ね」,「う」,「お」,「か」の4つの語、及びこれらを末尾の語とする語と「同意要求表現」とが関連付けられており、「だ」,「や」の2つの語、及びこれらを末尾の語とする語と「断定表現」とが関連づけられて記憶されている。
The
対話行動DB19は、表現の種類とロボット1の動作とが関連付けられて記憶されている。本実施形態では「断定表現」,「同意要求表現」,「通常表現」を含む表現の種類の群と、「3回頷く」,「2回頷く」,「1回頷く」を含むロボット1の動作の群とが関連付けられて記憶されている。さらに具体的には、少なくとも、「断定表現」と「3回頷く」という動作、「同意要求表現」と「2回頷く」という動作、「通常表現」と「1回頷く」という動作が関連付けられて記憶されている。
The
本発明のロボット1は、使用者が話しかけると、発話内容に応じてコミュニケーション動作を実施する。そして、このコミュニケーション動作によってロボット1の応答が人間の応答に近いものとなり、使用者とロボット1の間に自然なコミュニケーションが成立する。
本発明の特徴的動作たるコミュニケーション動作について、図3を参照しつつ、以下で詳細に説明する。
When the user speaks, the robot 1 of the present invention performs a communication operation according to the utterance content. This communication operation makes the response of the robot 1 close to a human response, and natural communication is established between the user and the robot 1.
A communication operation which is a characteristic operation of the present invention will be described in detail below with reference to FIG.
使用者がロボット1に対して話しかけると、ロボット1はマイク17によって音声を発話情報として取得する(ステップ1)。そして、CPU15は、マイク17から発話情報を表す信号が発せられたことを確認すると、音声解析部22による発話情報の解析を実行する(ステップ2)。即ち、発話情報を必要に応じて文毎に区切り、抽出した1文の内容のうち、語尾の音、又は語尾近傍の音を特定する。そして、特定した語尾の音、又は語尾近傍の音と、対話内容DB18に格納された情報とを比較する。
なお、発話情報を文毎に区切る場合、文と文の間の音声が発せられなかった時間や、発話情報における音の強弱(抑揚)、音声が発せられてからの時間等の情報に基づいて文を特定する。
When the user speaks to the robot 1, the robot 1 acquires voice as speech information by the microphone 17 (step 1). And if CPU15 confirms that the signal showing speech information was emitted from the
In addition, when the speech information is divided for each sentence, it is based on information such as the time when the voice between the sentences was not emitted, the strength of the sound in the utterance information (inflection), the time since the voice was emitted, etc. Identify the sentence.
このとき、発話情報の語尾の音、又は語尾近傍の音が、「断定表現」に関連づけられた語であった場合(ステップ3でYesの場合)、CPU15は、対話行動実行部23による断定対応動作を実施する(ステップ4)。即ち、発話情報の内容が「断定表現」であるとされた音声解析部22による発話情報の解析結果と、対話行動DB19に格納された情報から、発話表現に対してロボット1が実行すべき行動を特定し、特定した行動をロボット1に実行させる。より具体的には、発話情報から特定した文を構成する文節、又は各音のうち、文の最も末尾に位置する文節、又は音と、対話行動DB19に格納された会話の語尾と成り得る語とを比較する。なお、本実施形態では、発話情報の内容が「断定表現」であることが特定された場合、ロボット1は「3回頷く」動作を実行する。
At this time, when the sound at the end of the utterance information or the sound near the end of the utterance is a word associated with the “definite expression” (Yes in step 3), the
対して、発話情報の語尾の音、又は語尾近傍の音が、「断定表現」に関連づけられた語でなく(ステップ3でNo)、「同意要求表現」に関連づけられた語であった場合(ステップ5でYesであった場合)、CPU15は、対話行動実行部23による同意対応動作を実施する(ステップ6)。即ち、上記した場合と同様に、音声解析部22による発話情報の解析結果と、対話行動DB19に格納された情報から、発話表現に対してロボット1が実行すべき行動を特定し、特定した行動をロボット1に実行させる。なお、本実施形態では、発話情報の内容が「同意要求表現」であることが特定された場合、ロボット1は「2回頷く」動作を実行する。
On the other hand, when the sound at the end of the utterance information or the sound near the end of the utterance information is not a word associated with the “conclusive expression” (No in step 3), but is a word associated with the “consent request expression” ( When the answer is Yes in Step 5), the
またさらに、発話情報の語尾の音、又は語尾近傍の音が、「断定表現」に関連づけられた語でなく、「同意要求表現」に関連づけられた語でもなかった場合(ステップ3、ステップ5で共にNoであった場合)、CPU15は、対話行動実行部23による通常対応動作を実施する(ステップ7)。即ち、音声解析部22による発話情報の解析の結果、発話情報の内容が特定の動作を実行する必要のない通常のものであるとされた場合、発話情報の内容が「通常表現」であることが特定される。そして、特定された表現の種類と、対話行動DB19に格納された情報から、発話表現に対してロボット1が実行すべき行動を特定し、特定した行動をロボット1に実行させる。つまり、ロボット1に通常の発話に対する行動を実行させる。なお、本実施形態では、発話情報の内容が「通常表現」であることが特定された場合、ロボット1は「1回頷く」動作を実行する。
Furthermore, when the sound at the end of the utterance information or the sound near the end of the utterance information is not a word associated with the “definite expression”, but is not a word associated with the “consent request expression” (in
このように、使用者が発話している間、ロボット1は、上記したステップ1からステップ7の動作を実行する。 Thus, while the user is speaking, the robot 1 performs the operations from Step 1 to Step 7 described above.
このようなコミュニケーション動作をロボット1が実行することにより、使用者とロボット1との間により自然なコミュニケーションが成立する。即ち、使用者は、機械に話しかけているという違和感が払拭され、相手(ロボット1)が自身の発言を傾聴しているという態度を視認できる。このため、使用者は、あたかもロボット1が自身の発話内容に共感しているように感じ、人に愚痴を聞いてもらったときと同様の状態となる。このことにより、使用者のストレスを解消できるという効果を奏することができる。 When the robot 1 executes such a communication operation, natural communication is established between the user and the robot 1. That is, the user can see the discomfort of talking to the machine, and can visually recognize the attitude that the partner (robot 1) is listening to his / her speech. For this reason, the user feels as if the robot 1 is sympathetic with the content of his / her utterance, and is in the same state as when he / she asks the person to listen to the bitches. As a result, an effect that the stress of the user can be eliminated can be achieved.
以上でコミュニケーション動作についての説明を終了する。 This is the end of the description of the communication operation.
上記した実施形態の対話内容DB18,対話行動DB19の関連付け(テーブル構成)はあくまで一例であり、データベースに格納する情報の関連付け(テーブル構成)は、本発明の技術的思想を実現できる構成であれば、どのようなものでも構わない。
The association (table configuration) between the
したがって、データベースの数も2つに限るものではない。1つであっても、3つ以上の複数であってもよい。即ち、発話情報の末尾部分を構成する語、表現の種類、ロボットの行動といった、本発明の技術的思想を実現するために必要な情報が、関連づけられて記憶されていればよい。 Therefore, the number of databases is not limited to two. There may be one or a plurality of three or more. That is, information necessary for realizing the technical idea of the present invention, such as the word constituting the tail part of the speech information, the type of expression, and the behavior of the robot, may be stored in association with each other.
また、上記した実施形態では、語尾の音、又は語尾近傍の音と、表現の種類を関連づけて記憶させたが、本発明はこれに限るものではない。例えば、発話情報の長さ、声の強度、終助詞の少なくともいずれかと表現の種類とを関連づけて記憶させてもよい。即ち、発話情報を表す信号と記憶された情報から、発話情報の表現の種類が特定できればよい。 In the above-described embodiment, the sound at the end of the word or the sound near the end of the word and the expression type are stored in association with each other. However, the present invention is not limited to this. For example, the length of speech information, the strength of voice, and / or the final particle may be stored in association with the type of expression. That is, it suffices if the type of expression of the speech information can be specified from the signal representing the speech information and the stored information.
上記した実施形態では、使用者が日本語の標準語でロボット1に話しかけることを想定してデータを構築したが、本発明はこれに限るものではない。例えば、表現の種類と関連付けられる語尾の音、又は語尾近傍の音は、外国語を想定したものであってよく、方言を想定したものであってもよい。即ち、本発明のロボット1は、日本語、外国語、又はそれらの方言のいずれか、又はすべてに対応するものであってよい。 In the above-described embodiment, the data is constructed assuming that the user speaks to the robot 1 using a Japanese standard language, but the present invention is not limited to this. For example, the sound at the end of the word associated with the type of expression or the sound near the end of the word may be assumed to be a foreign language, or may be assumed to be a dialect. That is, the robot 1 of the present invention may correspond to any or all of Japanese, foreign languages, or dialects thereof.
上記した実施形態では、ロボット1が使用者の発話内容に共感していることを、使用者自身に感じてもらうため、ロボット1が「断定表現」,「同意要求表現」,「通常表現」の順に強く同意する動作を実施した。即ち、「断定表現」,「同意要求表現」,「通常表現」の順に頷き(応答反応)の回数を多くして、同意の強弱を異ならしめた。しかしながら、本発明のロボットが実施するコミュニケーション動作は、これに限るものではない。例えば、「断定表現」、「同意要求表現」、「通常表現」のそれぞれに対して、異なる動作を実行して応答反応を異なるものとしてもよい。即ち、取得した発話情報と、予め記憶された基準となる情報に基づいて、必要な同意の強さを判定し、判定した結果に応じた応答反応が表出されればよい。
したがって、応答反応として実行する動作は、頷くといった頭部3を動かす動作だけでなく、手部4や足部5を動かす動作を実施してもよい。しかしながら、発話に対して頷く等の動作、即ち、人が他人の話を聴いたときに実際に取り得る動作をロボット1に実行させることが、使用者とロボットとのコミュニケーションがより自然となるため、望ましい。
In the above-described embodiment, in order for the user himself / herself to feel that the robot 1 is sympathetic with the content of the user's utterance, the robot 1 is in the “definite expression”, “consent request expression”, and “normal expression”. We performed actions that strongly agreed in order. In other words, the strength of consent was made different by increasing the number of responses (response reactions) in the order of “conclusive expression”, “consent request expression”, and “normal expression”. However, the communication operation performed by the robot of the present invention is not limited to this. For example, different responses may be executed by executing different operations for each of “conclusive expression”, “consent request expression”, and “normal expression”. That is, it is only necessary to determine the strength of the necessary consent based on the acquired utterance information and reference information stored in advance, and to display a response response according to the determined result.
Therefore, the operation to be executed as a response reaction is not limited to the operation of moving the
上記した実施形態では、ロボット1は人を模したものであったが、本発明はこれに限るものではない。例えば、図4で示されるように、より無機的な形状を有するロボット50であってもよい。即ち、頭部の形状は丸みを帯びた形状だけでなく、方形であってもよい。また、手部の先端の形状は略C字状の形状であってもよい。また、図5で示されるような、犬等の動物を模したロボット51であってもよい。この場合、応答動作は、鳴く、吠える、四肢を動かす、尻尾を動かす、耳を動かす等の動作であってよい。より具体的には、映画、小説、漫画等の創作物等の実在しない登場人物、対称物を擬人化したものであってもよい。しかし、人を模した形状であれば、使用者が違和感なく話しかけることができる効果がより高くなることが予測されるため、望ましい。
In the above-described embodiment, the robot 1 imitates a person, but the present invention is not limited to this. For example, as shown in FIG. 4, a
1,50,51 ロボット(コミュニケーションロボット)
3 頭部(反応表出手段)
17 マイク(音声検知手段)
22 音声解析部(音声判定手段)
1,50,51 Robot (communication robot)
3 head (reaction expression means)
17 Microphone (voice detection means)
22 Voice analysis unit (voice judgment means)
Claims (9)
前記音声検知手段が検知した話し言葉の内容を判定する音声判定手段を有し、
当該音声判定手段は、前記話し言葉が通常表現であるか否かの判定、前記話し言葉が同意要求表現であるか否かの判定、前記話し言葉が断定表現であるか否かの判定の少なくともいずれかの判定が可能であり、
音声判定手段の判定結果に基づいて、異なる応答反応が表出されることを特徴とするコミュニケーションロボット。 It has voice detection means for detecting spoken language spoken by the user, and reaction expression means for expressing a predetermined response response that the user can know visually and / or auditorily, and reacts to the user's spoken language. The communication robot is a communication robot that displays a plurality of patterns of response responses.
Having a voice determination means for determining the content of the spoken word detected by the voice detection means;
The voice determination means is at least one of determination of whether or not the spoken word is a normal expression, determination of whether or not the spoken word is an agreement request expression, and determination of whether or not the spoken word is an asserted expression Judgment is possible,
A communication robot characterized in that different response responses are expressed based on the determination result of the voice determination means.
前記音声検知手段が検知した話し言葉の内容を判定する音声判定手段を有し、
当該音声判定手段は、使用者が発する話し言葉の語尾の音又は語尾近傍の音、話し言葉の長さ、声の強度の少なくともいずれかの情報に基づいて話し言葉の内容がどのような内容であるかを判定し、
音声判定手段の判定結果に基づいて、異なる応答反応が表出されることを特徴とするコミュニケーションロボット。 It has voice detection means for detecting spoken language spoken by the user, and reaction expression means for expressing a predetermined response response that the user can know visually and / or auditorily, and reacts to the user's spoken language. The communication robot is a communication robot that displays a plurality of patterns of response responses.
Having a voice determination means for determining the content of the spoken word detected by the voice detection means;
The voice determination means determines what the content of the spoken word is based on at least one of the information of the sound at the end of the spoken word or the sound near the word ending, the length of the spoken word, or the strength of the voice. Judgment,
A communication robot characterized in that different response responses are expressed based on the determination result of the voice determination means.
(1)「ね」
(2)「う」
(3)「お」
(4)「か」 The voice determination means determines that the utterance of the spoken word uttered by the user is an agreement request expression when it is one or more words selected from the following words (1) to (4): The communication robot according to any one of claims 1 to 4.
(1) "Ne"
(2) "U"
(3) "O"
(4) "ka"
(5)「だ」
(6)「や」 The voice determination means determines that the spoken word uttered by the user is an affirmative expression when the ending of the spoken word is one or two words selected from the following words (5) and (6): Item 6. The communication robot according to any one of Items 1 to 5.
(5) "Da"
(6) "Ya"
(1)頷く
(2)鳴く
(3)四股のいずれかを動かす The communication robot according to claim 7, wherein the response reaction is a combination of one or two or more operations selected from the following operations (1) to (3).
(1) whisper (2) cry (3) move one of the four legs
(1)「ね」
(2)「う」
(3)「お」
(4)「か」
使用者が発する話し言葉の語尾が下記の(5)及び(6)の語から選ばれた1又は2の語である場合に、断定表現と判定し、
(5)「だ」
(6)「や」
使用者が発する話し言葉が同意要求表現及び断定表現でない場合、通常表現と判定するものであり、
前記応答反応は、頷く動作の実施回数を変化させることで、異なる応答反応とするものであって、
前記同意要求表現と判定された場合に実施する頷く動作の回数は、前記通常表現と判定された場合に実施する頷く動作の回数より多く、
前記断定表現と判定された場合に実施する頷く動作の回数は、前記同意要求表現と判定された場合に実施する頷く動作の回数より多いことを特徴する請求項8に記載のコミュニケーションロボット。 The voice determination means determines that the utterance of the spoken word uttered by the user is one or more words selected from the following (1) to (4) as an agreement request expression:
(1) "Ne"
(2) "U"
(3) "O"
(4) "ka"
When the ending of the spoken language given by the user is one or two words selected from the following words (5) and (6), it is determined to be a definitive expression,
(5) "Da"
(6) "Ya"
If the spoken language spoken by the user is not a consent request expression or assertive expression, it is determined as a normal expression,
The response response is a different response response by changing the number of times the crawl operation is performed,
The number of movements performed when determined as the consent request expression is greater than the number of movements performed when determined as the normal expression,
9. The communication robot according to claim 8, wherein the number of movements performed when it is determined as the assertion expression is greater than the number of movements performed when it is determined as the consent request expression.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011230562A JP2013086226A (en) | 2011-10-20 | 2011-10-20 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011230562A JP2013086226A (en) | 2011-10-20 | 2011-10-20 | Communication robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013086226A true JP2013086226A (en) | 2013-05-13 |
Family
ID=48530681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011230562A Pending JP2013086226A (en) | 2011-10-20 | 2011-10-20 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013086226A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184563A (en) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer |
CN108109620A (en) * | 2017-11-24 | 2018-06-01 | 北京物灵智能科技有限公司 | A kind of intelligent robot exchange method and system |
JP2018126209A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンクロボティクス株式会社 | Control device, control method, and control program |
CN108629944A (en) * | 2018-05-07 | 2018-10-09 | 温州中佣科技有限公司 | A kind of scientific and technological system of accompanying and attending to of supporting parents |
CN109313482A (en) * | 2016-05-25 | 2019-02-05 | 金善泌 | The method of operation and artificial intelligence transparent display of artificial intelligence transparent display |
WO2019087495A1 (en) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2019160104A1 (en) * | 2018-02-16 | 2021-01-07 | 日本電信電話株式会社 | Non-verbal information generator, non-verbal information generation model learning device, method, and program |
US11404063B2 (en) | 2018-02-16 | 2022-08-02 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
US11989976B2 (en) | 2018-02-16 | 2024-05-21 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
US12165672B2 (en) | 2018-02-16 | 2024-12-10 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, method, and program |
-
2011
- 2011-10-20 JP JP2011230562A patent/JP2013086226A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184563A (en) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer |
CN109313482A (en) * | 2016-05-25 | 2019-02-05 | 金善泌 | The method of operation and artificial intelligence transparent display of artificial intelligence transparent display |
JP2018126209A (en) * | 2017-02-06 | 2018-08-16 | ソフトバンクロボティクス株式会社 | Control device, control method, and control program |
CN111108463A (en) * | 2017-10-30 | 2020-05-05 | 索尼公司 | Information processing apparatus, information processing method, and program |
WO2019087495A1 (en) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | Information processing device, information processing method, and program |
CN108109620A (en) * | 2017-11-24 | 2018-06-01 | 北京物灵智能科技有限公司 | A kind of intelligent robot exchange method and system |
US11404063B2 (en) | 2018-02-16 | 2022-08-02 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
JPWO2019160104A1 (en) * | 2018-02-16 | 2021-01-07 | 日本電信電話株式会社 | Non-verbal information generator, non-verbal information generation model learning device, method, and program |
JP7140984B2 (en) | 2018-02-16 | 2022-09-22 | 日本電信電話株式会社 | Nonverbal information generation device, nonverbal information generation model learning device, method, and program |
US11989976B2 (en) | 2018-02-16 | 2024-05-21 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
US12165672B2 (en) | 2018-02-16 | 2024-12-10 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, method, and program |
US12340629B2 (en) | 2018-02-16 | 2025-06-24 | Nippon Telegraph And Telephone Corporation | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs |
CN108629944B (en) * | 2018-05-07 | 2020-08-07 | 刘知迪 | Science and technology endowment accompanying system |
CN108629944A (en) * | 2018-05-07 | 2018-10-09 | 温州中佣科技有限公司 | A kind of scientific and technological system of accompanying and attending to of supporting parents |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013086226A (en) | Communication robot | |
JP6719741B2 (en) | Dialogue method, dialogue device, and program | |
JP6719740B2 (en) | Interactive method, interactive system, interactive device, and program | |
JP6970413B2 (en) | Dialogue methods, dialogue systems, dialogue devices, and programs | |
WO2018163647A1 (en) | Dialogue method, dialogue system, dialogue device, and program | |
Monti et al. | The dialogical self in vocal psychotherapy | |
Zellou et al. | The influence of conversational role on phonetic alignment toward voice-AI and human interlocutors | |
JPWO2017200079A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
JP2019045867A (en) | Voice control method, voice control device, and program | |
Hong et al. | Phonetic entrainment in L2 human-robot interaction: an investigation of children with and without autism spectrum disorder | |
Marklund et al. | An association between phonetic complexity of infant vocalizations and parent vowel hyperarticulation | |
KR20130139137A (en) | Dialog-doll reacting to a sensor input and its application method thereof | |
Gabor-Siatkowska et al. | Therapeutic spoken dialogue system in clinical settings: Initial experiments | |
JP6647636B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
Carvalho et al. | Investigating and comparing the perceptions of voice interaction in digital games: Opportunities for health and wellness applications | |
JP2017207693A (en) | Dialogue method, dialogue system, dialogue device, and program | |
JP6755509B2 (en) | Dialogue method, dialogue system, dialogue scenario generation method, dialogue scenario generator, and program | |
Teixeira et al. | Speech as the basic interface for assistive technology | |
Niculescu et al. | Socializing with Olivia, the youngest robot receptionist outside the lab | |
JP2018134692A (en) | Communication robot | |
Schneider | Voice Assistants are Social Actors: An Empirical Analysis of Media Equation Effects in Human-Voice Assistant Interaction | |
Buhl | Emogator: A new open source vocal burst dataset with baseline machine learning classification methodologies | |
Beňuš et al. | Word guessing game with a social robotic head | |
Demri et al. | Contribution to the creation of an arabic expressive speech corpus | |
Rombout | The One-Voice Expert |