JP4815940B2 - Robot control system, robot apparatus, and robot control method - Google Patents
Robot control system, robot apparatus, and robot control method Download PDFInfo
- Publication number
- JP4815940B2 JP4815940B2 JP2005236325A JP2005236325A JP4815940B2 JP 4815940 B2 JP4815940 B2 JP 4815940B2 JP 2005236325 A JP2005236325 A JP 2005236325A JP 2005236325 A JP2005236325 A JP 2005236325A JP 4815940 B2 JP4815940 B2 JP 4815940B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- viewer
- motion
- viewers
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット制御システム、ロボット装置、およびロボット制御方法に関する。 The present invention relates to a robot control system, a robot apparatus, and a robot control method.
特許文献1には、音源から発せられた音を検出する音検出手段を有し、呼びかけた人の方向に視線を向けたり、対面者の顔を認識したり、いくつかの命令に応じた行動をとることができる自律行動ロボットが開示されている。
特許文献2には、広告情報を蓄積する情報管理基地局に無線または有線を経由してロボットを接続し、ユーザ状況判断部によりユーザがいかなる状況にあるかを判断し、判断結果のユーザ状況に適した広告情報を情報管理基地局から広告情報入手部により入手し、広告情報提示手段によりユーザに提示する技術が開示されている。
In
特許文献3には、ユーザ情報を記憶するユーザ情報記憶手段と、ロボットに広告動作を実行させるための動作情報の中から、ユーザ情報記憶手段に記憶されているユーザ情報に対応する動作情報を選択する選択手段と、選択手段により選択された動作情報を、ネットワークを介して情報提供装置から取得する取得手段と、連続する入力音声を認識する音声認識手段と、音声認識手段により入力音声が認識されたと判断された場合、取得手段により取得された動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御手段と、を備えるロボット制御装置が開示されている。
しかし、従来、ロボットがユーザに対して一方的に説明を行っていたために、ユーザの印象に残らなかったりして、効果的な説明を行うことができなかった。 However, conventionally, since the robot has unilaterally explained to the user, it has not been left in the user's impression and could not be effectively explained.
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、ロボットが、印象に残るような説明を行うようにする技術を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique that allows a robot to make a description that will leave an impression.
本発明によれば、
説明を行うロボットを制御するロボット制御システムであって、
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
を含むロボット制御システムが提供される。
According to the present invention,
A robot control system for controlling a robot that performs explanation,
A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
A robot control system is provided.
本発明によれば、
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含むロボット制御方法が提供される。
According to the present invention,
A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
A robot control method is provided.
ここで、ロボットは、音声出力、画像出力、または身振りや手話等の動作、あるいはこれらの組合せ等により説明を行うことができる。また、説明は、発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等、ロボットが視聴者に何らかの情報を意思表示したり伝達することとすることができる。ロボットの近傍とは、たとえばロボットが出力する音声が聞こえるような範囲や、ロボットの画像出力や動作が見えるような範囲等、視聴者がロボットの説明を把握することができる範囲とすることができる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切な動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。 Here, the robot can be described by voice output, image output, gesture or sign language operation, or a combination thereof. In addition, the explanation may be that the robot intentionally displays or transmits some information to the viewer, such as announcement, guidance, advertisement, presentation, education, communication with the viewer, and the like. The vicinity of the robot can be a range where the viewer can understand the explanation of the robot, such as a range where the voice output by the robot can be heard, a range where the image output and operation of the robot can be seen, etc. . In this way, when the robot makes an explanation according to the number of viewers in the vicinity of the robot, the robot can perform an appropriate operation for the viewer. As a result, the description of the robot can remain in the viewer's impression.
ここで、ロボットは、ロボット装置とすることもでき、またキャラクタで示される仮想ロボットとすることもできる。また、ロボットは、音声認識機能を有する対話型ロボットとすることができる。 Here, the robot can be a robot device or a virtual robot represented by a character. The robot can be an interactive robot having a voice recognition function.
本発明のロボット制御システムにおいて、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンとすることができ、前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握することができ、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。 In the robot control system of the present invention, the movement pattern may be a line-of-sight movement pattern for controlling a line-of-sight of the robot to the viewer, and the viewer status grasping unit is a position of the viewer relative to the robot. The motion determination unit can determine the line-of-sight motion of the robot to the viewer based on the viewer position and the motion pattern selected by the motion pattern selection unit.
ここで、視線動作パターンは、ロボットの視線を向けるアイコンタクトポイント、各アイコンタクトポイントにロボットの視線を向ける頻度、および各アイコンタクトポイントにロボットの視線を向ける時間等の設定情報を含むことができる。このようにすれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。なお、動作決定部は、たとえば、ロボットの視線モーションを生成する視線モーション生成部とすることができる。 Here, the line-of-sight movement pattern can include setting information such as an eye contact point that directs the robot's line of sight, a frequency at which the robot's line of sight is directed to each eye contact point, and a time that the robot's line of sight is directed to each eye contact point. . In this way, according to the number of viewers near or around the robot, the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer when explaining the robot. . As a result, the description of the robot can remain in the viewer's impression. Note that the motion determination unit can be, for example, a gaze motion generation unit that generates a gaze motion of the robot.
本発明のロボット制御システムにおいて、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定することができる。 In the robot control system of the present invention, the motion determination unit may determine an eye contact point that directs the robot's line of sight based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.
このようにすれば、ロボットが視聴者の方向に視線を向けるようにすることができ、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。ここで、動作決定部は、視聴者の位置に基づき、視聴者の目の位置を推定し、視聴者の目の位置をロボットの視線を向けるアイコンタクトポイントと決定することもできる。 In this way, the robot can direct the line of sight toward the viewer, and the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer. Here, the motion determination unit can estimate the position of the viewer's eyes based on the position of the viewer, and determine the position of the viewer's eyes as an eye contact point that directs the line of sight of the robot.
本発明のロボット制御システムにおいて、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。
これにより、たとえばロボット近傍の視聴者の数が少ない場合、ロボットが各アイコンタクトポイントに長い時間視線を向けるような丁寧なアイコンタクト動作を行ったり、ロボット近傍の視聴者の数が多い場合、ロボットが各アイコンタクトポイントに視線を向ける時間を短くして、多数の視聴者にまんべんなく視線を向けるようにしたり等、適宜調整することができる。
In the robot control system of the present invention, the operation pattern may include a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point. Can determine a line-of-sight movement that directs the line of sight of the robot to the eye contact point according to the set frequency and the time based on the movement pattern selected by the movement pattern selection unit.
Thus, for example, when the number of viewers in the vicinity of the robot is small, the robot performs a careful eye contact operation that directs the eyes to each eye contact point for a long time, or when the number of viewers near the robot is large, However, the time for directing the line of sight to each eye contact point can be shortened so that the line of sight is directed evenly to a large number of viewers.
本発明のロボット制御システムにおいて、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。 In the robot control system of the present invention, the robot may be configured such that at least one of a neck, a torso, or an eye is movable, and the motion determination unit is configured so that the robot performs the line-of-sight motion. One or more movements of the neck, the torso, or the eye can be determined.
このようにすれば、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。 In this way, the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer.
本発明のロボット制御システムにおいて、前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者をグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶することができ、前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択することができる。 In the robot control system of the present invention, the motion pattern storage unit includes a first motion pattern in which the robot targets each of the viewers and a group in which the viewers are grouped. 2, and the operation pattern selection unit selects the first operation pattern when the number of viewers grasped by the viewer status grasping unit is a predetermined number or less. The second operation pattern can be selected when the number is larger than the predetermined number.
ここで、動作パターンが視線動作パターンの場合、第1の動作パターンは、ロボットが、視聴者それぞれをロボットの視線を向けるアイコンタクトポイントとする設定を含み、第2の動作パターンは、ロボットが、視聴者をグループ分けした各グループをロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。 Here, when the motion pattern is a line-of-sight motion pattern, the first motion pattern includes a setting in which the robot sets each viewer to an eye contact point that directs the viewer's line of sight, and the second motion pattern includes: It is possible to include a setting in which each group into which viewers are grouped is set as an eye contact point for directing the robot's line of sight.
本発明のロボット制御システムにおいて、前記視聴者状況把握部は、前記視聴者の数の変化を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択することができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することができる。 In the robot control system of the present invention, the viewer status grasping unit can detect a change in the number of viewers, and the operation pattern selecting unit is configured so that the viewer status grasping unit determines the number of viewers. When a change is detected, the motion pattern corresponding to a new number can be selected, and the motion determination unit can determine the motion of the robot based on the motion pattern selected by the motion pattern selection unit. it can.
このようにすれば、ロボットが説明している間に、ロボットの近傍の視聴者の数が変わった場合に、その数に応じて動作パターンを選択しなおすことができ、適宜、ロボットの説明が視聴者の印象に残るようにすることができる。 In this way, when the number of viewers in the vicinity of the robot changes while the robot is explaining, the operation pattern can be reselected according to the number of viewers. It can be left in the viewer's impression.
本発明のロボット制御システムは、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含むことができ、前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶することができ、前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択することができる。 The robot control system of the present invention may further include a setting storage unit that stores a setting as to whether or not a viewer who satisfies a predetermined condition is to be a special operation target, and the operation pattern storage unit includes the predetermined pattern A special motion pattern targeting a viewer who satisfies the condition can be stored in association with the predetermined condition, and the viewer status grasping unit satisfies the predetermined condition from the viewers A viewer can be detected, and the operation pattern selection unit is a case where the viewer condition grasping unit detects a viewer that satisfies the predetermined condition, and the setting storage unit satisfies the predetermined condition. When it is set that the viewer is set as the special operation target, the special operation pattern corresponding to the predetermined condition can be selected.
ここで、所定の条件とは、たとえばロボットが説明中に新たに加わった新規視聴者が所定数以上把握された場合、ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合、またはロボットの説明等を熱心に聞いていると判断されるアクティブ視聴者が把握された場合等とすることができる。また、動作パターンが視線動作パターンの場合、特別な動作パターンは、所定の条件を満たす視聴者を、他の視聴者とは区別して、ロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。また、ロボットは、所定の条件を満たす視聴者に、説明のサマリを発話したりすることもできる。 Here, the predetermined condition is, for example, when a predetermined number or more of new viewers newly added during explanation by the robot are grasped, when a long-time viewer who is in the vicinity of the robot for a predetermined time or more is grasped, or For example, an active viewer who is determined to listen to the explanation of the robot eagerly can be recognized. In addition, when the motion pattern is a line-of-sight motion pattern, the special motion pattern includes a setting that sets a viewer who satisfies a predetermined condition as an eye contact point that directs the robot's line of sight to distinguish it from other viewers. can do. The robot can also utter a summary of explanation to a viewer who satisfies a predetermined condition.
本発明のロボット制御システムは、前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、をさらに含むことができ、前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択することができる。 The robot control system of the present invention includes an echo acquisition unit that acquires an echo of the viewer with respect to the motion pattern executed by the robot in association with information indicating the motion pattern, and the echo acquired by the echo acquisition unit. And an echo totaling unit that counts the motion patterns for each motion pattern, wherein the motion pattern selection unit compares the echoes of the plurality of motion patterns, and the robot executes the motion pattern having a high echo. The operation pattern can be preferentially selected.
ここで、反響とは、たとえば集客効率や販売効率等とすることができる。また、視聴者の理解度の高低とすることもできる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットの動作を適切に選択することができるとともに、反響の高い動作を選択することができるので、ロボットの説明がより効果的に視聴者の印象に残るようにすることができる。 Here, the reverberation can be, for example, customer collection efficiency or sales efficiency. In addition, the level of understanding of the viewer can be increased. In this way, according to the number of viewers in the vicinity of the robot, it is possible to appropriately select the operation of the robot, and it is possible to select the operation with high reverberation. Can be left in the viewer's impression.
本発明のロボット制御システムにおいて、反響取得部は、複数のロボットそれぞれが実行した動作パターンに対する視聴者の反響を、それぞれ、動作パターンを示す情報に対応付けて取得することができ、反響集計部は、これらの反響を集計することができる。反響集計部が集計した結果は、複数のロボットで共有することができる。これにより、反響の高かった動作パターンを、複数のロボット間で共有したり、複数のロボットにフィードバックしたりすることができる。 In the robot control system of the present invention, the echo acquisition unit can acquire the viewer's echo for the motion pattern executed by each of the plurality of robots in association with information indicating the motion pattern. These responses can be totaled. The results counted by the echo tabulation unit can be shared by a plurality of robots. As a result, it is possible to share an action pattern having a high response among a plurality of robots or to feed back to a plurality of robots.
本発明のロボット制御システムは、前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、をさらに含むことができ、前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせることができる。 The robot control system according to the present invention includes a content storage unit that stores an utterance file and a motion file to be reproduced by the robot, and reads the designated utterance file and the motion file from the content storage unit, and causes the robot to reproduce them. A content playback unit, wherein the motion determination unit is configured to determine whether the motion determined based on the motion pattern is performed by playback of the motion file read by the content playback unit. When there is a contradiction, it is possible to cause the robot to preferentially perform the operation of the robot that is executed by reproducing the motion file.
このようにすれば、予め設定されたロボットの動作と矛盾しないように、動作パターンに基づき、ロボットの動作を決定することができる。 In this way, the robot motion can be determined based on the motion pattern so as not to contradict the preset robot motion.
動作パターン記憶部は、たとえばロボットがある説明等を行う際に、ロボットが説明する内容自体は同じであるが、そのときのロボットの身振り等の動作や、ロボットのしゃべり方等を変化させる説明ルールを記憶することができる。 For example, when an explanation is given about a robot, the action pattern storage unit has the same content as the explanation of the robot, but the explanation rules that change the behavior of the robot at that time, how to talk about the robot, etc. Can be stored.
本発明によれば、
上記いずれかに記載のロボット制御システムと、
前記動作決定部が決定した前記動作を実行する動作実行部と、
を含むことを特徴とするロボット装置が提供される。
According to the present invention,
A robot control system according to any of the above,
An operation execution unit for executing the operation determined by the operation determination unit;
The robot apparatus characterized by including is provided.
ここで、ロボット装置は自律移動型または対話型とすることができる。また、ロボット装置は、音声出力機能を有することができる。 Here, the robot apparatus can be autonomously moving or interactive. Further, the robot apparatus can have a voice output function.
本発明のロボット制御方法において、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、ロボット制御方法は、前記視聴者の前記ロボットに対する位置を把握するステップをさらに含むことができ、前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。 In the robot control method of the present invention, the movement pattern is a line-of-sight movement pattern for controlling a line of sight of the robot to the viewer, and the robot control method includes a step of grasping a position of the viewer with respect to the robot. In the step of determining the movement of the robot, a line-of-sight movement of the robot toward the viewer may be performed based on the movement pattern selected in the step of selecting the position of the viewer and the movement pattern. Can be determined.
本発明のロボット制御方法において、前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むことができる。 In the robot control method of the present invention, the step of determining the motion of the robot includes an eye contact point that directs the robot's line of sight based on the motion pattern selected in the step of selecting the viewer position and the motion pattern. Can be included.
本発明のロボット制御方法において、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。 In the robot control method of the present invention, the operation pattern may include a setting of a frequency of directing the robot's line of sight to the eye contact point and a time for the robot to direct the line of sight to the eye contact point. Determining a line-of-sight movement that directs the robot's line of sight to the eye contact point according to the set frequency and the time based on the movement pattern selected in the step of selecting the movement pattern. Can do.
本発明のロボット制御方法において、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。 In the robot control method of the present invention, the robot may be configured such that at least one of a neck, a torso, or an eye is movable, and the robot performs the line-of-sight motion in the step of determining the motion of the robot. In addition, one or more movements of the neck, the body, or the eyes of the robot can be determined.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によれば、ロボットが、印象に残るような説明を行うようにすることができる。 According to the present invention, it is possible for the robot to make an explanation that will leave an impression.
次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。なお、以下の図面において、本発明の本質に関わらない部分の構成は省略する。また、同様の構成要素には同様の符号を付し、適宜説明を省略する。 Next, the best mode for carrying out the invention will be described in detail with reference to the drawings. In the following drawings, configurations of parts not related to the essence of the present invention are omitted. Moreover, the same code | symbol is attached | subjected to the same component and description is abbreviate | omitted suitably.
以下の本発明の実施の形態において、ロボットは、たとえば屋内や屋外の商用スペース等で商品等の説明を行う。本実施の形態におけるロボット制御システムは、ロボットがユーザに印象深く内容を伝えるようにロボットの動作を制御する。 In the following embodiments of the present invention, a robot will explain a product in an indoor or outdoor commercial space, for example. The robot control system according to the present embodiment controls the operation of the robot so that the robot conveys the content to the user in an impressive manner.
(第1の実施の形態)
本実施の形態において、ロボット制御システムは、音声出力可能で、音声出力により説明を行うロボットを制御する。ロボット制御システムは、ロボットの近傍や周囲にいる人(以下、視聴者という)の数や位置に応じて、ロボットが音声出力により説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択し、ロボットの動作を決定する。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンとすることができる。
(First embodiment)
In the present embodiment, the robot control system can output a voice and controls the robot to be explained by the voice output. The robot control system allows the robot to explain to the viewer along with the voice output when the robot explains by voice output according to the number and positions of people in the vicinity of the robot (hereinafter referred to as viewers). Select the motion pattern to perform and determine the robot motion. In the present embodiment, the movement pattern can be a line-of-sight movement pattern for controlling the line of sight to the viewer of the robot.
たとえば、視聴者が4人程度の少人数であれば、ロボットがすべての人にアイコンタクトとりながら説明を行うようにする。また、たとえば、視聴者が10人以上の大人数であれば、それらの視聴者を左右のグループに分け、ロボットがそれぞれのグループに交互にアイコンタクトをとりながら説明を行うようにする。また、たとえば、新たに加わった新規視聴者等がいる場合、ロボットが新規視聴者に集中的にアイコンタクトをしたり、サマリの説明をしたりするようにする。これにより、視聴者に対して、ロボットの説明を印象深くすることができる。また、ロボットがアイコンタクトを行うことにより、視聴者が一定の緊張感を持って集中してロボットの説明を聞くようにすることができる。 For example, if there are a small number of viewers, such as four viewers, the robot will explain to all people while making eye contact. For example, if there are 10 or more viewers, the viewers are divided into left and right groups, and the robot makes an explanation while alternately making eye contact with each group. Further, for example, when there is a new viewer newly added, the robot makes intensive eye contact with the new viewer or explains the summary. As a result, the explanation of the robot can be made deeper to the viewer. In addition, when the robot makes eye contact, the viewer can concentrate and listen to the explanation of the robot with a certain tension.
図1は、本実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。
ロボット制御システム100は、視聴者状況取得部101、視聴者状況把握部102、動作パターン選択部104、シナリオ読込部106、視線モーション生成部108(動作決定部)、コンテンツ再生部110、動作パターン記憶部112、シナリオ記憶部114、視聴者状況記憶部116およびコンテンツ記憶部118を含む。
FIG. 1 is a block diagram showing an example of the configuration of the robot control system in the present embodiment.
The
ここで、ロボット制御システム100が制御するロボットは、自律移動可能なロボット装置とすることもでき、キャラクタで示される仮想ロボットとすることもできる。いずれの場合でも、ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成される。ロボットがロボット装置の場合、ロボット制御システム100は、ロボット装置内に組み込まれてもよく、ロボット装置外部に設けられ、外部からロボット装置を制御するようにすることもできる。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれた構成とすることもできる。ロボット制御システム100がロボット装置外部に設けられた場合、無線通信等の種々のネットワークを介して、ロボット装置に制御信号が送信される。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれ、残りがロボット装置外部に設けられた場合、それらの間のデータの授受も、無線通信等の種々のネットワークを介して行うことができる。たとえば、本実施の形態において、視聴者状況取得部101のみロボット装置外部に設け、それ以外の構成をロボット装置内に組み込んだ構成とすることができる。ロボット装置の構成は後述する。
Here, the robot controlled by the
視聴者状況取得部101は、ロボットの近傍や周囲にいる視聴者の情報を取得する。視聴者状況取得部101は、たとえば、カメラ、温度センサ等の人体検知センサ、超音波タグセンサ、無線タグセンサ等により構成することができる。
The viewer
視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者の情報を解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置を把握する。
The viewer
以下、図2を参照して、視聴者状況把握部102が画像認識により視聴者の数や位置を把握する処理を説明する。ここで、視聴者状況取得部101は、ロボットの前方を撮影可能なカメラとすることができる。
Hereinafter, with reference to FIG. 2, processing in which the viewer
図2(a)に示すように、視聴者状況把握部102は、視聴者状況取得部101が取得した画像から顔と識別される領域を抜き出す顔検出を行う。つづいて、視聴者状況把握部102は、検出した顔画像の大きさおよび形状、視聴者状況取得部101の位置、ならびにロボットの位置に基づき、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置(角度および距離)を推定する。その結果、たとえば図2(b)に示すように、各視聴者のロボットに対する位置の推定結果が得られる。ここでは、A、B、C、Dの4人の視聴者が把握されている。
As shown in FIG. 2A, the viewer
また、ここで、視聴者状況把握部102は、視聴者状況取得部101が取得した画像に基づき、利用者の性別や年齢等の推定を行うこともできる。また、予め視聴者の顔画像と、その属性情報との対応データ等を取得しておき、視聴者状況把握部102により、顔認識を行い、個人認証を行ってもよい。
Here, the viewer
図1に戻り、視聴者状況取得部101は、タグリーダとすることもできる。たとえば、予め視聴者に識別情報や属性情報を記憶したタグを付与しておくことができる。この場合、視聴者状況把握部102は、視聴者状況取得部101により、タグから情報を読み取ることにより、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置を推定することができる。ここで、タグは、たとえば超音波タグとすることができ、視聴者状況取得部101は、超音波タグから情報を読み取るタグリーダとすることができる。この場合、各視聴者に取り付けるタグの位置を、たとえば胸等所定の場所に設定しておくことにより、視聴者状況把握部102は、視聴者状況取得部101が取得したタグの位置から、その人の目の位置を推定することができる。また、タグに各視聴者の年齢等の属性情報を記憶しておくことにより、たとえば胸から目までの距離を推定することができる。たとえば、視聴者が子供(年齢6歳から12歳等)の場合、タグの位置から上約30cmに目の位置があると推定することができる。この場合も、視聴者の属性情報を読み出し、個人認証を行うことができる。
Returning to FIG. 1, the viewer
また、視聴者状況取得部101は、タグリーダとカメラとを併用した構成とすることもできる。
In addition, the viewer
視聴者状況把握部102は、把握した視聴者の数や位置等の視聴者状況を視聴者状況記憶部116に記憶する。視聴者状況把握部102は、視聴者状況取得部101が取得する情報および視聴者状況記憶部116に記憶された情報に基づき、視聴者状況の変化も検出する。
The viewer
シナリオ記憶部114は、ロボットの振る舞いについて記載されたシナリオを記憶する。シナリオは、たとえば、ロボットに再生させるべきモーションファイルや発話ファイル、およびその再生手段等が記述されたプログラムとすることができる。ここで、モーションファイルは、ロボットのモーションを示す。発話ファイルは、ロボットの発話を示す。
The
また、本実施の形態において、シナリオは、視線制御のオンオフの設定も含む。本実施の形態において、視線制御とは、モーションファイルの動作とは別に、ロボットが音声出力等の説明をする際に、ロボットに視聴者に対してアイコンタクトをとる動作を行わせる処理のことである。モーションファイルに視線モーションが含まれる場合は、視線制御はオフとなるように設定される。視線モーションとは、ロボットの視線を所定の方向に向けたりする動作のことである。たとえば、ロボットにある商品の説明をさせる場合、ロボットが商品の方を向いて商品を指差すというモーションファイルが指定されている場合がある。このような場合は、モーションファイルに、「商品の方を向く」という視線モーションが含まれるため、視線制御がオフとなるように設定される。このようにすれば、モーションファイルで指定された動作と矛盾するような視線制御が行われないようにすることができる。 In the present embodiment, the scenario also includes a setting for turning on / off the line-of-sight control. In the present embodiment, line-of-sight control refers to processing that causes the robot to perform eye contact with the viewer when explaining the voice output, etc., separately from the motion file operation. is there. When the motion file includes a line-of-sight motion, the line-of-sight control is set to be off. The line-of-sight motion is an operation of directing the robot's line of sight in a predetermined direction. For example, when a robot explains a product, there may be a motion file in which the robot points to the product and points to the product. In such a case, since the line-of-sight motion “facing the product” is included in the motion file, the line-of-sight control is set to be off. In this way, it is possible to prevent the line-of-sight control from contradicting the operation specified in the motion file.
図3は、シナリオ記憶部114に記憶されたシナリオの一例を示す図である。ここでは、シナリオ記憶部114は、モーションファイルや発話ファイルを指定し、順番に再生していくためのスクリプト言語を記憶している。
FIG. 3 is a diagram illustrating an example of a scenario stored in the
このシナリオのシナリオ名は「あいさつ」である。また、このシナリオ再生時には、ロボットの近傍にいる視聴者の数が2以下の場合動作パターン「001」が選択され、視聴者の数が3以上20以下の場合に動作パターン「002」が選択され、視聴者の数が21以上の場合に動作パターン「003」が選択されるよう設定されている。 The scenario name for this scenario is “greeting”. In this scenario playback, the operation pattern “001” is selected when the number of viewers in the vicinity of the robot is 2 or less, and the operation pattern “002” is selected when the number of viewers is 3 or more and 20 or less. The operation pattern “003” is set to be selected when the number of viewers is 21 or more.
図1に戻り、シナリオ読込部106は、設定またはユーザの指示に従い、シナリオ記憶部114からシナリオを選択し、それを読み込む。シナリオ読込部106は、シナリオ記憶部114から読み込んだシナリオに従い、コンテンツ再生部110および視線モーション生成部108に指示を行う。本実施の形態において、シナリオ読込部106は、シナリオ記憶部114から読み出したシナリオにおいて、視線制御がオンと設定されている場合、視線モーション生成部108に通知を行う。
Returning to FIG. 1, the
コンテンツ記憶部118は、モーションファイルおよび発話ファイルを記憶する。コンテンツ再生部110は、シナリオ読込部106の指示を受け、コンテンツ記憶部118から該当するモーションファイルや発話ファイルを読み出し、ロボットのモーション再生のためのメカ駆動コマンドやロボットの発話コマンドを発行してシナリオ再生を実行する。
The
動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112からロボットの動作パターンを選択する。
The motion
動作パターン記憶部112には、ロボットが説明を行う際に、効果的なアイコンタクトが実行できるような動作パターンが記憶される。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンである。たとえば、ロボット近傍の視聴者の数が少人数の場合は丁寧にアイコンタクトを行い、視聴者の数が増えたら大勢に対してアイコンタクトを行う等のルールが記憶される。ここで、たとえば視聴者の数が所定数以下の場合、ロボットは、視聴者一人一人をアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。一方、視聴者の数が所定数より多い場合、ロボットは、視聴者をいくつかのグループに分けて、各グループを一つのアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。
The operation
動作パターン記憶部112には、ロボットの視線を向けるアイコンタクトポイント、そのポイントにどの程度の頻度で、どの程度の時間視線を向けるか等が記憶される。また、動作パターン記憶部112には、たとえば、新規視聴者、長時間視聴者、またはアクティブ視聴者等への優遇動作を行うか否かの設定等も記憶される。本実施の形態において、動作パターン記憶部112は、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部としても機能する。他の例において、設定記憶部は、動作パターン記憶部112とは別に設けられてもよい。ここで、新規視聴者とは、視聴者状況把握部102により、新たにロボットの近傍に来たことが把握された視聴者のことである。長時間視聴者とは、視聴者状況把握部102により、ある程度の時間以上ロボットの近傍にいることが把握された視聴者のことである。また、アクティブ視聴者とは、視聴者状況把握部102により、たとえばうなずいている等、ロボットの説明を積極的に聞いていると判断された視聴者のことである。
The motion
アクティブ視聴者か否かの判断は、たとえば視聴者状況取得部101がカメラの場合、視聴者状況把握部102による画像認識により、人の顔の位置の変化に基づき、うなずきを確認して判断することができる。視聴者状況把握部102は、ロボットの近傍にいる視聴者のうち、たとえばうなずいている人や、ロボットに対するアイコンタクト回数や時間が多い人、または肯定的な声を発している視聴者等を認識し、アクティブ視聴者か否かの判断を行うことができる。
For example, when the viewer
図4は、動作パターン記憶部112の内部構成の一例を示す図である。
動作パターン記憶部112は、動作パターン欄、アイコンタクトポイント欄、移動順序/頻度欄、アイコンタクト時間(秒)欄、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄を含む。
FIG. 4 is a diagram illustrating an example of the internal configuration of the operation
The operation
動作パターン欄には、動作パターン名が記憶される。アイコンタクトポイント欄には、ロボットがアイコンタクトをするアイコンタクトポイントの数やアイコンタクトポイントとなる視聴者の種類の定義等が記憶される。移動順序/頻度欄には、ロボットが各アイコンタクトポイントに視線を向ける順序、および頻度が記憶される。アイコンタクト時間欄には、ロボットが各アイコンタクトポイントに視線を向ける時間(秒)が記憶される。 An operation pattern name is stored in the operation pattern column. In the eye contact point column, the number of eye contact points with which the robot makes eye contact, the definition of the type of viewer that becomes the eye contact point, and the like are stored. In the movement order / frequency column, the order in which the robot turns its line of sight to each eye contact point and the frequency are stored. The eye contact time column stores the time (seconds) for the robot to turn its line of sight to each eye contact point.
また、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄には、それぞれ、新規視聴者、長時間視聴者、およびアクティブ視聴者への優遇を行うか否かが記憶される。 In addition, the new viewer preferential column, the long-time viewer preferential column, and the active viewer preferential column store whether or not preferential treatment is given to the new viewer, the long-time viewer, and the active viewer, respectively. The
たとえば、動作パターン「001」では、アイコンタクトポイントが「n」となっている。ここで、「n」とは、視聴者状況把握部102により把握された視聴者の数である。動作パターン「001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所2秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。さらに、新規視聴者優遇およびアクティブ視聴者優遇は行われないように設定されている。一方、長時間視聴者優遇が行われるように設定されている。ここでは、2分以上ロボットの近傍にいる視聴者が長時間視聴者で、このような長時間視聴者がいた場合、動作パターンが「001」から「L001」に移行するよう設定されている。
For example, in the operation pattern “001”, the eye contact point is “n”. Here, “n” is the number of viewers grasped by the viewer
また、たとえば、動作パターン「002」では、アイコンタクトポイントが「n」となっている。動作パターン「002」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、移動順序/頻度欄に「ランダム(1/3回)」と記憶されている。ここでは、各アイコンタクトポイントには、1カ所1.3秒間でランダムに1/3回の頻度でアイコンタクトが行われるように設定されている。 For example, in the operation pattern “002”, the eye contact point is “n”. In the operation pattern “002”, each viewer is set as an eye contact point. In addition, “random (1/3)” is stored in the movement order / frequency column. Here, each eye contact point is set so that eye contact is performed at a frequency of 1/3 at random in one place for 1.3 seconds.
また、たとえば、動作パターン「003」では、アイコンタクトポイントが「n/5」となっている。つまり、視聴者の数がnのときに、これらの視聴者が5つのグループに分類され、各グループが一つのアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所1秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、新規視聴者優遇、長時間視聴者優遇、およびアクティブ視聴者優遇のいずれも行われないように設定されている。 For example, in the operation pattern “003”, the eye contact point is “n / 5”. That is, when the number of viewers is n, these viewers are classified into five groups, and each group is set as one eye contact point. In addition, each eye contact point is set so that eye contact is sequentially performed on all eye contact points in one place for 1 second. Here, it is set so that none of the new viewer preferential treatment, the long-time viewer preferential treatment, and the active viewer preferential treatment are performed.
また、たとえば、動作パターン「L001」では、アイコンタクトポイントが「n(L)+n(F)」となっている。ここで、n(L)とは、視聴者状況把握部102により把握された長時間視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から長時間視聴者の数n(L)を引いた数である。動作パターン「L001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、アイコンタクトポイントは、長時間視聴者に対応するアイコンタクトポイントLとそれ以外の視聴者に対応するアイコンタクトポイントFとが区別して設定される。各アイコンタクトポイントには、全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、1回のアイコンタクトは、アイコンタクトポイントLに対しては3秒、アイコンタクトポイントFに対しては1秒行われるように設定されている。また、この動作パターンが選択されている場合に、2分以上ロボットの近傍にいる視聴者がいる限り、この動作パターンを継続することも設定されている。
For example, in the operation pattern “L001”, the eye contact point is “n (L) + n (F)”. Here, n (L) is the number of long-time viewers grasped by the viewer
また、動作パターン「N001」では、アイコンタクトポイントが「n(N)+n(F)」となっている。ここで、n(N)とは、視聴者状況把握部102により把握された新規視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から新規視聴者の数n(N)を引いた数である。また、この動作パターンが選択されている場合、2分間はこの動作パターンを継続することも設定されている。
In the operation pattern “N001”, the eye contact point is “n (N) + n (F)”. Here, n (N) is the number of new viewers grasped by the viewer
また、動作パターン「A001」では、アイコンタクトポイントが「n(A)+n(F)」となっている。ここで、n(A)とは、視聴者状況把握部102により把握されたアクティブ視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数からアクティブ視聴者の数n(A)を引いた数である。また、この動作パターンが選択されている場合に、アクティブ視聴者がロボットの近傍にいる限り、この動作パターンを継続することも設定されている。
In the operation pattern “A001”, the eye contact point is “n (A) + n (F)”. Here, n (A) is the number of active viewers grasped by the viewer
図1に戻り、視線モーション生成部108は、シナリオ読込部106の指示を受け、動作パターン選択部104が選択した動作パターンに基づき、視線モーションを生成する。具体的には、視線モーション生成部108は、ロボットが適切な視線動作を行うよう、ロボットの首、胴体、または目(目玉)の一つ以上を移動させるための視線モーションファイルを生成する。視線モーション生成部108は、視聴者状況記憶部116に記憶された視聴者の位置、および動作パターン選択部104が選択した動作パターンに基づき、ロボットの視線を向けるアイコンタクトポイントを決定することができる。また、ロボット制御システム100は、ロボットの目の位置を記憶した記憶部を有することができ、視線モーション生成部108は、ロボットの目の位置も考慮して、ロボットの目がアイコンタクトポイントに向くようにすることができる。たとえば、アイコンタクトポイントが、ロボットから見て左右にあり、順番通りにアイコンタクトを行う動作パターンが設定されている場合、視線モーション生成部108は、ロボットが左右交互に視線を向けるような視線モーションを生成する。
Returning to FIG. 1, the line-of-sight
また、動作パターン記憶部112は、アイコンタクトポイントにロボットの視線を向ける頻度および当該アイコンタクトポイントにロボットが視線を向ける時間の設定を含むことができ、視線モーション生成部108は、動作パターン選択部104が選択した動作パターンに基づき、設定された頻度および時間通りにロボットの視線をアイコンタクトポイントに向ける視線モーションを生成することができる。さらに、視線モーション生成部108は、どのアイコンタクトポイントまでアイコンタクトを行ったかを記憶しておき、途中で動作パターンを変えた場合等、次の視線モーション作成の際に利用することができる。
In addition, the motion
また、視線モーション生成部108は、視線モーション生成前にコンテンツ再生部110により再生されていたモーションと、生成する視線モーションとの間で不可能、または不自然な動きが発生する場合は、ロボットの顔をセンターポジションに戻す視線モーションを生成した後、動作パターン記憶部112に基づく視線モーションを生成する等、適切な視線モーションを生成するようにする。
In addition, the gaze
コンテンツ再生部110は、視線モーション生成部108が生成した視線モーションに基づき、ロボットの視線モーション再生のためのメカ駆動コマンドを発行する。
The
なお、視聴者状況取得部101は、コンテンツ再生部110がコマンドを発行中も定期的に周囲の視聴者の状況を取得する。視聴者状況把握部102は、視聴者状況取得部101が取得したデータを解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置の変化を検出する。ロボットの移動や視聴者の移動等により、ロボットの近傍にいる視聴者の数や位置に変化があった場合、動作パターン選択部104は、新たな状況に応じて、動作パターン記憶部112から動作パターンを選択しなおす。また、視聴者状況把握部102は、アクティブ視聴者を検出すると、動作パターン記憶部112を参照して、そのときに選択されている動作パターンにおいてアクティブ視聴者優遇の設定がされているか否かを判断する。アクティブ視聴者優遇の設定がされている場合、動作パターン選択部104は、アクティブ視聴者優遇用の動作パターンを選択しなおすことができる。
Note that the viewer
図5は、視聴者状況記憶部116の内部構成の一例を示す図である。
視聴者状況記憶部116は、時刻欄、動作パターン欄、近傍欄、および変化欄を含む。
たとえば、12:35にはロボットの近傍に視聴者aおよび視聴者bがいることが把握されている。このとき、動作パターン「001」が選択される。つづいて、12:36にはロボットの近傍に視聴者a、視聴者b、および視聴者cがいることが把握されている。ここで、前回の記録から、新規視聴者Nとして、変化欄にN(c)が記憶される。このとき、動作パターンは「001」のまま変化しない。次に、12:37にはロボットの近傍に視聴者bおよび視聴者cがいることが把握されている。ここで、視聴者bはロボットの近傍に2分以上いるので、長時間視聴者Lであると把握され、変化欄にL(b)が記憶される。ここで、図4を参照すると、動作パターン「001」が選択されている場合、2分以上ロボットの近傍にいる長時間視聴者がいる場合、動作パターンが「L001」に移行することが設定されている。そのため、動作パターンが「L001」に移行する。
FIG. 5 is a diagram illustrating an example of the internal configuration of the viewer
The viewer
For example, it is known that the viewer a and the viewer b are in the vicinity of the robot at 12:35. At this time, the operation pattern “001” is selected. Subsequently, at 12:36, it is recognized that there are a viewer a, a viewer b, and a viewer c near the robot. Here, N (c) is stored in the change column as the new viewer N from the previous record. At this time, the operation pattern remains “001” and does not change. Next, at 12:37, it is recognized that there are viewers b and viewers c near the robot. Here, since the viewer b is in the vicinity of the robot for 2 minutes or longer, it is recognized that the viewer b is the viewer L for a long time, and L (b) is stored in the change column. Here, referring to FIG. 4, when the motion pattern “001” is selected, the motion pattern is set to shift to “L001” when there is a long-time viewer who is in the vicinity of the robot for 2 minutes or more. ing. Therefore, the operation pattern shifts to “L001”.
また、以上の実施の形態においては、シナリオ記憶部114に記憶されたシナリオに、動作パターンの番号と、ロボットの近傍にいる視聴者の数の範囲とが対応付けて記述された例を示した。他の例において、シナリオに記述するのではなく、動作パターン記憶部112に、ロボットが近傍にいる視聴者に対して行う動作パターンと、近傍にいる視聴者の数の範囲とを対応付けて記憶することもできる。
In the above embodiment, an example is described in which a scenario stored in the
また、動作パターン記憶部112は、ロボットの近傍にいる視聴者の数や位置だけでなく、説明が行われている場所、時間帯、これまでの視聴者の増減状況等に対応づけて複数の動作パターンを記憶することができる。たとえば、ロボット近傍の視聴者の数が同じでも、場所や時間帯等に対応づけて、異なる動作パターンを記憶することができる。
In addition, the motion
図6は、本実施の形態におけるロボット制御システム100の処理手順を示すフローチャートである。
まず、ロボットが初期化され、プログラムがスタートすると、シナリオ読込部106は、シナリオ記憶部114からシナリオを読み込む(S100)。どのシナリオを読み込むかは、設定またはユーザの指示に基づき決定される。
FIG. 6 is a flowchart showing a processing procedure of the
First, when the robot is initialized and the program is started, the
つづいて、視聴者状況取得部101は、視聴者状況を取得する(S102)。視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者状況に基づき、ロボットの近傍にいる視聴者の数および位置を把握する(S104)。視聴者状況把握部102は、把握した情報を視聴者状況記憶部116に記憶する。また、視聴者状況把握部102は、視聴者状況記憶部116を参照し、視聴者の数や位置に変化があったか否かを判断する(S106)。視聴者の数や位置に変化があった場合(S106のYES)、視聴者状況把握部102は、把握した視聴者の数および位置を時間に対応付けて視聴者状況記憶部116に記憶する(S108)。動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112から動作パターンを選択する(S110)。
Subsequently, the viewer
つづいて、シナリオ読込部106は、シナリオのコマンドを解釈して(S112)、視線制御がオンか否かを判断する(S114)。ステップS106で変化がない場合(S106のNO)、そのままステップS112に進む。ステップS114で視線制御がオンの場合(S114のYES)、シナリオ読込部106は、視線モーション生成部108に通知を行う。視線モーション生成部108は、視聴者状況記憶部116を参照して、視聴者の数、位置等を取得する。つづいて、視線モーション生成部108は、動作パターン選択部104が選択した動作パターン、視聴者の数、および位置に基づき、視線モーションを生成する(S116)。コンテンツ再生部110は、シナリオ読込部106の指示に基づき、コンテンツ記憶部118から該当するコンテンツデータを読み出し再生するとともに、視線モーション生成部108により視線モーションが生成された場合は、その視線モーションも再生する(S118)。ステップS114で視線制御がオンでない場合(S114のNO)、そのままステップS118に進む。
Subsequently, the
図示しない制御部は、シナリオ読込部106が読み込んだシナリオが終了したか否かを判断し(S120)、シナリオが終了していない場合は、ステップS102に戻り、視聴者の状況を取得する。ステップS120において、シナリオが終了したと判断された場合(S120のYES)、次のシナリオを読み込むか否かを判断し(S122)、次のシナリオを読み込む場合(S122のYES)、ステップS100に戻り、新たなシナリオを読み込む。一方、ステップS122において、次のシナリオを読み込まない場合(S122のNO)、処理を終了する。
A control unit (not shown) determines whether or not the scenario read by the
以上のように、本実施の形態におけるロボット制御システム100によれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクトを行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。
As described above, according to the
(第2の実施の形態)
本実施の形態において、ロボット制御システムは、第1の実施の形態と同様、ロボットの近傍にいる視聴者の数や位置に応じて、ロボットが音声出力による説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択する。さらにそれに加えて、ロボット制御システムは、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
(Second Embodiment)
In the present embodiment, as in the first embodiment, the robot control system, along with the voice output, when the robot performs explanation by voice output according to the number and positions of viewers in the vicinity of the robot, The operation pattern that the robot performs for the viewer is selected. In addition to this, the robot control system preferentially selects an operation pattern with high reverberation in consideration of the viewer's reverberation with respect to the operation pattern executed by the robot. Also in the present embodiment, the motion pattern can be a line-of-sight motion pattern.
図7は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
本実施の形態において、ロボット制御システム100は、第1の実施の形態で説明した構成に加え、さらに反響取得部132、反響集計部134、および反響記憶部142を含む。
FIG. 7 is a block diagram showing the configuration of the
In the present embodiment, the
反響取得部132は、ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。ここで、反響とは、たとえば集客効率や販売効率、視聴者の理解度の高低等とすることができる。反響集計部134は、反響取得部132が取得した反響を動作パターン毎に集計する。反響取得部132が取得した反響、および反響集計部134が集計した結果は、反響記憶部142に記憶される。
The
本実施の形態において、動作パターン選択部104は、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。
In the present embodiment, the motion
反響取得部132は、たとえば音声認識により、ロボット近傍にいる視聴者の反響を取得する。反響は、たとえば視聴者の理解度とすることができる。たとえば、ロボットに近傍にいる視聴者に質問させ、質問に対する回答を音声認識することにより、その視聴者がどの程度ロボットの説明を理解しているか等の情報を取得する。
The
また、反響取得部132は、視聴者状況把握部102が把握した視聴者状況に基づき、ロボットがどの動作パターンの説明をしたときにどの程度の視聴者が集まったか等の情報も取得する。さらに、たとえば、ロボットに、周囲にいる視聴者に対して「○○のお店に行ってね」等の約束を行わせることができる。ロボットは、握手、指きり、対話等により、視聴者と約束することができる。反響取得部132は、ロボットが何人の視聴者と約束したか、またロボットと約束をした視聴者のうち何人がその約束を実行したか等の情報も取得する。
The
また、ロボットは、約束をする際に、約束した視聴者を何らかの手法で識別することができる。たとえば、ロボットがテーマパーク内に配置される場合、視聴者に入場券を提示させ、入場券の整理番号等により、視聴者を識別することができる。また、たとえば約束した視聴者に識別情報を付したカード等を渡し、その識別情報を記憶しておくこともできる。さらに、視聴者の顔画像を取得することもできる。 Further, when making a promise, the robot can identify the promised viewer by some method. For example, when the robot is arranged in a theme park, the viewer can be presented with an admission ticket, and the viewer can be identified by the reference number of the admission ticket. Further, for example, a card or the like with identification information can be given to the promised viewer and the identification information can be stored. Furthermore, a viewer's face image can also be acquired.
また、反響取得部132は、ネットワークと通信可能に構成することができ、ネットワークを介して、他の端末から情報を取得することができる。たとえば、店舗に設置された端末から、商品を購入した人の情報が反響取得部132に送信されるようにすることができる。これにより、反響取得部132は、たとえば約束をした視聴者が実際に商品を購入した場合に、それを把握することができる。反響取得部132は、取得した情報を反響記憶部142に記憶する。
The
図8は、反響記憶部142の内部構成を示す図である。
反響記憶部142は、動作パターン欄、周囲欄、約束欄、購入欄、反響率欄等を含む。ここで、動作パターン欄には、動作パターン選択部104が選択した動作パターンの識別情報が記憶される。周囲欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットの周囲に集まっていたかが記憶される。約束欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットと約束をしたかが記憶される。また、購入欄には、その動作パターンの説明を聞いた視聴者のうち、どの程度の視聴者が商品を購入したかが記憶される。
FIG. 8 is a diagram illustrating an internal configuration of the
The
たとえば、動作パターン「001」の説明が行われていた際に、周囲には視聴者が30人集まり、約束をした視聴者が10人、購入をした視聴者が6人と記憶されている。また、動作パターン「002」の説明が行われていた際に、周囲には視聴者が10人集まり、約束をした視聴者が1人、購入した視聴者が0人と記憶されている。 For example, when the explanation of the operation pattern “001” is performed, 30 viewers gather around, 10 viewers who have made a promise, and 6 viewers who have made a purchase are stored. In addition, when the operation pattern “002” is described, 10 viewers are gathered in the surrounding area, and one promised viewer is stored and 0 purchased viewers are stored.
反響集計部134は、これらの情報に基づき、反響を集計し、反響率を算出する。ここでは、動作パターン「001」の反響率は「○」で、動作パターン「002」の反響率「△」よりも高くなっている。つまり、動作パターン「001」で説明を行った方が、動作パターン「002」で説明を行った場合よりも、反響率が高くなることが推定される。動作パターン選択部104は、反響集計部134の集計結果に基づき、より反響率が高くなるような動作パターンを優先的に選択する。
Based on these pieces of information, the
本実施の形態におけるロボット制御システム100においても、第1の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、視聴者の反響に応じて動作パターンが選択されるので、ロボットの説明を効果的に行うことができる。
Also in the
(第3の実施の形態)
本実施の形態において、ロボット制御システム100は、第2の実施の形態と同様、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。なお、本実施の形態において、ロボット制御システム100は、複数のロボットが実行した動作パターンに対する視聴者の反響に基づき、反響の高い動作パターンを選択する。これにより、より効果的な動作パターンを、精度よく選択することができる。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
(Third embodiment)
In the present embodiment, similarly to the second embodiment, the
図9は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
ロボット制御システム100は、複数のロボット制御装置100aおよび100b、ならびに動作パターン選択装置300がネットワーク400を介して接続された構成を有する。ロボット制御装置100aおよびロボット制御装置100bは、それぞれロボット装置に組み込まれ、各ロボット装置を制御する。
FIG. 9 is a block diagram showing a configuration of the
The
ネットワーク400は、無線LANや携帯電話等の各種無線環境、LANやWANや電話回線等の各種有線環境、または共有メモリにより実現できる。
The
ロボット制御装置100aおよびロボット制御装置100bは、同様の構成を有するため、ここではロボット制御装置100aについて説明する。ロボット制御装置100aは、第2の実施の形態において図7を参照して説明したロボット制御システム100とほぼ同様の構成を有する。
Since the robot control device 100a and the
ロボット制御装置100aは、送受信部140をさらに含む。また、ロボット制御装置100aは、反響集計部134を有しない構成とすることができる。なお、ここではロボット制御装置100aが視聴者状況取得部101を含む構成を図示しているが、ロボット制御装置100aは、視聴者状況取得部101を含まず、ロボット制御装置100a外部に設けられた視聴者状況取得部101からの情報を送受信部140を介して取得するようにすることもできる。
The robot control apparatus 100a further includes a transmission /
動作パターン選択装置300は、複数のロボット制御装置100aおよび100b等から各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。動作パターン選択装置300は、これらを集計して、最も反響の高い動作パターンを選択して、各ロボット制御装置100aおよび100bにフィードバックする。各ロボット制御装置100aおよび100bにおいて、動作パターン選択装置300により選択された動作パターンをロボットに実行させることにより、ロボットが効果的な説明を行うようにすることができる。
The motion
動作パターン選択装置300は、送受信部302と、反響取得部304と、反響集計部306と、動作パターン選択部308と、反響記憶部310とを記憶する。送受信部302は、ネットワーク400を介して他の端末とデータの送受信を行う。反響取得部304は、送受信部302を介して、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。反響集計部306は、反響取得部304が取得した反響を動作パターン毎に集計する。反響取得部304が取得した反響、および反響集計部306が集計した結果は、反響記憶部310に記憶される。動作パターン選択部308は、反響集計部306が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンを各ロボットが実行する動作パターンとして選択する。動作パターン選択部308は、送受信部302を介して、ロボット制御装置100aおよび100b等に、選択した動作パターンを通知する。ロボット制御装置100a等において、反響取得部132は、送受信部140を介して動作パターン選択装置300から選択された動作パターンを取得し、動作パターン選択部104に通知する。動作パターン選択部104は、動作パターン選択装置300により選択された反響の高い動作パターンを優先的に選択することができる。
The operation
また、ロボットが宣伝を行う場合、宣伝する商品を販売している店舗の店舗端末402もネットワーク400に接続することができる。反響取得部304は、送受信部302を介して、このような店舗端末402等からも、視聴者が商品を購入したか否か等の情報を取得する。また、他の例として、ロボット制御装置100aの反響取得部132が送受信部302を介して、このような店舗端末402等から、視聴者が商品を購入したか否か等の情報を取得し、それらを動作パターン選択装置300に送信するようにすることもできる。
When the robot advertises, the
動作パターン選択装置300は、ロボット装置外部のサーバとすることもできるが、たとえば複数のロボット装置のいずれかに組み込まれた構成とすることもできる。たとえば、ロボット制御装置100aが動作パターン選択装置300の機能も兼ね備え、他のロボット制御装置100b等から、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得するようにすることもできる。
The motion
このようにすれば、いずれかのロボットにおいて効果的だった動作パターンを他のロボットにも実行させることができ、ロボットにより効果的な説明を実行させることができる。 In this way, it is possible to cause other robots to execute an action pattern that is effective in any of the robots, and it is possible to execute an effective explanation by the robot.
また、反響取得部304は、各ロボットが説明を行った時間や位置等も、反響および動作パターンに対応付けて取得することができる。反響取得部304は、これらの情報を反響記憶部310に記憶する。動作パターン選択部308は、各ロボットに実行させる動作パターンを選択する際に、各ロボットが説明を行う時間や位置も考慮して、動作パターンを選択する。これにより、動作パターン選択部308は、各ロボットにその場に即した略リアルタイムな指示を行うことができる。
The
さらに、動作パターン選択部308は、複数のロボットに説明をさせる際、複数のロボットの配置関係に応じて、各ロボットに実行させる動作パターンを選択することができる。たとえば、あるロボットに大人数を対象とする説明をさせるとともに、その周囲に丁寧な説明をするロボットを配置するようにすることもできる。
Furthermore, the operation
本実施の形態におけるロボット制御システム100においても、第1および第2の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、ロボットの説明をより効果的に行うことができる。
Also in the
(ロボット装置)
以上の実施の形態で説明したロボットの一例を説明する。以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置に組み込まれ、ロボット装置を制御する構成とすることができる。また、他の例において、以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置の外部に設けられ、各ロボット装置を制御する構成とすることもできる。
(Robot device)
An example of the robot described in the above embodiment will be described. The
図10は、ロボット装置200の電気的構成の一例を示すブロック図である。
ロボット装置200は、胴体部201および頭部202を含む。胴体部201には、ロボット装置全体の制御を行うコントローラ210、ロボット装置200の動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
FIG. 10 is a block diagram illustrating an example of an electrical configuration of the
The
マイクロフォン213は、周囲の音声を集音し、得られた音声データをコントローラ210に送出する。
The
コントローラ210は、CPU210Aやメモリ210Bを内蔵しており、CPU210Aにおいて、メモリ210Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
The controller 210 includes a
通信インターフェース224は、ネットワーク400等のネットワークを介して、他の端末との間で通信を行う。第3の実施の形態で説明した送受信部140は、たとえば、通信インターフェース224により構成することができる。
The
頭部202には、CCDカメラ221AおよびCCDカメラ221B、ならびに頭部202を回転するためのアクチュエータ222Aおよびアクチュエータ222B等が収納される。CCDカメラ221A、CCDカメラ221B、アクチュエータ222A、アクチュエータ222B、バッテリ211、スピーカ212、マイクロフォン213、アクチュエータ214A、アクチュエータ214B、および通信インターフェース224等がロボットの動作を実行する動作実行部として機能する。
The head 202 contains a CCD camera 221A and a CCD camera 221B, and an actuator 222A and an actuator 222B for rotating the head 202. The CCD camera 221A, the CCD camera 221B, the actuator 222A, the actuator 222B, the battery 211, the
CCDカメラ221AおよびCCDカメラ221Bは、周囲の状況を撮像し、得られた画像データを、コントローラ210に送出する。第1〜第3の実施の形態で説明した視聴者状況取得部101は、たとえば、CCDカメラ221AやCCDカメラ221Bにより構成することができる。
The CCD camera 221 </ b> A and the CCD camera 221 </ b> B image the surrounding situation and send the obtained image data to the controller 210. The viewer
アクチュエータ222Aおよびアクチュエータ222Bは、ロボット装置200の頭部202を上下左右に回転させる。
The actuator 222A and the actuator 222B rotate the head 202 of the
コントローラ210は、マイクロフォン213や通信インターフェース224を介して得られる音声データやCCDカメラ221AおよびCCDカメラ221Bから得られる画像データに基づいて、メモリ210Bから適宜情報を読み出し、周囲の状況を取得する。ロボット制御システム100やロボット制御装置100a(または100b)がロボット装置200内に組み込まれる場合、ロボット制御システム100やロボット制御装置100a(または100b)の各機能は、コントローラ210により実現することができる。
The controller 210 appropriately reads information from the memory 210B based on audio data obtained via the
コントローラ210は、アクチュエータ214A、アクチュエータ214B、アクチュエータ222A、およびアクチュエータ222B等を制御してロボット装置200に決定した動作を実行させる。また、コントローラ210は、合成音を生成し、スピーカ212に供給して、ロボット装置200に決定した発話を出力させる。
The controller 210 controls the actuator 214A, the actuator 214B, the actuator 222A, the actuator 222B, and the like to cause the
なお、ここでは図示してないが、ロボット装置200は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラ210によりアーム部を駆動するアクチュエータを制御して、ロボット装置200に指切りや握手等をさせることもできる。
Although not shown here, the
ロボットは、図10に示したようなロボット装置200とすることもできるが、たとえばキャラクタで示される仮想ロボットとすることもできる。この場合、仮想ロボットはモニタ等に表示して実現することができる。ロボットが仮想ロボットの場合、たとえばCGの描画によって仮想ロボットの視線の向きを変更することができる。
The robot can be the
以上で説明したロボット制御システム100、ロボット制御装置100a(または100b)、および動作パターン選択装置300の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
Each component of the
以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 The embodiments of the present invention have been described above with reference to the drawings, but these are exemplifications of the present invention, and various configurations other than those described above can be adopted.
以上の実施の形態において、動作パターンが視線動作パターンで、ロボット制御システム100やロボット制御装置100a等が視線モーション生成部108を有する例を説明した。しかし、他の形態において、ロボット制御システム100やロボット制御装置100a等は、視線モーション生成部108に加えて、または視線モーション生成部108の代わりに視線モーション以外のモーションを生成するモーション生成部や、ロボットの発話ファイルの再生を制御する制御部等を設けた構成とすることができる。たとえば、動作パターンは、ロボットの発話速度やロボットの声の大きさ等とすることもできる。上記制御部により、ロボットの発話ファイルの再生を制御することにより、ロボットの発話速度やロボットの声の大きさを調整することができる。たとえば、ロボットの近傍にいる視聴者の数が所定数以下の少ない場合は、ロボットが小さい声でゆっくり説明を行い、ロボットの近傍にいる視聴者の数が所定数より多い場合は、ロボットが大きい声で早口で説明を行うようにすることもできる。
In the above embodiment, the example in which the motion pattern is the line-of-sight motion pattern and the
また、本発明は、以下の形態も含むことができる。
音声出力可能なロボットを制御するロボット制御システムであって、
前記ロボットが、当該ロボットの近傍にいる視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
いずれかの前記動作パターンを前記ロボットに実行させる動作処理部と、
前記ロボットが実行した動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンをロボットが実行する動作パターンとして選択する動作パターン選択部と、
を含み、
前記動作処理部は、前記動作パターン選択部が選択した動作パターンをロボットに実行させるロボット制御システム。
The present invention can also include the following forms.
A robot control system for controlling a robot capable of outputting voice,
An operation pattern storage unit that stores a plurality of operation patterns performed by the robot on viewers in the vicinity of the robot;
An operation processing unit for causing the robot to execute any one of the operation patterns;
An echo acquisition unit that acquires an echo of the viewer with respect to an action pattern executed by the robot in association with information indicating the action pattern;
An echo totaling unit that tabulates the echoes acquired by the echo acquisition unit for each of the operation patterns;
An action pattern selection unit that compares the echoes of a plurality of the action patterns and selects the action pattern having a high echo as an action pattern to be executed by the robot;
Including
The motion processing unit is a robot control system that causes the robot to execute the motion pattern selected by the motion pattern selection unit.
図11は、ロボット制御システムの他の例を示すブロック図である。
ロボット制御システム130は、シナリオ読込部106、コンテンツ再生部110、シナリオ記憶部114、コンテンツ記憶部118、反響取得部132、反響集計部134、動作パターン選択部136、反響記憶部142、動作パターン記憶部144、およびモーション生成部150を含む。
FIG. 11 is a block diagram illustrating another example of the robot control system.
The
ロボット制御システム130は、視聴者状況取得部101、視聴者状況把握部102、および視聴者状況記憶部116を含まない点で、以上の実施の形態で説明したロボット制御システム100と異なる。
The
動作パターン選択部136は、ロボット近傍にいる視聴者の状況にかかわらず、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。モーション生成部150は、ロボットのモーションを生成する。
The motion
図12は、動作パターン記憶部144の内部構成の一例を示す図である。
動作パターン記憶部144は、動作パターン覧、音楽覧、踊り覧、ランプ覧を含む。ここで、踊り覧は、ロボットに説明させる際に、ロボットに踊らせるか否かを記憶する。音楽覧は、ロボットに説明させる際に、音楽を流すか否かを記憶する。ランプ覧は、ロボットに説明させる際に、ロボットのランプを点灯させるか否かを記憶する。たとえば、動作パターン「001」においては、音楽、踊り、ランプのいずれも実行させるように設定されている。
FIG. 12 is a diagram illustrating an example of an internal configuration of the operation
The operation
モーション生成部150は、動作パターン選択部136が選択した動作パターンに応じて、ロボットのモーションを生成する。なお、モーション生成部150は、以上の実施の形態で説明した視線モーション生成部108の機能も含む構成とすることができる。また、動作パターン記憶部144は、以上の実施の形態で説明した動作パターン記憶部112と同様の構成を含むこともできる。
The
また、このような形態においても、第3の実施の形態で図9を参照して説明したように、反響集計部134が、複数のロボットが実行した動作パターンに対する視聴者の反響を集計するようにすることができる。これにより、効果的な動作パターンを、精度よく選択することができる。
Also in such a form, as described with reference to FIG. 9 in the third embodiment, the
本発明は、ロボットに発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等の説明を行わせる際のロボットの制御に用いることができる。 INDUSTRIAL APPLICABILITY The present invention can be used for controlling a robot when making the robot explain presentation, guidance, advertisement, presentation, education, communication with viewers, and the like.
100 ロボット制御システム
100a ロボット制御装置
100b ロボット制御装置
101 視聴者状況取得部
102 視聴者状況把握部
104 動作パターン選択部
106 シナリオ読込部
108 視線モーション生成部
110 コンテンツ再生部
112 動作パターン記憶部
114 シナリオ記憶部
116 視聴者状況記憶部
118 コンテンツ記憶部
132 反響取得部
134 反響集計部
136 動作パターン選択部
140 送受信部
142 反響記憶部
144 動作パターン記憶部
150 モーション生成部
200 ロボット装置
201 胴体部
202 頭部
203A、203B 車輪
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
300 動作パターン選択装置
302 送受信部
304 反響取得部
306 反響集計部
308 動作パターン選択部
310 反響記憶部
400 ネットワーク
402 店舗端末
DESCRIPTION OF
210B
Claims (20)
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
を含み、
前記視聴者状況把握部は、前記視聴者の数の変化を検出し、
前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御システム。 A robot control system for controlling a robot that performs explanation,
A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
Only including,
The viewer status grasping unit detects a change in the number of viewers,
When the viewer status grasping unit detects a change in the number of viewers, the operation pattern selection unit selects the operation pattern corresponding to a new number,
The operation determining unit is a robot control system that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit .
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、 A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、 An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、 An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、 An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
を含み、Including
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含み、 A setting storage unit for storing a setting as to whether or not a viewer who satisfies a predetermined condition is a special operation target;
前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、 The motion pattern storage unit stores a special motion pattern targeted for a viewer who satisfies the predetermined condition, in association with the predetermined condition,
前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、 The viewer status grasping unit detects a viewer that satisfies the predetermined condition from the viewers,
前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、 The operation pattern selection unit is a case where the viewer condition grasping unit detects a viewer who satisfies the predetermined condition, and the viewer who satisfies the predetermined condition is set as the special operation target in the setting storage unit. If it is set to do, select the special operation pattern corresponding to the predetermined condition,
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御システム。 The predetermined condition is a robot control system in which a predetermined number or more of new viewers are grasped or a long-time viewer in the vicinity of the robot is grasped for a predetermined time or more.
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、 A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、 An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、 An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、 An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
を含み、Including
前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、 The motion pattern storage unit is configured to group the viewers into a number less than the predetermined number when the robot has a first motion pattern in which each of the viewers is a motion target and the viewer has more than a predetermined number. Storing a second operation pattern for each divided group as an operation target;
前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御システム。 The operation pattern selection unit selects the first operation pattern when the number of the viewers grasped by the viewer status grasping unit is a predetermined number or less, and when the number is larger than the predetermined number, the first operation pattern is selected. A robot control system that selects two motion patterns.
前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握し、
前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御システム。 The robot control system according to any one of claims 1 to 3 ,
The movement pattern is a line-of-sight movement pattern for controlling the line of sight of the robot to the viewer,
The viewer status grasping unit grasps the position of the viewer with respect to the robot,
The motion determining unit is a robot control system that determines a line-of-sight motion of the robot to the viewer based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.
前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するロボット制御システム。 The robot control system according to claim 4 , wherein
The motion determination unit is a robot control system that determines an eye contact point for directing a line of sight of the robot based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.
前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御システム。 The robot control system according to claim 5 , wherein
The operation pattern includes a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point,
The motion determining unit is a robot control system that determines a line-of-sight motion that directs the robot's line of sight toward the eye contact point according to the set frequency and the time based on the motion pattern selected by the motion pattern selection unit.
前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御システム。 The robot control system according to any one of claims 3 to 6 ,
The robot is configured such that at least one of a neck, a torso, or an eye is movable,
The movement determining unit is a robot control system that determines one or more movements of the neck, the trunk, or the eyes of the robot so that the robot performs the line-of-sight movement.
前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
をさらに含み、
前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択するロボット制御システム。 The robot control system according to any one of claims 1 to 7 ,
An echo acquisition unit that acquires an echo of the viewer with respect to the motion pattern executed by the robot in association with information indicating the motion pattern;
An echo totaling unit that tabulates the echoes acquired by the echo acquisition unit for each of the operation patterns;
Further including
The motion pattern selection unit is a robot control system that compares echoes of a plurality of motion patterns and preferentially selects the motion pattern with high echoes as the motion pattern to be executed by the robot.
前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、
前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、
をさらに含み、
前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせるロボット制御システム。 The robot control system according to any one of claims 1 to 8 ,
A content storage unit for storing an utterance file and a motion file to be played by the robot;
A content playback unit that reads the specified utterance file and the motion file from the content storage unit and causes the robot to play back the content file,
Further including
The operation determining unit is executed by reproducing the motion file when the operation determined based on the operation pattern is inconsistent with the operation of the robot executed by reproducing the motion file read by the content reproducing unit. A robot control system for causing the robot to preferentially perform the operation of the robot.
前記動作決定部が決定した前記動作を実行する動作実行部と、
を含むことを特徴とするロボット装置。 A robot control system according to any one of claims 1 to 9 ,
An operation execution unit for executing the operation determined by the operation determination unit;
The robot apparatus characterized by including.
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
前記視聴者数を把握するステップにおいて、前記視聴者の数の変化を検出し、
前記動作パターンを選択するステップにおいて、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作を決定するステップにおいて、選択された前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御方法。 A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Only including,
In the step of grasping the number of viewers, a change in the number of viewers is detected,
In the step of selecting the operation pattern, when the viewer status grasping unit detects a change in the number of viewers, the operation pattern corresponding to a new number is selected,
A robot control method for determining an operation of the robot based on the selected operation pattern in the step of determining the operation .
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶するステップをさらに含み、
前記動作パターンを記憶するステップにおいて、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、
前記視聴者の数を把握するステップにおいて、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、
前記動作パターンを選択するステップにおいて、前記所定の条件を満たす視聴者を検出した場合であって、前記設定を記憶するステップにおいて前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御方法。 A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Including
Storing a setting as to whether or not a viewer who satisfies a predetermined condition is to be a special operation target,
In the step of storing the motion pattern, a special motion pattern intended for a viewer who satisfies the predetermined condition is stored in association with the predetermined condition,
In the step of grasping the number of viewers, a viewer who satisfies the predetermined condition is detected from the viewers,
In the step of selecting the operation pattern, when a viewer who satisfies the predetermined condition is detected, the viewer who satisfies the predetermined condition in the step of storing the setting may be set as the special operation target. If set, select the special operation pattern corresponding to the predetermined condition,
The robot control method in which the predetermined condition is a case where a predetermined number or more of new viewers are grasped or a long time viewer who is present in the vicinity of the robot for a predetermined time or more is grasped .
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、
前記動作パターンを選択するステップにおいて、前記視聴者数を把握するステップにおいて把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御方法。 A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Only including,
The motion pattern storage unit is configured to group the viewers into a number less than the predetermined number when the robot has a first motion pattern in which each of the viewers is a motion target and the viewer has more than a predetermined number. Storing a second operation pattern for each divided group as an operation target;
In the step of selecting the operation pattern, the first operation pattern is selected when the number of viewers grasped in the step of grasping the number of viewers is equal to or less than a predetermined number, and the number is larger than the predetermined number And a robot control method for selecting the second operation pattern.
前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
前記視聴者の前記ロボットに対する位置を把握するステップをさらに含み、
前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御方法。 The robot control method according to any one of claims 11 to 13 ,
The movement pattern is a line-of-sight movement pattern for controlling the line of sight of the robot to the viewer,
Further comprising grasping a position of the viewer with respect to the robot;
A robot control method for determining a gaze motion of the robot to the viewer based on the motion pattern selected in the step of selecting the viewer position and the motion pattern in the step of determining the motion of the robot.
前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むロボット制御方法。 The robot control method according to claim 14 , wherein
The step of determining the motion of the robot includes the step of determining an eye contact point that directs the robot's line of sight based on the motion pattern selected in the step of selecting the position of the viewer and the motion pattern. Method.
前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御方法。 The robot control method according to claim 15 , wherein
The operation pattern includes a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point,
In the step of determining the movement of the robot, a line-of-sight movement that directs the line of sight of the robot to the eye contact point according to the set frequency and the time based on the movement pattern selected in the step of selecting the movement pattern To determine the robot control method.
前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御方法。 The robot control method according to any one of claims 13 to 16 ,
The robot is configured such that at least one of a neck, a torso, or an eye is movable,
A robot control method for determining one or more movements of the neck, the trunk, or the eyes of the robot so that the robot performs the line-of-sight movement in the step of determining the movement of the robot.
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、
として機能させ、
前記視聴者状況把握手段は、前記視聴者の数の変化を検出し、
前記動作パターン選択手段は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作決定手段は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することを特徴とするプログラム。 Computer to control the robot to explain
Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
To function as,
The viewer status grasping means detects a change in the number of viewers,
When the viewer status grasping unit detects a change in the number of viewers, the motion pattern selection unit selects the motion pattern corresponding to a new number,
The operation determining means determines an operation of the robot based on the operation pattern selected by the operation pattern selection unit .
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、 Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、 An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、 An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、 Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶手段、 A setting storage means for storing a setting as to whether or not a viewer who satisfies a predetermined condition is a special operation target;
として機能させ、Function as
前記動作パターン記憶手段は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、 The operation pattern storage means stores a special operation pattern for a viewer who satisfies the predetermined condition in association with the predetermined condition,
前記視聴者状況把握手段は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、 The viewer status grasping means detects a viewer that satisfies the predetermined condition from the viewers,
前記動作パターン選択手段は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、 The operation pattern selection means is a case where the viewer condition grasping unit detects a viewer who satisfies the predetermined condition, and the viewer who satisfies the predetermined condition is set as the special operation target in the setting storage unit. If it is set to do, select the special operation pattern corresponding to the predetermined condition,
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であることを特徴とするプログラム。 The predetermined condition is a case where a predetermined number or more of new viewers are recognized, or a case where a long-time viewer who is in the vicinity of the robot for a predetermined time or longer is recognized.
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、 Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、 An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、 An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、 Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
として機能させ、Function as
前記動作パターン記憶手段は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、 The motion pattern storage means includes a first motion pattern in which the robot targets each of the viewers and a group of the viewers less than the predetermined number when the viewers are larger than the predetermined number. Storing a second operation pattern for each divided group as an operation target;
前記動作パターン選択手段は、前記視聴者状況把握手段が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するプログラム。 The operation pattern selection unit selects the first operation pattern when the number of viewers grasped by the viewer state grasping unit is equal to or less than a predetermined number, and when the number is larger than the predetermined number, the first operation pattern is selected. A program for selecting two operation patterns.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005236325A JP4815940B2 (en) | 2005-08-17 | 2005-08-17 | Robot control system, robot apparatus, and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005236325A JP4815940B2 (en) | 2005-08-17 | 2005-08-17 | Robot control system, robot apparatus, and robot control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007050461A JP2007050461A (en) | 2007-03-01 |
JP4815940B2 true JP4815940B2 (en) | 2011-11-16 |
Family
ID=37915259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005236325A Expired - Fee Related JP4815940B2 (en) | 2005-08-17 | 2005-08-17 | Robot control system, robot apparatus, and robot control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4815940B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104889799A (en) * | 2014-03-07 | 2015-09-09 | 发那科株式会社 | Robot controller for controlling robot which supplies and discharges workpiece |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5157595B2 (en) * | 2008-04-01 | 2013-03-06 | トヨタ自動車株式会社 | Customer service system and customer service method |
FR2947923B1 (en) * | 2009-07-10 | 2016-02-05 | Aldebaran Robotics | SYSTEM AND METHOD FOR GENERATING CONTEXTUAL BEHAVIOR OF A MOBILE ROBOT |
TWI416289B (en) * | 2010-05-28 | 2013-11-21 | Compal Communications Inc | Automatic machine and method for controlling the same |
JP5929061B2 (en) | 2011-09-15 | 2016-06-01 | セイコーエプソン株式会社 | Robot controller, robot system, robot |
JP5910249B2 (en) * | 2012-03-30 | 2016-04-27 | 富士通株式会社 | Interaction device and interaction control program |
JP5975947B2 (en) * | 2013-07-08 | 2016-08-23 | ユニロボット株式会社 | Program for controlling robot and robot system |
JP6203696B2 (en) * | 2014-09-30 | 2017-09-27 | 富士ソフト株式会社 | robot |
JP6497185B2 (en) * | 2015-04-09 | 2019-04-10 | 本田技研工業株式会社 | Autonomous mobile device and control method of autonomous mobile device |
JP6729424B2 (en) * | 2017-01-30 | 2020-07-22 | 富士通株式会社 | Equipment, output device, output method, and output program |
JP6944817B2 (en) * | 2017-06-08 | 2021-10-06 | シャープ株式会社 | Robot control system |
US10970527B2 (en) * | 2017-09-01 | 2021-04-06 | Digital Dream Labs, Llc | Robot attention detection |
JP7000759B2 (en) * | 2017-09-14 | 2022-01-19 | 大日本印刷株式会社 | Guidance device, guidance system, guidance method and program |
DE102019108670B4 (en) * | 2019-04-03 | 2024-12-19 | Hochschule Offenburg | Method for controlling a device, in particular a hand prosthesis or a robot arm, and arrangement for carrying out the method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2993867B2 (en) * | 1995-05-24 | 1999-12-27 | 中小企業事業団 | Robot system that responds variously from audience information |
JP2004042151A (en) * | 2002-07-09 | 2004-02-12 | Advanced Telecommunication Research Institute International | Communication robot |
-
2005
- 2005-08-17 JP JP2005236325A patent/JP4815940B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104889799A (en) * | 2014-03-07 | 2015-09-09 | 发那科株式会社 | Robot controller for controlling robot which supplies and discharges workpiece |
US9778646B2 (en) | 2014-03-07 | 2017-10-03 | Fanuc Corporation | Robot controller for controlling robot which supplies and discharges workpiece |
Also Published As
Publication number | Publication date |
---|---|
JP2007050461A (en) | 2007-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102700934B1 (en) | Directing live entertainment using biometric sensor data for detection of neurological state | |
US10798509B1 (en) | Wearable electronic device displays a 3D zone from where binaural sound emanates | |
JP4815940B2 (en) | Robot control system, robot apparatus, and robot control method | |
EP3485346B1 (en) | Virtual, augmented, and mixed reality | |
JP5339900B2 (en) | Selective sound source listening by computer interactive processing | |
KR101576294B1 (en) | Apparatus and method to perform processing a sound in a virtual reality system | |
TWI280481B (en) | A device for dialog control and a method of communication between a user and an electric apparatus | |
EP3891521A1 (en) | Audio augmentation using environmental data | |
EP1878013A2 (en) | Microphone array based selective sound source listening and video game control | |
CN112313604B (en) | Decoding device, decoding method and program | |
US10820132B2 (en) | Voice providing device and voice providing method | |
JP2022518105A (en) | User group based on artificial reality | |
JP7053074B1 (en) | Appreciation system, appreciation device and program | |
US20200005545A1 (en) | Information processing apparatus, information processing method, and program | |
CN117222364A (en) | Method and apparatus for hearing training | |
WO2020066154A1 (en) | Information processing device, information processing method, computer program, and dialogue system | |
US20250008195A1 (en) | Information processing apparatus, information processing method, and program | |
JP2021170148A (en) | Information processing equipment, information processing metho, and recording media | |
US12160714B2 (en) | Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program | |
WO2024180668A1 (en) | Filter information determination device and method | |
JP7151707B2 (en) | Information processing device, information processing method, and program | |
WO2023281820A1 (en) | Information processing device, information processing method, and storage medium | |
JP2023132236A (en) | Information processing device, sound reproduction device, information processing system, information processing method, and virtual sound source generation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110815 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140909 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4815940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |