JP2007190641A - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP2007190641A JP2007190641A JP2006010626A JP2006010626A JP2007190641A JP 2007190641 A JP2007190641 A JP 2007190641A JP 2006010626 A JP2006010626 A JP 2006010626A JP 2006010626 A JP2006010626 A JP 2006010626A JP 2007190641 A JP2007190641 A JP 2007190641A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- robot
- call
- communication
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】効率良く、適切なサービスを提供することができるロボット制御システムを提供する。
【解決手段】コミュニケーションロボット10は、周囲や自身の状況を検出する様々なセンサを含み、センサの出力に基づいて、オペレータ呼出条件を満たすか否かを判断する。コミュニケーションロボット10は、通常、自律制御によって、人間との間でコミュニケーション行動を行うなどして、受付や道案内などのサービスを提供し、オペレータ呼出条件を満たすと判断したときに、ネットワーク202を介して、呼出要求をオペレータ端末204に送信する。これに応じて、オペレータは、オペレータ端末204を操作して、コミュニケーションロボット10に、制御コマンドを送信する。すると、コミュニケーションロボット10は、制御コマンドに従うコミュニケーション行動を実行する。
【選択図】図3A robot control system capable of providing an appropriate service efficiently is provided.
A communication robot includes various sensors for detecting surrounding and own conditions, and determines whether or not an operator calling condition is satisfied based on the output of the sensor. The communication robot 10 normally provides services such as reception and route guidance by performing communication behavior with humans through autonomous control, and when it is determined that the operator calling condition is satisfied, the communication robot 10 passes through the network 202. The call request is transmitted to the operator terminal 204. In response to this, the operator operates the operator terminal 204 to transmit a control command to the communication robot 10. Then, the communication robot 10 executes a communication action according to the control command.
[Selection] Figure 3
Description
この発明はコミュニケーションロボットに関し、特にたとえば、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。 The present invention relates to a communication robot, and more particularly to a communication robot that executes a communication action with a human using at least one of voice and body motion.
従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。特許文献1の遠隔操作システムによれば、ロボット装置は警備などに利用され、基本的には自律行動を行う。ただし、ロボット動作の修正が必要な場合には自律遠隔協調モードに移行して修正動作を行うことができる。このとき、協調割合が100%遠隔であれば、ロボット装置は完全遠隔動作を行う。 An example of a conventional communication robot of this type is disclosed in Patent Document 1. According to the remote control system of Patent Document 1, the robot device is used for security and basically performs autonomous behavior. However, when the robot operation needs to be corrected, the correction operation can be performed by shifting to the autonomous remote cooperation mode. At this time, if the cooperation ratio is 100% remote, the robot apparatus performs a complete remote operation.
また、この種のコミュニケーションロボットの他の一例が特許文献2に開示される。この特許文献2のメンテナンスロボットシステムでは、メンテナンスロボットは、無人環境や夜間に顧客の施設内で利用されているコンピュータ群を巡回点検し、異常を発見したとき、障害内容を情報管理システムへ報告し、情報管理システムから送られてきた作業手順に従い、該当コンピュータの保守作業を行う。ただし、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行い、3回以内に作業が完了した場合は、作業完了をコールセンタへ報告する。 Another example of this type of communication robot is disclosed in Patent Document 2. In the maintenance robot system of Patent Document 2, the maintenance robot patrols the computer group used in the customer's facility in the unattended environment or at night, and when an abnormality is found, reports the failure content to the information management system. Then, according to the work procedure sent from the information management system, the corresponding computer is maintained. However, if the maintenance robot is not completed even after repeating the maintenance work three times, it requests the call center to send maintenance personnel, and if the work is completed within three times, the maintenance robot reports the completion of the work to the call center.
さらに、特許文献3(特許文献4も同様。)には、音声と共に身体動作を伝送することで、遠隔地間の人間同士のコミュニケーションを促進する遠隔地間対話システムが開示されている。特許文献3に開示される意思伝達装置は、話し手又は聞き手として振る舞う共用ロボットと、話し手制御部、聞き手制御部および音声送受信部とから構成され、たとえば電話器に適用される。この意思伝達装置では、電話回線を通じて送受信される音声信号を時系列的な電気信号のON/OFFと捉え、この電気信号のON/OFFから頷き動作タイミングを判断し、ロボットの各部を動作させる。具体的には、話し手としてのロボットは、通話相手の音声信号に応じて、瞬きしたり、口を開閉したり、腕、腰などの身体部位を動かしたりする。一方、聞き手としてのロボットは、本人であるユーザの音声信号に応じて、頷き動作をする。
特許文献1の発明では、オペレータは、ロボット装置から送信される各種のセンサ情報をモニタリングして、ロボット装置の動作モードを設定するようにしてあるため、オペレータはロボット装置の状態を常に監視する必要があった。すなわち、非効率であった。 In the invention of Patent Document 1, since the operator monitors various sensor information transmitted from the robot apparatus and sets the operation mode of the robot apparatus, the operator needs to constantly monitor the state of the robot apparatus. was there. That is, it was inefficient.
また、特許文献2の発明では、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行うだけである。つまり、保守員を現場に呼び出すに過ぎず、オペレータによる遠隔操作によってコンピュータ群の異常を解決しようとするものではなかった。 Further, in the invention of Patent Document 2, if the maintenance robot is not completed even if the maintenance work is repeated three times, it merely requests the call center to dispatch maintenance personnel. In other words, it was merely a call for maintenance personnel to the site, and it was not intended to solve computer group abnormalities by remote operation by an operator.
また、特許文献3および特許文献4の発明は、遠隔地に存在する人間の声や動作に合わせてロボットの頷き動作などが制御(遠隔制御)されるだけであり、必要に応じてオペレータの指示に従ってロボットを遠隔制御するものではなかった。
The inventions of
それゆえに、この発明の主たる目的は、効率良くロボットを遠隔操作できる、コミュニケーションロボットを提供することである。 Therefore, a main object of the present invention is to provide a communication robot that can remotely control the robot efficiently.
請求項1の発明は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、少なくとも人間の声を含む周囲情報を検出する検出手段、オペレータ呼出条件を記憶する記憶手段、検出手段によって検出された周囲情報に基づいて記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、呼出判断手段によってオペレータ呼出条件を満たすことが判断されたとき、オペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、オペレータ端末からの遠隔操作情報を受信する受信手段、および受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボットである。 The invention according to claim 1 is a communication robot that performs communication behavior with a human using at least one of voice and body motion, and includes detecting means for detecting ambient information including at least a human voice, operator call conditions Storage means for storing, call determination means for determining whether or not an operator call condition stored in the storage means is satisfied based on ambient information detected by the detection means, and determination that the operator call condition is satisfied by the call determination means A transmitter for transmitting a call signal for calling the operator to the operator terminal, a receiver for receiving remote operation information from the operator terminal, and a communication action based on the remote operation information received by the receiver. Communication robot with execution means It is.
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する参照番号。以下同じ。)は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する。たとえば、コミュニケーションロボットは、或るイベント会場や会社の受付のような様々な場所や状況に配置され、通常は自律制御によって人間との会話などのコミュニケーション行動を実行し、受付や道案内などの役割を果たす(サービスを提供する)。検出手段(28,32,42,46,48,58,72,98,S23)は、少なくとも人間の声を含む周囲情報、すなわち自身の周囲および自身の状況に関する情報などを検出する。記憶手段(100)は、オペレータ呼出条件を記憶する。ここで、オペレータ呼出条件とは、オペレータを呼び出すか否かを判断するための条件をいう。具体的には、自律制御だけでは対応が困難な状況や事態になり、遠隔操作による対応が必要になったことを示す。呼出判断手段(72,S5,S25〜39)は、検出手段によって検出した周囲情報に基づいて、記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する。呼出判断手段によってオペレータ呼出条件を満たすと判断されたときには、送信手段(72,96,S7)は、オペレータを呼び出すための呼出信号を、たとえばネットワーク(202)を介してオペレータ端末(204)に送信する。オペレータ端末では、オペレータが遠隔操作情報(制御コマンド)を入力すると、コミュニケーションロボットに送信される。コミュニケーションロボットでは、受信手段(72,96,S11)が、オペレータによって入力された遠隔操作情報を受信する。実行手段(26,40,72,84〜92,S13)は、受信手段によって受信された遠隔操作情報に基づいて、音声および身体動作の少なくとも一方を含むコミュニケーション行動を実行する。 According to the first aspect of the present invention, the communication robot (10: reference number corresponding to the embodiment; the same applies hereinafter) executes communication behavior with a human by using at least one of voice and body movement. For example, communication robots are placed in various places and situations such as certain event venues and company receptions, and usually perform communication behaviors such as conversations with human beings by autonomous control. Fulfill (provide service). The detection means (28, 32, 42, 46, 48, 58, 72, 98, S23) detects ambient information including at least a human voice, that is, information about the surroundings of the person and his / her situation. The storage means (100) stores the operator call condition. Here, the operator calling condition is a condition for determining whether or not to call an operator. Specifically, this indicates that the situation or situation is difficult to handle by autonomous control alone, and that it is necessary to respond by remote control. The call determination means (72, S5, S25 to 39) determines whether or not the operator call condition stored in the storage means is satisfied based on the surrounding information detected by the detection means. When the call determination means determines that the operator call condition is satisfied, the transmission means (72, 96, S7) transmits a call signal for calling the operator to the operator terminal (204) via the network (202), for example. To do. In the operator terminal, when the operator inputs remote operation information (control command), it is transmitted to the communication robot. In the communication robot, the receiving means (72, 96, S11) receives the remote operation information input by the operator. The executing means (26, 40, 72, 84 to 92, S13) executes a communication action including at least one of voice and physical action based on the remote operation information received by the receiving means.
請求項1の発明によれば、必要に応じてオペレータによる遠隔操作を行えばよいので、効率良くロボットを遠隔操作することができる。 According to the first aspect of the present invention, the robot can be remotely operated efficiently because the operator can perform the remote operation as necessary.
請求項2の発明は、請求項1に従属し、検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、呼出判断手段は、キーワード判断手段によってキーワードが含まれることが判断されたとき、オペレータ呼出条件を満たすと判断する。 The invention of claim 2 is dependent on claim 1, and further comprises keyword determination means for recognizing a human voice detected by the detection means to determine whether or not a keyword is included, and the call determination means includes the keyword When it is determined by the determining means that the keyword is included, it is determined that the operator calling condition is satisfied.
請求項2の発明では、キーワード判断手段(72,S25)は、検出手段によって検出された人間の声を認識(音声認識)し、音声認識した人間の声にキーワードが含まれるか否かを判断する。たとえば、キーワードには、人間がコミュニケーションロボットと会話しているときに、困っていることを表現する場合に使用する言葉(単語,語句)が設定される。具体的には、「責任者を呼んで」や「わからない」などの言葉(単語,語句)が含まれてよい。キーワード判断手段によってキーワードが含まれると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。 In the invention of claim 2, the keyword judging means (72, S25) recognizes (voice recognition) the human voice detected by the detecting means, and judges whether or not the keyword is included in the voice-recognized human voice. To do. For example, a keyword (word, phrase) used to express a problem when a human is talking to a communication robot is set as the keyword. Specifically, words (words, phrases) such as “call the responsible person” and “don't know” may be included. When the keyword determining means determines that the keyword is included, the call determining means determines that the operator calling condition is satisfied.
請求項2の発明によれば、人間が困っている状況などを音声によって認識するので、当該人間の手を煩わすことがなく、適切にオペレータを呼び出すことができる。すなわち、より効率良く遠隔制御することができる。 According to the second aspect of the present invention, since a situation in which a person is in trouble is recognized by voice, the operator can be appropriately called without bothering the person's hand. That is, remote control can be performed more efficiently.
請求項3の発明は、請求項1または2に従属し、検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、呼出判断手段は、顔表情判断手段によって特定の表情であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of
請求項3の発明では、顔表情取得手段(42,48,72,S23)は、人間の顔の表情を取得する。顔表情判断手段(72,S27)は、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する。特定の表情には、たとえば、コミュニケーションロボットとのコミュニケーション行動がうまくいっていないときに見せる人間の顔の表情を設定することができる。具体的には、怒っている表情や困っている表情などが設定される。顔表情判断手段によって特定の表情であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。
In the invention of
請求項3の発明によれば、人間とのコミュニケーションが適切に行われていないことを人間の顔の表情によって判断するので、請求項2の発明と同様に、当該人間の手を煩わすことなく、適切にオペレータを呼び出すことができる。
According to the invention of
請求項4の発明は、請求項1ないし3のいずれかに従属し、検出手段は、人間を個々に識別する個人識別手段を含み、個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、呼出判断手段は、人間判断手段によって特定の人間であることが判断されたとき、オペレータ呼出条件を満たすと判断する。 The invention of claim 4 is dependent on any one of claims 1 to 3, wherein the detection means includes personal identification means for individually identifying a person, and whether the person identified by the personal identification means is a specific person. It further comprises human judgment means for judging whether or not, and the call judgment means judges that the operator call condition is satisfied when the human judgment means determines that the person is a specific person.
請求項4の発明では、個人識別手段(42,48,72,98,S23)は、人間を個々に識別する。人間判断手段(72,S29)は、個人識別手段によって識別された人間が特定の人間であるか否かを判断する。ここで、特定の人間とは、オペレータによる遠隔操作で適切に対応することが望ましい人間を意味する。特定の人間には、たとえば、いわゆるVIP(重要な顧客)や自律制御だけでは対応することが難しい人間(たとえば、幼児)が設定される。人間判断手段によって特定の人間であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。 In the invention of claim 4, the personal identification means (42, 48, 72, 98, S23) identifies a person individually. The human judgment means (72, S29) judges whether or not the person identified by the personal identification means is a specific person. Here, the specific person means a person who is desired to respond appropriately by remote operation by an operator. As the specific person, for example, a so-called VIP (important customer) or a person (for example, an infant) who is difficult to deal with only by autonomous control is set. When it is determined by the human determination means that the person is a specific person, the call determination means determines that the operator call condition is satisfied.
請求項4の発明によれば、特定の人間を認識した場合には、速やかにオペレータを呼び出すので、より適切に対応することができるとともに、未然にトラブルを防止することもできる。すなわち、状況に応じた適切なサービスを提供することができる。 According to the invention of claim 4, when a specific person is recognized, the operator is quickly called, so that it is possible to cope more appropriately and to prevent troubles in advance. That is, it is possible to provide an appropriate service according to the situation.
請求項5の発明は、請求項1ないし4のいずれかに従属し、検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、呼出判断手段は、距離判断手段によって所定距離以内であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of
請求項5の発明では、検出手段は、距離検出手段(32,72,S23)を含み、距離検出手段は、少なくとも人間を含む対象物との距離を検出する。距離判断手段(72,S31,S33)は、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する。距離判断手段によって所定距離以内であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。つまり、距離検出手段によって検出される距離に基づいて、オペレータによる対応が必要であるような特定の状況を推測するのである。たとえば、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とコミュニケーションロボットとが長い間会話しており、コミュニケーションロボットによる受付や道案内がうまくできていないことが推測される。また、たとえば、コミュニケーションロボットの移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続している場合には、当該人間に行く手を塞がれていると推測される。
In the invention of
請求項5の発明によれば、人間との会話がうまくいっていない状況や人間にいたずらされている状況などを推測して、オペレータを呼び出すので、トラブルに対して適切に対応することができる。
According to the invention of
この発明によれば、オペレータによる遠隔操作が必要な状況を適切に判断してオペレータを呼び出すので、オペレータは必要に応じて遠隔操作を行えばよい。つまり、効率良くロボットを遠隔操作でき、状況に応じた適切なサービスを提供することができる。 According to the present invention, the operator is appropriately determined when a situation requiring remote operation by the operator is called, and the operator may perform remote operation as necessary. That is, the robot can be remotely operated efficiently, and an appropriate service according to the situation can be provided.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のコミュニケーションロボット10(以下、単に「ロボット」ということがある。)は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、音声によって人間と対話することが可能である。また、音声に代えて、或いは音声とともに、身振り手振りのような身体動作を用いてコミュニケーションすることもできる。以下、この明細書において、音声および身体動作の少なくとも一方を用いたコミュニケーションの行動ないし動作をコミュニケーション行動という。 Referring to FIG. 1, a communication robot 10 (hereinafter, simply referred to as a “robot”) of this embodiment is an interaction-oriented one mainly intended to communicate with a communication target such as a human. It is possible to interact with humans by voice. Moreover, it can also communicate using body movements, such as gesture gesture instead of a voice | voice or with a voice | voice. Hereinafter, in this specification, a communication action or action using at least one of voice and body movement is referred to as communication action.
このロボット10は、一例として、受付ロボットや道案内ロボットであり、或るイベント会場や会社の受付などの様々な場所や状況に配置され、通常は自律制御によって、受付や道案内などの役割を果たす(サービスを提供する)。しかし、ロボット10は、自律制御だけでは対応することが困難な事態になった場合、たとえば人間との会話がうまくいっていない状況になったり、より細やかな対応が求められる場面になったりした場合などには、オペレータを呼び出す。そして、ロボット10は、呼び出したオペレータによって入力された制御コマンド(遠隔操作情報)を受信し、当該制御コマンドに従うコミュニケーション行動(動作や発話)を実行する。つまり、ロボット10は、オペレータによって必要に応じて遠隔操作される。
The
図1は、ロボット10の外観を示す正面図である。この図1に示すように、ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図2参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は配置された環境内を移動可能なものであるが、場合によっては環境内の所定位置に固定的に設けられてもよい。
FIG. 1 is a front view showing the appearance of the
なお、図1においては省略するが、台車22の前面には、衝突センサ28(図2参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。
Although not shown in FIG. 1, a collision sensor 28 (see FIG. 2) is attached to the front surface of the carriage 22, and the
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
In this embodiment, the height of the
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。
A polygonal column
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図2参照)によって駆動される。
Moreover, the lower part of the robot 22 is surrounded by the
なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
The height of the
上部胴体36には、1つの全方位カメラ42が設けられる。全方位カメラ42は、たとえば背面側上端部のほぼ中央からのびる支柱44上に設置される。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体36の正面側のほぼ中央には、1つのマイク46が設けられる。マイク46は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
The
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
Further, forearms 56R and 56L are provided at the respective distal ends of the
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図2で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。
Although not shown in the drawings, touch sensors (shown comprehensively in FIG. 2) are respectively provided on the shoulder portion of the
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーション行動を実行するために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
A
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
The
眼カメラ48は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
The
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
FIG. 2 is a block diagram showing an electrical configuration of the
メモリ76は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の動作を制御する制御プログラムなどのプログラムが予め記憶される。他のプログラムとしては、各センサ28,32,42,46,48,58の出力を検出する検出プログラム、オペレータを呼び出すための呼出プログラムおよび外部コンピュータすなわちオペレータ端末204(図3参照)との間で必要なデータないしコマンドを送受信するための通信プログラムなどが該当する。また、メモリ76には、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、RAMは、ワークメモリやバッファメモリとして用いられる。
Although not shown, the
制御プログラムとしては、ロボット10の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)の各々がコマンド名(制御コマンド)に対応して記憶される。たとえば、行動モジュールが示す身体動作としては、「なーに」、「わーい」、「待機」…などがある。
As the control program, each of a plurality of programs (referred to as action modules) for controlling the body motion of the
行動モジュールが示す身体動作が「なーに」である場合には、「なーに」と発話して首を傾げる。具体的には、CPU72は、メモリ76から「なーに」に対応する音声データ(音声合成データ)を読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を傾げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、首を傾げるように、頭部モータ92が回転される。
When the body motion indicated by the behavior module is “what”, say “what” and tilt the head. Specifically, the
また、行動モジュールが示す身体動作が「わーい」である場合には、「わーい」と発話して両手を挙げる。具体的には、CPU72は、メモリ76から「わーい」に対応する音声合成データを読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から両手を挙げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、両手を挙げるように、右腕モータ88および左腕モータ90が所定角度だけ回転される。
Also, if the body motion indicated by the behavior module is “Wai”, utter “Wai” and raise both hands. Specifically, the
さらに、行動モジュールが示す身体動作が「待機」である場合には、「暇だな」と発話したり、「あそぼ」と発話したり、辺りを見渡すように動作したりする。具体的には、CPU72は、メモリ76から一定時間毎に、「暇だな」或いは「あそぼ」に対応する音声合成データを読みだし、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を左右に振る場合の角度データを読み出し、モータ制御ボード78に与える。すると、首62を左右に振るように、頭部モータ92が回転される。
Further, when the physical motion indicated by the behavior module is “standby”, the user speaks “I am free”, speaks “Play”, or operates to look around. Specifically, the
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
The
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
The
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
In this embodiment, a motor other than the
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図2では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。
Similarly, the sensor input /
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
Similarly, the voice input /
また、CPU72は、バス74を介して通信LANボード94および無線通信装置96に接続される。また、通信LANボード94および無線通信装置96は、図示は省略するが、たとえば、無線LANアクセスポイントを介してLANやインターネットのようなネットワーク202(図3参照)に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、ネットワーク202を介してオペレータ端末204に送信する。また、通信LANボード94は、無線通信装置96を介してオペレータ端末204からの遠隔操作情報(制御コマンド)を受信し、受信した遠隔操作情報をCPU72に与える。なお、ロボット10が移動不可能に設置されている場合には、ネットワーク202へは有線で接続されてもよい。また、ロボット10とオペレータ端末204とが無線もしくは有線により直接通信するように構成してもよい。
The
また、CPU72には無線タグ読取装置98が接続される。無線タグ読取装置98は、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該識別情報を復調(デコード)してCPU72に与える。無線タグはイベント会場や会社などにいる人間に装着されており、無線タグ読取装置98は通信可能範囲内の無線タグを検出する。なお、無線タグはアクティブ型であってもよいし、無線タグ読取装置98から発信される電波に応じて駆動されるパッシブ型であってもよい。
Further, a
さらに、CPU72は、バス74を介して呼出条件データベース(呼出条件DB)100に接続される。呼出条件DB100は、オペレータを呼び出すか否かを判断するための条件(オペレータ呼出条件)を記憶したデータベースである。ここで、オペレータ呼出条件は、上述したように、トラブル(音声認識が不能など)が生じたり、より細やかな対応(コミュニケーションなど)が求められる場面になったりしたことを判断するための条件である。
Further, the
たとえば、オペレータ呼出条件は、(1)或るキーワードを検出したり、(2)人間の怒っている表情や困っている表情のような特定の表情を取得したり、(3)特定の人間を検出したり、(4)人間と長時間会話したり、(5)行く手を塞がれたり、(6)周囲にたくさんの人間が居たり、(7)オペレータ呼出ボタンが操作されたりすると、満たすと判断される。 For example, the operator calling condition may be (1) detecting a certain keyword, (2) obtaining a specific facial expression such as an angry facial expression or a troubled facial expression, or (3) To detect, (4) talk with a person for a long time, (5) block the way to go, (6) have many people around, (7) operate the operator call button, and so on It is judged.
(1)具体的には、ロボット10は、マイク46を通して入力される人間の声(音声)を検出し、これを認識する。図示は省略するが、メモリ76には、音声認識用の辞書データが記憶されており、この辞書データを参照して、DPマッチング或いはHMM(隠れマルコフモデル)の方法により、入力された音声を認識する。ここで、たとえば、「責任者を呼んで」、「違う」、「そうじゃない」、「わからない」などの特定のキーワードを検出すると、オペレータ呼出条件を満たすと判断する。ただし、特定のキーワードは、メモリ76に予め登録される。また、特定のキーワードは単なる例示であり、限定されるべきではなく、ロボット10の適応環境などによって適宜変更(決定)される。さらに、特定のキーワードは、1つでもよく、複数であってもよい。さらに、キーワード毎に回数を設定しておき、キーワードを検出した回数が設定した回数(設定回数)になったときに、オペレータの呼出条件を満たすと判断するようにしてもよい。たとえば、「責任者を呼んで」のように、直接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「1」に設定される。また、「違う」、「そうじゃない」、「わからない」などのように、間接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「3」に設定される。
(1) Specifically, the
(2)また、ロボット10は、全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて顔の表情を取得し、特定の表情であるか否かを判断することができる。上述したように、特定の顔の表情は、人間が怒っている顔の表情や困っている顔の表情などであり、このような特定の表情を取得すると、オペレータ呼出条件を満たすと判断する。顔の表情を認識する手法は、たとえば、“電子情報通信学会論文誌D-II,Vol.J80-D-II,No.6,pp.1547-1554(1997年6月)”に発表されている。簡単に説明すると、2次元離散コサイン変換によって画像を空間周波数領域に変換し、顔部位の変化に対応する各周波数帯域での電力変化を捉えることによって、顔の表情を認識するものである。つまり、目および口の形状変化を検出することで、顔の表情の認識を行う。
(2) Further, the
ただし、人間が怒っていることは、顔の表情を取得することに変えて、マイク46で検出される音声に基づいて判断することもできる。たとえば、一定値以上の音量の音声が一定時間(たとえば、5秒)以上継続して入力される場合には、人間が怒鳴っていると推測して、人間が怒っていると判断することができる。
However, it can be determined that the person is angry based on the sound detected by the
(3)さらに、ロボット10は、無線タグ読取装置98を用いて、各人間が装着ないし所持している無線タグの識別情報(たとえば、RFID)を検出する。図示は省略するが、ロボット10は、メモリ76に識別情報に対応する人間の名称やその属性(性別、年齢、重要度など)を記憶しており、検出した識別情報に基づいて、人間の名称およびその属性の少なくとも一方を知ることができる。ここで、たとえば、いわゆるVIP(重要な顧客)や対応が困難な人間(幼児など)のような特定の人間を検出すると、オペレータ呼出条件を満たすと判断する。
(3) Further, the
この実施例では、無線タグを用いて人間を個別に識別するようにしてあるが、映像に基づいて特定の人間か否かを判断するようにしてもよい。かかる場合には、特定の人間についての顔画像を予めメモリ76に登録(記憶)しておき、全方位カメラ42ないし眼カメラ48で撮影された顔画像と比較(同定)することにより、特定の人間か否かを判断することもできる。ただし、映像処理(画像処理)により人間の顔を識別する場合には処理が膨大になるため、たとえば、各人間の衣服に異なる特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて特定の人間か否かを判断するようにしてもよい。
In this embodiment, a person is individually identified using a wireless tag, but it may be determined whether the person is a specific person based on the video. In such a case, a face image of a specific person is registered (stored) in the
(4)さらにまた、ロボット10は、無線タグ検出装置98で検出したRFIDまたは全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて人間を特定するとともに、超音波センサ32の出力に基づいて当該人間との距離を検出することができる。したがって、たとえば、人間と長時間会話しているか否かを判断することができる。この実施例では、ロボット10は、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とロボット10とが長い間会話していると推測して、オペレータ呼出条件を満たすと判断する。長時間の会話には、人間とのコミュニケーションがうまくいっていない可能性や1人の人間によってロボット10が独占されている可能性があるため、オペレータの指示による適切な行動が実行されるべきであるからである。ただし、距離や時間は一例であり、これに限定される必要はない。なお、図2では省略したが、時間は内部タイマでカウントされる。
(4) Furthermore, the
(5)また、ロボット10は、移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続した場合には、当該人間に行く手を塞がれていると推測して、オペレータ呼出条件を満たすと判断する。かかる場合にも、人間がロボット10に接近し過ぎるのを回避したり、人間によってロボット10の行く手を塞がれた状態から脱出したりするために、オペレータの指示による適切な行動が実行されるべきだからである。
(5) Also, when the
(6)さらに、ロボット10は、無線タグ読出装置98で検出されるRFIDの数が所定値(たとえば、5)以上であれば、周囲に人間が多数存在すると判断し、オペレータ呼出条件を満たすと判断する。これは、人間が多数存在する場合には、音声認識が困難であり、各人間に対して適切に対応することができないからである。ただし、人間が多数存在するか否かは、全方位カメラ42や眼カメラ48で撮影された映像に基づいて判断するようにしてもよい。
(6) Furthermore, if the number of RFIDs detected by the wireless
(7)さらにまた、図1および図2では省略したが、ロボット10に設けられたオペレータ呼出ボタンが操作された(押された)場合にもオペレータ呼出条件を満たすと判断する。ただし、オペレータ呼出ボタンはロボット10に設ける必要はなく、その周囲(環境)に設けるようにしてもよい。
(7) Furthermore, although omitted in FIGS. 1 and 2, it is determined that the operator call condition is satisfied even when an operator call button provided on the
なお、これらは単なる例示であり、オペレータ呼出条件としては、上述のいずれか1つ以上が採用されればよく、また、他の条件を設定することも可能である。たとえば、ロボット10は、上述の(4)の場合において、人間との距離が10cm以内であり、この状態が10秒以上継続した場合には、当該人間と接近し過ぎているため、オペレータ呼出条件を満たすと判断する。これは、たとえば、人間の衣服がロボット10の手などに引っかかってしまうなどの危険な状態になってしまう恐れがあり、かかる場合には、オペレータの指示に従って適切な行動が実行されるべきであるからである。
Note that these are merely examples, and any one or more of the above-mentioned conditions may be adopted as the operator calling condition, and other conditions may be set. For example, in the case of the above (4), the
また、図示は省略するが、ロボット10に、タッチセンサ58に代えてピエゾ素子を用いたシート状の圧力センサを設ければ、その出力(圧力)に基づいて、叩かれたり殴られたりするような状況を判断することができる。このような状況についてもオペレータ呼出条件を満たすと判断する。かかる場合には、ロット10の損壊を防止すべく、オペレータが対処すべきだからである。
Although not shown, if the
さらに、図示は省略するが、ロボット10に振動センサを設ければ、ロボット10が揺さぶられている状況を判断し、上述の場合と同様に、ロボット10の損壊を防止すべく、オペレータ呼出条件を満たすと判断することができる。
Furthermore, although illustration is omitted, if a vibration sensor is provided in the
このような構成のロボット10は、たとえば、上述したように、受付ロボット或いは道案内ロボットとして機能し、図3に示すようなシステム200に適用される。このシステム200はロボット10を含み、ロボット10はインターネットやLANのようなネットワーク202を介してオペレータ端末204に接続される。
For example, as described above, the
なお、オペレータ端末204は、汎用のパーソナルコンピュータ或いはワークステーションまたはPDAのようなコンピュータであり、図示は省略するが、オペレータ端末204には、CRTやLCDのような表示装置、キーボードやコンピュータマウスなどの入力装置、スピーカおよび通信装置などが接続される。オペレータ端末204は、通信装置を介してネットワーク202に有線または無線で接続されている。また、オペレータ端末204に内蔵されるHDDないしROMのようなメモリには、ロボット10を遠隔制御するための制御プログラムおよび必要なデータが記憶される。
The
また、この実施例では、ロボット10とオペレータ端末204とはネットワーク202を介して接続されるようにしてあるが、直接的に接続するようにしてもよい。かかる場合には、Bluetooth(登録商標)のような近距離無線を利用することができる。
In this embodiment, the
上述したように、ロボット10は、通常は自律制御によって、人間との間で対話などのコミュニケーション行動を行い、受付や道案内などを行う。たとえば、ロボット10は、自律制御を行っている場合には、ランダムに選択された制御コマンドに従うコミュニケーション行動を実行したり、人間とのインタラクションに応じて選択された制御コマンドに従うコミュニケーション行動を実行したりする。後者の具体例としては、ロボット10は、人間に肩を触れられると、「なーに」と発話して首を傾げる。つまり、CPU72は、タッチセンサ58の出力に基づいて肩を触られていることを検出すると、「なーに」に対応する制御コマンドを選択し、これに従うコミュニケーション行動を実行する。ただし、これは単なる一例であり、限定されるべきでなく、ロボット10は様々な自律行動が可能である。
As described above, the
しかし、上述したようなオペレータ呼出条件を満たす場合には、人間(ユーザ)とのコミュニケーション行動が円滑に行われていなかったり、自律制御だけでは解決することが難しい問題が生じていたりすると考えられるため、ロボット10が自律制御を行うことは妥当ではないと言える。
However, when the operator calling conditions as described above are satisfied, it is considered that communication behavior with a human (user) is not performed smoothly, or that it is difficult to solve by autonomous control alone. It can be said that it is not appropriate for the
これを回避するため、この実施例では、ロボット10は、オペレータ呼出条件を満たすと判断した場合には、オペレータ端末204に呼出要求を送信するようにしてある。簡単に説明すると、CPU72が、オペレータの呼出要求を、通信LANボード94および無線通信装置96を介して出力する。すると、ネットワーク202を経由して、オペレ−タ端末204に送信される。
In order to avoid this, in this embodiment, the
オペレータ端末204では、ロボット10からの呼出要求を受信すると、上述した制御プログラムが起動され、表示装置(図示せず)に、図4に示すような遠隔操作画面210が表示される。これによって、オペレータ端末204のオペレータは呼出要求が有る旨を知ることができる。ただし、オペレータ端末204に設けられた(接続された)スピーカから警告音を出力するようにして、オペレータに対して遠隔操作の必要性を通知することもできる。かかる場合には、制御プログラムは、オペレータが入力装置を用いて起動するようにしてもよい。そして、オペレータはロボット10の遠隔操作を開始する。
When the
ここで、図4に示すように、遠隔操作画面210は、表示領域212、214および216を含む。表示領域212は、たとえばロボット10の眼カメラ48で撮影した画像(ロボットカメラ画像)を表示する。表示領域214は、ロボット情報を表示する。たとえば、ロボット情報は、ロボット10の配置された場所(施設、会場、会社など)の名称(ここでは、受付や玄関)、当該ロボット10の名前(もしくは識別情報)、当該ロボット10の配置された場所の地図および当該ロボット10が対話している人間の情報(名前、年齢および重要度など)などである。また、ロボット10と人間とが会話している場合には、ロボット10はそのマイク46から入力される音声を検出して、その音声信号をオペレータ端末204に送信するようにしてもよい。このようにすれば、オペレータ端末204では、ロボット10と会話している人間の音声を再生することができ、オペレータはその内容を把握して、適切な対応をすることができるからである。なお、これらオペレータに提示される情報は一例であり、遠隔操作画面210には適宜適切な情報が表示される。
Here, as shown in FIG. 4, the remote operation screen 210 includes
したがって、オペレータは、表示領域212および214を見ながら、ロボット10の遠隔操作を行うことができる。表示領域216は、ロボット10を遠隔操作する場合に、当該ロボット10に送信する制御コマンドを入力するための操作パネルを表示する。操作パネルには、制御コマンドが記載された複数のアイコンないしボタン(GUI)が表示される。たとえば、移動を指示するためのボタン(前進、後退など)、コミュニケーション行動を指示するためのボタン(お辞儀、右指差しなど)および遠隔操作の終了を指示するためのボタンなどが設けられる。オペレータが、入力装置を用いて、いずれかのボタンを指示することにより、指示されたボタンに対応する所望の制御コマンドを入力することができる。そして、入力された制御コマンドが、ネットワーク202を介してロボット10に送信される。ロボット10は、オペレータ端末204から送信された制御コマンドを受信すると、当該制御コマンドに従うコミュニケーション行動を実行する。
Therefore, the operator can remotely operate the
なお、図示は省略するが、ロボットカメラ画像やロボット情報に含まれる映像(画像)は、ロボット10や環境カメラからネットワーク202を介してオペレータ端末204に送信される。
具体的には、図2に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は、全体処理を開始すると、ステップS1で、停止命令が有るかどうかを判断する。たとえば、停止命令は、オペレータの操作に従ってオペレータ端末204からネットワーク202を介してロボット10に送信される。ただし、ロボット10に停止ボタンを設けておき、当該ボタンを操作するようにしてもよい。ステップS1で“YES”であれば、つまり、停止命令が有れば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまり、停止命令が無ければ、ステップS3に進む。
Although illustration is omitted, an image (image) included in the robot camera image and the robot information is transmitted from the
Specifically, the
次のステップS3では、後述する、オペレータ呼出条件判定処理(図6参照)を実行し、ステップS5では、オペレータの呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ76(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。 In the next step S3, an operator call condition determination process (see FIG. 6), which will be described later, is executed. In step S5, it is determined whether or not the operator's call flag is on. Although not shown in the figure, the operator call flag is composed of a 1-bit register and is provided in the memory 76 (RAM). This call flag is turned on / off by executing an operator call condition determination process. Specifically, if the operator call condition is satisfied, the call flag is turned on. Conversely, if the operator call condition is not satisfied, the call flag is turned off. When the call flag is turned on, the data value “1” is set in the register. Conversely, when the call flag is turned off, the data value “0” is set in the register.
ステップS5で“NO”であれば、つまり呼出フラグがオフであれば、ステップS9で、自律行動処理を実行し、ステップS1に戻る。なお、上述したように、ステップS9では、CPU72は、自律制御によって、必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間に道案内を求められた場合は、道案内を行う。一方、ステップS5で“YES”であれば、つまり呼出フラグがオンであれば、ステップS7で、オペレータを呼び出す。つまり、CPU72は、オペレータ端末204に対して呼出要求を送信する。
If “NO” in the step S5, that is, if the calling flag is turned off, an autonomous action process is executed in a step S9, and the process returns to the step S1. Note that, as described above, in step S9, the
続くステップS11では、オペレータ端末204から制御コマンドが有るか否かを判断する。ステップS11で“NO”であれば、つまり制御コマンドが無ければ、そのままステップS15に進む。一方、ステップS11で“YES”であれば、つまり制御コマンドが有れば、ステップS13で制御コマンドに従うコミュニケーション行動を実行して、ステップS15に進む。
In a succeeding step S11, it is determined whether or not there is a control command from the
ステップS15では、オペレータ端末204からの遠隔操作の終了要求(終了コマンド)が有るかどうかを判断する。ステップS15で“NO”であれば、つまり終了コマンドが無ければ、遠隔操作を継続すると判断して、ステップS11に戻る。一方、ステップS15で“YES”であれば、つまり終了コマンドが有れば、遠隔操作を終了すると判断して、ステップS1に戻る。
In step S15, it is determined whether there is a remote operation end request (end command) from the
なお、この実施例では、オペレータ端末204からの制御コマンドが有ると、直に当該制御コマンドに従うコミュニケーション行動を実行するようにしてある。ただし、オペレータ端末204からの制御コマンドを受信したときに、コミュニケーション行動を実行中である場合には、当該コミュニケーション行動の実行を終了してから、制御コマンドに従うコミュニケーション行動を実行するようにしてもよい。
In this embodiment, when there is a control command from the
図6は、図5に示したステップS3のオペレータ呼出条件判定処理のフロー図である。図6に示すように、CPU72は、オペレータ呼出条件判定処理を開始すると、ステップS21で、呼出条件フラグをオフし、ステップS23で、周囲情報を検出する。このステップS23では、CPU72は、オペレータ呼出条件の判定に必要なセンサ(超音波距離センサ32、全方位カメラ42、マイク46、眼カメラ48、タッチセンサ58、無線タグ読取装置98)の出力を検出し、周囲および自身の状況(状態)を認識する。
FIG. 6 is a flowchart of the operator call condition determination process in step S3 shown in FIG. As shown in FIG. 6, when starting the operator calling condition determination process, the
続くステップS25では、特定のキーワードを検出したか否かを判断する。ステップS25で“YES”であれば、つまり、特定のキーワードを検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39で、呼出条件フラグをオンして、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。一方、ステップS25で“NO”であれば、つまり特定のキーワードを検出していなければ、ステップS27で、特定の顔の表情を取得したか否かを判断する。ステップS27で“YES”であれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。 In a succeeding step S25, it is determined whether or not a specific keyword is detected. If “YES” in the step S25, that is, if a specific keyword is detected, it is determined that the operator calling condition is satisfied. In a step S39, the calling condition flag is turned on, and the operator calling condition determining process is entirely processed. Return to the program. On the other hand, if “NO” in the step S25, that is, if a specific keyword is not detected, it is determined whether or not a specific facial expression is acquired in a step S27. If “YES” in the step S27, that is, if a specific facial expression is acquired, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39.
しかし、ステップS27で“NO”であれば、つまり、特定の顔の表情を取得していなければ、ステップS29で、特定の人間を検出したか否かを判断する。ステップS29で“YES”であれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS29で“NO”であれば、つまり特定の人間を検出していなければ、ステップS31で、人間と長時間会話している状況であるか否かを判断する。 However, if “NO” in the step S27, that is, if a specific facial expression is not acquired, it is determined whether or not a specific human is detected in a step S29. If “YES” in the step S29, that is, if a specific person is detected, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S29, that is, if a specific human being is not detected, it is determined whether or not it is a situation in which the user has a long conversation with the human in a step S31.
ステップS31で“YES”であれば、つまり人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS31で“NO”であれば、つまり人間と長時間会話している状況でなければ、ステップS33で、行く手を塞がれた状況であるか否かを判断する。ステップS33で“YES”であれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS33で“NO”であれば、つまり行く手を塞がれていない状況であれば、ステップS35で、周囲に人が多く存在する状況であるか否かを判断する。 If “YES” in the step S31, that is, if it is a situation in which a conversation with a human is performed for a long time, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S39. On the other hand, if “NO” in the step S31, that is, if it is not a situation where the user is talking for a long time, it is determined whether or not the going hand is blocked in a step S33. If “YES” in the step S33, that is, if the going hand is blocked, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S33, that is, if the hand is not blocked, it is determined in a step S35 whether or not there are many people around.
ステップS35で“YES”であれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS35で“NO”であれば、つまり周囲に人が多く存在していない状況であれば、ステップS37で、オペレータ呼出ボタンが押されたかどうかを判断する。ステップS37で“YES”であれば、つまりオペレータ呼出ボタンが押されていれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS37で“NO”であれば、つまりオペレータ呼出ボタンが押されていなければ、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。 If “YES” in the step S35, that is, if there are many people around, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S35, that is, if there are not many people around, it is determined whether or not the operator call button has been pressed in a step S37. If “YES” in the step S37, that is, if the operator call button is pressed, it is determined that the operator call condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S37, that is, if the operator call button is not pressed, the operator call condition determination process is returned to the overall process program.
この実施例によれば、必要に応じてオペレータ呼び出し、オペレータからの指示に従ってコミュニケーション行動(動作や発話)を実行するので、適切なサービスを提供することができる。また、常にオペレータが操作する必要はないため、効率良く遠隔操作することができる。さらには、1人のオペレータが複数のロボットを担当するような効率化を図ることもできる。 According to this embodiment, since an operator call is performed as necessary and a communication action (operation or speech) is executed in accordance with an instruction from the operator, an appropriate service can be provided. Further, since it is not always necessary for the operator to operate, it can be remotely operated efficiently. Furthermore, the efficiency can be improved so that one operator is in charge of a plurality of robots.
なお、この実施例では、オペレータ呼出条件は、予め設定してデータベースに記憶するようにしておいたが、ロボットと人間とのインタラクションに基づいて、ロボット自身がオペレータ呼出条件を登録(追加)するようにしてもよい。たとえば、「オペレータ呼出ボタン」が押される前に頻繁に行われる動作(人間の動作)を記憶しておけば、当該動作を検出したときに、オペレータ呼出条件を満たすと判断することができる。 In this embodiment, the operator call conditions are set in advance and stored in the database. However, the robot itself registers (adds) the operator call conditions based on the interaction between the robot and the human. It may be. For example, if an action (human action) frequently performed before the “operator call button” is pressed is stored, it can be determined that the operator call condition is satisfied when the action is detected.
また、この実施例では、1台のロボットの遠隔操作を1台のオペレータ端末(1人のオペレータ)が担当するようにした。ただし、ロボットからの呼び出しが有った場合にのみ、オペレータは当該ロボットを遠隔操作すれば足りるため、1台のオペレータ端末に対してロボットを複数台設けるようにしてもよい。 In this embodiment, one operator terminal (one operator) is in charge of remote control of one robot. However, since it is sufficient for the operator to remotely control the robot only when there is a call from the robot, a plurality of robots may be provided for one operator terminal.
さらに、この実施例では、ロボットが発話する際には、予めメモリに記憶した音声合成データを読み出して出力するようにした。しかし、オペレータ端末にオペレータの声(音声)を入力するマイクを設け、オペレータの音声をロボットに送信して、これをロボットのスピーカから出力するようにしてもよい。かかる場合には、オペレータがロボットの会話相手と直接会話することができる。 Further, in this embodiment, when the robot speaks, the speech synthesis data stored in the memory in advance is read and output. However, a microphone for inputting the operator's voice (voice) may be provided in the operator terminal, and the operator's voice may be transmitted to the robot and output from the robot speaker. In such a case, the operator can directly talk with the conversation partner of the robot.
10 …コミュニケーションロボット
32 …超音波距離センサ
42 …全方位カメラ
46 …マイク
48 …眼カメラ
58 …タッチセンサ
72 …CPU
76 …メモリ
96 …無線通信装置
98 …無線タグ読取装置
100 …データベース
200 …コミュニケーションロボット遠隔操作システム
202 …ネットワーク
204 …オペレータ端末
DESCRIPTION OF
76 ...
Claims (5)
少なくとも人間の声を含む周囲情報を検出する検出手段、
オペレータ呼出条件を記憶する記憶手段、
前記検出手段によって検出された周囲情報に基づいて前記記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、
前記呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、オペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、
前記オペレータ端末からの遠隔操作情報を受信する受信手段、および
前記受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボット。 A communication robot that performs communication actions with humans using at least one of voice and body movements,
Detection means for detecting ambient information including at least a human voice;
Storage means for storing operator call conditions;
Call determination means for determining whether or not an operator call condition stored in the storage means is satisfied based on ambient information detected by the detection means;
A transmission means for transmitting a call signal for calling an operator to an operator terminal when the call determination means determines that the operator call condition is satisfied;
A communication robot comprising: receiving means for receiving remote operation information from the operator terminal; and execution means for executing communication behavior based on the remote operation information received by the receiving means.
前記呼出判断手段は、前記キーワード判断手段によってキーワードが含まれることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1記載のコミュニケーションロボット。 Recognizing a human voice detected by the detecting means and further determining whether or not a keyword is included;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the keyword determination unit determines that a keyword is included.
前記顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、
前記呼出判断手段は、前記顔表情判断手段によって特定の表情であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1または2記載のコミュニケーションロボット。 The detection means includes facial expression acquisition means for acquiring a facial expression of a human face,
A facial expression determination means for determining whether or not the facial expression of the human face acquired by the facial expression acquisition means is a specific expression;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the facial expression determination unit determines that the expression is a specific expression.
前記個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、
前記呼出判断手段は、前記人間判断手段によって特定の人間であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。 The detection means includes personal identification means for individually identifying humans,
Human judgment means for judging whether or not the person identified by the personal identification means is a specific person,
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the human determination unit determines that the person is a specific person.
前記距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、
前記呼出判断手段は、前記距離判断手段によって所定距離以内であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし4のいずれかに記載のコミュニケーションロボット。 The detection means includes distance detection means for detecting a distance from an object including at least a human,
Distance determining means for determining whether or not the distance to the object detected by the distance detecting means is within a predetermined distance;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the distance determination unit determines that the distance is within a predetermined distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006010626A JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006010626A JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007190641A true JP2007190641A (en) | 2007-08-02 |
JP5033994B2 JP5033994B2 (en) | 2012-09-26 |
Family
ID=38446722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006010626A Active JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5033994B2 (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009083051A (en) * | 2007-09-28 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Autonomous mobile body, monitoring system, and communication method |
JP2009131914A (en) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | Robot control system |
JP2010260141A (en) * | 2009-05-08 | 2010-11-18 | Nec Corp | Robot device |
JP2011067943A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Interactive robot control system and method of use |
JP2011167820A (en) * | 2010-02-22 | 2011-09-01 | Advanced Telecommunication Research Institute International | Head part action control information generating device |
JP2016500533A (en) * | 2012-10-17 | 2016-01-14 | チャイナ インダストリーズ リミテッドChina Industries Limited | Interactive toys |
JP2017087411A (en) * | 2015-11-11 | 2017-05-25 | グローリー株式会社 | Operation guidance system, and robot |
JP2017516673A (en) * | 2014-06-05 | 2017-06-22 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | Humanoid robot standby mode |
JP2017185605A (en) * | 2016-04-07 | 2017-10-12 | シャープ株式会社 | Control terminal, robot, method for controlling control terminal, and program therefor |
JP2017533106A (en) * | 2014-10-24 | 2017-11-09 | フェロー,インコーポレイテッド | Customer service robot and related systems and methods |
US20180047030A1 (en) * | 2016-08-10 | 2018-02-15 | Panasonic Intellectual Property Management Co., Ltd. | Customer service device, customer service method, and customer service system |
CN107731224A (en) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | Receive guests device, method of receiving guests and system of receiving guests |
JP2018084998A (en) * | 2016-11-24 | 2018-05-31 | 田嶋 雅美 | Customer service system and customer service method |
JP2018142280A (en) * | 2017-02-28 | 2018-09-13 | 国立大学法人東北大学 | Dialog support device and dialog device |
JP2019051568A (en) * | 2017-09-14 | 2019-04-04 | 大日本印刷株式会社 | Guide apparatus, guide system, guidance method and program |
US10311400B2 (en) | 2014-10-24 | 2019-06-04 | Fellow, Inc. | Intelligent service robot and related systems and methods |
US10373116B2 (en) | 2014-10-24 | 2019-08-06 | Fellow, Inc. | Intelligent inventory management and related systems and methods |
US10586082B1 (en) | 2019-05-29 | 2020-03-10 | Fellow, Inc. | Advanced micro-location of RFID tags in spatial environments |
KR20200095516A (en) * | 2018-01-26 | 2020-08-10 | 알리바바 그룹 홀딩 리미티드 | Method and apparatus for transitioning from robotic customer service to human customer service |
JP2021064299A (en) * | 2019-10-16 | 2021-04-22 | 株式会社サイバーエージェント | Control system, terminal device, control method, and computer program |
JP2021519633A (en) * | 2018-03-29 | 2021-08-12 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Interactive Anime Character Head Stem and Method |
WO2022080006A1 (en) * | 2020-10-12 | 2022-04-21 | 東京ロボティクス株式会社 | Robot system, control method for same, program, and system |
KR102486848B1 (en) * | 2022-05-13 | 2023-01-10 | 주식회사 파이엇 | an autonomous mobile transport service robot with protect a customer |
WO2023037801A1 (en) * | 2021-09-10 | 2023-03-16 | 株式会社日立ハイテク | Automated analysis support robot, and automated analysis system |
JP7591891B2 (en) | 2020-09-10 | 2024-11-29 | avatarin株式会社 | Communication Systems and Robots |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12094196B2 (en) | 2019-12-03 | 2024-09-17 | Samsung Electronics Co., Ltd. | Robot and method for controlling thereof |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63204A (en) * | 1986-06-20 | 1988-01-05 | 株式会社クボタ | Running control apparatus of automatic running working vehicle |
JPH03178789A (en) * | 1989-12-02 | 1991-08-02 | Ryoichi Sekiguchi | Communication control unit of robot |
JPH03191470A (en) * | 1989-12-21 | 1991-08-21 | Toshiba Corp | Police box system |
JPH1034570A (en) * | 1996-07-19 | 1998-02-10 | Fujitsu Ltd | Robot remote control system |
JP2003050559A (en) * | 2001-08-07 | 2003-02-21 | Honda Motor Co Ltd | Autonomously movable robot |
JP2004114178A (en) * | 2002-09-24 | 2004-04-15 | Honda Motor Co Ltd | Reception guide robot |
JP2004299026A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Reception guide system |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2005313303A (en) * | 2004-04-30 | 2005-11-10 | Japan Science & Technology Agency | Robot remote control system |
JP2005319526A (en) * | 2004-05-07 | 2005-11-17 | Fujitsu Ltd | Network robot function providing system |
JP2006003263A (en) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | Visual information processing apparatus and application system |
-
2006
- 2006-01-19 JP JP2006010626A patent/JP5033994B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63204A (en) * | 1986-06-20 | 1988-01-05 | 株式会社クボタ | Running control apparatus of automatic running working vehicle |
JPH03178789A (en) * | 1989-12-02 | 1991-08-02 | Ryoichi Sekiguchi | Communication control unit of robot |
JPH03191470A (en) * | 1989-12-21 | 1991-08-21 | Toshiba Corp | Police box system |
JPH1034570A (en) * | 1996-07-19 | 1998-02-10 | Fujitsu Ltd | Robot remote control system |
JP2003050559A (en) * | 2001-08-07 | 2003-02-21 | Honda Motor Co Ltd | Autonomously movable robot |
JP2004114178A (en) * | 2002-09-24 | 2004-04-15 | Honda Motor Co Ltd | Reception guide robot |
JP2004299026A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Reception guide system |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2005313303A (en) * | 2004-04-30 | 2005-11-10 | Japan Science & Technology Agency | Robot remote control system |
JP2005319526A (en) * | 2004-05-07 | 2005-11-17 | Fujitsu Ltd | Network robot function providing system |
JP2006003263A (en) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | Visual information processing apparatus and application system |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009083051A (en) * | 2007-09-28 | 2009-04-23 | Sogo Keibi Hosho Co Ltd | Autonomous mobile body, monitoring system, and communication method |
JP2009131914A (en) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | Robot control system |
JP2010260141A (en) * | 2009-05-08 | 2010-11-18 | Nec Corp | Robot device |
JP2011067943A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Interactive robot control system and method of use |
JP2011167820A (en) * | 2010-02-22 | 2011-09-01 | Advanced Telecommunication Research Institute International | Head part action control information generating device |
JP2016500533A (en) * | 2012-10-17 | 2016-01-14 | チャイナ インダストリーズ リミテッドChina Industries Limited | Interactive toys |
US10671903B2 (en) | 2012-10-17 | 2020-06-02 | China Industries Limited | Interactive toy |
JP2017516673A (en) * | 2014-06-05 | 2017-06-22 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | Humanoid robot standby mode |
US10576632B2 (en) | 2014-06-05 | 2020-03-03 | Softbank Robotics Europe | Standby mode of a humanoid robot |
US10311400B2 (en) | 2014-10-24 | 2019-06-04 | Fellow, Inc. | Intelligent service robot and related systems and methods |
EP3209468A4 (en) * | 2014-10-24 | 2018-04-18 | Fellow, Inc. | Customer service robot and related systems and methods |
JP2017533106A (en) * | 2014-10-24 | 2017-11-09 | フェロー,インコーポレイテッド | Customer service robot and related systems and methods |
US10373116B2 (en) | 2014-10-24 | 2019-08-06 | Fellow, Inc. | Intelligent inventory management and related systems and methods |
JP2017087411A (en) * | 2015-11-11 | 2017-05-25 | グローリー株式会社 | Operation guidance system, and robot |
JP2017185605A (en) * | 2016-04-07 | 2017-10-12 | シャープ株式会社 | Control terminal, robot, method for controlling control terminal, and program therefor |
JP2018027613A (en) * | 2016-08-10 | 2018-02-22 | パナソニックIpマネジメント株式会社 | Customer service device, customer service method and customer service system |
CN107731224A (en) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | Receive guests device, method of receiving guests and system of receiving guests |
CN107731225A (en) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | Receive guests device, method of receiving guests and system of receiving guests |
US20180047030A1 (en) * | 2016-08-10 | 2018-02-15 | Panasonic Intellectual Property Management Co., Ltd. | Customer service device, customer service method, and customer service system |
JP2018084998A (en) * | 2016-11-24 | 2018-05-31 | 田嶋 雅美 | Customer service system and customer service method |
JP2018142280A (en) * | 2017-02-28 | 2018-09-13 | 国立大学法人東北大学 | Dialog support device and dialog device |
JP7045020B2 (en) | 2017-02-28 | 2022-03-31 | 国立大学法人東北大学 | Dialogue support device and dialogue device |
JP2019051568A (en) * | 2017-09-14 | 2019-04-04 | 大日本印刷株式会社 | Guide apparatus, guide system, guidance method and program |
JP7000759B2 (en) | 2017-09-14 | 2022-01-19 | 大日本印刷株式会社 | Guidance device, guidance system, guidance method and program |
KR102445992B1 (en) * | 2018-01-26 | 2022-09-21 | 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. | Method and apparatus for transition from robotic customer service to human customer service |
KR20200095516A (en) * | 2018-01-26 | 2020-08-10 | 알리바바 그룹 홀딩 리미티드 | Method and apparatus for transitioning from robotic customer service to human customer service |
JP2021524071A (en) * | 2018-01-26 | 2021-09-09 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | Methods and equipment for the transition from robotic customer service to human customer service |
JP6991341B2 (en) | 2018-01-26 | 2022-01-12 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | Methods and equipment for the transition from robotic customer service to human customer service |
JP2021519633A (en) * | 2018-03-29 | 2021-08-12 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Interactive Anime Character Head Stem and Method |
JP7295136B2 (en) | 2018-03-29 | 2023-06-20 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | INTERACTIVE ANIME CHARACTER HEADSTEM AND METHOD |
US10586082B1 (en) | 2019-05-29 | 2020-03-10 | Fellow, Inc. | Advanced micro-location of RFID tags in spatial environments |
JP2021064299A (en) * | 2019-10-16 | 2021-04-22 | 株式会社サイバーエージェント | Control system, terminal device, control method, and computer program |
JP7591891B2 (en) | 2020-09-10 | 2024-11-29 | avatarin株式会社 | Communication Systems and Robots |
WO2022080006A1 (en) * | 2020-10-12 | 2022-04-21 | 東京ロボティクス株式会社 | Robot system, control method for same, program, and system |
WO2023037801A1 (en) * | 2021-09-10 | 2023-03-16 | 株式会社日立ハイテク | Automated analysis support robot, and automated analysis system |
KR102486848B1 (en) * | 2022-05-13 | 2023-01-10 | 주식회사 파이엇 | an autonomous mobile transport service robot with protect a customer |
Also Published As
Publication number | Publication date |
---|---|
JP5033994B2 (en) | 2012-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5033994B2 (en) | Communication robot | |
JP4639343B2 (en) | Robot remote control system | |
JP5429462B2 (en) | Communication robot | |
JP4386367B2 (en) | Communication robot improvement system | |
JP5366048B2 (en) | Information provision system | |
JP4599522B2 (en) | Communication robot | |
JP5732632B2 (en) | Robot system and space formation recognition device used therefor | |
JP7243110B2 (en) | Information processing device and information processing method, computer program, and package reception support system | |
JP4024683B2 (en) | Communication robot | |
JP2009241166A (en) | Robot remote operation system | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP2004230479A (en) | Communication robot and communication system using it | |
KR20130060952A (en) | Service Robot Remote Control System | |
JP2009151419A (en) | Object identification method and apparatus | |
JP2009131914A (en) | Robot control system | |
JP4798581B2 (en) | Robot system | |
JP2005131713A (en) | Communication robot | |
JP7102169B2 (en) | Equipment, robots, methods, and programs | |
JP2007320033A (en) | Communication robot | |
JP2011000656A (en) | Guide robot | |
JP2005238382A (en) | Communication robot | |
JP2002261966A (en) | Communication support system and photographing equipment | |
JP2007160427A (en) | Robot control system | |
JP2007152470A (en) | Robot with self-diagnostic function | |
JP3745649B2 (en) | Communication robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120502 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5033994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |