[go: up one dir, main page]

JP2001157983A - ロボット装置及びロボット装置の性格判別方法 - Google Patents

ロボット装置及びロボット装置の性格判別方法

Info

Publication number
JP2001157983A
JP2001157983A JP34137599A JP34137599A JP2001157983A JP 2001157983 A JP2001157983 A JP 2001157983A JP 34137599 A JP34137599 A JP 34137599A JP 34137599 A JP34137599 A JP 34137599A JP 2001157983 A JP2001157983 A JP 2001157983A
Authority
JP
Japan
Prior art keywords
emotion
robot
robot device
character
personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34137599A
Other languages
English (en)
Inventor
Makoto Inoue
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34137599A priority Critical patent/JP2001157983A/ja
Priority to CNB008032971A priority patent/CN1151016C/zh
Priority to PCT/JP2000/008472 priority patent/WO2001039932A1/ja
Priority to US09/890,231 priority patent/US7117190B2/en
Priority to KR1020017009618A priority patent/KR20010101883A/ko
Publication of JP2001157983A publication Critical patent/JP2001157983A/ja
Priority to US11/244,341 priority patent/US20060041332A1/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 より現実的に性格が形成されていくペットロ
ボットを提供する。 【解決手段】 ペットロボットは、他のペットロボット
の出力を検知する検知手段6と、検知手段6の検知結果
に基づいて、他のペットロボットの性格を判別する性格
判別手段7と、性格判別手段7の判別結果に基づいて、
性格を変化させる性格変化手段8とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボット装置及びロ
ボット装置の性格判別方法に関し、例えば四足動物のよ
うに動作するペットロボットに適用して好適なものであ
る。
【0002】
【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて動作を行う四足歩行型のいわゆるペットロボット
が提案及び開発されている。この種のペットロボット
は、家庭内で飼う犬や猫のような四足動物によく似た形
状を有し、例えばユーザから「伏せ」という命令を受け
取ると伏せの姿勢を取ったり、又は自分の口の前にユー
ザが手を差し出すと「おて」をするようになされてい
る。
【0003】
【発明が解決しようとする課題】ところで、このような
ペットロボットは、感情のモデルや自分で行動を決める
機構を持ち、その特徴をロボットの性格と呼ぶことがで
きるが、その性格の変化は、他のロボットの影響を受け
るものではない。
【0004】ここで、動物の性格形成は、周囲の環境の
影響を受け、例えば、2匹のペットが一緒に飼われてい
るような場合には、一方のペットの存在が他方のペット
の性格形成に大きく影響するのが現実である。
【0005】そこで、本発明は、上述の実情に鑑みてな
されたものであり、より現実的に性格が形成されていく
ことを可能とするロボット装置及びロボット装置の性格
判別方法の提供を目的としている。
【0006】
【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、他のロボット装置
の出力を検知する検知手段と、検知手段の検知結果に基
づいて、他のロボット装置の性格を判別する性格判別手
段とを備える。
【0007】このような構成を備えるロボット装置は、
検知手段が検知した他のロボット装置の出力の検知結果
に基づいて、他のロボット装置の性格を性格判別手段に
より判別する。
【0008】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて、自己の性
格を変化させる。
【0009】また、本発明に係るロボット装置の性格判
別方法は、上述の課題を解決するために、ロボット装置
の出力を検知して、この検知結果に基づいて、当該ロボ
ット装置の性格を判別する。
【0010】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて、自己の性
格を変化させる。
【0011】
【発明の実施の形態】本発明の実施の形態について図面
を用いて詳しく説明する。本発明は、四足動物のように
動作するペットロボットに適用することができる。
【0012】ペットロボットは、図1に示すように、他
のペットロボットの出力を検知する検知手段6と、検知
手段6の検知結果に基づいて、他のペットロボットの性
格を判別する性格判別手段7と、性格判別手段7の判別
結果に基づいて、性格を変化させる性格変化手段8とを
備えている。
【0013】これにより、ペットロボットは、検知手段
6が検知した他のペットロボットの出力の検知結果に基
づいて、他のロボット装置の性格を性格判別手段7によ
り判別する。そして、ペットロボットは、そのような他
のペットロボットの性格の判別結果に基づいて、性格変
化手段8により自己の性格を変化させることができる。
【0014】詳しくは後述するが、検知手段6による検
知は、他のペットロボットの行動に表出された感情の検
知等であり、性格変化手段8による性格の変化は、感情
に起因した自己の行動を決定する感情モデルのパラメー
タの変更等によるものである。
【0015】このようにペットロボットは、他のペット
ロボットの行動等に基づいて自己の性格を変化させるこ
とができる。
【0016】これにより、ペットロボットは、本物のペ
ットと同じように、性格が形成され、その性格に基づい
て動作することができるようになる。
【0017】以下、本発明が適用されているペットロボ
ットの具体的な構成について説明する。
【0018】(1)ペットロボットの構成 図2に示すように、ペットロボット1は全体が構成され
ており、頭に相当する頭部2と、胴体に相当する本体部
3と、足に相当する足部4A〜4Dと、尻尾に相当する
尻尾部5とを連結することによって構成され、本体部3
に対して頭部2、足部4A〜4D、尻尾部5を動かすこ
とによって本物の四足動物のように動作させるようにな
されている。
【0019】頭部2には、目に相当し、画像を撮像する
例えばCCD(Charge Coupled Device)カメラでなる
画像認識部10と、耳に相当し、音声を集音するマイク
11と、口に相当し、音声を発するスピーカ12とがそ
れぞれ所定位置に取り付けられている。また、頭部2に
は、ユーザからリモートコントローラ(図示せず)を介
して送信される指令を受信するリモートコントローラ受
信部13と、ユーザの手などが接触されたことを検出す
るためのタッチセンサ14と、内部で生成された画像を
表示するための画像表示部15とが取り付けられてい
る。
【0020】本体部3には、腹に相当する位置にバッテ
リ21が取り付けられると共に、その内部にペットロボ
ット1全体の動作を制御するための電子回路(図示せ
ず)等が収納されている。
【0021】足部4A〜4Dの関節部分、足部4A〜4
Dと本体部3の連結部分、本体部3と頭部2の連結部
分、本体部3と尻尾部5の連結部分などは、それぞれの
アクチュエータ23A〜23Nによって連結されてお
り、本体部3内部に収納される電子回路の制御に基づい
て駆動するようになされている。このようにペットロボ
ット1は、各アクチュエータ23A〜23Nを駆動させ
ることにより、頭部2を上下左右に振らせたり、尻尾部
5を振らせたり、足部4A〜4Dを動かして歩かせたり
走らせたりして、本物の四足動物のような動作を行わせ
る。
【0022】(2)ペットロボットの回路構成 ここで図3を用いてペットロボット1の回路構成につい
て説明する。頭部2は、マイク11及びリモートコント
ローラ受信部13でなるコマンド受信部30と、画像認
識部10及びタッチセンサ14からなる外部センサ31
と、スピーカ12と、画像表示部15とを有している。
また、本体部3は、バッテリ21を有すると共に、その
内部にペットロボット1全体の動作を制御するためのコ
ントローラ32と、バッテリ21の残量を検出するため
のバッテリセンサ33及びペットロボット1内部で発生
する熱を検出する熱センサ34でなる内部センサ35と
を有している。さらにペットロボット1の所定位置には
アクチュエータ23A〜23Nがそれぞれ設けられてい
る。
【0023】コマンド受信部30は、ユーザからペット
ロボット1に与えられる指令、例えば「歩け」、「伏
せ」、「ボールを追いかけろ」等の指令を受信するため
のものであり、リモートコントローラ受信部13及びマ
イク11によって構成されている。リモートコントロー
ラ(図示せず)は、ユーザの操作によって所望の指令が
入力されると、当該入力された指令に応じた赤外線光を
リモートコントローラ受信部13に送信する。リモート
コントローラ受信部13は、この赤外線光を受信して受
信信号SIAを生成し、これをコントローラ32に送出
する。マイク11は、ユーザが所望の指令に応じた音声
を発すると、当該ユーザの発した音声を集音して音声信
号SIBを生成し、これをコントローラ32に送出す
る。このようにコマンド受信部30は、ユーザからペッ
トロボット1に与えられる指令に応じて受信信号SIA
及び音声信号SIBでなる指令信号S1を生成し、これ
をコントローラ32に供給する。
【0024】外部センサ31のタッチセンサ14は、ユ
ーザからペットロボット1への働きかけ、例えば「なで
る」、「たたく」等の働きかけを検出するためのもので
あり、ユーザが当該タッチセンサ14を触れることによ
って所望の働きかけを行うと、当該働きかけに応じた接
触検出信号S2Aを生成し、これをコントローラ32に
送出する。
【0025】外部センサ31の画像認識部10は、ペッ
トロボット1の周囲の環境を識別した結果、例えば「暗
い」、「お気に入りのおもちゃがある」等の周囲の環境
情報又は例えば「他のペットロボットが走っている」等
の他のペットロボットの動きを検出するためのものであ
り、当該ペットロボット1の周囲の画像を撮影し、その
結果得られる画像信号S2Bをコントローラ32に送出
する。この画像認識部10にて、他のペットロボットに
よる感情を表出した行動が捕らえられる。
【0026】このように外部センサ31は、ペットロボ
ット1の外部から与えられる外部情報に応じて接触検出
信号S2A及び画像信号S2Bでなる外部情報信号S2
を生成し、これをコントローラ32に送出する。
【0027】内部センサ35は、ペットロボット1自身
の内部状態、例えばバッテリ容量が低下したを意味する
「お腹がすいた」、「熱がある」等の内部状態を検出す
るためのものであり、バッテリセンサ33及び熱センサ
34から構成されている。バッテリセンサ33は、ペッ
トロボット1の各回路に電源を供給するバッテリ21の
残量を検出するためのものであり、その検出した結果で
あるバッテリ容量検出信号S3Aをコントローラ32に
送出する。熱センサ34は、ペットロボット1内部の熱
を検出するためのものであり、その結果した結果である
熱検出信号S3Bをコントローラ32に送出する。この
ように内部センサ35は、ペットロボット1の内部の情
報に応じてバッテリ容量検出信号S3A及び熱検出信号
S3Bでなる内部情報信号S3を生成し、これをコント
ローラ32に送出する。
【0028】コントローラ32は、コマンド受信部30
から供給される指令信号S1と、外部センサ3lから供
給される外部情報信号S2と、内部センサ35から供給
される内部情報信号S3とに基づいて、各アクチュエー
タ23A〜23Nを駆動させるための制御信号S5A〜
S5Nを生成し、これらをアクチュエータ23A〜23
Nにそれぞれ送出して駆動させることによりペットロボ
ット1を動作させる。
【0029】その際コントローラ32は、外部に出力す
るための音声信号S10や画像信号S11を必要に応じ
て生成し、このうち音声信号S10をスピーカl2を介
して外部に出力したり、画像信号S11を画像表示部1
5に送出して所望の画像を表示させたりすることによ
り、ユーザに必要な情報を知らせるようになされてい
る。
【0030】(3)コントローラにおけるデータ処理 ここでコントローラ32におけるデータ処理について説
明する。コントローラ32は、コマンド受信部30から
供給される指令信号S1と、外部センサ31から供給さ
れる外部情報信号S2と、内部センサ35から供給され
る内部情報信号S3とを、所定の記憶領域に予め格納さ
れているプログラムに基づいてソフトウェア的にデータ
処理を施し、その結果得られる制御信号S5をアクチュ
エータ23に供給する。
【0031】図4に示すように、コントローラ32は、
そのデータ処理の内容を機能的に分類すると、感情本能
モデル変化手段としての感情・本能モデル部40と動作
状態決定手段としての行動決定機構部41と姿勢遷移手
段としての姿勢遷移機構部42と制御機構部43とに分
けられ、外部から供給される指令信号S1と外部情報信
号S2と内部情報信号S3とを感情・本能モデル部40
及び行動決定機構部41に入力する。
【0032】図5に示すように、感情・本能モデル部4
0は、複数の独立した感情モデルとしての情動ユニット
50A〜50Cでなる基本情動群50と、複数の独立し
た欲求モデルとしての欲求ユニット51A〜51Cでな
る基本欲求群51とを有している。基本情動群50のう
ち情動ユニット50Aは「うれしさ」という情動を示す
ものであり、情動ユニット50Bは「悲しさ」という情
動を結ぶものであり、情動ユニット50Cは「怒り」と
いう情動を示すものである。
【0033】情報ユニット50A〜50Cは、情動の度
合いを例えば0〜100レベルまでの強度によってそれ
ぞれ表し、供給される指令信号S1、外部情報信号S2
及び内部情報信号S3に基づいて情動の強度をそれぞれ
時々刻々と変化させる。かくして感情・本能モデル部4
0は、時々刻々と変化する情動ユニット50A〜50C
の強度を組み合わせることによりペットロボット1の感
情の状態を表現し、感情の時間変化をモデル化してい
る。
【0034】また、基本欲求群51のうち欲求ユニット
51Aは「食欲」という欲求を示すものであり、欲求ユ
ニット51Bは「睡眠欲」という欲求を示すものであ
り、欲求ユニット51Cは「運動欲」という欲求を示す
ものである。欲求ユニット51A〜51Cは、情動ユニ
ット50A〜50Cと同様に、欲求の度合いを例えば0
〜l00レベルまでの強度によってそれぞれ表し、供給
される指令信号S1と外部情報信号S2と内部情報信号
S3とに基づいて欲求の強度をそれぞれ時々刻々と変化
させる。かくして感情・本能モデル群40は、時々刻々
と変化する欲求ユニット5lA〜51Cの強度を組み合
わせることによりペットロボット1の本能の状態を表現
し、本能の時間変化をモデル化している。
【0035】このようにして感情・本能モデル部40
は、指令信号S1と外部情報信号S2と内部情報信号S
3とでなる入力情報S1〜S3に基づいて情動ユニット
50A〜50C及び欲求ユニット5lA〜51Cの強度
をそれぞれ変化させる。そして感情・本能モデル部40
は、この変化した情動ユニット50A〜50Cの強度を
組合せることにより感情の状態を決定すると共に、変化
した欲求ユニット51A〜51cの強度を組み合わせる
ことにより本能の状態を決定し、当該決定された感情及
び本能の状態を感情・本能状態情報S10として行動決
定機構部41に送出する。
【0036】ところで、感情・本能モデル部40は、基
本情動群50のうち所望の情動ユニット同士を相互抑制
的又は相互刺激的に結合し、当該結合した情動ユニット
のうち一方の情動ユニットの強度を変化させると、これ
に応じて他方の情動ユニットの強度が変化することにな
り、自然な感情を有するペットロボット1を実現してい
る。
【0037】すなわち図6に示すように、感情・本能モ
デル部40は、「うれしさ」情動ユニット50Aと「悲
しさ」情動ユニット50Bとを相互抑制的に結合するこ
とにより、ユーザにほめてもらったときには「うれし
さ」情動ユニット50Aの強度を大きくすると共に、そ
の際「悲しさ」情動ユニット50Bの強度を変化させる
ような入力情報S1〜S3が供給されていなくても、
「うれしさ」情動ユニット50Aの強度が大きくなるこ
とに応じて自然に「悲しさ」情動ユニット50Bの強度
を低下させる。同様に感情・本能モデル部40は、「悲
しさ」情動ユニット50Bの強度が大きくなると、当該
「悲しさ」情動ユニット50Bの強度が大きくなること
に応じて自然に「うれしさ」情動ユニット50Aの強度
を低下させる。
【0038】また、感情・本能モデル部40は、「悲し
さ」情動ユニット50Bと「怒り」情動ユニット50C
とを相互刺激的に結合することにより、ユーザにたたか
れたときには「怒り」情動ユニット50Cの強度を大き
くすると共に、その際「悲しさ」情動ユニット50Bの
強度を変化させるような入力情報S1〜S3が供給され
ていなくても、「怒り」情動ユニット50Cの強度が大
きくなることに応じて自然に「悲しさ」情動ユニット5
0Bの強度を増大させる。同様に感情・本能モデル部4
0は、「悲しさ」情動ユニット50Bの強度が大きくな
ると、当該「悲しさ」情動ユニット50Bの強度が大き
くなることに応じて自然に「怒り」情動ユニット50C
の強度を増大させる。
【0039】さらに、感情・本能モデル部40は、情動
ユニット50同士を結合した場合と同様に、基本欲求群
51のうち所望の欲求ユニット同士を相互抑制的又は相
互刺激的に結合し、当該結合した欲求ユニットのうち一
方の欲求ユニットの強度を変化させると、これに応じて
他方の欲求ユニットの強度が変化することになり、自然
な本能を有するペットロボット1を実現している。
【0040】図4に戻って、感情・本能モデル部40
は、後段の行動決定機構部41からペットロボット1自
身の現在又は過去の行動、例えば「長時間歩いた」など
の行動の内容を示す行動情報Sl2が供給されており、
同一の入力情報S1〜S3が与えられても、当該行動情
報S12が示すペットロボット1の行動に応じて異なる
感情・本能状態情報S10を生成するようになされてい
る。
【0041】具体的には図7に示すように、感情・本能
モデル部40は、各情動ユニット50A〜50Cの前段
に、ペットロボット1の行動を示す行動情報S12と入
力情報S1〜S3とを基に各情動ユニット50A〜50
Cの強度を増減させるための強度情報S14A〜S14
Cを生成する強度増減関数55A〜55Cをそれぞれ設
け、当該強度増減関数55A〜55Cから出力される強
度情報S14A〜S14Cに応じて各情動ユニット50
A〜50Cの強度をそれぞれ増減させる。
【0042】例えば感情・本能モデル部40は、ユーザ
に挨拶をしたときに頭をなでられれば、すなわちユーザ
に挨拶をしたという行動情報S12と頭をなでられたと
いう入力情報Sl〜S3とが強度増減関数55Aに与え
られると、「うれしさ」情動ユニット50Aの強度を増
加させる一方、何らかの仕事を実行中に頭をなでられて
も、すなわち仕事を実行中であるという行動情報S12
と頭をなでられたという入力情報S1〜S3とが強度増
減関数55Aに与えられても、「うれしさ」情動ユニッ
ト50Aの強度を変化させない。
【0043】このように感情・本能モデル部40は、入
力情報S1〜S3だけでなく現在又は過去のペットロボ
ット1の行動を示す行動情報S12も参照しながら各情
動ユニット50A〜50Cの強度を決定することによ
り、例えば何らかのタスクを実行中にユーザがいたずら
するつもりで頭をなでたとき、「うれしさ」情動ユニッ
ト50Aの強度を増加させるような不自然な感情を起こ
させることを回避することができる。因みに、感情・本
能モデル部40は、欲求ユニット51A〜5lCの場合
も同様にして、供給される入力情報S1〜S3及び行動
情報S12に基づいて各欲求ユニット51A〜51Cの
強度をそれぞれ増減させるようになされている。
【0044】以上、述べたように強度増減関数55A〜
55Cは、入力情報S1〜S3及び行動情報S12が入
力されると、予め設定されているパラメータに応じて強
度情報S14A〜S14Cを生成して出力するような関
数であり、当該パラメータをペットロボット1毎に異な
る値に設定することにより、例えば怒りっぽいペットロ
ボットや明るい性格のペットロボットのように、当該ペ
ットロボットに個性を持たせることができる。
【0045】さらに、感情モデルについては、他のロボ
ット装置(以下、相手ロボットという。)の性格に応じ
て、そのパラメータを変化させることもできる。すなわ
ち、ペットロボット1の持つ性格を、相手ロボットとの
相互作用によって変化させ、いわゆる「朱に交われば赤
くなる」といったような特性による性格の形成を行う。
これにより、自然な性格形成がなされたペットロボット
1を実現することができる。
【0046】具体的には、図8に示すように、感情認知
機構部61、記憶及び解析機構部62、並びにパラメー
タ変更機構部63を備えることにより、相手ロボット装
置の性格に応じた性格形成が可能になる。
【0047】感情認知機構部61は、相手ロボットの動
作が何らかの感情表出に関するものであるかどうか、ま
た、そうである場合には表出している感情の種類を強度
を認知する。具体的には、感情認知機構部61は、相手
ロボットの行動を検知するセンサーと、センサーからの
センサー入力に基づいて相手ロボット装置の感情を認知
する感情認知部とからなり、相手ロボットの動作をセン
サで捕らえ、感情認知部において、センサー入力からそ
の相手ロボットの感情を認知する。例えば、センサー入
力は、上述した入力信号のうちの外部情報信号S2であ
って、図3に示すマイク11からの音声信号S1Bであ
ったり、図3に示す画像認知部10からの画像信号S2
Bであったりする。
【0048】感情の認知については、感情認知機構部6
1は、センサー入力とされる、例えば、相手ロボットが
発している鳴き声や、行動から、表出している感情を認
知する。
【0049】具体的には、ペットロボット1は、相手ロ
ボットの感情に起因した動作の動作パターンを情報とし
て持っており、この動作パターンと相手ロボットの実際
の動作、例えば動作部の動きや発した音等とを比較する
ことにより、相手ロボットの動作に表出している感情を
得る。例えば、ペットロボット1は、相手ロボットが怒
っている場合の当該相手ロボットの足の動きの動作パタ
ーンを保持しており、画像認識部10による得た相手ロ
ボットの足の動きがそのような行動パターンと一致する
場合、相手ロボットが怒っていることを検知する。
【0050】例えば、ペットロボット1は、予め登録さ
れている感情モデルに基づいて行動が決定されている。
換言すれば、ペットロボット1の行動は、感情の表出の
結果でもある。よって、相手ロボットも同様な感情モデ
ルが構築されているペットロボットであることを前提と
すれば、ペットロボット1は、相手ロボットの動作パタ
ーンから相手ロボットの行動がどのような感情を表出し
た結果かを把握することができる。このように自己の保
持している行動情報と相手ロボットの動作情報とを比較
すれば、相手ロボットの感情を容易に把握することがで
きるようになる。
【0051】このような感情に認知により、例えば、怒
っている歩き方や怒っている目が行動が検知された場合
に、相手ロボットが怒っている認知することができるよ
うになる。
【0052】感情認知機構部61は、このようにして認
知した相手ロボットの表出している感情の情報を、記憶
及び解析機構部62に送る。
【0053】記憶及び解析機構部62は、感情認知機構
部61から送られてきた情報に基づいて、相手ロボット
の性格、例えば、怒りっぽいとか、悲観的であるとかを
判断する。具体的には、記憶及び解析機構部62は、感
情認知機構部61から送られてきた情報を記憶してお
き、ある程度の時間内の情報の変化に基づいて相手ロボ
ットの性格を解析する。
【0054】具体的には、記憶及び解析機構部62は、
図示しないデータ記憶部に記憶された情報の内のある時
間内における情報を取り出して、感情の表出割合を解析
する。例えば、図9に示すような割合で「怒り」につい
ての感情の情報を得ていた場合、記憶及び解析機構部6
2は、相手ロボットが怒りっぽい性格であると判断す
る。
【0055】記憶及び解析機構部62は、上述のように
して取得した相手ロボットの性格の情報を、感情パラメ
ータ変更機構部63に送る。
【0056】感情パラメータ変更機構部63は、感情モ
デル(具体的には、感情・本能モデル部である。)40
のパラメータを変化させる。すなわち、「怒り」や「悲
しさ」等の感情に関する情動ユニットのパラメータを変
更する。
【0057】また、感情に関するパラメータとして、上
述した強度増減関数55A〜55Cのパラメータを変更
してもよい。この場合、強度増減関数55A〜55Cの
変更されたパラメータに応じて、入力情報S1〜S3及
び行動情報S12から強度情報S14A〜S14Cが生
成されるので、例えば、おこりっぽくしたり明るい性格
としたりすることができる。
【0058】感情モデル部40は、入力情報S1〜S3
や行動情報S12であるセンサ入力が入力されており、
そのように感情パラメータ変更機構部63により変更さ
れたパラメータ(強度)に応じた感情値とされる感情状
態情報S10aを決定行動機構部41に出力する。そし
て、後段の行動決定機構部41がこの感情値(感情状態
情報S10a)に基づいてペットロボット1の行動を決
定することで、行動を介して性格を表出させる。
【0059】このように、ペットロボット1は、相手ロ
ボットの性格に応じて、感情モデルのパラメータ(強
度)を変化させ、自然な性格形成が実現されている。す
なわち、例えば、怒りっぽい他のペットロボットに接し
ていると、自分自身の怒り安さパラメータを増加させ
て、自分も起こりっぽくなったりする。
【0060】図4に戻って、行動決定機構部41は、指
令信号S1と外部情報信号S2と内部情報信号S3と感
情・本能状態情報S10と行動情報S12とでなる入力
情報S14に基づいて次の行動を決定し、当該決定され
た行動の内容を行動指令情報Sl6として姿勢遷移機構
部42に送出する。
【0061】具体的には図10に示すように、行動決定
機構部41は、過去に供給された入力情報S14の履歴
を動作状態(以下、ステートという。)で表し、現在供
給された入力情報S14とそのときのステートとに基づ
いて当該ステートを別のステートに遷移させることによ
り、次の行動を決定するような有限個のステートを有す
る有限オートマトン57と呼ばれるアルゴリズムを用い
ている。このように行動決定機構部41は、入力情報S
14が供給される毎にステートを遷移させ、当該遷移し
たステートに応じて行動を決定することにより、現在の
入力情報S14だけでなく過去の入力情報S14も参照
して行動を決定している。
【0062】従って、例えば「ボールを追いかけてい
る」というステートST1において、「ボールが見えな
くなった」という入力情報S14が供給されると、「立
っている」というステートST5に遷移する一方、「寝
ている」というステートST2において、「起きろ」と
いう入力情報S14が供給されると、「立っている」と
いうステートST4に遷移する。このようにこれらステ
ートST4及びステートST5は、行動は同一であって
も過去の入力情報S14の履歴が異なっていることか
ら、ステートも異なっていることが分かる。
【0063】実際上、行動決定機構部41は、所定のト
リガーがあったことを検出すると、現在のステートを次
のステートに遷移させる。トリガーの具体例としては、
例えば現在のステートの行動を実行している時間が一定
値に達した、又は特定の入力情報S14が入力された、
又は感情・本能モデル部40から供給される感情・本能
状態情報S10が示す情動ユニット50A〜50C及び
欲求ユニット51A〜51の強度のうち、所望のユニッ
トの強度が所定の閾値を超えたこと等が挙げられる。
【0064】その際、行動決定機構部41は、感情・本
能モデル部40から供給された感情・本能状態情報S1
0が示す情動ユニット50A〜50C及び欲求ユニット
51A〜51Cの強度のうち、所望のユニットの強度が
所定の閾値を超えているか否かに基づいて遷移先のステ
ートを選択する。これにより行動決定機構部41は、例
えば同一の指令信号Slが入力されても、情動ユニット
50A〜50C及び欲求ユニット51A〜51Cの強度
に応じて異なるステートに遷移するようになされてい
る。
【0065】従って行動決定機構部41は、供給される
外部情報信号S2を基に例えば目の前に手のひらが差し
出されたことを検出し、かつ感情・本能状態情報S10
を基に「怒り」情動ユニット50Cの強度が所定の閾値
以下であることを検出し、かつ内部情報信号S3を基に
「お腹がすいていない」、すなわち電池電圧が所定の閾
値以上であることを検出すると、目の前に手のひらが差
し出されたことに応じて「おて」の動作を行わせるため
の行動指令情報S16を生成し、これを姿勢遷移機構部
42に送出する。
【0066】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以下であり、かつ「お腹がす
いている」すなわち電池電圧が所定の閾値未満であるこ
とを検出すると、「手のひらをぺろぺろなめる」ような
動作を行わせるための行動指令情報S16を生成し、こ
れを姿勢遷移機構部42に送出する。
【0067】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以上であることを検出する
と、「お腹がすいていない」すなわち電池電圧が所定の
閾値以上であるか否かにかかわらず、「ぷいと横を向
く」ような動作を行わせるための行動指令情報S16を
生成する。例えば、相手ロボットに応じて、感情モデル
のパラメータ(情動ユニットの強度)を変化させている
場合においては、一緒にいる相手ロボットが怒りっぽい
性格であるときには、ペットロボット1は、感情モデル
の強度が所定の閾値以上になる場合が多くなり、そのよ
うな「ぷいと横を向く」といった動作を頻出するように
なる。
【0068】ところで、行動決定機構部41は、感情・
本能モデル部40から供給された感情・本能状態情報S
10が示す情動ユニット50A〜50C及び欲求ユニッ
ト51A〜51Cの強度のうち所望のユニットの強度に
基づいて、遷移先のステートで行われる行動のパラメー
タ、例えば歩行の速度、手足を動かす際の動きの大きさ
や速度、音を出す際の音の高さや大きさなどを決定し、
当該行動のパラメータに応じた行動指令情報S16を生
成して姿勢遷移機構部42に送出するようになされてい
る。
【0069】因みに、指令信号S1と外部情報信号S2
と内部情報信号S3とでなる人力情報S1〜S3は、感
情・本能モデル部40及び行動決定機構部41に入力さ
れるタイミングに応じて情報の内容が異なるため、感情
・本能モデル部40と共に行動決定機構部41にも入力
されるようになされている。
【0070】例えばコントローラ32は、「頭をなでら
れた」という外部情報信号S2が供給されると、感情・
本能モデル部40によって「うれしい」という感情・本
能状態情報S10を生成し、当該感情・本能状態惰報S
10を行動決定機構部41に供給するが、この状態にお
いて、「手が目の前にある」という外部情報信号S2が
供給されると、行動決定機構部41において上述の「う
れしい」という感情・本能状態情報S10と「手が目の
前にある」という外部情報信号S2とに基づいて「喜ん
でおてをする」という行動指令情報S16を生成させ、
これを姿勢遷移機構部42に送出させるようになされて
いる。
【0071】図4に戻って、姿勢遷移機構部42は、行
動決定機構部41から供給される行動指令情報S16に
基づいて現在の姿勢から次の姿勢に遷移させるための姿
勢繊維情報S18を生成し、これを制御機構部43に送
出する。この場命、現在の姿勢から次に遷移可能な姿勢
は、例えば胴体や手や足の形状、重さ、各部の結合状態
のようなペットロボット1の物理的形状と、例えば関節
が曲がる方向や角度のようなアクチュエータ23A〜2
3Nの機構とによって決定される。
【0072】ところでこのような遷移可能な姿勢は、現
在の姿勢から直接遷移可能な姿勢と直接には遷移できな
い姿勢とに分類される。例えば4本足のペットロボット
1は、手足を大きく投げ出して寝転んでいる状態から伏
せた状態へ直接遷移することはできるが、立った状態へ
直接遷移することはできず、一旦手足を胴体近くに引き
寄せて伏せた姿勢になり、それから立ち上がるという2
段階の動作が必要である。また安全に実行できない姿勢
も存在する。例えば4本足のペットロボット1は、立っ
ている姿勢で両前足を挙げてバンザイをしようとする
と、簡単に転倒してしまう場合である。
【0073】従って姿勢遷移機構部42は、遷移可能な
姿勢を予め登録しておき、行動決定機構部41から供給
された行動指令情報S16が直接遷移可能な姿勢を示す
場合には、当該行動指令情報S16をそのまま姿勢遷移
情報S18として制御機構部43に送出する一方、直接
遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢
に―旦遷移した後に目的の姿勢まで遷移させるような姿
勢遷移情報S18を生成して制御機構部43に送出す
る。これによりペットロボット1は、遷移不可能な姿勢
を無理に実行しようとする事態や転倒するような自体を
回避することができる。
【0074】具体的には姿勢遷移機構部42は、ペット
ロボット1がとり得る姿勢を予め登録すると共に、遷移
可飴な2つの姿勢の間を記録しておくようになされてい
る。例えば図11に示すように、姿勢遷移機構部42
は、ペットロボット1がとり得る姿勢をノードND1
ND5で表すと共に、遷移可能な2つの姿勢の間すなわ
ちノードND1〜ND5間を有向アークa1〜a10で結合
した有向グラフ60と呼ばれるアルゴリズムを用いてい
る。
【0075】姿勢遷移機構部42は、行動決定機構部4
1から行動指令情報S16が供給されると、現在の姿勢
に対応したノードNDと、行動指令情報S16が示す次
に取るべき姿勢に対応するノードNDとを結ぶように、
有向アークaの向きに従いながら現在のノードNDから
次のノードNDに至る経路を探索し、当該探索した経路
上にあるノードNDを順番に記録することにより、姿勢
遷移の計画を行うようになされている。これによりペッ
トロボット1は、遷移不可能な姿勢を無理に実行しよう
とする事態や転倒するような事態を回避しながら、行動
決定機構部41から指示された行動を実現することがで
きる。
【0076】姿勢遷移機構部42は、例えば現在の姿勢
が「ふせる」という姿勢を示すノードND2にある場
合、「すわれ」という行動指令情報S16が供給される
と、「ふせる」という姿勢を示すノードND2から「す
わる」という姿勢を示すノードND5へは直接遷移可能
であることを利用して、「すわれ」という姿勢遷移情報
SI8を制御機構部43に与える。これに対して姿勢遷
移機構部42は、「歩け」という行動指令情報S16が
供給されると、「ふせる」というノードND2から「あ
るく」というノードND4に至る経路を探索することに
より姿勢遷移計画を行い、その結果、「たて」という指
示を出した後に「歩け」という指示を出すような行動指
令情報S18を生成して制御機構部43に送出する。
【0077】図4に戻って制御機構部43は、行動指令
情報S18を基にアクチュエータ23を駆動させるため
の制御信号S5を生成し、これをアクチュエータ23に
送出して当該アクチュエー夕23を駆動させることによ
り、ペットロボット1に所望の動作を行わせるようにな
されている。
【0078】(4)動作及び効果 以上の構成において、コントローラ32の感情・本能モ
デル部40は、供給される入力情報S1〜S3に基づい
て、ペットロボット1の感情及び本能の状態を変化さ
せ、この感情及び本能の状態の変化をペットロボット1
の行動に反映させることにより、自分の感情や本能の状
態に基づいて自律的に行動させる。
【0079】そして、感情・本能モデル部(図8に示す
感情モデル部)40は、相手ロボットの性格に応じて変
化された性格により行動を決定することができる。これ
により、ユーザは、他のペットロボットに応じてペット
ロボット1の性格が形成されることを楽しくことがで
き、育成のおもしろさを得ることができる。
【0080】また、コントローラ32の行動決定機構部
41は、順次供給される入力情報S14の履歴に応じた
現在のステート及び次に供給される入力情報S14に基
づいて現在のステートに続く次のステートを決定するこ
とにより、自分の感情や本能の状態に基づいて自律的に
行動させる。
【0081】また、コントローラ32の姿勢遷移機構部
42は、ペットロボット1の現在の姿勢から予め決めら
れた所定の経路を経て現在の姿勢を変化させて行動指令
情報S16に応じた姿勢に遷移させることにより、無理
な姿勢をとらせるような事態や転倒するような事態を回
避する。
【0082】以上の構成によれば、コントローラ32に
対する入力情報S1〜S3に基づいてペットロボット1
の感情及び本能の状態を変化させ、この感情及び本能の
状態の変化を基にペットロボット1の行動を決定し、当
該決定した行動に応じて遷移可能な姿勢を選択してペッ
トロボット1を動作させることにより、自分の感情や本
能の状態に基づいて自律的に行動することができ、かく
して本物のペットに近い動作を行うペットロボット1を
実現できる。
【0083】(5)他の実施の形態 上述の実施の形態においては、相手ロボットの性格に応
じた性格の変化を、感情パラメータ変更機構部63が感
情モデルのパラメータを変更することにより行っている
場合について述べたが、本発明はこれに限定されず、図
12に示すように、行動決定機構部41のパラメータを
変更することにより行うこともできる。この場合、行動
決定機構部41の調整可能なパラメータを変化させる。
例えば、有限オートマトンでは、入力情報S14の供給
によりステートを遷移させているが、そのステートの遷
移確率を変化させる。
【0084】また、上述の実施の形態においては、相手
ロボットの表出された感情のみに基づいて性格の状態を
変化させているが、本発明はこれに限定されず、他の情
報をも参照することができる。例えば、図13に示すよ
うに、対話解析機構部64を備え、相手ロボットとユー
ザ(飼い主)との対話を解析することにより、性格の状
態を変化させることができる。
【0085】対話解析機構部64は、ユーザと相手ロボ
ットとの対話、例えば、ユーザが相手ロボットに発して
いる言葉やユーザが相手ロボットに対して行っている仕
草を解析する。例えば、ユーザが相手ロボットをしかっ
ているのか、叩いているのか等を解析する。対話解析機
構部41は、その解析結果を記憶及び解析機構部62に
送る。
【0086】対話解析機構部64は、感情認知機構部6
1からの相手ロボットの表出している感情の情報と、対
話解析機構部64の解析結果とに基づいて、相手ロボッ
トの性格を判別する。
【0087】これにより、例えば、感情認知機構部61
からの情報として吠えている情報だけが単に送られてい
場合には相手ロボットが怒りっぽい性格と判断されてし
まうが、ユーザとの対話を参照することにより、ユーザ
に叩かれた吠えているような場合には、相手ロボットを
怒りっぽい性格と容易に判断するようなことなく、環境
に応じて複合的な判断をすることができるようになる。
【0088】また、上述の実施の形態においては、相手
ロボットの性格と一致する方向に変化するように説明し
たが、本発明はこれに限定されず、相手ロボットの性格
と反対の性格、すなわち反対方向の性格に変化させるこ
ともできる。
【0089】また、上述の実施の形態においては、相手
ロボットの性格の判断に相手ロボットの行動を参照して
いるが、本発明はこれに限定されず、相手ロボットとの
データ通信により当該相手ロボットの性格を判断するこ
とができる。データ通信の形態としては無線通信でもよ
く、有線通信でもよい。
【0090】また、上述の実施の形態においては、相手
ロボットが1体である場合について説明したが、本発明
はこれに限定されず、相手ロボットが複数体ある場合で
あってもよい。この場合、ペットロボット1は、ロボッ
トを識別して、複数体のロボットから統合的に、或いは
特定のロボットから個別的に自己の性格を変化させるこ
とができる。これにより、複数の相手ロボットがそれぞ
れ性格が異なっている場合があるので、それに応じて自
己の性格を変化させることができるようになる。
【0091】さらに、このように複数体のロボットがあ
る状況においては各ロボットを識別する必要がある。こ
の場合、例えば、相手ロボットを個別判断できるよう
に、顔を所定のパターンとして形成しておくことによ
り、複数のロボットを識別できるようにする。また、所
定マークとしていわゆるバーコードを相手ロボットに付
して、複数のロボットを識別できるようにしてもよい。
また、データ通信により、相手ロボットの性格を判断す
る場合においては、性格のデータに識別情報を付してお
くことにより、複数のロボットを識別できるようにして
もよい。例えば、識別情報として、相手ロボットの備え
る装置の識別番号、例えば着脱自在とれた記憶媒体であ
る、いわゆるメモリスティックのID等が挙げられる。
【0092】また、上述の実施の形態においては、相手
ロボットの動作部の動作から感情を認知する場合につい
て主に述べたが、本発明はこれに限らず、タッチセンサ
14に対する相手ロボットの接触状態から相手ロボット
の感情の認知することもできる。
【0093】また、上述の実施の形態においては、リモ
ートコントローラから赤外線光によって送られてきたユ
ーザの指令を受信するようにした場合について述べた
が、本発明はこれに限らず、例えば電波や音波によって
送られてきたユーザの指令を受信するようにしても良
い。
【0094】また、上述の実施の形態においては、ユー
ザからの指令をリモートコントローラ受信部13及びマ
イク11でなるコマンド受信部30を介して入力するよ
うにした場合について述べたが、本発明はこれに限ら
ず、例えばペットロボット1にコンピュータを接続し、
当該接続されたコンピュータを介してユーザの指令を入
力するようにしてもよい。
【0095】また、上述の実施の形態においては、「う
れしさ」、「悲しさ」、「怒り」という情動を示す情動
ユニット50A〜50Cと、「食欲」、「睡眠欲」、
「運動欲」という欲求を示す欲求ユニット51A〜51
Cとを用いて感情及び本能の状態を決定するようにした
場合について述べたが、本発明はこれに限らず、例えば
情動ユニット50A〜50Cに「寂しさ」という情動を
示す情動ユニットを追加したり、欲求ユニット51A〜
51Cに「愛情欲」という欲求を示す欲求ユニットを追
加しても良く、この他種々の種類や個数の組合わせでな
る情動ユニットや欲求ユニットを使って感情や本能の状
態を決定するようにしても良い。
【0096】また、上述の実施の形態においては、指令
信号S1と外部情報信号S2と内部情報信号S3と感情
・本能状態情報S10と行動情報S12とに基づいて次
の行動を行動決定機構部41によって決定した場合につ
いて述べたが、本発明はこれに限らず、指令信号S1と
外部情報信号S2と内部情報信号S3と感情・本能状態
情報S10と行動情報S12とのうち一部の情報に基づ
いて次の行動を決定するようにしても良い。
【0097】また、上述の実施の形態においては、有限
オートマトン57と呼ばれるアルゴリズムを用いて次の
行動を決定した場合について述べたが、本発明はこれに
限らず、ステートの数が有限でないステートマシンと呼
ばれるアルゴリズムを用いて行動を決定するようにして
も良く、この場合、入力情報Sl4が供給される毎に新
たにステートを生成し、当該生成したステートに応じて
行動を決定すれば良い。
【0098】また、上述の実施の形態においては、有限
オートマトン57と呼ばれるアルゴリズムを用いて次の
行動を決定した場合について述ベたが、本発明はこれに
限らず、現在供給された入力情報S14とそのときのス
テートとに基づいて複数のステートを遷移先の候補とし
て選定し、当該選定された複数のステートのうち遷移先
のステートを乱数によってランダムに決定するような確
率有限オートマトンと呼ばれるアルゴリズムを用いて行
動を決定するようにしても良い。
【0099】また、上述の実施の形態においては、行動
指令情報S16が直接遷移可能な姿勢を示す場合には、
当該行動指令情報S16をそのまま姿勢遷移情報S18
として制御機構部43に送出する一方、直接遷移不可能
な姿勢を示す場合には、遷移可能な他の姿勢に一旦遷移
した後に目的の姿勢まで遷移させるような姿勢遷移情報
S18を生成して制御機構部43に送出した場合につい
て述べたが、本発明はこれに限らず、行動指令情報S1
6が直接遷移可能な姿勢を示す場合にのみ当該行動指令
情報S16を受け付けて制御機構部43に送出する一
方、直接遷移不可能な姿勢を示す場合には、当該行動指
令情報S16を拒否するようにしても良い。
【0100】また、上述の実施の形態においては、本発
明をペットロボット1に適用した場合について述べた
が、本発明はこれに限らず、例えばゲームや展示等のエ
ンタテインメント分野で用いられるロボット装置のよう
に、他の種々のロボット装置に本発明を適用し得る。
【0101】また、本発明が適用されるペットロボット
1の外観は、図2に示すような構成をとることに限定さ
れず、図14に示すように、より現実の犬に類似の構成
とすることもできる。
【0102】
【発明の効果】本発明に係るロボット装置は、他のロボ
ット装置の出力を検知する検知手段と、検知手段の検知
結果に基づいて、他のロボット装置の性格を判別する性
格判別手段とを備えることにより、検知手段が検知した
他のロボット装置の出力の検知結果に基づいて、他のロ
ボット装置の性格を性格判別手段により判別することが
できる。
【0103】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて自己の性格
を変化させることができ、より現実的に性格が形成され
る。
【0104】また、本発明に係るロボット装置の性格判
別方法は、ロボット装置の出力に基づいて、当該ロボッ
ト装置の性格を判別することにより、例えば、他のロボ
ット装置の性格の判別結果に基づいて自己の性格を変化
させることができ、より現実的に性格が形成される。
【図面の簡単な説明】
【図1】本発明を実現する構成を示すブロック図であ
る。
【図2】本発明によるペットロボットの一実施の形態を
示す斜視図である。
【図3】ペットロボットの回路構成を示すブロック図で
ある。
【図4】コントローラにおけるデータ処理を示す略線図
である。
【図5】感情・本能モデル部によるデータ処理を示す略
線図である。
【図6】感情・本能モデル部によるデータ処理を示す略
線図である。
【図7】感情・本能モデル部によるデータ処理を示す略
線図である。
【図8】上述のペットロボットにおける感情モデルのパ
ラメータを変化させる構成部分のブロック図である。
【図9】相手ロボットの感情の表出割合を示す特性図で
ある。
【図10】行動決定機構部における有限オートマトンの
状態遷移図である。
【図11】姿勢遷移機構部における姿勢遷移のグラフを
示す図である。
【図12】上述のペットロボットにおける感情モデルの
パラメータを変化させる構成部分を示すものであって、
感情モデルのパラメータを変化させる他の形態を説明す
るために使用したブロック図である。
【図13】上述のペットロボットにおいて、相手ロボッ
トとユーザとの対話を解析する対話解析機構部を備え
て、感情モデルのパラメータを変化させる構成部分のブ
ロック図である。
【図14】本発明によるペットロボットの他の実施の形
態を示す斜視図である。
【符号の説明】
1 ペットロボット、6 検知手段、7 性格辺別手
段、8 性格変化手段、61 感情認知機構部、62
記憶及び解析機構部、63 性格パラメータ変更部、6
4 対話解析機構部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G05B 13/02 G05B 13/02 L Fターム(参考) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF02 ED08 ED21 ED42 EF09 EF13 EF16 EF29 EF33 3F059 AA00 BA00 BB06 DA05 DB05 DC00 DC01 FC00 FC01 3F060 AA00 BA10 CA14 5H004 GA15 GA25 GA26 GB16 HA07 HB01 HB07 JB05 JB06 JB08 KD52 KD55 KD62 KD63 LA15 MA23 MA29 MA33 9A001 BZ03 HZ05 KK62

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 他のロボット装置の出力を検知する検知
    手段と、 上記検知手段の検知結果に基づいて、上記他のロボット
    装置の性格を判別する性格判別手段とを備えたことを特
    徴とするロボット装置。
  2. 【請求項2】 上記性格判別手段の判別結果に基づい
    て、自己の性格を変化させる性格変化手段を備えたこと
    を特徴とする請求項1記載のロボット装置。
  3. 【請求項3】 上記検知手段は、上記他のロボット装置
    の行動を検出する行動検出部と、上記行動検出部の検出
    結果に基づいて上記他のロボット装置の感情を認知する
    感情認知手段とを備え、 上記性格判別手段は、上記感情認知手段が認知した上記
    感情に基づいて、上記他のロボット装置の性格を判別す
    ることを特徴とする請求項1記載のロボット装置。
  4. 【請求項4】 上記性格判別手段は、上記感情認知手段
    が認知した一定時間内の上記感情に基づいて、上記他の
    ロボット装置の性格を判別することを特徴とする請求項
    3記載のロボット装置。
  5. 【請求項5】 上記検知手段は、上記他のロボット装置
    からの感情データ又は性格データを検知し、 上記性格判別手段は、上記感情データ又は性格データに
    基づいて、上記他のロボット装置の性格を判別すること
    を特徴とする請求項1記載のロボット装置。
  6. 【請求項6】 上記性格変化手段は、上記性格判別手段
    の判別結果に基づいて、自己の性格を決定する性格モデ
    ルのパラメータを変化させることを特徴とする請求項2
    記載のロボット装置。
  7. 【請求項7】 全体及び各構成部分を行動情報に基づい
    て動作させる動作制御手段を備え、 上記性格変化手段は、上記性格判別手段の判別結果に基
    づいて、上記行動情報を変化させることを特徴とする請
    求項1記載のロボット装置。
  8. 【請求項8】 他のロボット装置の感情に起因する動作
    パターンが記憶される記憶手段を備え、 上記感情認知手段は、上記他のロボット装置の動作と、
    上記動作パターンとを比較することにより、感情を認知
    することを特徴とする請求項3記載のロボット装置。
  9. 【請求項9】 他のロボット装置とユーザとの対話を検
    知する対話検知手段を備え、 上記性格判別手段は、上記対話検知手段の検知結果を参
    照して、上記他のロボット装置の性格を判別することを
    特徴とする請求項1記載のロボット装置。
  10. 【請求項10】 ロボット装置の出力を検知して、この
    検知結果に基づいて、当該ロボット装置の性格を判別す
    ることを特徴とするロボット装置の性格判別方法。
  11. 【請求項11】 性格判別結果が他のロボット装置の性
    格の変化に使用されることを特徴とする請求項10記載
    のロボット装置の性格判別方法。
  12. 【請求項12】 上記ロボット装置の出力である上記ロ
    ボット装置の行動から感情を認知して、感情の認知結果
    に基づいて、上記ロボット装置の性格を判別することを
    特徴とする請求項10記載のロボット装置の性格判別方
    法。
  13. 【請求項13】 一定時間内の上記感情の認知結果に基
    づいて、上記ロボット装置の性格を判別することを特徴
    とする請求項12記載のロボット装置の性格判別方法。
  14. 【請求項14】 上記ロボット装置の出力である上記ロ
    ボット装置からの感情データ又は性格データを検知し、
    上記感情データ又は性格データに基づいて、上記ロボッ
    ト装置の性格を判別することを特徴とする請求項10記
    載のロボット装置の性格判別方法。
  15. 【請求項15】 上記ロボット装置の感情に起因する動
    作パターンを記憶している他のロボット装置が、上記ロ
    ボット装置の動作と当該行動パターンとを比較すること
    により、感情を認知することを特徴とする請求項12記
    載のロボット装置の性格判別方法。
JP34137599A 1999-11-30 1999-11-30 ロボット装置及びロボット装置の性格判別方法 Withdrawn JP2001157983A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP34137599A JP2001157983A (ja) 1999-11-30 1999-11-30 ロボット装置及びロボット装置の性格判別方法
CNB008032971A CN1151016C (zh) 1999-11-30 2000-11-30 机器人设备及其控制方法,和机器人性格判别方法
PCT/JP2000/008472 WO2001039932A1 (fr) 1999-11-30 2000-11-30 Robot, son procede de commande et procede d'appreciation du caractere du robot
US09/890,231 US7117190B2 (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR1020017009618A KR20010101883A (ko) 1999-11-30 2000-11-30 로봇 장치와 그 제어 방법, 및 로봇 장치의 성격 판별 방법
US11/244,341 US20060041332A1 (en) 1999-11-30 2005-10-05 Robot apparatus and control method therefor, and robot character discriminating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34137599A JP2001157983A (ja) 1999-11-30 1999-11-30 ロボット装置及びロボット装置の性格判別方法

Publications (1)

Publication Number Publication Date
JP2001157983A true JP2001157983A (ja) 2001-06-12

Family

ID=18345582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34137599A Withdrawn JP2001157983A (ja) 1999-11-30 1999-11-30 ロボット装置及びロボット装置の性格判別方法

Country Status (1)

Country Link
JP (1) JP2001157983A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002045916A1 (fr) * 2000-12-06 2002-06-13 Sony Corporation Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2008278981A (ja) * 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP2020064420A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 ロボットマッチングシステム及びプログラム
WO2020202540A1 (ja) * 2019-04-04 2020-10-08 Groove X株式会社 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JP2021069767A (ja) * 2019-10-31 2021-05-06 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002045916A1 (fr) * 2000-12-06 2002-06-13 Sony Corporation Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
US6889117B2 (en) 2000-12-06 2005-05-03 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
US7076334B2 (en) 2000-12-06 2006-07-11 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
JP2008278981A (ja) * 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP2020064420A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 ロボットマッチングシステム及びプログラム
JP7186058B2 (ja) 2018-10-16 2022-12-08 東京瓦斯株式会社 ロボットマッチングシステム及びプログラム
WO2020202540A1 (ja) * 2019-04-04 2020-10-08 Groove X株式会社 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JPWO2020202540A1 (ja) * 2019-04-04 2020-10-08
JP7414299B2 (ja) 2019-04-04 2024-01-16 Groove X株式会社 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JP2021069767A (ja) * 2019-10-31 2021-05-06 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
JP7070529B2 (ja) 2019-10-31 2022-05-18 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
EP1151779B1 (en) Robot and action deciding method for robot
US6519506B2 (en) Robot and control method for controlling the robot's emotions
CN100423911C (zh) 机器人装置及其行为控制方法
US6667593B2 (en) Robot apparatus
JP3963162B2 (ja) ロボット装置及びロボット装置の制御方法ロボット装置
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
US6512965B2 (en) Robot and control method for entertainment
WO2000068879A1 (fr) Dispositif robot, son procede de commande et support d'enregistrement
JP2011115944A (ja) ロボット装置、ロボット装置の行動制御方法及びプログラム
JP3277500B2 (ja) ロボット装置
JP2003080484A (ja) 動作反応玩具
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2004130426A (ja) ロボット装置及びその動作制御方法
US20240367066A1 (en) Autonomous mobile body, information processing method, and program
US20240367065A1 (en) Autonomous mobile body, information processing method, and program
JP2002269530A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP2002120182A (ja) ロボット装置及びその制御方法
JP2001157984A (ja) ロボット装置及びロボット装置の動作制御方法
JP3501123B2 (ja) ロボット装置及びロボット装置の行動制御方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206