[go: up one dir, main page]

JP2003266364A - ロボット装置 - Google Patents

ロボット装置

Info

Publication number
JP2003266364A
JP2003266364A JP2002075149A JP2002075149A JP2003266364A JP 2003266364 A JP2003266364 A JP 2003266364A JP 2002075149 A JP2002075149 A JP 2002075149A JP 2002075149 A JP2002075149 A JP 2002075149A JP 2003266364 A JP2003266364 A JP 2003266364A
Authority
JP
Japan
Prior art keywords
robot
robot apparatus
human
image pickup
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002075149A
Other languages
English (en)
Inventor
Masaki Fukuchi
正樹 福地
Takeshi Igarashi
健 五十嵐
Masaki Nagatsuka
正樹 永塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002075149A priority Critical patent/JP2003266364A/ja
Publication of JP2003266364A publication Critical patent/JP2003266364A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

(57)【要約】 【課題】 人間とのインタラクションを円滑に行う。 【解決手段】ロボット装置1の眼の位置に、導光部材2
32を内壁とする凹部を形成する。この凹部の底面に
は、レンズ233とCCDカメラ203を設け、CCD
カメラ203は、レンズ233に形成された像を電気信
号に変換する。凹部は、レンズ233が外部から視認さ
れる範囲を制限するためのものであり、凹部の深さは、
レンズ233が外部から視認される範囲と、レンズ23
3の視野が一致するように構成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置に関
し、特に、外部情報、外部からの働きかけに応じた動作
及び/又は内部状態に基づく自律的動作を実行するロボ
ット装置に関する。
【0002】
【従来の技術】最近では、人間のパートナーとして生活
を支援する、すなわち住環境その他の日常生活上の様々
な場面における人的活動を支援する実用ロボットの開発
が進められている。このような実用ロボットは、産業用
ロボットとは異なり、人間の生活環境の様々な局面にお
いて、個々に個性の相違した人間、又は様々な環境への
適応方法を自ら学習する能力を備えている。例えば、
犬、猫のように4足歩行の動物の身体メカニズムやその
動作を模した「ペット型」ロボット、或いは、2足直立
歩行を行う動物の身体メカニズムや動作をモデルにして
デザインされた「人間型」又は「人間形」ロボット(Hu
manoid Robot)等の脚式移動ロボットは、既に実用化さ
れつつある。
【0003】これらの脚式移動ロボットは、産業用ロボ
ットと比較してエンターテインメント性を重視した様々
な動作を行うことができるため、エンターテインメント
ロボットと呼称される場合もある。
【0004】また、認知心理学において、アフォーダン
スという考え方が存在する。このアフォーダンスという
のは、認知心理学者のギブソンがアフォード(与える、
できるという意味)という言葉から作った造語であり、
「環境が与える行動」や「環境によって想起される行
動」と解釈される。
【0005】ギブソンによると、動物は、知覚器から得
た情報を脳の中で処理することで環境を認識するわけで
はなく、環境(他の動物、植物、物体)そのものに依存
する情報を直接得て認識を行っている。
【0006】例えば、ドアがあるとする。この取っ手部
を平板にすると、このドアは、ヒトに対して「押す」こ
とをアフォードする。また、取っ手部をリング状にする
と、「引く」ことをアフォードする。すなわち、このド
アの例では、「押し」入る側を平板にした場合は、出る
側の取っ手部をリングにするのがアフォーダンス理論に
基づいた自然な対応付けとなる。
【0007】また、一本の棒きれは、握る、叩く、振り
回す、折る、等の動作をヒトに対してアフォードする。
例えば、「テニス」という競技を知らないヒトであって
も、ラケットを掴むとき柄の部分を掴む。それはラケッ
トの先端よりも柄の部分の方が「掴む」動作に対するア
フォーダンスをもつからである。
【0008】このように、物体の形状そのものが人間に
対してその機能や性能を想起させるという考え方は、物
体に何らかの機能を付与する際に非常に重要である。
【0009】
【発明が解決しようとする課題】ロボット装置のデザイ
ンにも、アフォーダンス理論が適用できる。ロボット装
置の足は「歩く」という機能を想起させるし、ロボット
の眼や耳は「見る」「聞く」という機能を想起させる。
【0010】人間や動物を模したヒューマノイド型ロボ
ットや動物型ロボットにおいては、「アフォーダンス」
という概念はさらに重要となる。これらのロボットは、
ヒトや動物とほぼ同じ身体特性をもつようにみえるた
め、これらのロボットを見れば、自然とその機能や性能
に関しても人間や動物と同等であることを想起するわけ
である。
【0011】しかしながら、ロボット装置の中には、人
間や動物を模した形状に作られているだけであって、そ
の性能や身体性は、人間や動物とは異なるものもある。
これらの相違には、機能そのものがない場合と、機能は
あっても性能が異なる場合とがある。
【0012】例えば、脚部に相当する部分が設けられて
いるロボットでも、デザインのみであって全く動けない
ロボットや、脚部はあっても「歩く」動作は行わず、足
裏の車輪で進むロボットもある。同様に、「眼」が設け
られているロボットでも、実は、視覚機能は有していな
いロボット、PSD(Position Sensitive Detector)
等の単純な光センサ等が代替として機能しているロボッ
トもある。
【0013】人間と全く同じ様態をしたヒューマノイド
型ロボットがあった場合、このロボットを見た人間は、
例えば「手を叩いたり、手を振ったりしてみる」「”お
ーい”と呼んでみる」「名前を呼んでみる」「”こっち
へおいで”といってみる」「押してみる」「叩いてみ
る」等のインタラクションを試みるかも知れない。とこ
ろが、このヒューマノイド型ロボットに、視覚機能や聴
覚機能が搭載されていない場合、視覚機能や聴覚機能は
あっても、この入力に基づいて人間の行動を認識するこ
とができない場合等には、このロボットは、人間からの
インタラクションに対して何のリアクションも起こさな
いことになる。
【0014】このように、デザインから想起される機能
が実際には装備されていない場合や、人間が想起する機
能や性能と実際の性能とがかけ離れている場合、人間は
違和感を覚えたり、人間とロボットとのコミュニケーシ
ョンが円滑に行われないといった事態が生じる。
【0015】ここで、一例として、ロボットの眼が人間
に想起させる機能、性能について考える。デザインとし
て眼に相当するものを採用しているロボットを見たとき
に、人間は、「このロボットには、眼がある」、「この
ロボットは、”環境が見えている”」「このロボット
は、”見えているものに対して反応する”」「このロボ
ットは、”物が動いたことがわかる”」「このロボット
は、”ヒトの顔を認識できる”」「このロボットは、”
こっち(そっち)を見ている”」等というロボットの機
能、動作を想起する。
【0016】このように人間は、ロボットの眼に対し
て、人間や動物と同等の視野角を想定し、その視野角に
対応する視界を想像する。ヒトの視界は、片眼で約12
0度、両眼で180度以上の視野角を有するため、ヒト
は、相手の瞳が見えると、相手の視界に自分が入ってい
ることを想定する。
【0017】そのため、ロボットの瞳(眼の中心)が見
えると、ヒトは、ロボットからも自分が見えていると考
え、ロボットに対して何らかのインタラクションがとれ
ること期待する。しかし、実際にはロボットの視野角
は、CCDカメラの特性によって決定されるため、人間
程の視野角をもたないのが現状である。
【0018】このように、人間は、ロボットの様態から
そのロボットの性能や機能を想起し、ロボットとのコミ
ュニケーションを図ろうとする。特に、視覚機能におけ
るヒトとロボットの相違点は、人間とロボットとのコミ
ュニケーションを図る際に、非常に重要になる。
【0019】従来のロボットにおける視覚装置の具体例
を説明する。図22には、犬やライオンに模した形状を
有するペット型ロボットが示されている。このロボット
の眼にあたるCCDカメラは、口に設置されている。ま
た、このロボットの口にあたる部分には複数のLEDが
設置され、LEDはキャノピーによって覆われている。
このロボットは、口に設置されたLEDが発光する光の
色によってロボットの感情を表現する。
【0020】また、図23には、熊をモチーフとしたペ
ット型ロボットが示されている。このロボットの眼にあ
たるCCDカメラも、ロボットの口に設置されている。
ロボットの眼の部分には、球状のプラスチックが設置さ
れているが、プラスチックの眼は特に機能をもたない。
【0021】上述した、2つのペット型ロボットは、ロ
ボットの眼に相当するCCDカメラが、ロボットの鼻先
や口に位置する部分に設置されている。このようなロボ
ットの場合でも、人間はロボットの外観からロボットの
機能を想定するため、ロボットの眼の場所に眼があるこ
とを前提にロボットとのインタラクションをとろうとす
る。例えば、ロボット装置にボールを見せる場合、通常
の人間はCCDカメラの設置された口ではなく、何のセ
ンサも設置されていない眼の部分に向かってボールを差
し出す。そのため、人間の想定するロボットの視野と実
際のロボットの視野に隔たりが生じ、人間とロボットと
のやりとりにずれが生じる。
【0022】図24は、ヒトの形を模したヒューマノイ
ド型ロボットを示している。ロボットの眼にあたるCC
Dカメラは、ロボットの顔の中央に設置される。ロボッ
トの眼の部分には、ロボットの感情を表現するLEDが
配置されている。このロボットの顔の前面は、黒色のキ
ャノピーで覆われており、ロボットの瞳は人間からは見
えなくなっている。
【0023】上述のヒューマノイド型ロボットでは、ロ
ボットの眼にあたるCCDカメラが、人間の眼とほぼ同
じ位置に設置されているが、このCCDカメラは黒色の
キャノピーで覆われているため、ロボットがどこを見て
いるか人間にはわからない。そのため、人間はキャノピ
ー全体でものを見ているという誤解を生む。
【0024】図25は、ヒトの形を模したヒューマノイ
ド型ロボットを示している。このロボットの眼にあたる
CCDカメラは、人間の眼とほぼ同じ位置に設置されて
おり、ロボットの眼は外部に剥き出しになっている。人
間はロボットの外形からロボットの視野角は、人間とほ
ぼ同等であると想定するが、このロボットの視野角は、
CCDカメラの特性からすると50度前後である。この
場合も、人間の想定するロボットの視野と実際のロボッ
トの視野に隔たりが生じ、人間とロボットと間のコミュ
ニケーションにずれが生じる。
【0025】人間は、物体の形状によって物体の機能や
特性を判断する。このため、特に、人間や動物の形を模
したロボットを見た人間は、人間や動物と同等の機能や
特性を有すると誤解するおそれがある。このような人間
の認識するロボットの機能と実際のロボットの機能との
間のずれから、人間とロボットのコミュニケーションが
円滑に行えない場合が生じる。更には、ストレスや不便
さを感じることになる。
【0026】そこで本発明は、このような従来の実情に
鑑みて提案されたものであり、ヒトとの円滑なコミュニ
ケーションを可能とし、エンターテインメント性を向上
することを可能にしたロボット装置を提供することを目
的とする。
【0027】
【課題を解決するための手段】上述した目的を達成する
ために、本発明に係るロボット装置は、外部情報、外部
からの働きかけに応じた動作及び/又は内部状態に基づ
く自律的動作を実行するロボット装置であって、見かけ
の眼の位置に配置され外部情報を取得する撮像手段と、
撮像手段が外部から視認される範囲を制限する遮蔽部と
を備えることを特徴としている。
【0028】ここで、遮蔽部は、撮像手段が外部から視
認される範囲と撮像手段によって撮像される画像の画角
とが略一致するように設ける。また、遮蔽部は、凹部と
して形成し、撮像手段を該凹部の底部に設置する。さら
に、凹部の深さによって、撮像手段を視認可能な範囲を
規定する。
【0029】また、遮蔽部を撮像手段の周囲に形成され
た筒状部とし、筒状部の高さによって撮像手段が視認可
能な範囲を規定する。
【0030】さらに、遮蔽部を開口底面を撮像方向とす
る略円錐形状の部材として形成し、撮像手段をこの円錐
形状部材の頂点部に設置する。また、円錐形状部材の頂
角角度によって撮像手段が視認可能な範囲を規定する。
【0031】
【発明の実施の形態】以下、本発明の一構成例として示
す2足歩行タイプのロボット装置1について、図面を参
照して詳細に説明する。この人間型のロボット装置1
は、住環境その他の日常生活上の様々な場面における人
的活動を支援する実用ロボットであり、内部状態(怒
り、悲しみ、喜び、楽しみ等)に応じて行動できるほ
か、人間が行う基本的な動作を表出できるエンターテイ
ンメントロボットである。
【0032】図1に示すように、ロボット装置1は、体
幹部ユニット2の所定の位置に頭部ユニット3が連結さ
れると共に、左右2つの腕部ユニット4R/Lと、左右
2つの脚部ユニット5R/Lが連結されて構成されてい
る(但し、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下において同じ。)。
【0033】このロボット装置1が具備する関節の自由
度を図2に模式的に示す。頭部ユニット3を支持する首
関節は、首関節ヨー軸101と、首関節ピッチ軸102
と、首関節ロール軸103という3自由度を有してい
る。
【0034】また、上肢を構成する各々の腕部ユニット
4R/Lは、、肩関節ピッチ軸107と、肩関節ロール
軸108と、上腕ヨー軸109と、肘関節ピッチ軸11
0と、前腕ヨー軸111と、手首関節ピッチ軸112
と、手首関節ロール軸113と、手部114とで構成さ
れる。手部114は、実際には、複数本の指を含む多関
節・多自由度構造体である。但し、手部114の動作
は、ロボット装置1の姿勢制御や歩行制御に対する寄与
や影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、各腕部は7自由度を有するとする。
【0035】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。
【0036】また、下肢を構成する各々の脚部ユニット
5R/Lは、股関節ヨー軸115と、股関節ピッチ軸1
16と、股関節ロール軸117と、膝関節ピッチ軸11
8と、足首関節ピッチ軸119と、足首関節ロール軸1
20と、足部121とで構成される。本明細書中では、
股関節ピッチ軸116と股関節ロール軸117の交点
は、ロボット装置1の股関節位置を定義する。人体の足
部121は、実際には多関節・多自由度の足底を含んだ
構造体であるが、ロボット装置1の足底は、ゼロ自由度
とする。したがって、各脚部は、6自由度で構成され
る。
【0037】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。但し、エンターテインメント向けの
ロボット装置1が必ずしも32自由度に限定されるわけ
ではない。設計・制作上の制約条件や要求仕様等に応じ
て、自由度すなわち関節数を適宜増減することができる
ことはいうまでもない。
【0038】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うこと等の要請から、アクチュエータは小型且
つ軽量であることが好ましい。
【0039】次に、ロボット装置1の頭部ユニット3に
ついて、図3〜図7を用いて詳細に説明する。図3は、
頭部ユニット3の正面外観を示し、図4は、頭部ユニッ
ト3の側面外観を示す。頭部ユニット3は、頭部201
と頸部202とからなる。頭部201には、CCDカメ
ラ203と、前方に位置する物体までの距離を測定する
ための距離センサ204と、外部音を集音するためのマ
イクロフォン205と、音声を出力するためのスピーカ
206等がそれぞれ所定位置に配置されている。
【0040】本具体例では、特に、このロボット装置1
の親近感を増すとともにエンターテインメント性を高め
るため、外部の状況を撮影するためのCCDカメラ20
3は、ヒトでいう「眼」の位置に設け、マイクロフォン
205は、ヒトでいう「耳」の位置に設け、音声を出力
するためのスピーカ206は、ヒトの「口」に相当する
位置に設けている。
【0041】頭部201は、頭部外装筐体207によっ
て保護されており、この頭部外装筐体207は、眼用開
口部208、センサ用開口部209、マイクロフォン取
付部210、スピーカ開口部211所定の位置に有して
おり、ユーザに「ヒト」を想起させる頭部形状となって
いる。
【0042】頭部201は、この頭部201を駆動する
ための頭部駆動機構221を備えており、頸部202
は、この頸部を駆動するための頸部駆動機構222を備
えている。頭部ユニット3の頭部外装筐体207及び頸
部外装筐体216を取り外した外観図5及び6に基づい
て、頭部201及び頸部202をさらに詳細に説明す
る。図5は、ロボット装置1の正面外観を示し、図6
は、ロボット装置1の側面外観を示している。
【0043】頭部201は、頭部駆動機構221と一体
化された頭部碗状部材223と、頭部碗状部材223に
対して頭部駆動機構221を介して回動自在に取り付け
られた頭部シャーシ224とから構成されている。頭部
碗状部材223には、画像処理回路等が設置されていて
もよく、頭部碗状部材223は、このように内部に配設
された回路等を保護する役割を果たすとともに、ロボッ
ト装置1の顔・顎部の一部を構成している。
【0044】頭部シャーシ224には、顔前面に相当す
る位置に、カメラ固定部材225が取り付けられてい
る。このカメラ固定部材225には、CCDカメラ20
3が設置されている。また、カメラ固定部材225は、
距離センサ取付部226を有しており、ここに距離セン
サ204が取り付けられている。頭部外装筐体207
は、頭部に装着される際に、CCDカメラ203及び距
離センサ204に対応する箇所にそれぞれ眼用開口部2
08、距離センサ用開口部209が設けられているた
め、ここからCCDカメラ203及び距離センサ204
が外部に露呈される。
【0045】カメラ固定部材225の前面には、ロボッ
ト装置1の内部状態を表出するため等に用いられるLE
D231や、このLED231からの光を眼周囲に一様
に導くための導光部材232等を備えた、図7に示すよ
うな眼底部基板230が設置されているため、この眼底
部基板230の外側が頭部外装筐体207に覆われるこ
とになる。
【0046】したがって、上述したように、頭部201
において、頭部シャーシ224、カメラ固定部材22
5、眼底部基板230、頭部外装筐体207等を組み合
わせた際、眼底部基板230に設けられた導光部材23
2が眼部内側壁となって頭部外装筐体表面に略円筒状の
凹部が形成される。
【0047】このように形成される凹部は、ロボット装
置1の視野を人間に想起させる機能を有する。ロボット
装置1の視野を人間に想起させるとは、ロボット装置1
の形状からロボット装置1の実際の視野を人間に理解さ
せるということである。上述したように、ロボット装置
1は、人間の形状を模しているため、人間は、ロボット
装置1が自分と同様の視野を有すると錯覚する傾向があ
る。
【0048】図8は、凹部を形成していないロボット装
置1を上側からみた断面図である。図8のロボット装置
1は、CCDカメラとレンズを有し、CCDカメラはレ
ンズ表面に結像した像を電気信号に変換する。レンズ
は、ロボット装置1の顔面に露呈しており、ロボット装
置1の周囲にいる人間は、ロボットのレンズを視認する
ことができる。ロボット装置1のレンズを視認した人間
は、ロボット装置1がこちらを見ていると感じるため。
人間は、ロボット装置1の視野角が人間の視野角と同じ
120度程度になると感じる。
【0049】しかしながら、実際のロボット装置1の視
野角は、人間ほど広くなく、人間の認識とロボットの実
装の間にずれが生じ、ロボット装置1と人間とのインタ
ラクションが悪化するのみならず、人間にストレスを感
じさせてしまう。
【0050】図9は、本具体例におけるロボット装置1
を上からみた断面図である。図9に示すロボット装置
は、図8のロボット装置1と同様、CCDカメラ203
とレンズ233を有しており、このCCDカメラ203
とレンズ233は凹部の底面に設置されている。凹部
は、レンズ233を外部から遮蔽する機能を有し、人間
が所定の位置に立たない限りロボット装置1のレンズ2
33は視認できない。図9の点線は、ロボット装置1の
レンズ233が人間の視界に入る範囲を示している。人
間の視界に入る範囲とは、人間がそこに立ってレンズを
視認することのできる位置のことであり、この範囲は、
凹部の内周とレンズを結ぶ空間の内側に形成される。な
お、本具体例では、レンズが人間の視界に入る範囲の臨
界面とレンズの視軸のなす角を臨界角と呼び、臨界角を
用いて、人間がレンズを視認できる空間の大きさを表現
する。
【0051】以下、ロボット装置1に形成された凹部の
形状が、人間の想定するロボットの視野角(推定視野角
と呼ぶ)に与える影響を調べた実験について説明する。
図10、この実験に使用されるロボット装置1の眼の構
造を示す模式図である。このロボット装置1は、人間の
「眼」に相当する位置に円筒形の凹部が形成されてお
り、凹部の底面にはCCDカメラ203が設置されてい
る。CCDカメラ203の前面にはレンズ233が固定
されており、レンズ233は所定の画角を有する。ここ
で、ロボット装置1の臨界角をθ、凹部の内径をr、凹
部の深さをaとすると、ロボット装置1の臨界角θは、
θ=2*ATAN(r/a)という式によって算出され
る(ATANはアークタンジェントを意味する)。上記
の式によれば、ロボット装置1の臨界角θは、凹部の内
径r、もしくは凹部の深さaを変更させることにより、
変化させることができる。そのため、本実験では、凹部
の深さaを変更することによりロボット装置1の臨界角
を変更し、ロボット装置1の臨界角に応じて、人間が想
定する推定視野角がどのように変化するかを調べる。
【0052】推定視野角の変化は、図11に示すよう
に、ロボット装置1の周囲A〜Eの地点を人間が移動す
ることにより調べる。すなわち、ロボット装置1の周囲
を人間が移動し、人間がロボット装置1の視野から離れ
たと感じた位置をロボット装置1の推定視野角とする。
図12の上図は、ロボット装置1の臨界角を60度とし
たときのロボット装置1の外観を示す図である。ここ
で、ロボット装置1の臨界角は60度に設定してあるの
で、人間がロボット装置1の正面から移動するにしたが
って、ロボット装置1のレンズ233は見えにくくな
る。そして、図11のCの位置、すなわち、臨界角に人
間が移動すると、ロボット装置1のレンズ233は見え
なくなる。また、図12の下図は、凹部の深さaを0と
し、ロボット装置1の臨界角を180度としたときのロ
ボット装置1の外観を示す図である。ここで、ロボット
装置1の臨界角は180度に設定してあるので、図11
のEの位置に人間が移動しても、人間は、ロボット装置
1のレンズ233を見ることができる。
【0053】図13は、推定視野角と臨界角との関係を
示すグラフである。臨界角と推定視野角は、臨界角が1
20度になるまで、推定視野角=臨界角の関係が成り立
つ。そのため、ロボット装置1のレンズ233の画角と
臨界角が一致するように、ロボット装置1の凹部の形状
をデザインすると、レンズ233の画角=推定視野角の
関係が成り立つようになり、人間の想定するロボット装
置1の視野と実際のロボット装置1の視野が一致する。
このように、レンズの画角=推定視野角となるように、
ロボット装置1の凹部の形状を決定すると、人間がロボ
ット装置1の視野を誤解することがなくなり、人間とロ
ボット装置1が円滑にコミュニケーションをとれるよう
になる。
【0054】なお、図13のグラフでは、臨界角が12
0度を超えると推定視野角が一定になり、推定視野角=
臨界角の関係がなくなるが、これは人間の視野角が12
0度前後であり、臨界角が120度を超えると視野の範
囲から離れたと感じるためである。
【0055】次に、本発明を適用したほかの具体例につ
いて説明する。他の具体例は、図14に示すように、C
CDカメラ203の前面にレンズ233を取り付け、こ
のレンズ233の周囲にレンズ233の画角と同一の開
口角を有するカバー234を取り付けている。このよう
に、レンズ233の画角と同一の開口角を有するカバー
234を取り付けると、人間はこのカバー234の内側
の空間に入るまで、レンズ233を見ることができな
い。そのため、人間の推定視野角=開口角の関係が生ま
れ、さらに推定視野角=レンズ233の画角という関係
が生まれる。以上のように、レンズ233の周囲にレン
ズ233の画角と同一の開口角を有するカバー234を
設けると、人間の推定視野角がレンズ233の画角と同
一になり、人間の想定するロボット装置1の視野と、実
際のロボット装置1の視野が一致する。このことによ
り、人間がロボット装置1の視野を誤解することがなく
なり、人間とロボット装置1が円滑にコミュニケーショ
ンをとることができるようになる。
【0056】また、本具体例におけるカバー234の開
口角を少し広くすると、カバー234はレンズ233の
視野角の範囲外に存在する。そのため、カバー234を
導光部材で形成し、LEDの点等によりカバー234が
発光しても、カバー234から発した光はCCDカメラ
203に入射されることはなく、ロボット装置1の感情
を表現するために眼の周辺のカバー234を光らせて
も、その光によってCCDカメラ203の撮影する像が
変化することはない。なお、カバー234の開口角は、
レンズの画角より5度前後広くすることが適当である。
【0057】図15には、ロボット装置1の制御システ
ム構成を模式的に示している。同図に示すように、ロボ
ット装置1は、ヒトの四肢を表現した体幹部ユニット
2,頭部ユニット3,腕部ユニット4R/L,脚部ユニ
ット5R/Lと、各ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット10とで構成される。
【0058】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)等を含ん
だ周辺回路12とで構成される。
【0059】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図15では体
幹部ユニット2に搭載されているが、頭部ユニット3に
搭載してもよい。或いは、ロボット装置1外に制御ユニ
ット10を配備して、ロボット装置1の機体とは有線又
は無線で交信するようにしてもよい。
【0060】図2に示したロボット装置1内の各関節自
由度は、それぞれに対応するアクチュエータによって実
現される。すなわち、頭部ユニット3には、首関節ヨー
軸101、首関節ピッチ軸102、首関節ロール軸10
3の各々を表現する首関節ヨー軸アクチュエータA
首関節ピッチ軸アクチュエータA、首関節ロール軸ア
クチュエータAが配設されている。
【0061】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための距離センサ、外部音を集音するため
のマイクロフォン、音声を出力するためのスピーカ、使
用者からの「撫でる」や「叩く」といった物理的な働き
かけにより受けた圧力を検出するためのタッチセンサ等
が配設されている。
【0062】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA、体幹ロ
ール軸アクチュエータA、体幹ヨー軸アクチュエータ
が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。
【0063】また、腕部ユニット4R/Lは、上腕ユニ
ット4R/Lと、肘関節ユニット4R/Lと、前腕
ユニット4R/Lに細分化されるが、肩関節ピッチ軸
107、肩関節ロール軸108、上腕ヨー軸109、肘
関節ピッチ軸110、前腕ヨー軸111、手首関節ピッ
チ軸112、手首関節ロール軸113の各々表現する肩
関節ピッチ軸アクチュエータA、肩関節ロール軸アク
チュエータA、上腕ヨー軸アクチュエータA10、肘
関節ピッチ軸アクチュエータA11、肘関節ロール軸ア
クチュエータA12、手首関節ピッチ軸アクチュエータ
13、手首関節ロール軸アクチュエータA14が配備
されている。
【0064】また、脚部ユニット5R/Lは、大腿部ユ
ニット5R/Lと、膝ユニット5 R/Lと、脛部ユ
ニット5R/Lに細分化されるが、股関節ヨー軸11
5、股関節ピッチ軸116、股関節ロール軸117、膝
関節ピッチ軸118、足首関節ピッチ軸119、足首関
節ロール軸120の各々を表現する股関節ヨー軸アクチ
ュエータA16、股関節ピッチ軸アクチュエータ
17、股関節ロール軸アクチュエータA18、膝関節
ピッチ軸アクチュエータA19、足首関節ピッチ軸アク
チュエータA20、足首関節ロール軸アクチュエータA
21が配備されている。各関節に用いられるアクチュエ
ータA,A・・・は、より好ましくは、ギア直結型で
旦つサーボ制御系をワンチップ化してモータ・ユニット
内に搭載したタイプの小型ACサーボ・アクチュエータ
で構成することができる。
【0065】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/L、各脚部ユニット5R/L等の各機
構ユニット毎に、アクチュエータ駆動制御部の副制御部
20,21,22R/L,23R/Lが配備されてい
る。さらに、各脚部ユニット5R/Lの足底が着床した
か否かを検出する接地確認センサ30R/Lを装着する
とともに、体幹部ユニット2内には、姿勢を計測する姿
勢センサ31を装備している。
【0066】接地確認センサ30R/Lは、例えば足底
に設置された近接センサ又はマイクロ・スイッチ等で構
成される。また、姿勢センサ31は、例えば、加速度セ
ンサとジャイロ・センサの組み合わせによって構成され
る。
【0067】接地確認センサ30R/Lの出力によっ
て、歩行・走行等の動作期間中において、左右の各脚部
が現在立脚又は遊脚何れの状態であるかを判別すること
ができる。また、姿勢センサ31の出力により、体幹部
分の傾きや姿勢を検出することができる。
【0068】主制御部11は、各センサ30R/L,3
1の出力に応答して制御眼標をダイナミックに補正する
ことができる。より具体的には、副制御部20,21,
22R/L,23R/Lの各々に対して適応的な制御を
行い、ロボット装置1の上肢、体幹、及び下肢が協調し
て駆動する全身運動パターンを実現できる。
【0069】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さ等を設定するとともに、これら
の設定内容にしたがった動作を指示するコマンドを各副
制御部20,21,22R/L,23R/Lに転送す
る。そして、各々の副制御部20,21,・・・等で
は、主制御部11からの受信コマンドを解釈して、各ア
クチュエータA,A・・・等に対して駆動制御信号
を出力する。ここでいう「ZMP」とは、歩行中の床反
力によるモーメントがゼロとなる床面上の点のことであ
り、また、「ZMP軌道」とは、例えばロボット装置1
の歩行動作期間中にZMPが動く軌跡を意味する。な
お、ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩
行ロボットと人工の足』(日刊工業新聞社))に記載さ
れている。
【0070】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA,A
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、眼
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。
【0071】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラ203からの画像情報、マイクロ
フォンからの音声情報等を統括して処理している。制御
ユニット10では、図示しないが加速度センサ、ジャイ
ロ・センサ、タッチセンサ、距離センサ、マイクロフォ
ン、スピーカ等の各種センサ、各アクチュエータ、CC
Dカメラ203及びバッテリが各々対応するハブを介し
て主制御部11と接続されている。
【0072】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。
【0073】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無等を判断する。
【0074】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。
【0075】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己及び周囲の状況を判断し、使用
者からの指示及び働きかけに応じて自律的に行動でき
る。
【0076】ところで、このロボット装置1は、内部状
態に応じて自律的に行動することができる。そこで、ロ
ボット装置1における制御プログラムのソフトウェア構
成例について、図16〜図21を用いて説明する。
【0077】図16において、デバイス・ドライバ・レ
イヤ40は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット41から構成されている。この場合、各デバイス・
ドライバは、CCDカメラ203やタイマ等の通常のコ
ンピュータで用いられるハードウェアに直接アクセスす
ることを許されたオブジェクトであり、対応するハード
ウェアからの割り込みを受けて処理を行う。
【0078】また、ロボティック・サーバ・オブジェク
ト42は、デバイス・ドライバ・レイヤ40の最下位層
に位置し、例えば上述の各種センサや各アクチュエータ
,A・・・等のハードウェアにアクセスするため
のインターフェイスを提供するソフトウェア群でなるバ
ーチャル・ロボット43と、電源の切換え等を管理する
ソフトウェア群でなるパワーマネージャ44と、他の種
々のデバイス・ドライバを管理するソフトウェア群でな
るデバイス・ドライバ・マネージャ45と、ロボット装
置1の機構を管理するソフトウェア群でなるデザインド
・ロボット46とから構成されている。
【0079】マネージャ・オブジェクト47は、オブジ
ェクト・マネージャ48及びサービス・マネージャ49
から構成されている。オブジェクト・マネージャ48
は、ロボティック・サーバ・オブジェクト42、ミドル
・ウェア・レイヤ50、及びアプリケーション・レイヤ
51に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ49
は、メモリカードに格納されたコネクションファイルに
記述されている各オブジェクト間の接続情報に基づいて
各オブジェクトの接続を管理するソフトウェア群であ
る。
【0080】ミドル・ウェア・レイヤ50は、ロボティ
ック・サーバ・オブジェクト42の上位層に位置し、画
像処理や音声処理等のこのロボット装置1の基本的な機
能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ51は、ミドル・ウェア
・レイヤ50の上位層に位置し、当該ミドル・ウェア・
レイヤ50を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0081】なお、ミドル・ウェア・レイヤ50及びア
プリケーション・レイヤ51の具体なソフトウェア構成
をそれぞれ図17に示す。
【0082】ミドル・ウェア・レイヤ50は、図17に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール6
0〜68並びに入力セマンティクスコンバータモジュー
ル69等を有する認識系70と、出力セマンティクスコ
ンバータモジュール78並びに姿勢管理用、トラッキン
グ用、モーション再生用、歩行用、転倒復帰用、LED
点灯用及び音再生用の各信号処理モジュール71〜77
等を有する出力系79とから構成されている。
【0083】認識系70の各信号処理モジュール60〜
68は、ロボティック・サーバ・オブジェクト42のバ
ーチャル・ロボット43によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール69に与える。ここで、例えば、バーチ
ャル・ロボット43は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。
【0084】入力セマンティクスコンバータモジュール
69は、これら各信号処理モジュール60〜68から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」等の自己及び周囲の状況や、使用者から
の指令及び働きかけを認識し、認識結果をアプリケーシ
ョン・レイヤ41に出力する。
【0085】アプリケーション・レイヤ51は、図18
に示すように、行動モデルライブラリ80、行動切換モ
ジュール81、学習モジュール82、感情モデル83及
び本能モデル84の5つのモジュールから構成されてい
る。
【0086】行動モデルライブラリ80には、図19に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」等の予め
選択されたいくつかの条件項眼にそれぞれ対応させて、
それぞれ独立した行動モデルが設けられている。
【0087】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール69から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したとき等に、必要に応じて後述のよ
うに感情モデル83に保持されている対応する情動のパ
ラメータ値や、本能モデル84に保持されている対応す
る欲求のパラメータ値を参照しながら続く行動をそれぞ
れ決定し、決定結果を行動切換モジュール81に出力す
る。
【0088】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図8に示すよう
な1つのノード(状態)NODE〜NODEから他
のどのノードNODE〜NODEに遷移するかを各
ノードNODE〜NODE に間を接続するアークA
RC〜ARCn1に対してそれぞれ設定された遷移確
率P〜Pに基づいて確率的に決定する有限確率オー
トマトンと呼ばれるアルゴリズムを用いる。
【0089】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE〜NODE
にそれぞれ対応させて、これらノードNODE〜NO
DE 毎に図20に示すような状態遷移表90を有して
いる。
【0090】この状態遷移表90では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
【0091】したがって、図21の状態遷移表90で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられた場合
に、当該認識結果とともに与えられるその障害物までの
「距離(DISTANCE)」が「0から100」の範囲であること
が他のノードに遷移するための条件となっている。
【0092】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル83及び本能モデル84にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル83に保持された「喜び(Joy)」、
「驚き(Surprise)」又は「悲しみ(Sadness)」の何
れかのパラメータ値が「50から100」の範囲であるとき
には他のノードに遷移することができるようになってい
る。
【0093】また、状態遷移表90では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜NODEから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できるほかの各ノードNO
DE〜NODEへの遷移確率が「他のノードヘの遷
移確率」の欄内の対応する箇所にそれぞれ記述され、そ
のノードNODE〜NODEに遷移する際に出力す
べき行動が「他のノードヘの遷移確率」の欄における
「出力行動」の行に記述されている。なお、「他のノー
ドヘの遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0094】したがって、図21の状態遷移表90で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0095】各行動モデルは、それぞれこのような状態
遷移表90として記述されたノードNODE〜 NO
DEが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール69から認識結果
が与えられたとき等に、対応するノードNODE〜N
ODEの状態遷移表を利用して確率的に次の行動を決
定し、決定結果を行動切換モジュール81に出力するよ
うになされている。
【0096】図18に示す行動切換モジュール81は、
行動モデルライブラリ80の各行動モデルからそれぞれ
出力される行動のうち、予め定められた優先順位の高い
行動モデルから出力された行動を選択し、当該行動を実
行すべき旨のコマンド(以下、行動コマンドという。)
をミドル・ウェア・レイヤ50の出力セマンティクスコ
ンバータモジュール78に送出する。なお、この実施の
形態においては、図19において下側に表記された行動
モデルほど優先順位が高く設定されている。
【0097】また、行動切換モジュール81は、行動完
了後に出力セマンティクスコンバータモジュール78か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール82、感情モデル83及び本
能モデル84に通知する。
【0098】一方、学習モジュール82は、入力セマン
ティクスコンバータモジュール69から与えられる認識
結果のうち、「叩かれた」や「撫でられた」等、使用者
からの働きかけとして受けた教示の認識結果を入力す
る。
【0099】そして、学習モジュール82は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。
【0100】他方、感情モデル83は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル83は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
69から与えられる「叩かれた」及び「撫でられた」等
の特定の認識結果や、経過時間及び行動切換モジュール
81からの通知等に基づいて周期的に更新する。
【0101】具体的には、感情モデル83は、入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間と等に基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル83は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0102】
【数1】
【0103】なお、各認識結果や出力セマンティクスコ
ンバータモジュール78からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0104】ここで、出力セマンティクスコンバータモ
ジュール78からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル83は、このような情報によっ
ても感情を変化させる。これは、例えば、「叫ぶ」とい
った行動により怒りの感情レベルが下がるといったよう
なことである。なお、出力セマンティクスコンバータモ
ジュール78からの通知は、上述した学習モジュール8
2にも入力されており、学習モジュール82は、その通
知に基づいて行動モデルの対応する遷移確率を変更す
る。
【0105】なお、行動結果のフィードバックは、行動
切換モジュール81の出力(感情が付加された行動)に
よりなされるものであってもよい。
【0106】一方、本能モデル84は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル84
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果や、経過時間及び行動切換モジュール81からの
通知等に基づいて周期的に更新する。
【0107】具体的には、本能モデル84は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール78からの通知等に基づいて所定の演算式により算
出されるそのときのその欲求の変動量をΔI[k]、現
在のその欲求のパラメータ値をI[k]、その欲求の感
度を表す係数kとして、所定周期で(2)式を用いて
次の周期におけるその欲求のパラメータ値I[k+1]
を算出し、この演算結果を現在のその欲求のパラメータ
値I[k]と置き換えるようにしてその欲求のパラメー
タ値を更新する。また、本能モデル84は、これと同様
にして「食欲」を除く各欲求のパラメータ値を更新す
る。
【0108】
【数2】
【0109】なお、認識結果及び出力セマンティクスコ
ンバータモジュール78からの通知等が各欲求のパラメ
ータ値の変動量△I[k]にどの程度の影響を与えるか
は予め決められており、例えば出力セマンティクスコン
バータモジュール78からの通知は、「疲れ」のパラメ
ータ値の変動量△I[k]に大きな影響を与えるように
なっている。
【0110】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数k 、kの値も各情動及び各欲求毎に個別に設定さ
れている。
【0111】一方、ミドル・ウェア・レイヤ50の出力
セマンティクスコンバータモジュール78は、図17に
示すように、上述のようにしてアプリケーション・レイ
ヤ51の行動切換モジュール81から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系79の対応する信号処理モジュール71〜77に与え
る。
【0112】そしてこれら信号処理モジュール71〜7
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカから出力する
音の音声データ及び又はLEDに与える駆動データを生
成し、これらのデータをロボティック・サーバ・オブジ
ェクト42のバーチャル・ロボット43及び信号処理回
路を順次介して対応するアクチュエータ又はスピーカ又
はLEDに順次送出する。
【0113】このようにしてロボット装置1は、上述し
た制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動ができる。
【0114】このような制御プログラムは、ロボット装
置1が読取可能な形式で記録された記録媒体を介して提
供される。制御プログラムを記録する記録媒体として
は、磁気読取方式の記録媒体(例えば、磁気テープ、フ
レキシブルディスク、磁気カード)、光学読取方式の記
録媒体(例えば、CD−ROM、MO、CD−R、DV
D)等が考えられる。記録媒体には、半導体メモリ(い
わゆるメモリカード(矩形型、正方形型等形状は問わな
い。)、ICカード)等の記憶媒体も含まれる。また、
制御プログラムは、いわゆるインターネット等を介して
提供されてもよい。
【0115】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によってロボット装置1に伝
送されて読み込まれる。また、ロボット装置1は、半導
体メモリ、又はICカード等の小型化された記憶媒体の
ドライブ装置を備える場合、これら記憶媒体から制御プ
ログラムを直接読み込むこともできる。
【0116】なお、本発明は、上述した具体例に限定さ
れることはなく、本発明の要旨を含む範囲での変形、改
良は本発明に含まれるものとする。ここで、本発明の要
旨とは、人間がロボット装置の「眼」を視認できる範囲
を狭め、人間がロボット装置の「眼」を視認できる範囲
と、ロボット装置の実際の視野角とを一致することであ
る。
【0117】
【発明の効果】以上詳細に説明したように、本発明に係
るロボット装置は、外部情報、外部からの働きかけに応
じた動作及び/又は内部状態に基づく自律的動作を実行
するロボット装置であって、見かけの眼の位置に配置さ
れ外部情報を取得する撮像手段と、撮像手段が外部から
視認される範囲を制限する遮蔽部とを備えることによっ
て、人間がロボット装置の「眼」を視認できる範囲を狭
め、ロボット装置の眼を視認できる範囲とロボット装置
のもつ実際の視野とを一致することができる。
【0118】これにより、人間とロボット装置との間の
コミュニケーションが円滑に行えるようになるととも
に、ロボット装置のエンターテインメント性を向上する
ことができる。
【図面の簡単な説明】
【図1】本実施の形態におけるロボット装置の外観構成
を示す斜視図である。
【図2】同ロボット装置の自由度構成モデルを模式的に
示す図である。
【図3】頭部ユニットの正面外観を示す図である。
【図4】頭部ユニットの側面外観を示す図である。
【図5】ロボット装置の正面外観を示す図である。
【図6】ロボット装置の側面外観を示す図である。
【図7】眼底部基板の構造を示す図である。
【図8】人間の想定するロボット装置の視野を示す図で
ある。
【図9】凹部の形成する臨界角を示す図である。
【図10】ロボット装置の眼の構造を示す模式図であ
る。
【図11】推定視野角と臨界角の関連を調査する実験の
方法を示す図である。
【図12】異なる臨界角を有するロボット装置の外観を
示す図である。
【図13】推定視野角と臨界角の関連を示す図である。
【図14】他の具体例におけるロボット装置の眼の構造
を示す模式図である。
【図15】ロボット装置の回路構成を示すブロック図で
ある。
【図16】ロボット装置のソフトウェア構成を示すブロ
ック図である。
【図17】ロボット装置のソフトウェア構成におけるミ
ドル・ウェア・レイヤの構成を示すブロック図である。
【図18】ロボット装置のソフトウェア構成におけるア
プリケーション・レイヤの構成を示すブロック図であ
る。
【図19】アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。
【図20】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明する図である。
【図21】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明する図である。
【図22】従来のペット型ロボットの外観を示す図であ
る。
【図23】従来のペット型ロボットの外観を示す図であ
る。
【図24】従来のペット型ロボットの外観を示す図であ
る。
【図25】従来のヒューマノイド型ロボットの外観を示
す図である。
【符号の説明】 1 ロボット装置、203 CCDカメラ、207 頭
部外装筐体、208 眼用開口部、230 眼底部基
板、233 レンズ、232 導光部材、234 カバ
ー、a 凹部の深さ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 永塚 正樹 千葉県香取郡小見川町小見川2170番地 ソ ニーコンポーネント千葉株式会社内 Fターム(参考) 2H105 CC01 3C007 AS36 CS08 KT03 KT04 MT04 WA03 WA13 WC25 5C022 AA01 AC42 AC77

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 外部情報、外部からの働きかけに応じた
    動作及び/又は内部状態に基づく自律的動作を実行する
    ロボット装置において、 見かけの眼の位置に配置され外部情報を取得する撮像手
    段と、 上記撮像手段が外部から視認される範囲を制限する遮蔽
    部とを備えることを特徴とするロボット装置。
  2. 【請求項2】 上記遮蔽部は、上記撮像手段が外部から
    視認される範囲と上記撮像手段によって撮像される画像
    の画角とが略一致するように設けられていることを特徴
    とする請求項1記載のロボット装置。
  3. 【請求項3】 上記遮蔽部は、凹部として形成され、上
    記撮像手段は、該凹部の底部に設置され、上記凹部の深
    さによって、上記撮像手段を視認可能な範囲を規定する
    ことを特徴とする請求項1記載のロボット装置。
  4. 【請求項4】 上記遮蔽部は、上記撮像手段の周囲に形
    成された筒状部であり、上記筒状部の高さによって、上
    記撮像手段が視認可能な範囲を規定することを特徴とす
    る請求項1記載のロボット装置。
  5. 【請求項5】 上記遮蔽部は、開口底面を撮像方向とす
    る略円錐形状の部材として形成され、上記撮像手段は、
    上記円錐形状部材の頂点部に設置され、上記円錐形状部
    材の頂角角度によって、上記撮像手段を視認可能な範囲
    を規定することを特徴とする請求項1記載のロボット装
    置。
JP2002075149A 2002-03-18 2002-03-18 ロボット装置 Withdrawn JP2003266364A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002075149A JP2003266364A (ja) 2002-03-18 2002-03-18 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002075149A JP2003266364A (ja) 2002-03-18 2002-03-18 ロボット装置

Publications (1)

Publication Number Publication Date
JP2003266364A true JP2003266364A (ja) 2003-09-24

Family

ID=29204336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002075149A Withdrawn JP2003266364A (ja) 2002-03-18 2002-03-18 ロボット装置

Country Status (1)

Country Link
JP (1) JP2003266364A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221431A (ja) * 2007-03-15 2008-09-25 Hitachi Ltd ロボット
CN106426223A (zh) * 2016-12-16 2017-02-22 北京奇虎科技有限公司 一种机器人
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN112467819A (zh) * 2020-09-17 2021-03-09 张芷铉 一种基于热成像技术的电动自动车充电自动保护系统
US20240066420A1 (en) * 2021-01-22 2024-02-29 Sony Group Corporation Autonomous moving object and information processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221431A (ja) * 2007-03-15 2008-09-25 Hitachi Ltd ロボット
US8041458B2 (en) 2007-03-15 2011-10-18 Hitachi, Ltd. Robot
CN106426223A (zh) * 2016-12-16 2017-02-22 北京奇虎科技有限公司 一种机器人
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN112467819A (zh) * 2020-09-17 2021-03-09 张芷铉 一种基于热成像技术的电动自动车充电自动保护系统
US20240066420A1 (en) * 2021-01-22 2024-02-29 Sony Group Corporation Autonomous moving object and information processing method

Similar Documents

Publication Publication Date Title
JP3714268B2 (ja) ロボット装置
JP4086024B2 (ja) ロボット装置及びその行動制御方法
Bar-Cohen et al. The coming robot revolution: Expectations and fears about emerging intelligent, humanlike machines
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
EP3456487A2 (en) Robot, method of controlling the same, and program
EP1151779A2 (en) Robot and action deciding method for robot
JP7626179B2 (ja) 情報処理装置、及び、情報処理方法
US20200269421A1 (en) Information processing device, information processing method, and program
WO2002032629A1 (en) Robot device and behavior control method for robot device
JP7363809B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20190366554A1 (en) Robot interaction system and method
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
WO2022158279A1 (ja) 自律移動体及び情報処理方法
JP2022051982A (ja) 情報処理装置および情報処理方法
JP2003266364A (ja) ロボット装置
JP4281286B2 (ja) ロボット装置及びその制御方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2003266350A (ja) ロボット装置及び内部状態表出装置
JP2003269579A (ja) 動力伝達装置及びロボット装置
JP2003266361A (ja) 動力伝達装置及びロボット装置
US20240367065A1 (en) Autonomous mobile body, information processing method, and program
US20240367066A1 (en) Autonomous mobile body, information processing method, and program
JP2003266363A (ja) ロボット装置
JP2002331481A (ja) ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607