[go: up one dir, main page]

JP4396273B2 - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法 Download PDF

Info

Publication number
JP4396273B2
JP4396273B2 JP2003537879A JP2003537879A JP4396273B2 JP 4396273 B2 JP4396273 B2 JP 4396273B2 JP 2003537879 A JP2003537879 A JP 2003537879A JP 2003537879 A JP2003537879 A JP 2003537879A JP 4396273 B2 JP4396273 B2 JP 4396273B2
Authority
JP
Japan
Prior art keywords
target
recognition
information
memory
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003537879A
Other languages
English (en)
Other versions
JPWO2003035334A1 (ja
Inventor
浩太郎 佐部
献太 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2003035334A1 publication Critical patent/JPWO2003035334A1/ja
Application granted granted Critical
Publication of JP4396273B2 publication Critical patent/JP4396273B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4097Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33051BBC behavior based control, stand alone module, cognitive, independent agent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

[技術分野]
本発明は、自律的な動作を行ないリアリスティックなコミュニケーションを実現するロボット装置及びその制御方法に係り、特に、画像や音声などの外界の情報を認識してそれに対して自身の行動を反映させる機能を備えた自律型のロボット装置及びその制御方法に関する。
さらに詳しくは、本発明は、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い行動制御を行なうロボット装置及びその制御方法に係り、特に、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くロボット装置及びその制御方法に関する。
[背景技術]
電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の”ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
最近では、イヌやネコ、クマのように4足歩行の動物の身体メカニズムやその動作を模したペット型ロボット、あるいは、ヒトやサルなどの2足直立歩行を行う動物の身体メカニズムや動作を模した「人間形」若しくは「人間型」のロボット(humanoid robot)など、脚式移動ロボットの構造やその安定歩行制御に関する研究開発が進展し、実用化への期待も高まってきている。これら脚式移動ロボットは、クローラ式ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。
アーム式ロボットのように、ある特定の場所に植設して用いるような据置きタイプのロボットは、部品の組立・選別作業など固定的・局所的な作業空間でのみ活動する。これに対し、移動式のロボットは、作業空間は非限定的であり、所定の経路上または無経路上を自在に移動して、所定の若しくは任意の人的作業を代行したり、ヒトやイヌあるいはその他の生命体に置き換わる種々のサービスを提供することができる。
脚式移動ロボットの用途の1つとして、産業活動・生産活動等における各種の難作業の代行が挙げられる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃、火災現場その他における救助といったような危険作業・難作業の代行などである。
また、脚式移動ロボットの他の用途として、上述の作業支援というよりも、生活密着型、すなわち人間との「共生」あるいは「エンターティンメント」という用途が挙げられる。この種のロボットは、ヒトあるいはイヌ(ペット)、クマなどの比較的知性の高い脚式歩行動物の動作メカニズムや四肢を利用した豊かな感情表現を忠実に再現する。また、あらかじめ入力された動作パターンを単に忠実に実行するだけではなく、ユーザ(あるいは他のロボット)から受ける言葉や態度(「褒める」とか「叱る」、「叩く」など)に対して動的に対応した、生き生きとした応答表現を実現することも要求される。
従来の玩具機械は、ユーザ操作と応答動作との関係が固定的であり、玩具の動作をユーザの好みに合わせて変更することはできない。この結果、ユーザは同じ動作しか繰り返さない玩具をやがては飽きてしまうことになる。
これに対し、自律動作を行なうインテリジェントなロボットは、一般に、外界の情報を認識してそれに対して自身の行動を反映させる機能を持っている。すなわち、ロボットは、外部環境からの音声や画像、触覚などの入力情報に基づいて感情モデルや本能モデルを変化させて動作を決定することにより、自律的な思考及び動作制御を実現する。すなわち、ロボットが感情モデルや本能モデルを用意することにより、より高度な知的レベルで人間とのリアリスティックなコミュニケーションを実現することも可能となる。
ロボットが環境変化に応じた自律動作を行なうために、従来は、ある1つの観測結果に対してその情報を受けて行動を取るような単純な行動記述の組み合わせで行動を記述していた。これら入力に対する行動のマッピングにより、ランダム性、内部状態(感情・本能)、学習、成長などの機能を導入することで一意ではない複雑な行動の発現を可能にすることができる。
ところが、このような単純な行動マッピング方法では、例えばボールを追いかけて蹴るといった動作の中で一瞬でもボールを見失うと、ボールに関する情報は保持されていないので、最初からボールを探すといった行動を取ることとなり、認識結果の利用に一貫性がない。
また、ロボットは、複数のボールが観測されたときに、どの認識結果が以前観測されたどの結果に対応するのかという対応問題を解く必要がある。また、顔の認識や肌色の認識や声の認識をなどより複雑な認識結果を利用するためには、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解く必要がある。
[発明の開示]
本発明の目的は、画像や音声などの外界の情報を認識してそれに対して自身の行動を反映させる機能を備えた、自律型の優れたロボット装置及びその制御方法を提供することにある。
本発明のさらなる目的は、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い、高度な行動制御を行なうことができる、優れたロボット装置及びその制御方法を提供することにある。
本発明のさらなる目的は、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことができる、優れたロボット装置及びその制御方法を提供することにある。
本発明は、上記課題を参酌してなされたものであり、外部環境の変化に応じた自律的な動作が可能なロボット装置又はその制御方法であって、
外部環境を認識する1以上の認識手段又は認識ステップと、
前記認識手段又はステップによる認識結果を基に外部環境に存在する物体を検出するターゲット検出手段又はステップと、
前記ターゲット検出手段又はステップにより検出された物体に関するターゲット情報を保持するターゲット記憶手段又はステップと、
を具備することを特徴とするロボット装置又はその制御方法である。
ここで、前記認識手段又は認識ステップは、例えば、外部環境において、音声や、ユーザの発話内容、物体の色、ユーザの顔などを認識することができる。
本発明に係るロボット装置又はその制御方法は、前記ターゲット記憶手段又はステップに記憶されているターゲット情報を基に、ロボット装置自身が実行する行動を制御する行動制御手段又はステップをさらに備えていてもよい。
ここで、前記ターゲット記憶手段又はステップは、前記認識手段又はステップによる物体についての認識結果、物体の位置、姿勢情報をターゲット情報として保持する。
このとき、前記認識手段又はステップが持つ座標系で認識された認識結果を、ロボット装置の機体を基準にした固定座標系に変換して物体の位置、姿勢情報を保持するようにすることで、複数の認識気の情報を統合することが可能となる。例えば、ロボットが首などを動かしてセンサの姿勢が変化するような場合であっても、ターゲット情報を基にロボットの行動制御を行う上位モジュール(アプリケーション)から見た物体の位置は同じままとなる。
また、前記認識手段又はステップにより所定時間以上認識されなくなった物体に関するターゲット情報を削除するターゲット削除手段又はステップをさらに備えていてもよい。
また、前記認識手段又はステップにより認識されないターゲットが認識範囲内か又は該範囲外かを判断して、該範囲外であれば前記ターゲット記憶手段の対応するターゲット情報を保持し、該範囲内であれば前記ターゲット記憶手段の対応するターゲット情報を忘却する忘却手段をさらに備えてもよい。
また、認識された結果が同じ又は重なっているものを同一に物体に関する情報として、ターゲット情報間の関連性を見出すターゲット連想手段又はステップをさらに備えていてもよい。
また、2以上の認識手段により認識された結果が同じ位置若しくは重なっているものを同一の物体に関する情報として、ターゲット情報間の関連性を見出すターゲット連想手段又はステップをさらに備えていてもよい。
また、前記ターゲット記憶手段又はステップは、同じ物体に関して後から認識された情報を追加して1つのターゲット情報として保持するようにしてもよい。
また、本発明に係るロボット装置又はその制御方法は、前記認識手段又はステップによる認識結果を基に外部環境において発生したイベントを検出するイベント検出手段又はステップと、前記イベント検出手段又はステップにより検出されたイベントに関する情報を発生した時間順に保持するイベント記憶手段又はステップとをさらに備えていてもよい。
ここで、前記イベント検出手段又はステップは、認識された発話内容、物体の出現及び/又は消失、ロボット装置自身が実行した行動などの外界の状況変化に関する情報をイベントとして取り扱うようにしてもよい。
また、記憶されているイベント情報を基に、ロボット装置自身が実行する行動を制御する行動制御手段又はステップをさらに備えていてもよい。
本発明に係るロボット装置又はその制御方法は、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い、高度な行動制御を行なうことができる。また、非同期で通知される個々の認識結果を統合してから行動モジュールに渡すことができるので、行動モジュールで情報の取り扱いが容易になる。
したがって、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことができる。
また、本発明に係るロボット装置又はその制御方法によれば、認識した観測結果に関する情報を記憶として保持しているので、自律行動する期間中に一時的に観測結果が来なかったりした場合であっても、機体の行動制御を行なうアプリケーションなどの上位モジュールからは常にそこに物体が知覚されているように見える。この結果、認識器の間違いやセンサのノイズに強くなり、認識器の通知のタイミングに依存しない安定したシステムを実現することができる。
また、本発明に係るロボット装置又はその制御方法によれば、関連する認識結果が結び付けられているので、アプリケーションなどの上位モジュールで関連する情報を使って行動判断することが可能である。例えば、ロボット装置は、呼びかけられた声を基に、その人物の名前を引き出すことができるので、挨拶の応答に「こんにちは、XXXさん。」のように答えることが可能である。
また、本発明に係るロボット装置又はその制御方法によれば、センサの視野外の情報もすぐに忘れることなく保持しているので、ロボットが物体を一旦見失ったとしても、また後で探し出すことができる。
また、本発明に係るロボット装置又はその制御方法によれば、認識器単体から見て情報が足りなくても、他の認識結果が補うことができる場合があるので、システム全体としての認識性能が向上する。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
[発明を実施するための最良の形態]
以下、図面を参照しながら本発明の実施形態について詳解する。
A.脚式移動ロボットの構成
図1及び図2には、本発明の実施に供される脚式移動ロボット100が直立している様子を前方及び後方の各々から眺望した様子を示している。この脚式移動ロボット100は、「人間形」又は「人間型」と呼ばれるタイプであり、後述するように、音声や画像などの外部刺激の認識結果に基づいて自律的に行動制御を行なうことができる。図示の通り、脚式移動ロボット100は、脚式移動を行う左右2足の下肢と、体幹部と、左右の上肢と、頭部とで構成される。
左右各々の下肢は、大腿部と、膝関節と、脛部と、足首と、足平とで構成され、股関節によって体幹部の略最下端にて連結されている。また、左右各々の上肢は、上腕と、肘関節と、前腕とで構成され、肩関節によって体幹部上方の左右各側縁にて連結されている。また、頭部は、首関節によって体幹部の略最上端中央に連結されている。
体幹部ユニット内には、図1及び図2上では見えていない制御部が配備されている。この制御部は、脚式移動ロボット100を構成する各関節アクチュエータの駆動制御や各センサ(後述)などからの外部入力を処理するコントローラ(主制御部)や、電源回路その他の周辺機器類を搭載した筐体である。制御部は、その他、遠隔操作用の通信インターフェースや通信装置を含んでいてもよい。
図3には、本実施例に係る脚式移動ロボット100が具備する関節自由度構成を模式的に示している。図示の通り、脚式移動ロボット100は、2本の腕部と頭部1を含む上体と、移動動作を実現する2本の脚部からなる下肢と、上肢と下肢とを連結する体幹部とで構成される。
頭部1を支持する首関節は、首関節ヨー軸2と、首関節ピッチ軸3と、首関節ロール軸4という3自由度を有している。
また、各腕部は、肩関節ピッチ軸8と、肩関節ロール軸9と、上腕ヨー軸10と、肘関節ピッチ軸11と、前腕ヨー軸12と、手首関節ピッチ軸13と、手首関節ロール軸14と、手部15とで構成される。手部15は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部15の動作自体は、ロボット100の姿勢安定制御や歩行動作制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、左右の各腕部は7自由度を有するとする。
また、体幹部は、体幹ピッチ軸5と、体幹ロール軸6と、体幹ヨー軸7という3自由度を有する。
また、下肢を構成する左右各々の脚部は、股関節ヨー軸16と、股関節ピッチ軸17と、股関節ロール軸18と、膝関節ピッチ軸19と、足首関節ピッチ軸20と、関節ロール軸21と、足部(足底又は足平)22とで構成される。人体の足部(足底)22は、実際には多関節・多自由度の足底を含んだ構造体であるが、本実施例に係る脚式移動ロボット100の足底はゼロ自由度とする。したがって、左右の各脚部は6自由度で構成される。
以上を総括すれば、本実施例に係る脚式移動ロボット100全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、脚式移動ロボット100が必ずしも32自由度に限定される訳ではない。設計・製作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることは言うまでもない。
脚式移動ロボット100が持つ上述の各関節自由度は、実際にはアクチュエータによる能動的な動作として実現される。装置の外観上で余分な膨らみを排してヒトの自然体形状に近似させることや、2足歩行という不安定構造体に対して姿勢制御を行うことなどの種々の要請から、関節アクチュエータは小型且つ軽量であることが好ましい。本実施形態では、ギア直結型で且つサーボ制御系をワンチップ化してモータ・ユニットに内蔵したタイプの小型ACサーボ・アクチュエータを搭載することとした。なお、脚式移動ロボット100に適用可能な小型ACサーボ・アクチュエータに関しては、例えば本出願人に既に譲渡されている特開2000−299970号公報(特願平11−33386号明細書)に開示されている。
B.ロボットの行動制御システムの構成
本実施形態に係る脚式移動ロボット100は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができる。図4には、本実施形態に係る脚式移動ロボット100において採用される行動制御システム50の基本アーキテクチャを模式的に示している。
図示の行動制御システム50にはオブジェクト指向プログラミングを採り入れることができる。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なうことができる。
行動制御システム50は、外部環境(Environments)を認識するために、視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53を備えている。
視覚認識機能部(Video)51は、例えば、CCD(Charge Coupled Device:電荷結合素子)カメラのような画像入力装置を介して入力された撮影画像を基に、顔認識や色認識などの画像認識処理や特徴抽出を行なう。視覚認識機能部51は、後述する”MultiColorTracker”,”FaceDetector”,”FaceIdentify”といった複数のオブジェクトで構成される。
聴覚認識機能部(Audio)52は、マイクなどの音声入力装置を介して入力される音声データを音声認識して、特徴抽出したり、単語セット(テキスト)認識を行なったりする。聴覚認識機能部52は、後述する”AudioRecog”,”AuthurDecoder”といった複数のオブジェクトで構成される。
接触認識機能部(Tactile)53は、例えば機体の頭部などに内蔵された接触センサによるセンサ信号を認識して、「なでられた」とか「叩かれた」という外部刺激を認識する。
内部状態管理部(ISM:Internal Status Manager)54は、本能モデルや感情モデルを備え、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって認識された外部刺激(ES:ExternalStimula)に応じてロボット100の本能や情動といった内部状態を管理する。
感情モデルと本能モデルは、それぞれ認識結果と行動履歴を入力に持ち、感情値と本能値を管理している。行動モデルは、これら感情値や本能値を参照することができる。
短期記憶部(ShortTermMemory)55は、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって外部環境から認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、カメラからの入力画像を約15秒程度の短い期間だけ記憶する。
長期記憶部(LongTermMemory)56は、物の名前など学習により得られた情報を超期間保持するために使用される。長期記憶部56は、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶する。但し、長期記憶部56における連想記憶は、本発明の要旨とは直接関連しないので、ここでは説明を省略する。
本実施形態に係る脚式移動ロボット100の行動制御は、反射行動部59によって実現される「反射行動」と、状況依存行動階層58によって実現される「商況依存行動」と、熟考行動階層57によって実現される「熟考行動」に大別される。
熟考行動階層(DeliberativeLayer)57は、短期記憶部55並びに長期記憶部56の記憶内容に基づいて、脚式移動ロボット100の比較的長期にわたる行動計画などを行なう。
熟考行動は、与えられた状況あるいは人間からの命令により、推論やそれを実現するための計画を立てて行なわれる行動である。このような推論や計画は、ロボット100がインタラクションを保つための反応時間よりも処理時間や計算負荷を要する可能性があるので、反射行動や状況依存行動がリアルタイムで反応を返しながら、熟考行動は推論や計画を行なう。
状況依存行動階層(SituatedBehaviorsLayer)58は、短期記憶部55並びに長期記憶部56の記憶内容や、内部状態管理部54によって管理される内部状態を基に、脚式移動ロボット100が現在置かれている状況に即応した行動を制御する。
状況依存行動階層58は、各行動毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層58は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動(後述)に比し、反応時間が遅い。
熟考行動階層57や状況依存行動階層58は、アプリケーションとして実装することができる。
反射的行動部(ConfigurationDependentActionsAndReactions)59は、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。
反射行動は、基本的に、センサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する行動である。例えば、人間の顔を追いかけたり、うなずくといった振る舞いは反射行動として実装することが好ましい。
本実施形態に係る脚式移動ロボット100では、短期記憶部55が、上述した視覚認識機能部51、聴覚認識機能部52、接触認識機能部53などの複数の認識器の結果を時間的及び空間的に整合性を保つように統合して、外部環境下の各物体に関する知覚を短期間の記憶として状況依存行動階層(SBL)58などの行動制御モジュールに提供するようになっている。
したがって、上位モジュールとして構成される行動制御モジュール側では、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い、高度な行動制御を行なうことができる。また、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことができる。
また、認識した観測結果に関する情報を記憶として短期記憶部55が保持しているので、自律行動する期間中に一時的に観測結果が来なかったりした場合であっても、機体の行動制御を行うアプリケーションなどの上位モジュールからは常にそこに物体が知覚されているように見えるようにすることができる。例えば、センサの視野外の情報もすぐに忘れることなく保持しているので、ロボットが物体を一旦見失ったとしても、また後で探し出すことができる。この結果、認識器の間違いやセンサのノイズに強くなり、認識器の通知のタイミングに依存しない安定したシステムを実現することができる。また、認識器単体から見て情報が足りなくても、他の認識結果が補うことができる場合があるので、システム全体としての認識性能が向上する。
また、関連する認識結果が結び付けられているので、アプリケーションなどの上位モジュールで関連する情報を使って行動判断することが可能である。例えば、ロボット装置は、呼び掛けられた声を基に、その人物の名前を引き出すことができる。この結果、挨拶の応答に「こんにちは、XXXさん。」のように答えるなどのリアクションが可能である。
図5には、図4に示した行動制御システム50を構成する各オブジェクトによる動作の流れを示している。
同図において、丸で表されているのが、「オブジェクト」又は「プロセス」と呼ばれるエンティティである。オブジェクト同士が非同期に通信し合うことで、システム全体が動作する。各オブジェクトはメッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なっている。以下に、各オブジェクトの機能について説明する。
AudioRecog:
マイクなどの音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行うオブジェクトである。また、マイクがステレオである場合には、水平方向の音源方向推定を行なうことができる。音声区間であると判断されると、その区間の音声データの特徴量及び音源方向がArtherDecoder(後述)に送られる。
ArthurDecoder:
AudioRecogから受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行なうオブジェクトである。認識された単語のセットは短期記憶部(ShortTermMemory)55に送られる。
MultiColorTracker:
色認識を行なうオブジェクトであり、カメラなどの画像入力装置から画像データを受け取り、あらかじめ持っている複数のカラー・モデルに基づいて色領域を抽出し、連続した領域に分割する。分割された各領域の位置や大きさ、特徴量などの情報を出力して、短期記憶部(ShortTermMemory)55へ送る。
FaceDetector:
画像フレーム中から顔領域を検出するオブジェクトであり、カメラなどの画像入力装置から画像データを受け取り、それを9段階のスケール画像に縮小変換する。このすべての画像の中から顔に相当する矩形領域を探索する。重なりあった候補領域を削減して最終的に顔と判断された領域に関する位置や大きさ、特徴量などの情報を出力して、FaceIdentify(後述)へ送る。
FaceIdentify:
検出された顔画像を識別するオブジェクトであり、顔の領域を示す矩形領域画像をFaceDetectorから受け取り、この顔画像が手持ちの人物辞書のうちでどの人物に相当するかを比較して人物の識別を行なう。この場合、顔検出から顔画像を受け取り、出力として顔画像領域の位置、大きさ情報とともに人物のID情報を出力する。
ShortTermMemory(短期記憶部):
ロボット100の外部環境に関する情報を比較的短い時間だけ保持するオブジェクトであり、ArthurDecoderから音声認識結果(単語、音源方向、確信度)を受け取り、MultiColorTrackerから肌色の領域の位置、大きさと顔領域の位置、大きさを受け取り、FaceIdentifyから人物のID情報等を受け取る。また、ロボット100の機体上の各センサからロボットの首の方向(関節角)を受け取る。そして、これらの認識結果やセンサ出力を統合的に使って、現在どこにどの人物がいて、しゃべった言葉がどの人物のものであり、その人物とはこれまでにどんな対話を行なったのかという情報を保存する。こうした物体すなわちターゲットに関する物理情報と時間方向でみたイベント(履歴)を出力として、状況依存行動階層(SBL)などの上位モジュールに渡す。
SituatedBehaviorLayer(状況依存行動階層):
上述のShortTermMemory(短期記憶部)からの情報を基にロボット100の行動(状況に依存した行動)を決定するオブジェクトである。複数の行動を同時に評価したり、実行したりすることができる。また、行動を切り替えて機体をスリープ状態にしておき、別の行動を起動することができる。
ResourceManager:
出力用のコマンドに対してロボット100の各ハードウェアのリソース調停を行なうオブジェクトである。図5に示す例では、音声出力用のスピーカをコントロールするオブジェクトと首のモーション・コントロールするオブジェクトのリソース調停を行なう。
SoundPerformerTTS:
音声出力を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから与えられたテキスト・コマンドに応じて音声合成を行い、ロボット100の機体上のスピーカから音声出力を行なう。
HeadMotionGenerator:
ResourceManager経由でSituatedBehaviorLayerから首を動かすコマンドを受けたことに応答して、首の関節角を計算するオブジェクトである。「追跡」のコマンドを受けたときには、ShortTermMemoryから受け取った物体の位置情報を基に、その物体が存在する方向を向く首の関節角を計算して出力する。
C.短期記憶部
本実施形態に係る脚式移動ロボット100では、ShortTermMemory(短期記憶部)55が、外部刺激に関する複数の認識器の結果を時間的及び空間的に整合性を保つように統合して、意味を持ったシンボル情報として扱うようになっている。これによって、状況依存行動階層(SBL)58などの上位モジュールでは、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことを可能にしている。
短期記憶部55は、ターゲット・メモリとイベント・メモリという2種類のメモリ・オブジェクトで構成される。
ターゲット・メモリは、各認識機能部51〜53からの情報を統合して、現在知覚している物体に関する情報すなわちターゲットを保持している。このため、対象物体がいなくなったり現れたりすることで、該当するターゲットを記憶領域から削除したり(GarbageCollector)、新たに生成したりする。また、1つのターゲットを複数の認識属性で表現することができる(TargetAssociate)。例えば、肌色で顔のパターンで声を発する物体(人間の顔)などである。
ターゲット・メモリで保持される物体(ターゲット)の位置や姿勢情報は、それぞれの認識機能部51〜53において使用されるセンサ座標系ではなく、ロボット100の体幹などの機体上の特定の部位が所定の場所に固定されたワールド座標系で表現を行なうようにしている。このため、短期記憶部(STM)55では、ロボット100の各関節の現在値(センサ出力)を常に監視して、センサ座標系からこの固定座標系への変換を行なう。これにより、各認識機能部51〜53の情報を統合することが可能になる。例えば、ロボット100が首などを動かしてセンサの姿勢が変化しても、状況依存行動階層(SBL)などの行動制御モジュールから見た物体の位置は同じままであるので、ターゲットの取り扱いが容易になる。
また、イベント・メモリは、外部環境下で発生した過去から現在までのイベントを時系列的に格納するオブジェクトである。イベント・メモリにおいて扱われるイベントとして、ターゲットの出現と消失、音声認識単語、自己の行動や姿勢の変化などの外界の状況の変化に関する情報を挙げることができる。
イベントの中には、あるターゲットに関する状態変化が含まれている。このため、イベント情報として該当するターゲットのIDを含めることで、発生したイベントに関するより詳しい情報を、上述のターゲット・メモリから検索することも可能である。
本発明の1つのポイントは、属性の異なる2種以上のセンサ情報の統合によりターゲットの検出を行なう点にある。センサ結果と記憶結果の距離計算は、例えば、ターゲットの中心位置の距離から両者の大きさを2分の1して引いたものを扱う通常距離計算(極座標は角度)を用いる。
声に関するセンサ情報と顔に関するセンサ情報を統合する場合、音声(voice)に関する認識結果が得られた時に短期記憶部内のターゲットに顔(face)の認識結果が含まれている場合には、通常距離計算に基づいて統合する。それ以外の場合は、距離が無限大として扱う。
また、色に関するセンサ情報を統合する場合、色(color)の認識結果と記憶したターゲットの色が同色の場合には通常距離×0.8を距離とし、それ以外の場合は通常距離×4.0を距離とする。
また、センサの結果と記憶結果を統合する際、極座標系表現の場合は仰角と水平角の平均が25度以内であること、デカルト座標系表現の場合は通常距離が50cm以内であることを、通常統合ルールとする。
また、個々の認識結果による違いは、認識結果とターゲットの距離の計算方法に重みを加えるなどして対応することができる。
図6には、短期記憶部55が動作する様子を模式的に示している。同図に示す例では、顔の認識結果(FACE)と音声認識、及び、その音源方向の認識結果(VOICE)が別々のタイミングで処理されて、短期記憶部55に通知されたときの動作を表している(但し、ロボット100の機体を原点とする極座標系で描かれている)。この場合、各認識結果は時間的にも空間的に近い(オーバーラップしている)ことから、顔の属性と音声の属性を持った1つの物体であると判断して、ターゲット・メモリを更新している。
図7及び図8には、各認識機能部51〜53における認識結果に基づいて、短期記憶部55内のターゲット・メモリ及びイベント・メモリに入る情報の流れをそれぞれ示している。
図7に示すように、短期記憶部55(STMオブジェクト)内には、外部環境からターゲットを検出するターゲット検出器が設けられている。このターゲット検出器は、声認識結果や顔認識結果、色認識結果などの各認識機能部51〜53による認識結果を基に、新規ターゲットを追加したり、既存のターゲットを認識結果に反映するように更新したりする。検出されたターゲットは、ターゲット・メモリ内に保持される。
また、ターゲット・メモリには、もはや観測されなくなったターゲットを探して消去するガーベッジ・コレクタ(GarbageCollector)や、複数のターゲットの関連性を判別して同じターゲットに結び付けるターゲット・アソシエート(TargetAssociate)などの機能がある。ガーベッジ・コレクタは、時間の経過に従ってターゲットの確信度をデクリメントしていき、確信度が所定値を下回ったターゲットを削除(delete)することで実現される。また、ターゲット・アソシエートは、同じ属性(認識タイプ)の特徴量が近いターゲット間で空間的・時間的な近さをもつことで、同じターゲットを同定することができる。
前述した状況依存型行動階層(SBL)は、短期記憶部55のクライアント(STMクライアント)となるオブジェクトであり、ターゲット・メモリからは定期的に各ターゲットに関する情報の通知(Notify)を受け取る。本実施形態では、STMプロキシ・クラスが、短期記憶部55(STMオブジェクト)とは独立したクライアント・ローカルな作業領域にターゲットをコピーして、常に最新の情報を保持しておく。そして、ローカルなターゲット・リスト(Target of Interest)の中から所望のターゲットを読み出して、スキーマ(schema)すなわち行動モジュールを決定する。
また、図8に示すように、短期記憶部55(STMオブジェクト)内には、外部環境において発生するイベントを検出するイベント検出器が設けられている。このイベント検出器は、ターゲット検出器によるターゲットの生成や、ガーベッジ・コレクタによるターゲットの削除をイベントとして検出する。また、認識機能部51〜53による認識結果が音声認識である場合には、その発話内容がイベントになる。発生したイベントは、発生した時間順にイベント・メモリ内でイベント・リストとして格納される。
前述した状況依存型行動階層(SBL)は、短期記憶部55のクライアント(STMクライアント)となるオブジェクトであり、イベント・メモリからは時々刻々とのイベントの通知(Notify)を受け取る。本実施形態では、STMプロキシ・クラスが、短期記憶部55(STMオブジェクト)とは独立したクライアント・ローカルな作業領域にイベント・リストをコピーしておく。そして、ローカルなイベント・リストの中から所望のイベントを読み出して、スキーマ(schema)すなわち行動モジュールを決定する。実行された行動モジュールは新たなイベントとしてイベント検出器により検出される。また、古いイベントは、例えばFIFO(Fast In Fast Out)形式でイベント・リストから逐次的に廃棄される。
図9には、ターゲット検出器の処理動作をフローチャートの形式で示している。以下、このフローチャートを参照しながら、ターゲット検出器によるターゲット・メモリの更新処理について説明する。
各認識機能部51〜53からの認識結果を受け取ると(ステップS1)、認識結果と同じ時刻における関節角データを検索して、それを基に、各認識結果をセンサ座標系からワールド固定座標系への座標変換を行なう(ステップS2)。
次いで、ターゲット・メモリ(Target of Interest)の中からターゲットを1つ取り出して(ステップS3)、ターゲットの位置及び時間情報を、認識結果の位置及び時間情報と比較する(ステップS4)。位置が重なっていて且つ測定時間が近い場合は、ターゲットと認識結果が一致すると判断する。
一致した場合は、ターゲット内に認識結果と同じ認識タイプの情報があるか否かをさらにチェックする(ステップS5)。
そして、同じ認識タイプの情報があれば、さらに、特徴量が一致するか否かをチェックする(ステップS6)。特徴量が一致する場合には、今回の認識結果を反映させて(ステップS7)、当該ターゲットのターゲット位置や観測時刻を更新して(ステップS8)、本処理ルーチン全体を終了する。
他方、特徴量が一致しない場合には、新規ターゲットを生成して、それに今回の認識結果を割り当てて(ステップS11)、本処理ルーチン全体を終了する。
また、ステップS5において、認識情報が一致するターゲット内に同じ認識タイプの情報がないと判別された場合には、当該ターゲットについて認識結果を追加して(ステップS9)、そのターゲット位置や観測時刻を更新して(ステップS9)、本処理ルーチン全体をする。
また、ステップS4において、取り出されたターゲットが認識結果の位置及び時間情報に一致しないと判別された場合には、次のターゲットを順次取り出して(ステップS10)、上述と同じ処理を繰り返し行なう。最終的に認識結果と一致するターゲットを発見することができなかった場合には、新規ターゲットを生成して、それに今回の認識結果を割り当てて(ステップS11)、本処理ルーチン全体を終了する。
既に述べたように、ターゲット検出器によるターゲットの追加や更新は、イベントとなる。
図10には、ガーベッジ・コレクタがターゲット・メモリからターゲットの削除を行うための処理手順をフローチャートの形式で示している。
ガーベッジ・コレクタは、定期的に呼び出されて起動する。まず、センサの測定範囲をワールド固定座標系へ変換する(ステップS21)。
そして、ターゲット・メモリ(Target of Interest)からターゲットを1つ取り出す(ステップS22)。そして、取り出されたターゲットがセンサの測定範囲内に存在するか否かをチェックする(ステップS23)。
ターゲットがセンサの測定範囲内にいたら、時間の経過に応じてその確信度をデクリメントする(ステップS24)。センサの測定範囲であるにも拘わらずターゲットの情報が更新されていないのでターゲットが存在しない可能性がある場合も、その確信度を下げる。測定範囲外のターゲットについては、その情報が保持される。
そして、ターゲットの確信度が所定の閾値THを下回った場合には(ステップS25)、もはや観察されなくなったものとして、そのターゲットをターゲット・メモリから削除する(ステップS26)。
上述したような確信度の更新やターゲットの削除処理をすべてのターゲットについて繰り返し行う(ステップS27)。
既に述べたように、ガーベッジ・コレクタによるターゲットの削除は、イベントとなる。
図11には、ターゲット・メモリのデータ表現を示している。同図に示すように、ターゲットは、AssociatedTargetという複数の認識結果を要素に持つリストである。このためにターゲットは関連する認識結果を幾つでも持つことができる。
リストの先頭には、すべての認識結果から統合的に判断されたこのターゲットの位置や大きさなどの物理情報が格納され、音声(voice)や色(color)、顔(face)などの認識結果がこれに続く。AssociatedTargetは共有メモリ上に展開されて、ターゲットの出現、消失とともにメモリ上に生成されたり、消されたりする。上位モジュールはこのメモリを参照することによって現在ロボット100の意識下にある物体の情報を得ることができる。
また、図12には、イベント・メモリのデータ表現を示している。同図に示すように、各イベントはSTMEventという構造体で表現されて、この中にはどのイベントにも共通のデータ・フィールドとイベントを検知した認識器固有のフィールドからなる。
イベント・メモリは、これらSTMEvent構造体のリストの要素として持つ記憶領域である。上位モジュールは、STMEventのデータ・フィールドの中のデータから該当するデータを使って、所望のイベントを探すことができる。このようなイベント探索により、ある特定の人との対話の履歴を検索するときには、その人物に対応するターゲットIDとSPEECH(発話)というイベントの種類を使って、その人物の発声したすべての単語をリストすることが可能となる。
また、図13には、各認識機能部51〜53における認識結果を格納する構造体の例を示している。図示の構造体のデータ・フィールドには、それぞれの認識機能部51〜53に依存する特徴量などのデータ・フィールドと認識に依存しない位置や大きさ速度などの物理的パラメータ・フィールドが設けられている。
D.ロボットによる対話処理
本実施形態に係る脚式移動ロボット100では、外部刺激に関する複数の認識器の結果を時間的及び空間的に整合性を保つように統合して、意味を持ったシンボル情報として扱うようになっている。これによって、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことを可能にしている。
以下では、図14〜図16を参照しながら、ロボット100によるユーザA及びBとの対話処理について説明する。
まず、図14に示すように、ユーザAが「まさひろ(ロボットの名前)くん!」と呼ぶと、各認識機能部51〜53により音方向検出、音声認識、及び顔識別が行われ、呼ばれた方向を向いて、ユーザAの顔をトラッキングしたり、ユーザAとの対話を開始するという状況依存の行動が行なわれる。
次いで、図15に示すように、今度はユーザBが「まさひろ(ロボットの名前)くん!」と呼ぶと、各認識機能部51〜53により音方向検出、音声認識、及び顔識別が行われ、ユーザAとの対話を中断した後(但し、会話のコンテキストを保存する)、呼ばれた方向を向いて、ユーザBの顔をトラッキングしたり、ユーザBとの対話を開始するという状況依存の行動が行なわれる。
次いで、図16に示すように、ユーザAが「おーい!」と叫んで、会話の継続を催促すると、今度は、ユーザBとの対話を中断した後(但し、会話のコンテキストを保存する)、呼ばれた方向を向いて、ユーザAの顔をトラッキングしたり、保存されているコンテキストに基づいてユーザAとの対話を再開するという状況依存の行動が行なわれる。
追補
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。
本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置であるならば、例えば玩具などのような他の産業分野に属する製品であっても、同様に本発明を適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
[産業上の利用可能性]
本発明によれば、画像や音声などの外界の情報を認識してそれに対して自身の行動を反映させる機能を備えた、自律型の優れたロボット装置及びその制御方法を提供することができる。
また、本発明によれば、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い、高度な行動制御を行なうことができる、優れたロボット装置及びその制御方法を提供することができる。
また、本発明によれば、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことができる、優れたロボット装置及びその制御方法を提供することができる。
本発明に係るロボット装置は、非同期で通知される個々の認識結果を統合してから行動モジュールに渡すことができるので、行動モジュールで情報の取り扱いが容易になる。
また、本発明に係るロボット装置は、認識した観測結果に関する情報を記憶として保持しているので、自律行動する期間中に一時的に観測結果が来なかったりした場合であっても、機体の行動制御を行なうアプリケーションなどの上位モジュールからは常にそこに物体が知覚されているように見える。この結果、認識器の間違いやセンサのノイズに強くなり、認識器の通知のタイミングに依存しない安定したシステムを実現することができる。
また、本発明に係るロボット装置は、関連する認識結果が結び付けられているので、アプリケーションなどの上位モジュールで関連する情報を使って行動判断することが可能である。例えば、ロボット装置は、呼びかけられた声を基に、その人物の名前を引き出すことができるので、挨拶の応答に「こんにちは、XXXさん。」のように答えることが可能である。
また、本発明に係るロボット装置は、センサの視野外の情報もすぐに忘れることなく保持しているので、ロボットが物体を一旦見失ったとしても、また後で探し出すことができる。
また、本発明に係るロボット装置は、認識器単体から見て情報が足りなくても、他の認識結果が補うことができる場合があるので、システム全体としての認識性能が向上する。
【図面の簡単な説明】
図1は、本発明の実施に供される脚式移動ロボット100を前方から眺望した様子を示た図である。
図2は、本発明の実施に供される脚式移動ロボット100を後方から眺望した様子を示た図である。
図3は、本発明の一実施形態に係る脚式移動ロボット100が具備する自由度構成モデルを模式的に示した図である。
図4は、本発明の一実施形態に係る脚式移動ロボット100において採用される行動制御システム50のアーキテクチャを模式的に示した図である。
図5は、行動制御システム50における動作の流れを模式的に示した図である。
図6は、短期記憶部55が動作する様子を模式的に示した図である。
図7は、各認識機能部51〜53における認識結果に基づいてターゲット・メモリに入る情報の流れを示した図である。
図8は、各認識機能部51〜53における認識結果に基づいてイベント・メモリに入る情報の流れを示した図である。
図9は、ターゲット検出器の処理動作を示したフローチャートである。
図10は、ガーベッジ・コレクタがターゲット・メモリからターゲットの削除を行なうための処理手順を示したフローチャートである。
図11は、ターゲット・メモリのデータ表現を示した図である。
図12は、イベント・メモリのデータ表現を示した図である。
図13は、各認識機能部51〜53における認識結果を格納する構造体の例を示した図である。
図14は、ロボット100によるユーザA及びBとの対話処理の例を示した図である。
図15は、ロボット100によるユーザA及びBとの対話処理の例を示した図である。
図16は、ロボット100によるユーザA及びBとの対話処理の例を示した図である。

Claims (7)

  1. 入力情報に対応して動作するロボット装置であって、
    外部環境から認識属性毎に特徴量を認識する複数の認識手段と、
    前記複数の認識手段からの認識結果を基にターゲットを検出するターゲット検出手段と、
    前記ターゲット検出手段により検出されたターゲット複数の認識属性の各々についての特徴量と時間的及び空間的情報を記憶可能なターゲット・メモリと、
    前記ターゲット・メモリに記憶された各ターゲットに基づいて、前記ロボット装置の行動を決定する行動決定手段と、
    を具備し、
    前記ターゲット検出手段は、
    前記複数の認識手段のうちいずれかからの認識結果について、前記ターゲット・メモリ内の時間的及び空間的関係が近いターゲットを同定し、
    前記の認識結果が前記の同定したターゲットの同じ認識属性の特徴量と一致するときには、前記の同定したターゲットの認識属性の情報に前記の認識結果反映させるとともに時間的及び空間的情報を更新し
    前記の同定したターゲットが前記の認識結果と同じ認識属性を持たないときには、前記の同定したターゲットに前記の認識結果を追加するとともに時間的及び空間的情報を更新し、
    前記の認識結果が該同定したターゲットの同じ認識属性の特徴量と一致しないとき、又は、前記の認識結果と時間的及び空間的関係が近いターゲットが前記ターゲット・メモリ内にないときには、前記の認識結果を持つ新規のターゲット前記ターゲット・メモリに記憶する、
    ことを特徴とするロボット装置。
  2. 前記複数の認識属性は、少なくとも色情報、声情報、顔認識情報のうち1つを含む
    ことを特徴とする請求項1に記載のロボット装置。
  3. 前記ターゲット検出手段が検出したターゲットの空間的情報を、前記認識手段において使用される座標系から前記ロボット装置を基準にした固定座標系の表現に変換する、
    ことを特徴とする請求項1に記載のロボット装置。
  4. 前記ターゲット・メモリ内に記憶されているターゲットの確信度を時間の経過に従ってデクリメントし、確信度が所定値を下回ったターゲットを前記ターゲット・メモリから削除するガーベッジ・コレクタをさらに備える、
    ことを特徴とする請求項1に記載のロボット装置。
  5. 外部環境で発生したイベントを時系列に応じて、関連するターゲット情報と併せて記憶するイベント・メモリをさらに備え、
    前記行動決定手段は、前記ターゲット・メモリに記憶されたターゲットと前記イベント・メモリに記憶されたイベントに基づいて行動決定を行なう、
    ことを特徴とする請求項1に記載のロボット装置。
  6. 前記イベントには、前記ターゲットの出現並びに消失、音声認識単語、対話、前記ロボット装置の自己行動結果のいずれかが含まれている、
    ことを特徴とする請求項に記載のロボット装置。
  7. 入力情報に対応して動作するロボット装置の制御方法であって、
    外部環境から認識属性毎に特徴量を認識する複数の認識ステップと、
    前記複数の認識ステップにおける認識結果を基にターゲットを検出するターゲット検出ステップと、
    前記ターゲット検出ステップにより検出されたターゲット複数の認識属性各々についての特徴量と時間的及び空間的情報を記憶するターゲット記憶ステップと、
    前記ターゲット検出ステップにより記憶された各ターゲットに基づいて、前記ロボット装置の行動を決定する行動決定ステップと、
    を有し、
    前記ターゲット検出ステップでは、
    前記複数の認識ステップのうちいずれかからの各認識属性の認識結果について、前記ターゲット・メモリ内の時間的及び空間的関係が近いターゲットの認識属性を同定し、
    前記の認識結果が前記の同定したターゲットの同じ認識属性の特徴量と一致するときには、前記の同定したターゲットの認識属性の情報に前記の認識結果反映させるとともに時間的及び空間的情報を更新し
    前記の同定したターゲットが前記の認識結果と同じ認識属性を持たないときには、前記の同定したターゲットに前記の認識結果を追加するとともに時間的及び空間的情報を更新し、
    前記の認識結果が該同定したターゲットの同じ認識属性の特徴量と一致しないとき、又は、前記の認識結果と時間的及び空間的関係が近いターゲットが前記ターゲット・メモリ内にないときには、前記の認識結果を持つ新規のターゲット前記ターゲット・メモリに記憶する、
    ことを特徴とするロボット装置の制御方法。
JP2003537879A 2001-10-22 2002-10-22 ロボット装置及びその制御方法 Expired - Fee Related JP4396273B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001323259 2001-10-22
JP2001323259 2001-10-22
PCT/JP2002/010921 WO2003035334A1 (fr) 2001-10-22 2002-10-22 Appareil robotique et procede de commande pour un tel appareil

Publications (2)

Publication Number Publication Date
JPWO2003035334A1 JPWO2003035334A1 (ja) 2005-02-10
JP4396273B2 true JP4396273B2 (ja) 2010-01-13

Family

ID=19140178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003537879A Expired - Fee Related JP4396273B2 (ja) 2001-10-22 2002-10-22 ロボット装置及びその制御方法

Country Status (6)

Country Link
US (1) US6850818B2 (ja)
EP (1) EP1439039A4 (ja)
JP (1) JP4396273B2 (ja)
KR (1) KR100898435B1 (ja)
CN (1) CN1304177C (ja)
WO (1) WO2003035334A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101273300B1 (ko) 2011-06-08 2013-06-11 한국과학기술연구원 인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법
KR20170027704A (ko) * 2014-04-17 2017-03-10 소프트뱅크 로보틱스 유럽 자율 생활 능력을 갖는 휴머노이드 로봇
KR20170029409A (ko) * 2014-04-17 2017-03-15 소프트뱅크 로보틱스 유럽 인간과 휴머노이드 로봇의 대화를 핸들링하기 위한 시스템, 방법 및 컴퓨터 프로그램 프로덕트

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60238781D1 (de) * 2001-10-16 2011-02-10 Honda Motor Co Ltd Vorrichtung und verfahren zur bestimmung eines gehzustands
US7103447B2 (en) * 2002-09-02 2006-09-05 Sony Corporation Robot apparatus, and behavior controlling method for robot apparatus
GB2409734B (en) * 2002-11-11 2007-01-03 Alfred Schurmann Determination and control of activities of an emotional system
JP4048492B2 (ja) 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP4594663B2 (ja) * 2004-06-30 2010-12-08 本田技研工業株式会社 警備ロボット
JP2006015436A (ja) * 2004-06-30 2006-01-19 Honda Motor Co Ltd 監視ロボット
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
JP4460528B2 (ja) 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US7441367B2 (en) * 2005-03-14 2008-10-28 Vmi Foundation Robotic pest removal system
WO2007041295A2 (en) 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
JP4751222B2 (ja) * 2006-03-23 2011-08-17 株式会社東芝 生活行動改善支援装置、生活行動改善支援方法及びプログラム
JP5191119B2 (ja) * 2006-12-06 2013-04-24 株式会社ジャパンディスプレイウェスト 表示装置、表示装置の制御方法、及びプログラム
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
KR100940497B1 (ko) * 2007-12-17 2010-02-10 한국전자통신연구원 사용자 행동 패턴 생성 장치 및 방법
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
WO2009158653A1 (en) * 2008-06-27 2009-12-30 Intuitive Automata, Inc. Apparatus and method for assisting in achieving desired behavior patterns
TWI388956B (zh) * 2009-05-20 2013-03-11 Univ Nat Taiwan Science Tech 行動機器人與其目標物處理路徑的規劃方法
US9120224B2 (en) * 2009-09-22 2015-09-01 GM Global Technology Operations LLC Framework and method for controlling a robotic system using a distributed computer network
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
US8706299B2 (en) * 2011-08-02 2014-04-22 GM Global Technology Operations LLC Method and system for controlling a dexterous robot execution sequence using state classification
US8751042B2 (en) 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
US9802309B2 (en) * 2014-07-24 2017-10-31 X Development Llc Methods and systems for generating instructions for a robotic system to carry out a task
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US12084824B2 (en) 2015-03-06 2024-09-10 Walmart Apollo, Llc Shopping facility assistance systems, devices and methods
US10358326B2 (en) 2015-03-06 2019-07-23 Walmart Apollo, Llc Shopping facility assistance systems, devices and methods
WO2017120180A1 (en) * 2016-01-06 2017-07-13 Evollve, Inc. Robot having a changeable character
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
CN105798931B (zh) * 2016-04-26 2018-03-09 南京玛锶腾智能科技有限公司 智能机器人唤醒方法及装置
JP6681800B2 (ja) * 2016-07-15 2020-04-15 株式会社日立製作所 制御装置、制御システム、および制御方法
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
CN106774797B (zh) * 2016-12-02 2021-01-12 北京奇虎科技有限公司 机器人自动节电方法、装置和机器人
CN106914894A (zh) * 2017-03-10 2017-07-04 上海云剑信息技术有限公司 一种具有自我意识能力的机器人系统
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN109521927B (zh) * 2017-09-20 2022-07-01 阿里巴巴集团控股有限公司 机器人互动方法和设备
CN108115728A (zh) * 2017-12-24 2018-06-05 胡明建 一种机械听觉触觉嗅觉以时间相互映射的设计方法
CN108115729A (zh) * 2017-12-27 2018-06-05 胡明建 一种机械视觉听觉触觉嗅觉以时间相互映射的设计方法
CN109991989B (zh) * 2017-12-29 2021-12-17 深圳市优必选科技有限公司 机器人空闲状态下的动态平衡方法、装置及存储介质
CN108584231A (zh) * 2018-05-07 2018-09-28 北京三辰环卫机械有限公司 基于移动垃圾桶的迎宾方法、移动垃圾桶
DE102018207513A1 (de) * 2018-05-15 2019-11-21 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines Roboters über einen Sprachdialog
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN110633951B (zh) * 2019-08-02 2022-07-05 岭澳核电有限公司 一种核电站应急救援指挥系统
CN115113626B (zh) * 2022-07-20 2023-04-11 威康(深圳)智能有限公司 一种机器人分布式控制系统及其方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6151571A (ja) * 1984-08-21 1986-03-14 Nippon Seibutsu Kagaku Kenkyusho オ−エスキ−病診断用抗原の単離・精製法
JPH0981205A (ja) * 1995-09-11 1997-03-28 Fujitsu Ltd 学習システム
JPH10222663A (ja) * 1997-01-31 1998-08-21 Yamaha Motor Co Ltd 画像認識システム及び装置
JP2000155750A (ja) * 1998-11-24 2000-06-06 Omron Corp 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
US7590538B2 (en) * 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
JP2001157981A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法
JP2001188555A (ja) 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
WO2001072478A1 (fr) * 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
CN1322056A (zh) * 2001-02-07 2001-11-14 王建功 磁力发动机

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101273300B1 (ko) 2011-06-08 2013-06-11 한국과학기술연구원 인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법
KR20170027704A (ko) * 2014-04-17 2017-03-10 소프트뱅크 로보틱스 유럽 자율 생활 능력을 갖는 휴머노이드 로봇
KR20170029409A (ko) * 2014-04-17 2017-03-15 소프트뱅크 로보틱스 유럽 인간과 휴머노이드 로봇의 대화를 핸들링하기 위한 시스템, 방법 및 컴퓨터 프로그램 프로덕트
JP2017513724A (ja) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト
JP2017514709A (ja) * 2014-04-17 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 自律的生活能力を備えた人型ロボット
KR102003588B1 (ko) * 2014-04-17 2019-07-24 소프트뱅크 로보틱스 유럽 인간과 휴머노이드 로봇의 대화를 핸들링하기 위한 시스템, 방법 및 컴퓨터 프로그램 프로덕트
US10583559B2 (en) 2014-04-17 2020-03-10 Softbank Robotics Europe Humanoid robot with an autonomous life capability
KR102103624B1 (ko) * 2014-04-17 2020-04-22 소프트뱅크 로보틱스 유럽 자율 생활 능력을 갖는 휴머노이드 로봇

Also Published As

Publication number Publication date
US6850818B2 (en) 2005-02-01
KR100898435B1 (ko) 2009-05-21
JPWO2003035334A1 (ja) 2005-02-10
US20040117063A1 (en) 2004-06-17
CN1487871A (zh) 2004-04-07
KR20040050055A (ko) 2004-06-14
EP1439039A1 (en) 2004-07-21
CN1304177C (zh) 2007-03-14
WO2003035334A1 (fr) 2003-05-01
EP1439039A4 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
JP4396273B2 (ja) ロボット装置及びその制御方法
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
US20040153212A1 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP3714268B2 (ja) ロボット装置
JP7238796B2 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
US20010047226A1 (en) Articulated robot and method of controlling the motion of the same
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
KR20030007713A (ko) 로봇 장치를 위한 동작 교시 장치 및 동작 교시 방법, 및기억 매체
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
JP3925140B2 (ja) 情報提供方法及び情報提供装置、並びにコンピュータ・プログラム
JP4281286B2 (ja) ロボット装置及びその制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
US11986959B2 (en) Information processing device, action decision method and program
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2005271137A (ja) ロボット装置及びその制御方法
JP2006110707A (ja) ロボット装置
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2003266352A (ja) ロボット装置及びロボット装置の制御方法
JP2007125629A (ja) ロボット装置及びその行動制御方法
Bischoff System reliability and safety concepts of the humanoid service robot hermes
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees