JP3211186B2 - ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 - Google Patents
ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体Info
- Publication number
- JP3211186B2 JP3211186B2 JP36312297A JP36312297A JP3211186B2 JP 3211186 B2 JP3211186 B2 JP 3211186B2 JP 36312297 A JP36312297 A JP 36312297A JP 36312297 A JP36312297 A JP 36312297A JP 3211186 B2 JP3211186 B2 JP 3211186B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- mapping function
- user
- mapping
- input information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
Description
【0001】
【発明の属する技術分野】本発明は、ロボット、ロボッ
トシステム、ロボットの学習方法、ロボットシステムの
学習方法および記録媒体に係り、特に、動物を調教する
ような身振りや音声を用いた調教の楽しみを疑似的に体
験し得るロボット、ロボットシステム、ロボットの学習
方法、ロボットシステムの学習方法および記録媒体に関
する。
トシステム、ロボットの学習方法、ロボットシステムの
学習方法および記録媒体に係り、特に、動物を調教する
ような身振りや音声を用いた調教の楽しみを疑似的に体
験し得るロボット、ロボットシステム、ロボットの学習
方法、ロボットシステムの学習方法および記録媒体に関
する。
【0002】
【従来の技術】人間が動物を調教する場合、例えば、犬
に「お座り」や「お手」を教えるなどの場合には、身振
りや音声を用いて調教する。また、飼い主とペットとの
コミュニケーションにおいては、最初からコミュニケー
ションのルールが決まっているのではなく、飼い主とペ
ットとの間でインタラクションを繰り返している間に、
独自のコミュニケーションルールが形成されてくる。こ
の独自のコミュニケーションルールの形成が飼い主にと
ってペットを飼育することの大きな魅力の1つとなって
いる。さらに、コミュニケーションルールの形成結果だ
けでなく、形成過程についても飼い主にとっての楽しみ
となる。すなわち、1解の教示だけでペットが学習を完
了してしまうと教え甲斐がなく、何度か間違いながら学
習し上達していくペットの成長過程に関与することが飼
い主にとって喜びとなる。
に「お座り」や「お手」を教えるなどの場合には、身振
りや音声を用いて調教する。また、飼い主とペットとの
コミュニケーションにおいては、最初からコミュニケー
ションのルールが決まっているのではなく、飼い主とペ
ットとの間でインタラクションを繰り返している間に、
独自のコミュニケーションルールが形成されてくる。こ
の独自のコミュニケーションルールの形成が飼い主にと
ってペットを飼育することの大きな魅力の1つとなって
いる。さらに、コミュニケーションルールの形成結果だ
けでなく、形成過程についても飼い主にとっての楽しみ
となる。すなわち、1解の教示だけでペットが学習を完
了してしまうと教え甲斐がなく、何度か間違いながら学
習し上達していくペットの成長過程に関与することが飼
い主にとって喜びとなる。
【0003】
【発明が解決しようとする課題】これに対して、機械学
習に関する従来技術として、ニューラルネットワークを
用いる方法がある。しかし、このニューラルネットワー
クの学習では、教師信号(正解)が必要である。一般
に、調教においては、飼い主がペットに手本を示すよう
なことは行わず、ペットの動作が正解か否かだけを教え
るため、ニューラルネットワーク学習は問題を解決でき
ない。
習に関する従来技術として、ニューラルネットワークを
用いる方法がある。しかし、このニューラルネットワー
クの学習では、教師信号(正解)が必要である。一般
に、調教においては、飼い主がペットに手本を示すよう
なことは行わず、ペットの動作が正解か否かだけを教え
るため、ニューラルネットワーク学習は問題を解決でき
ない。
【0004】また、教師信号を必要としない学習方法と
して、最適化手法の一種である遺伝的アルゴリズムがあ
る。この遺伝的アルゴリズムは、問題解決のための知識
を生物の遺伝子を模擬した個体で表現する。複数の個体
を用意しておき、各個体に問題を与えると個体ごとに出
力が得られるので、それぞれの出力を評価し、該評価に
よって個体を淘汰していくうちに最適な個体だけが残る
仕組みである。しかし、従来の遺伝的アルゴリズムで
は、評価基準を予め機械に与えておき、以後は評価が自
動的に行われるような仕組みになっており、ペットの調
教のように人間とペットが対話しながら評価する手法と
して、この従来の遺伝的アルゴリズムをそのまま適用す
ることはできない。
して、最適化手法の一種である遺伝的アルゴリズムがあ
る。この遺伝的アルゴリズムは、問題解決のための知識
を生物の遺伝子を模擬した個体で表現する。複数の個体
を用意しておき、各個体に問題を与えると個体ごとに出
力が得られるので、それぞれの出力を評価し、該評価に
よって個体を淘汰していくうちに最適な個体だけが残る
仕組みである。しかし、従来の遺伝的アルゴリズムで
は、評価基準を予め機械に与えておき、以後は評価が自
動的に行われるような仕組みになっており、ペットの調
教のように人間とペットが対話しながら評価する手法と
して、この従来の遺伝的アルゴリズムをそのまま適用す
ることはできない。
【0005】これに対して、人間が固体に対して主観的
評価を与えることができる対話型遺伝的アルゴリズムが
提案されている。この対話型遺伝的アルゴリズムでは、
例えば、似顔絵を自動作成する装置に応用した場合、そ
れぞれの個体が生成した結果(似顔絵画像)をコンピュ
ータ画面に一覧表示させるなどして、同時に複数の個体
をインタラクティブに評価できるような工夫がなされて
いる。しかし、ロボットの調教の場合は、1台のロボッ
トが複数の個体から得られる結果を同時に出力すること
はできない。また、1台のロボットが連続的に順番に結
果を出力する方法も考えられるが、これでは現実の調教
の手順とは全く異なるという点で問題がある。
評価を与えることができる対話型遺伝的アルゴリズムが
提案されている。この対話型遺伝的アルゴリズムでは、
例えば、似顔絵を自動作成する装置に応用した場合、そ
れぞれの個体が生成した結果(似顔絵画像)をコンピュ
ータ画面に一覧表示させるなどして、同時に複数の個体
をインタラクティブに評価できるような工夫がなされて
いる。しかし、ロボットの調教の場合は、1台のロボッ
トが複数の個体から得られる結果を同時に出力すること
はできない。また、1台のロボットが連続的に順番に結
果を出力する方法も考えられるが、これでは現実の調教
の手順とは全く異なるという点で問題がある。
【0006】この発明は、このような従来の事情に鑑み
てなされたもので、その目的とするところは、身振りや
音声によるユーザの入力とロボット動作出力との関係を
自動的に学習する方法として、1つの動作を評価するだ
けで複数の知識を修正する方法を繰り返し用いることに
より、動物を調教するような身振りや音声を用いた調教
の楽しみを疑似的に体験し得るロボット、ロボットシス
テム、ロボットの学習方法、ロボットシステムの学習方
法および記録媒体を提供することにある。
てなされたもので、その目的とするところは、身振りや
音声によるユーザの入力とロボット動作出力との関係を
自動的に学習する方法として、1つの動作を評価するだ
けで複数の知識を修正する方法を繰り返し用いることに
より、動物を調教するような身振りや音声を用いた調教
の楽しみを疑似的に体験し得るロボット、ロボットシス
テム、ロボットの学習方法、ロボットシステムの学習方
法および記録媒体を提供することにある。
【0007】
【課題を解決するための手段】上記課題を解決するため
に、本出願の請求項1に記載の発明は、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記動作出力手段から出力された動作に対する‘正解’の
ユーザ評価が得られたときには、当該動作への変換に用
いられた前記1の写像関数と、前記記憶手段に保持され
たその他の写像関数とを、遺伝的アルゴリズムを用いて
適宜に交差させることにより、前記記憶手段に保持され
るべき新たな写像関数を生成する学習手段と、を具備す
ることを特徴とするロボットにある。
に、本出願の請求項1に記載の発明は、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記動作出力手段から出力された動作に対する‘正解’の
ユーザ評価が得られたときには、当該動作への変換に用
いられた前記1の写像関数と、前記記憶手段に保持され
たその他の写像関数とを、遺伝的アルゴリズムを用いて
適宜に交差させることにより、前記記憶手段に保持され
るべき新たな写像関数を生成する学習手段と、を具備す
ることを特徴とするロボットにある。
【0008】尚、ここで言う『写像関数』には、例え
ば、ニューラルネットワーク等における「ユニット間の
結合重み値」、「ユニットのしきい値」等のパラメータ
で構成される関数パラメータ群そのものも含まれる。以
下同様とする。
ば、ニューラルネットワーク等における「ユニット間の
結合重み値」、「ユニットのしきい値」等のパラメータ
で構成される関数パラメータ群そのものも含まれる。以
下同様とする。
【0009】また、本出願の請求項2に記載の発明は、
学習手段を介して新たに生成された写像関数を少なくと
も含む複数の写像関数を、他のロボットと送受信する通
信手段を更に具備することを特徴とする請求項1に記載
のロボットにある。
学習手段を介して新たに生成された写像関数を少なくと
も含む複数の写像関数を、他のロボットと送受信する通
信手段を更に具備することを特徴とする請求項1に記載
のロボットにある。
【0010】また、本出願の請求項3に記載の発明は、
‘正解’のユーザ評価が得られたときの動作変換に用い
られた1の写像関数を、他のロボットと送受信する通信
手段と、前記通信手段を介して他のロボットより得られ
る前記1の写像関数と、自己の記憶手段に保持された写
像関数とを、遺伝的アルゴリズムを用いて適宜に交差さ
せることにより、前記記憶手段に保持されるべき新たな
写像関数を生成する学習手段とを更に具備することを特
徴とする、請求項1に記載のロボットにある。
‘正解’のユーザ評価が得られたときの動作変換に用い
られた1の写像関数を、他のロボットと送受信する通信
手段と、前記通信手段を介して他のロボットより得られ
る前記1の写像関数と、自己の記憶手段に保持された写
像関数とを、遺伝的アルゴリズムを用いて適宜に交差さ
せることにより、前記記憶手段に保持されるべき新たな
写像関数を生成する学習手段とを更に具備することを特
徴とする、請求項1に記載のロボットにある。
【0011】また、本出願の請求項4に記載の発明は、
入力情報は、身振り、手振り、頭部動作、表情または音
声の少なくとも1つで表現されることを特徴とする請求
項1乃至3のいずれかに記載のロボットにある。
入力情報は、身振り、手振り、頭部動作、表情または音
声の少なくとも1つで表現されることを特徴とする請求
項1乃至3のいずれかに記載のロボットにある。
【0012】また、本出願の請求項5に記載の発明は、
入力手段は、ユーザが与える物理量を触覚情報としてセ
ンシングする検知手段を有し、前記入力情報は、身振
り、手振り、頭部動作、表情、音声または触覚の少なく
とも1つで表現されることを特徴とする請求項1乃至3
のいずれかに記載のロボットにある。
入力手段は、ユーザが与える物理量を触覚情報としてセ
ンシングする検知手段を有し、前記入力情報は、身振
り、手振り、頭部動作、表情、音声または触覚の少なく
とも1つで表現されることを特徴とする請求項1乃至3
のいずれかに記載のロボットにある。
【0013】また、本出願の請求項6に記載の発明は、
特徴量抽出手段は、前記入力情報から、身振り、手振
り、頭部動作、表情または音声の少なくとも1つ以上に
関する特徴量を抽出することを特徴とする請求項1乃至
5のいずれかに記載のロボットにある。
特徴量抽出手段は、前記入力情報から、身振り、手振
り、頭部動作、表情または音声の少なくとも1つ以上に
関する特徴量を抽出することを特徴とする請求項1乃至
5のいずれかに記載のロボットにある。
【0014】また、本出願の請求項7に記載の発明は、
正解または不正解は、身振り、手振り、頭部動作、表
情、音声または触覚の少なくとも1つで表現されること
を特徴とする請求項6に記載のロボットにある。
正解または不正解は、身振り、手振り、頭部動作、表
情、音声または触覚の少なくとも1つで表現されること
を特徴とする請求項6に記載のロボットにある。
【0015】また、本出願の請求項8に記載の発明は、
動作出力手段は、動作を視覚的に表示出力する表示出力
手段であることを特徴とする請求項1乃至7のいずれか
に記載のロボットにある。
動作出力手段は、動作を視覚的に表示出力する表示出力
手段であることを特徴とする請求項1乃至7のいずれか
に記載のロボットにある。
【0016】また、本出願の請求項9に記載の発明は、
複数のロボットと、情報処理装置と、を具備するロボッ
トシステムであって、前記ロボットは、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記情報処理装置と前記写像関数を送受信する通信手段
と、を有し、前記情報処理装置は、前記ロボットと前記
写像関数を送受信する通信手段と、1のロボットにおい
て出力された動作に対する‘正解’のユーザ評価が得ら
れたときに当該動作への変換に用いられた1の写像関数
と、該1のロボットまたはその他の1のロボットの有す
る複数の写像関数のうちの一部または全部とを、遺伝的
アルゴリズムを用いて適宜に交差させることにより、新
たな写像関数を生成する学習手段と、を有し、それによ
り、前記情報処理装置で生成された新たな写像関数を少
なくとも含む複数の写像関数は、前記通信手段を介して
情報処理装置から任意のロボットへと受け渡される、こ
とを特徴とするロボットシステムにある。
複数のロボットと、情報処理装置と、を具備するロボッ
トシステムであって、前記ロボットは、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記情報処理装置と前記写像関数を送受信する通信手段
と、を有し、前記情報処理装置は、前記ロボットと前記
写像関数を送受信する通信手段と、1のロボットにおい
て出力された動作に対する‘正解’のユーザ評価が得ら
れたときに当該動作への変換に用いられた1の写像関数
と、該1のロボットまたはその他の1のロボットの有す
る複数の写像関数のうちの一部または全部とを、遺伝的
アルゴリズムを用いて適宜に交差させることにより、新
たな写像関数を生成する学習手段と、を有し、それによ
り、前記情報処理装置で生成された新たな写像関数を少
なくとも含む複数の写像関数は、前記通信手段を介して
情報処理装置から任意のロボットへと受け渡される、こ
とを特徴とするロボットシステムにある。
【0017】また、本出願の請求項10に記載の発明
は、請求項9のロボットシステムに適用されるロボット
であって、情報処理装置で生成された新たな写像関数を
少なくとも含む複数の写像関数を通信手段を介して受け
取ることにより、該複数の写像関数を移植されるロボッ
トにある。
は、請求項9のロボットシステムに適用されるロボット
であって、情報処理装置で生成された新たな写像関数を
少なくとも含む複数の写像関数を通信手段を介して受け
取ることにより、該複数の写像関数を移植されるロボッ
トにある。
【0018】また、本出願の請求項11に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、を備えたロボットの学習方法であって、前記入力情
報についてユーザ指示またはユーザ評価の種別を認識す
るとともに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、前記入力情報から特徴量を抽出する
特徴量抽出ステップと、前記入力情報のユーザ指示に基
づく特徴量を前記動作出力手段によって出力すべき動作
に変換する写像関数を複数保持する記憶ステップと、前
記記憶ステップにより保持された複数の写像関数から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換ステップ
と、前記動作出力手段から出力された動作に対する‘正
解’のユーザ評価が得られたときには、当該動作への変
換に用いられた前記1の写像関数と、前記保持されたそ
の他の写像関数とを、遺伝的アルゴリズムを用いて適宜
に交差させることにより、新たに保持されるべき写像関
数を生成する学習ステップと、を具備することを特徴と
するロボットの学習方法にある。
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、を備えたロボットの学習方法であって、前記入力情
報についてユーザ指示またはユーザ評価の種別を認識す
るとともに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、前記入力情報から特徴量を抽出する
特徴量抽出ステップと、前記入力情報のユーザ指示に基
づく特徴量を前記動作出力手段によって出力すべき動作
に変換する写像関数を複数保持する記憶ステップと、前
記記憶ステップにより保持された複数の写像関数から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換ステップ
と、前記動作出力手段から出力された動作に対する‘正
解’のユーザ評価が得られたときには、当該動作への変
換に用いられた前記1の写像関数と、前記保持されたそ
の他の写像関数とを、遺伝的アルゴリズムを用いて適宜
に交差させることにより、新たに保持されるべき写像関
数を生成する学習ステップと、を具備することを特徴と
するロボットの学習方法にある。
【0019】また、本出願の請求項12に記載の発明
は、請求項11に記載のロボットの学習方法をコンピュ
ータに実行させるためのプログラムとして記憶したコン
ピュータにより読み取り可能な記録媒体にある。
は、請求項11に記載のロボットの学習方法をコンピュ
ータに実行させるためのプログラムとして記憶したコン
ピュータにより読み取り可能な記録媒体にある。
【0020】また、本出願の請求項13に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、データを送受信する通信手段とを備えた複数のロボ
ットと、前記ロボットとデータを送受信する通信手段を
備えた情報処理装置と、を具備するロボットシステムの
学習方法であって、各ロボットにおいて、前記入力情報
についてユーザ指示またはユーザ評価の種別を認識する
とともにに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、各ロボットにおいて、前記入力情報
から特徴量を抽出する特徴量抽出ステップと、各ロボッ
トにおいて、前記入力情報のユーザ指示に基づく特徴量
を前記動作出力手段によって出力すべき動作に変換する
写像関数を複数保持する記憶ステップと、各ロボットに
おいて、前記記憶ステップにより保持された複数の写像
関数から1の写像関数を選択し、該1の写像関数を用い
て前記ユーザ指示に基づく特徴量を前記動作に変換する
変換ステップと、前記情報処理装置において、1のロボ
ットにおいて出力された動作に対する‘正解’のユーザ
評価が得られたときに当該動作への変換に用いられた1
の写像関数と、該1のロボットまたはその他の1のロボ
ットの記憶手段に保持された複数の写像関数の一部また
は全部とを、前記通信手段を介して取得するデータ受信
ステップと、前記情報処理装置において、該取得された
‘正解’のユーザ評価が得られたときの1の写像関数
と、その他取得された写像関数とを、遺伝的アルゴリズ
ムを用いて適宜に交差させることにより、新たな写像関
数を生成する学習ステップと、該情報処理装置において
生成された新たな写像関数を含む複数の写像関数を、前
記通信手段を介して情報処理装置から任意のロボットへ
と受け渡すステップと、を具備することを特徴とするロ
ボットシステムの学習方法にある。
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、データを送受信する通信手段とを備えた複数のロボ
ットと、前記ロボットとデータを送受信する通信手段を
備えた情報処理装置と、を具備するロボットシステムの
学習方法であって、各ロボットにおいて、前記入力情報
についてユーザ指示またはユーザ評価の種別を認識する
とともにに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、各ロボットにおいて、前記入力情報
から特徴量を抽出する特徴量抽出ステップと、各ロボッ
トにおいて、前記入力情報のユーザ指示に基づく特徴量
を前記動作出力手段によって出力すべき動作に変換する
写像関数を複数保持する記憶ステップと、各ロボットに
おいて、前記記憶ステップにより保持された複数の写像
関数から1の写像関数を選択し、該1の写像関数を用い
て前記ユーザ指示に基づく特徴量を前記動作に変換する
変換ステップと、前記情報処理装置において、1のロボ
ットにおいて出力された動作に対する‘正解’のユーザ
評価が得られたときに当該動作への変換に用いられた1
の写像関数と、該1のロボットまたはその他の1のロボ
ットの記憶手段に保持された複数の写像関数の一部また
は全部とを、前記通信手段を介して取得するデータ受信
ステップと、前記情報処理装置において、該取得された
‘正解’のユーザ評価が得られたときの1の写像関数
と、その他取得された写像関数とを、遺伝的アルゴリズ
ムを用いて適宜に交差させることにより、新たな写像関
数を生成する学習ステップと、該情報処理装置において
生成された新たな写像関数を含む複数の写像関数を、前
記通信手段を介して情報処理装置から任意のロボットへ
と受け渡すステップと、を具備することを特徴とするロ
ボットシステムの学習方法にある。
【0021】また、本出願の請求項14に記載の発明
は、請求項13に記載のロボットシステムの学習方法を
コンピュータに実行させるためのプログラムとして記憶
したコンピュータにより読み取り可能な記録媒体にあ
る。
は、請求項13に記載のロボットシステムの学習方法を
コンピュータに実行させるためのプログラムとして記憶
したコンピュータにより読み取り可能な記録媒体にあ
る。
【0022】そして、この請求項1、2、3、4、5、
6、7、8、11、12に記載の発明によれば、ユーザ
からの指示に従うようにロボットを学習させることがで
き、また、ユーザ入力として身振りや音声等を用いるこ
とにより、機械操作に不慣れなユーザでも簡単にロボッ
トを学習(訓練)させることができる。さらに、玩具等
に応用した場合には、1つの動作を評価するだけで複数
の知識(写像関数)を学習する方法を繰り返し用いるこ
とにより、ユーザは動物を調教するような身振りや音声
を用いた調教の楽しみを疑似的に体験することができ
る。
6、7、8、11、12に記載の発明によれば、ユーザ
からの指示に従うようにロボットを学習させることがで
き、また、ユーザ入力として身振りや音声等を用いるこ
とにより、機械操作に不慣れなユーザでも簡単にロボッ
トを学習(訓練)させることができる。さらに、玩具等
に応用した場合には、1つの動作を評価するだけで複数
の知識(写像関数)を学習する方法を繰り返し用いるこ
とにより、ユーザは動物を調教するような身振りや音声
を用いた調教の楽しみを疑似的に体験することができ
る。
【0023】また、請求項2または3に記載の発明によ
れば、学習手段により学習した写像関数を、通信手段を
介して他のロボットと送受信するので、複数のロボット
間で、1台のロボットに対する調教結果を他のロボット
にも反映させることができ、効率的な学習を行うことが
できる。
れば、学習手段により学習した写像関数を、通信手段を
介して他のロボットと送受信するので、複数のロボット
間で、1台のロボットに対する調教結果を他のロボット
にも反映させることができ、効率的な学習を行うことが
できる。
【0024】また、請求項9、10、13、14に記載
の発明によれば、ユーザからの指示に従うようにロボッ
トを学習させることができ、また、ユーザ入力として身
振りや音声等を用いることにより、機械操作に不慣れな
ユーザでも簡単にロボットを学習(訓練)させることが
できる。また、玩具等に応用した場合には、1つの動作
を評価するだけで複数の知識等を学習する方法を繰り返
し用いることにより、ユーザは動物を調教するような身
振りや音声を用いた調教の楽しみを疑似的に体験するこ
とができる。さらに、学習は情報処理装置側に任せてロ
ボットは学習結果のみを保持するため、ロボット単体の
コストを下げることができる。更に、学習手段により学
習した写像関数を、通信手段を介して任意のロボットに
送受信するので、複数ロボット間の学習を効率的に行う
ことができる。
の発明によれば、ユーザからの指示に従うようにロボッ
トを学習させることができ、また、ユーザ入力として身
振りや音声等を用いることにより、機械操作に不慣れな
ユーザでも簡単にロボットを学習(訓練)させることが
できる。また、玩具等に応用した場合には、1つの動作
を評価するだけで複数の知識等を学習する方法を繰り返
し用いることにより、ユーザは動物を調教するような身
振りや音声を用いた調教の楽しみを疑似的に体験するこ
とができる。さらに、学習は情報処理装置側に任せてロ
ボットは学習結果のみを保持するため、ロボット単体の
コストを下げることができる。更に、学習手段により学
習した写像関数を、通信手段を介して任意のロボットに
送受信するので、複数ロボット間の学習を効率的に行う
ことができる。
【0025】
【発明の実施の形態】以下、本発明のロボットおよびロ
ボットの学習方法の実施の形態について、〔第1の実施
形態〕、〔第2の実施形態〕、〔第3の実施形態〕の順
に図面を参照して詳細に説明する。
ボットの学習方法の実施の形態について、〔第1の実施
形態〕、〔第2の実施形態〕、〔第3の実施形態〕の順
に図面を参照して詳細に説明する。
【0026】〔第1の実施形態〕 まず図1は、本発明のロボットおよびロボットの学習方
法における基本動作原理を概念的に説明する説明図であ
る。
法における基本動作原理を概念的に説明する説明図であ
る。
【0027】図1において、まず、人間(ユーザ)はロ
ボット101に何かを動作させたい場合に、ロボットに
対して指示(A)を与える。例えば、指示(A)の与え
方として「身振り」や「音声」がある。
ボット101に何かを動作させたい場合に、ロボットに
対して指示(A)を与える。例えば、指示(A)の与え
方として「身振り」や「音声」がある。
【0028】一方、ロボット101は、身振りまたは音
声の特徴量を動作命令へ変換する写像関数を持ってい
る。つまり、複数の写像関数がデータベースとして記憶
されており、指示(A)が入力されると、ロボット10
1は、データベースから1つの写像関数をランダムに選
択する。さらに、ロボット101は、選択された写像関
数を用いて認識結果を動作命令へ変換し、該動作命令に
相当する動作を出力(B)する。
声の特徴量を動作命令へ変換する写像関数を持ってい
る。つまり、複数の写像関数がデータベースとして記憶
されており、指示(A)が入力されると、ロボット10
1は、データベースから1つの写像関数をランダムに選
択する。さらに、ロボット101は、選択された写像関
数を用いて認識結果を動作命令へ変換し、該動作命令に
相当する動作を出力(B)する。
【0029】人間(ユーザ)は、そのようなロボット1
01の動作出力(B)を観察(C)する。人間は、該観
察(C)に基づいて、ロボット101の動作出力(B)
を評価(D)する。すなわち、動作出力(B)が人間の
意図と異なれば「ノー」の評価結果を、また人間の意図
と一致すれば「イエス」の評価結果をロボット101に
与える。
01の動作出力(B)を観察(C)する。人間は、該観
察(C)に基づいて、ロボット101の動作出力(B)
を評価(D)する。すなわち、動作出力(B)が人間の
意図と異なれば「ノー」の評価結果を、また人間の意図
と一致すれば「イエス」の評価結果をロボット101に
与える。
【0030】一方、ロボット101側では、評価結果を
受けて、評価結果がイエスとされた写像関数を残し、評
価結果がノーの写像関数が削除されるように、写像関数
のデータベースを修正(E)する。また、評価結果がイ
エスの場合には、他の写像関数がイエスの写像関数に近
づくように修正する。
受けて、評価結果がイエスとされた写像関数を残し、評
価結果がノーの写像関数が削除されるように、写像関数
のデータベースを修正(E)する。また、評価結果がイ
エスの場合には、他の写像関数がイエスの写像関数に近
づくように修正する。
【0031】次に、図2は本発明の第1の実施形態に係
るロボット101の構成図である。図2において、本実
施形態のロボット101は、入力手段201、認識手段
202、学習手段203、特徴量抽出手段204、写像
関数データベース205、写像手段206および動作出
力手段207を備えて構成されている。
るロボット101の構成図である。図2において、本実
施形態のロボット101は、入力手段201、認識手段
202、学習手段203、特徴量抽出手段204、写像
関数データベース205、写像手段206および動作出
力手段207を備えて構成されている。
【0032】以下、本実施形態のロボット101を構成
する各構成要素の機能および動作について、詳細に説明
する。
する各構成要素の機能および動作について、詳細に説明
する。
【0033】まず、入力手段201は、ユーザからの指
示または評価結果を入力するための装置であり、例え
ば、身振り(画像)を取り込むCCDカメラ、音声を入
力するマイクロフォン、叩く動作や撫でる動作による振
動を感知する振動センサ、或いは、押しボタン等があ
る。
示または評価結果を入力するための装置であり、例え
ば、身振り(画像)を取り込むCCDカメラ、音声を入
力するマイクロフォン、叩く動作や撫でる動作による振
動を感知する振動センサ、或いは、押しボタン等があ
る。
【0034】次に、認識手段202は、入力手段201
から送出される画像または音声等の入力データに、「イ
エス」または「ノー」を示す入力が含まれているか否か
を認識し、含まれていればこの「イエス/ノー」を学習
手段203に出力し、含まれていなければ「イエス/ノ
ー」以外の入力である旨の信号を特徴量抽出手段204
へ出力する。また、入力手段201から送出されるデー
タが振動センサによるものの場合には、振動データから
「撫でている/叩いている」を識別する。すなわち、認
識手段202内には、身振り(画像)データを認識する
身振り認識手段、音声データを認識する音声認識手段、
および、振動データを認識する振動認識手段を備えた構
成となっている。以下では、身振り認識手段、音声認識
手段および振動認識手段それぞれの具体的動作について
説明する。
から送出される画像または音声等の入力データに、「イ
エス」または「ノー」を示す入力が含まれているか否か
を認識し、含まれていればこの「イエス/ノー」を学習
手段203に出力し、含まれていなければ「イエス/ノ
ー」以外の入力である旨の信号を特徴量抽出手段204
へ出力する。また、入力手段201から送出されるデー
タが振動センサによるものの場合には、振動データから
「撫でている/叩いている」を識別する。すなわち、認
識手段202内には、身振り(画像)データを認識する
身振り認識手段、音声データを認識する音声認識手段、
および、振動データを認識する振動認識手段を備えた構
成となっている。以下では、身振り認識手段、音声認識
手段および振動認識手段それぞれの具体的動作について
説明する。
【0035】まず、身振り認識手段では、ユーザの評価
結果として、入力手段201から身振り(画像)データ
が送出された場合に動作する。すなわち、CCDカメラ
から入力される動画像に含まれるユーザの身振りを認識
する。
結果として、入力手段201から身振り(画像)データ
が送出された場合に動作する。すなわち、CCDカメラ
から入力される動画像に含まれるユーザの身振りを認識
する。
【0036】このような人間の身振り手振りを認識する
技術は、柔軟なマンマシンインタフェースを構築する目
的で開発されてきており、古くは動作者にデータグロー
ブ等の接触型センサやマーカーを装着させて認識を行う
ものから、そのような装着を不要とするものまで種々の
認識技術が提案されている。例えば、最近の論文とし
て、西村拓一,向井理朗,野崎俊輔,岡隆一,”低解像
度特徴を用いたジェスチャの単一動画像からのスポッテ
ィング認識”,電子情報通信学会論文誌,D−II,Vol.
J80-D-II,No.6,pp.1563-1570,1997.には、センサ等
の装着なしに、人間の身振りや手振りをとらえた動画像
からのジェスチャ認識を、衣服・背景の変化や動作の軌
跡変動に影響されることなく行うものが提案されてい
る。このような身振り手振り認識技術を用いて身振り認
識手段は実現される。これにより、身振り認識手段にお
いて、例えば、両手を上げた場合は「イエス」、片手を
上げた場合は「ノー」といった身振り認識が可能であ
る。
技術は、柔軟なマンマシンインタフェースを構築する目
的で開発されてきており、古くは動作者にデータグロー
ブ等の接触型センサやマーカーを装着させて認識を行う
ものから、そのような装着を不要とするものまで種々の
認識技術が提案されている。例えば、最近の論文とし
て、西村拓一,向井理朗,野崎俊輔,岡隆一,”低解像
度特徴を用いたジェスチャの単一動画像からのスポッテ
ィング認識”,電子情報通信学会論文誌,D−II,Vol.
J80-D-II,No.6,pp.1563-1570,1997.には、センサ等
の装着なしに、人間の身振りや手振りをとらえた動画像
からのジェスチャ認識を、衣服・背景の変化や動作の軌
跡変動に影響されることなく行うものが提案されてい
る。このような身振り手振り認識技術を用いて身振り認
識手段は実現される。これにより、身振り認識手段にお
いて、例えば、両手を上げた場合は「イエス」、片手を
上げた場合は「ノー」といった身振り認識が可能であ
る。
【0037】次に、音声認識手段では、ユーザの評価結
果として、入力手段201から音声データが送出された
場合に動作する。すなわち、マイクロフォンから入力さ
れる音声に含まれるユーザの「イエス/ノー」の音声を
認識する。
果として、入力手段201から音声データが送出された
場合に動作する。すなわち、マイクロフォンから入力さ
れる音声に含まれるユーザの「イエス/ノー」の音声を
認識する。
【0038】さらに、振動認識手段では、ユーザの評価
結果として、入力手段201から振動データが送出され
た場合に動作する。すなわち、振動センサから入力され
る振動データからユーザがロボット101を「撫でてい
る/叩いている」を識別して、ユーザの評価を認識す
る。例えば、撫でている場合は「イエス」、叩いている
場合は「ノー」と判断する。
結果として、入力手段201から振動データが送出され
た場合に動作する。すなわち、振動センサから入力され
る振動データからユーザがロボット101を「撫でてい
る/叩いている」を識別して、ユーザの評価を認識す
る。例えば、撫でている場合は「イエス」、叩いている
場合は「ノー」と判断する。
【0039】より具体的に、認識は以下のようにして行
う。すなわち、撫でている場合において振動の大きさは
比較的小さく、何回も繰り返し撫でることから単位時間
当たりの振動回数が多くなる。また一方、叩く場合にお
いては、振動は比較的大きく振動回数は少ない。このよ
うな性質を利用して、振動の大きさおよび振動回数に基
づいて、「撫でている/叩いている」の認識を行う。例
えば、図3(a)および(b)に示すように、ファジイ
変数として「振動の回数」および「振動の強さ」につい
てのメンバシップ関数を用意し、図3(c)に示すよう
な、これらファジイ変数を用いた「振動を認識するファ
ジイ推論規則」に基づいて、「撫でる/叩く」すなわち
「イエス/ノー」の認識を行う。
う。すなわち、撫でている場合において振動の大きさは
比較的小さく、何回も繰り返し撫でることから単位時間
当たりの振動回数が多くなる。また一方、叩く場合にお
いては、振動は比較的大きく振動回数は少ない。このよ
うな性質を利用して、振動の大きさおよび振動回数に基
づいて、「撫でている/叩いている」の認識を行う。例
えば、図3(a)および(b)に示すように、ファジイ
変数として「振動の回数」および「振動の強さ」につい
てのメンバシップ関数を用意し、図3(c)に示すよう
な、これらファジイ変数を用いた「振動を認識するファ
ジイ推論規則」に基づいて、「撫でる/叩く」すなわち
「イエス/ノー」の認識を行う。
【0040】次に、特徴量抽出手段204は、入力手段
201から送出される画像または音声等のデータについ
て特徴量を抽出して出力する。この特徴量抽出手段20
4の出力は、図4に示すような、複数の特徴量(特徴量
1〜特徴量K)から構成される配列データ、すなわち特
徴量ベクトルとなる。また、特徴量抽出手段204内に
は、身振り(画像)データについて特徴量を抽出をする
身振り特徴量抽出手段、および、音声データについて特
徴量を抽出する音声特徴量抽出手段を備えた構成となっ
ている。以下では、身振り特徴量抽出手段および音声特
徴量抽出手段それぞれの具体的動作について説明する。
201から送出される画像または音声等のデータについ
て特徴量を抽出して出力する。この特徴量抽出手段20
4の出力は、図4に示すような、複数の特徴量(特徴量
1〜特徴量K)から構成される配列データ、すなわち特
徴量ベクトルとなる。また、特徴量抽出手段204内に
は、身振り(画像)データについて特徴量を抽出をする
身振り特徴量抽出手段、および、音声データについて特
徴量を抽出する音声特徴量抽出手段を備えた構成となっ
ている。以下では、身振り特徴量抽出手段および音声特
徴量抽出手段それぞれの具体的動作について説明する。
【0041】まず、身振り特徴量抽出手段では、ユーザ
の指示が身振りである場合に画像データから身振りの特
徴量を抽出する。まず、認識手段202から身振りが
「イエス/ノー」以外の身振りであるという旨の信号を
受け取ると、その身振り(画像)データから身振り特徴
量の抽出を開始する。身振り特徴量を抽出する手順は、
以下の通りである。
の指示が身振りである場合に画像データから身振りの特
徴量を抽出する。まず、認識手段202から身振りが
「イエス/ノー」以外の身振りであるという旨の信号を
受け取ると、その身振り(画像)データから身振り特徴
量の抽出を開始する。身振り特徴量を抽出する手順は、
以下の通りである。
【0042】まず、画像データの1フレーム毎に両手と
顔の肌色領域を抽出する。そして次に、これら肌色領域
の重心を求める。さらに、連続するフレームについて重
心を求め、該重心座標値をプロットしていくと重心の軌
跡が求まる。身振り動作時においては、手の動く方向が
変化する時に、重心の軌跡にも変曲点が出現することか
ら、隣接するフレーム間の重心のXY座標値の差分よ
り、重心が変化する方向を、水平方向をX座標、垂直方
向をY座標として求める。具体的には、「tanθ=X
座標値差分/Y座標値差分」として、θの値を求め、該
θがしきい値以上変化した場合に変曲点とみなす。この
ようにして求められた変曲点の時系列パターンを身振り
特徴量として用いることができる。例えば、i番目の変
曲点の方向をθiとして、(θ1,θ2,θ3,θ4,θ5)
を特徴量ベクトルとする。
顔の肌色領域を抽出する。そして次に、これら肌色領域
の重心を求める。さらに、連続するフレームについて重
心を求め、該重心座標値をプロットしていくと重心の軌
跡が求まる。身振り動作時においては、手の動く方向が
変化する時に、重心の軌跡にも変曲点が出現することか
ら、隣接するフレーム間の重心のXY座標値の差分よ
り、重心が変化する方向を、水平方向をX座標、垂直方
向をY座標として求める。具体的には、「tanθ=X
座標値差分/Y座標値差分」として、θの値を求め、該
θがしきい値以上変化した場合に変曲点とみなす。この
ようにして求められた変曲点の時系列パターンを身振り
特徴量として用いることができる。例えば、i番目の変
曲点の方向をθiとして、(θ1,θ2,θ3,θ4,θ5)
を特徴量ベクトルとする。
【0043】次に、音声特徴量抽出手段では、ユーザか
らの指示が音声で与えられた場合に音声データから音声
の特徴量を抽出する。まず、認識手段202から音声が
「イエス/ノー」以外の音声であるという旨の信号を受
け取ると、その音声データから音声特徴量の抽出を開始
する。
らの指示が音声で与えられた場合に音声データから音声
の特徴量を抽出する。まず、認識手段202から音声が
「イエス/ノー」以外の音声であるという旨の信号を受
け取ると、その音声データから音声特徴量の抽出を開始
する。
【0044】音声特徴量は、良く知られた線形予測分析
によって求められるLPCケプストラム係数を用いるこ
とができる。例えば、20次の線形予測分析を行った場
合の出力は、20個の特徴量から構成される特徴量ベク
トル(図4参照)となる。尚、線形予測分析等について
は、中川聖一,鹿野清宏,東倉洋一著による「ニューロ
サイエンス&テクノロジーシリーズ;音声・聴覚と神経
回路網モデル」(1990年,オーム社発行)に詳し
い。
によって求められるLPCケプストラム係数を用いるこ
とができる。例えば、20次の線形予測分析を行った場
合の出力は、20個の特徴量から構成される特徴量ベク
トル(図4参照)となる。尚、線形予測分析等について
は、中川聖一,鹿野清宏,東倉洋一著による「ニューロ
サイエンス&テクノロジーシリーズ;音声・聴覚と神経
回路網モデル」(1990年,オーム社発行)に詳し
い。
【0045】次に、写像手段206は、後述する複数の
写像関数を記憶した写像関数データベース205から1
個の写像関数をランダムに選択し、その写像関数を用い
て、特徴量抽出手段204から受け取る特徴量ベクトル
を動作出力手段207に出力すべき動作命令に変換す
る。この動作命令は、図5に示すような、複数の動作
(動作1〜動作L)から構成される配列データとなる。
写像関数を記憶した写像関数データベース205から1
個の写像関数をランダムに選択し、その写像関数を用い
て、特徴量抽出手段204から受け取る特徴量ベクトル
を動作出力手段207に出力すべき動作命令に変換す
る。この動作命令は、図5に示すような、複数の動作
(動作1〜動作L)から構成される配列データとなる。
【0046】写像関数の例として、ここでは図6に示す
ような階層型ニューラルネットワークを使用する。階層
型ニューラルネットワークは、入力層、隠れ層(中間
層)および出力層を備え、各層は複数個のユニットを備
える。入力層に与えた信号(ここでは、特徴量1〜特徴
量K)が結合の重みによって変換されながら出力層のユ
ニットの値(ここでは、動作1〜動作L)として出力さ
れる前向きの信号伝搬を行う。すなわち、1つの写像関
数に対して1つのニューラルネットワークが割り当てら
れ、ニューラルネットワークにおける入力層の各ユニッ
トに特徴量が割り当てられ、出力層の各ユニットに動作
命令が割り当てられる。特徴量ベクトルが入力されてニ
ューラルネットワークの計算処理が行われたときに、出
力層で最大値を持つユニットの動作命令が写像手段20
6の出力となる。
ような階層型ニューラルネットワークを使用する。階層
型ニューラルネットワークは、入力層、隠れ層(中間
層)および出力層を備え、各層は複数個のユニットを備
える。入力層に与えた信号(ここでは、特徴量1〜特徴
量K)が結合の重みによって変換されながら出力層のユ
ニットの値(ここでは、動作1〜動作L)として出力さ
れる前向きの信号伝搬を行う。すなわち、1つの写像関
数に対して1つのニューラルネットワークが割り当てら
れ、ニューラルネットワークにおける入力層の各ユニッ
トに特徴量が割り当てられ、出力層の各ユニットに動作
命令が割り当てられる。特徴量ベクトルが入力されてニ
ューラルネットワークの計算処理が行われたときに、出
力層で最大値を持つユニットの動作命令が写像手段20
6の出力となる。
【0047】ニューラルネットワークにおいて、「ユニ
ット間の結合重み値」と「ユニットのしきい値」を関数
パラメータと呼ぶことにする。初期設定として、関数パ
ラメータが異なるように設定しておくことで、複数の異
なる写像関数を作ることができる。また、写像関数とし
て、次式(数1)のような重み付き線形和を用いること
もできる。すなわち、
ット間の結合重み値」と「ユニットのしきい値」を関数
パラメータと呼ぶことにする。初期設定として、関数パ
ラメータが異なるように設定しておくことで、複数の異
なる写像関数を作ることができる。また、写像関数とし
て、次式(数1)のような重み付き線形和を用いること
もできる。すなわち、
【数1】yi=Σwij・xj (数1) ここで、i=1〜L,j=1〜Kで、 L:特徴量の数、 K:動作命令の数、 yi:i番目の動作命令の値、 wij:j番目の特徴量のi番目の動作命令に対する係
数、 xj:j番目の特徴量。 この場合、wijが関数パラメータとなる。上記線形式の
うち、最大値となる線形式に割り当てられた動作命令が
写像手段206から出力される。
数、 xj:j番目の特徴量。 この場合、wijが関数パラメータとなる。上記線形式の
うち、最大値となる線形式に割り当てられた動作命令が
写像手段206から出力される。
【0048】次に、写像関数データベース205では、
写像手段206で用いられる写像関数を記憶する。写像
関数全体を記憶しておくこともできるが、関数パラメー
タのみを記憶しておくこともできる。図7に写像関数デ
ータベース206内に記憶される写像関数の関数パラメ
ータの例を示す。
写像手段206で用いられる写像関数を記憶する。写像
関数全体を記憶しておくこともできるが、関数パラメー
タのみを記憶しておくこともできる。図7に写像関数デ
ータベース206内に記憶される写像関数の関数パラメ
ータの例を示す。
【0049】次に、学習手段203では、写像関数デー
タベース205の写像関数を学習によって修正する。こ
の修正により、ユーザにとって望ましい動作出力が得ら
れるようになる。本実施形態では、学習の手法として
は、遺伝的アルゴリズムを使用する。
タベース205の写像関数を学習によって修正する。こ
の修正により、ユーザにとって望ましい動作出力が得ら
れるようになる。本実施形態では、学習の手法として
は、遺伝的アルゴリズムを使用する。
【0050】ここで、遺伝子アルゴリズムで使用される
語について説明をしておく。「遺伝子(gene)」は個体
の性質を規定する基本的構成要素であり、「染色体(ch
romosome)」は遺伝子の集合体である。また「個体(in
dividual)」は染色体によって特徴づけられた自律的な
個であり、「集団(population)」は個体の集まりであ
る。また「遺伝子型(genotype)」は特徴量と特徴量の
マッピングの表現方法であり、一般的には“0”と
“1”のビット列を用いるが、ここでは実数値を用い
る。また「遺伝子座(locus)」は染色体上の遺伝子の
位置を意味する。さらに「表現型(phenotype)」は染
色体によって規定される形質の外部的表現であり、遺伝
子型は形質の染色体による内部表現である。表現型から
遺伝子型への写像を「コード化(coding)」と呼び、遺
伝子型から表現型への写像を「デコード化(decodin
g)」という。尚、多くの探索問題において、表現型=
遺伝子型とすれば十分であることが経験的に知られてい
る。
語について説明をしておく。「遺伝子(gene)」は個体
の性質を規定する基本的構成要素であり、「染色体(ch
romosome)」は遺伝子の集合体である。また「個体(in
dividual)」は染色体によって特徴づけられた自律的な
個であり、「集団(population)」は個体の集まりであ
る。また「遺伝子型(genotype)」は特徴量と特徴量の
マッピングの表現方法であり、一般的には“0”と
“1”のビット列を用いるが、ここでは実数値を用い
る。また「遺伝子座(locus)」は染色体上の遺伝子の
位置を意味する。さらに「表現型(phenotype)」は染
色体によって規定される形質の外部的表現であり、遺伝
子型は形質の染色体による内部表現である。表現型から
遺伝子型への写像を「コード化(coding)」と呼び、遺
伝子型から表現型への写像を「デコード化(decodin
g)」という。尚、多くの探索問題において、表現型=
遺伝子型とすれば十分であることが経験的に知られてい
る。
【0051】図8に示すように、本実施形態では、個体
を1つの写像関数とし、集団を全ての写像関数の集まり
(個体数がP個の集団を仮定)としている。また、染色
体は写像関数パラメータの配列であり、遺伝子は1つの
写像関数パラメータである。
を1つの写像関数とし、集団を全ての写像関数の集まり
(個体数がP個の集団を仮定)としている。また、染色
体は写像関数パラメータの配列であり、遺伝子は1つの
写像関数パラメータである。
【0052】次に、遺伝的アルゴリズムによる学習処理
の流れについて図9のフローチャートを参照しながら説
明する。尚、従来の遺伝子アルゴリズムにおいては、1
回毎に全ての個体を評価するが、本実施形態の遺伝子ア
ルゴリズムでは、1回に選択される個体は1個だけであ
る。また、評価は「イエス/ノー」の2値である。した
がって、従来の遺伝子アルゴリズムをそのまま適用する
ことができず、図9に示すような新しい遺伝子アルゴリ
ズムの処理フローが必要となる。
の流れについて図9のフローチャートを参照しながら説
明する。尚、従来の遺伝子アルゴリズムにおいては、1
回毎に全ての個体を評価するが、本実施形態の遺伝子ア
ルゴリズムでは、1回に選択される個体は1個だけであ
る。また、評価は「イエス/ノー」の2値である。した
がって、従来の遺伝子アルゴリズムをそのまま適用する
ことができず、図9に示すような新しい遺伝子アルゴリ
ズムの処理フローが必要となる。
【0053】図9において、まずステップS901で
は、初期集団を発生する。遺伝子の初期値は乱数によっ
て決めてもよいし、ユーザが任意に与えるようにしても
よい。次に、ステップS902では、選択された個体
(写像関数)を用いた場合のユーザの評価結果を認識手
段202から取得する。そしてステップS903では、
ユーザ評価結果の内容「イエス/ノー」により分岐す
る。
は、初期集団を発生する。遺伝子の初期値は乱数によっ
て決めてもよいし、ユーザが任意に与えるようにしても
よい。次に、ステップS902では、選択された個体
(写像関数)を用いた場合のユーザの評価結果を認識手
段202から取得する。そしてステップS903では、
ユーザ評価結果の内容「イエス/ノー」により分岐す
る。
【0054】すなわち、ステップS903においてユー
ザ評価結果が「イエス」の場合には、その個体が表現す
る写像関数は正しかったことになる。これを「正解個
体」と呼び、次世代に残すべき個体である。この場合、
ステップS904に進んで、正解個体を除いた集団の
(P−1)個の各個体について、正解個体との間で交差
を行い子個体を生成する。すなわち、図10の説明図に
示すように、図10(a)において、正解個体を除いた
(P−1)個の個体の集団から順番に1つずつ選んで親
個体とし、図10(b)において、正解個体と親個体と
の間で交差を行って1つの子個体を作る。ここで、「交
差」とは、1つの個体間で任意の位置で切れた遺伝子同
士をつなぎ合わせる操作であり、これによって優秀な遺
伝子同士を組み合わせて精度を向上していくものであ
る。尚、交差方法には、一点交差、二点交差、一様交差
等がある。
ザ評価結果が「イエス」の場合には、その個体が表現す
る写像関数は正しかったことになる。これを「正解個
体」と呼び、次世代に残すべき個体である。この場合、
ステップS904に進んで、正解個体を除いた集団の
(P−1)個の各個体について、正解個体との間で交差
を行い子個体を生成する。すなわち、図10の説明図に
示すように、図10(a)において、正解個体を除いた
(P−1)個の個体の集団から順番に1つずつ選んで親
個体とし、図10(b)において、正解個体と親個体と
の間で交差を行って1つの子個体を作る。ここで、「交
差」とは、1つの個体間で任意の位置で切れた遺伝子同
士をつなぎ合わせる操作であり、これによって優秀な遺
伝子同士を組み合わせて精度を向上していくものであ
る。尚、交差方法には、一点交差、二点交差、一様交差
等がある。
【0055】次に、ステップS905では、突然変異の
確認を行うべく、確率により突然変異を実行するか否か
を決定する。ここで、「突然変異」とは、ある時突然に
遺伝子が変化してしまう現象である。これによりローカ
ルミニマムに陥るのを防ぐ。尚、どこをどのように変え
るかはランダムに決定される。例えば、それぞれの子個
体に対して0〜1の間で乱数を生成し、生成された数値
が0.5未満ならば突然変異を実行せず、0.5以上な
らば突然変異を実行するというように設定する。
確認を行うべく、確率により突然変異を実行するか否か
を決定する。ここで、「突然変異」とは、ある時突然に
遺伝子が変化してしまう現象である。これによりローカ
ルミニマムに陥るのを防ぐ。尚、どこをどのように変え
るかはランダムに決定される。例えば、それぞれの子個
体に対して0〜1の間で乱数を生成し、生成された数値
が0.5未満ならば突然変異を実行せず、0.5以上な
らば突然変異を実行するというように設定する。
【0056】さらに、ステップS906では、突然変異
を実行する。すなわち、図10(c)に示すように、ス
テップS905の生成数値に基づいて、確率的に子個体
を突然変異させるか、或いは突然変異させない。尚、突
然変異させない場合には、ステップS905からステッ
プS902に移行する。
を実行する。すなわち、図10(c)に示すように、ス
テップS905の生成数値に基づいて、確率的に子個体
を突然変異させるか、或いは突然変異させない。尚、突
然変異させない場合には、ステップS905からステッ
プS902に移行する。
【0057】以上のように、ステップS903におい
て、評価結果が「イエス」の場合、ステップS904〜
S906を(P−1)個の親個体について実行して(P
−1)個の子個体を作成する。すなわち、図10(d)
および(e)に示すように、正解個体と(P−1)個の
子個体を合わせたP個の個体からなる集団を、次世代の
集団として、写像関数データベース205の古い集団と
入れ替える。
て、評価結果が「イエス」の場合、ステップS904〜
S906を(P−1)個の親個体について実行して(P
−1)個の子個体を作成する。すなわち、図10(d)
および(e)に示すように、正解個体と(P−1)個の
子個体を合わせたP個の個体からなる集団を、次世代の
集団として、写像関数データベース205の古い集団と
入れ替える。
【0058】尚、以上の説明では、正解個体1個と(P
−1)個の親個体から(P−1)個の子個体を作成した
が、正解個体をN個複製して、正解個体N個と(P−
N)個の親個体から(P−1)個の子個体を作成するよ
うにしてもよい。この場合、(P−1)個の親個体から
(P−N)個をランダムに選択するか、或いは、正解個
体との距離が近い順に(P−N)個を選択する。距離
は、遺伝子座ごとに二乗誤差を求め、これを全ての遺伝
子座について加算することにより求められる。さらに、
上記距離を、それぞれの親個体の適合度とみなして、全
ての親個体を評価することもできる。
−1)個の親個体から(P−1)個の子個体を作成した
が、正解個体をN個複製して、正解個体N個と(P−
N)個の親個体から(P−1)個の子個体を作成するよ
うにしてもよい。この場合、(P−1)個の親個体から
(P−N)個をランダムに選択するか、或いは、正解個
体との距離が近い順に(P−N)個を選択する。距離
は、遺伝子座ごとに二乗誤差を求め、これを全ての遺伝
子座について加算することにより求められる。さらに、
上記距離を、それぞれの親個体の適合度とみなして、全
ての親個体を評価することもできる。
【0059】また、ステップS903においてユーザ評
価結果が「ノー」の場合には、その個体が表現する写像
関数は間違っていたことになる。これを「不良個体」と
呼び、ステップS907において、該不良個体を集団か
ら削除する。不良個体を集団から削除したので、集団か
ら個体が1つ欠けたことになっており、さらに、ステッ
プS908では、新しい個体1つを生成して集団に補充
する。尚、新しい個体の遺伝子は乱数で決定する。
価結果が「ノー」の場合には、その個体が表現する写像
関数は間違っていたことになる。これを「不良個体」と
呼び、ステップS907において、該不良個体を集団か
ら削除する。不良個体を集団から削除したので、集団か
ら個体が1つ欠けたことになっており、さらに、ステッ
プS908では、新しい個体1つを生成して集団に補充
する。尚、新しい個体の遺伝子は乱数で決定する。
【0060】以上の処理手順を繰り返すうちに、正解個
体が増加し、不良個体が減少して、次第にロボット10
1の動作がユーザの意図に沿うようになる。
体が増加し、不良個体が減少して、次第にロボット10
1の動作がユーザの意図に沿うようになる。
【0061】さらに、動作出力手段207では、写像手
段206により取得された動作命令に基づき動作を出力
する。それぞれの動作命令に対して、ロボット101の
4肢、首、尻尾等の各関節に取り付けられているモータ
に対する制御量が与えられており、動作命令が取得され
ると、相当する制御量を用いてロボット101の各関節
を駆動する。
段206により取得された動作命令に基づき動作を出力
する。それぞれの動作命令に対して、ロボット101の
4肢、首、尻尾等の各関節に取り付けられているモータ
に対する制御量が与えられており、動作命令が取得され
ると、相当する制御量を用いてロボット101の各関節
を駆動する。
【0062】動作命令としては、犬型ロボットの場合、
例えば、「首を縦に振る」、「首を横に振る」、「尻尾
を振る」、「4本足で立った状態から前足の1本を上げ
る(お手の姿勢)」、「両後足を曲げて尻を地面につい
て両前足を上げる(お座りの姿勢)」、「4本の足を折
り畳んで頭部を地面に着ける(伏せの姿勢)」等々があ
る。
例えば、「首を縦に振る」、「首を横に振る」、「尻尾
を振る」、「4本足で立った状態から前足の1本を上げ
る(お手の姿勢)」、「両後足を曲げて尻を地面につい
て両前足を上げる(お座りの姿勢)」、「4本の足を折
り畳んで頭部を地面に着ける(伏せの姿勢)」等々があ
る。
【0063】以上、本実施形態のロボット101を構成
する各構成要素の機能および動作について説明したが、
次に、本実施形態のロボットの学習動作の全体的な処理
手順について、図11に示すフローチャートを参照して
説明する。
する各構成要素の機能および動作について説明したが、
次に、本実施形態のロボットの学習動作の全体的な処理
手順について、図11に示すフローチャートを参照して
説明する。
【0064】まず、ステップS1101では、入力手段
201を介してユーザ入力を取得する。次に、ステップ
S1102では、認識手段202を用いて、入力が「指
示」であるか、或いはロボット101が実行した動作に
対する「評価」であるかを認識する。
201を介してユーザ入力を取得する。次に、ステップ
S1102では、認識手段202を用いて、入力が「指
示」であるか、或いはロボット101が実行した動作に
対する「評価」であるかを認識する。
【0065】入力が「評価」である場合には、ステップ
S1103に進んで、学習手段203により動作フラグ
を確認する。ここで、動作フラグは、入力が、ロボット
101が動作を実行した後一定時間以内に与えられた評
価であるか否かを判定するものである。すなわち、動作
フラグが1の場合は、一定時間内に与えられ、直前のロ
ボット101の実行動作に対する評価であるとみなさ
れ、また、動作フラグが0の場合は、一定時間を越えて
与えられ、実行動作に対する評価であるとはみなされな
い。動作フラグが1の場合にはステップS1104に進
み、動作フラグが0の場合にはステップS1101に戻
る。
S1103に進んで、学習手段203により動作フラグ
を確認する。ここで、動作フラグは、入力が、ロボット
101が動作を実行した後一定時間以内に与えられた評
価であるか否かを判定するものである。すなわち、動作
フラグが1の場合は、一定時間内に与えられ、直前のロ
ボット101の実行動作に対する評価であるとみなさ
れ、また、動作フラグが0の場合は、一定時間を越えて
与えられ、実行動作に対する評価であるとはみなされな
い。動作フラグが1の場合にはステップS1104に進
み、動作フラグが0の場合にはステップS1101に戻
る。
【0066】つまり、動作フラグが1の場合、直前の実
行動作に対する評価であるとみなされ、ステップS11
04において、学習手段203を用いて写像関数群を学
習する。また、ステップS1105では、学習手段20
3は動作フラグを0に戻して、ステップS1101に戻
る。
行動作に対する評価であるとみなされ、ステップS11
04において、学習手段203を用いて写像関数群を学
習する。また、ステップS1105では、学習手段20
3は動作フラグを0に戻して、ステップS1101に戻
る。
【0067】また、ステップS1102において、入力
が「指示」である場合には、ステップS1106に進ん
で、認識手段202により動作フラグを1にする。ま
た、ステップS1107では、特徴量抽出手段204に
よりユーザ入力の特徴量を抽出する。次に、ステップS
1108では、学習手段203により写像関数データベ
ース205に保存してある写像関数群から1つの写像関
数を選択し、ステップS1109で、選択した写像関数
を用いて抽出された特徴量を動作命令に変換する。さら
に、ステップS1110では、動作出力手段207によ
り写像手段206が出力する動作命令にしたがって動作
を出力する。
が「指示」である場合には、ステップS1106に進ん
で、認識手段202により動作フラグを1にする。ま
た、ステップS1107では、特徴量抽出手段204に
よりユーザ入力の特徴量を抽出する。次に、ステップS
1108では、学習手段203により写像関数データベ
ース205に保存してある写像関数群から1つの写像関
数を選択し、ステップS1109で、選択した写像関数
を用いて抽出された特徴量を動作命令に変換する。さら
に、ステップS1110では、動作出力手段207によ
り写像手段206が出力する動作命令にしたがって動作
を出力する。
【0068】次に、ステップS1111では、認識手段
202により、動作出力手段207によって動作を出力
してから一定時間が経過したか否かを判定する。一定時
間が経過していれば動作フラグを0に戻した後、また一
定時間が経過していなければ動作フラグを1としたま
ま、ステップS1101に戻る。
202により、動作出力手段207によって動作を出力
してから一定時間が経過したか否かを判定する。一定時
間が経過していれば動作フラグを0に戻した後、また一
定時間が経過していなければ動作フラグを1としたま
ま、ステップS1101に戻る。
【0069】以上説明したように、図2に示された第1
の実施形態のロボットおよびロボットの学習方法、並び
に、該ロボットの学習方法をプログラムとして記録する
記憶媒体では、認識手段202により、身振り、音声ま
たは(振動センシングによる)触覚で表現されるユーザ
入力についてユーザ指示またはユーザ評価の種別を認識
し、特徴量抽出手段204により、ユーザ入力から身振
りまたは音声に関する特徴量を抽出し、また写像関数デ
ータベース205には、特徴量を動作出力手段207に
よって出力すべき動作に写像変換する写像関数等を保持
し、学習手段203により、写像関数データベース20
5に保持されている写像関数群を、出力動作についてユ
ーザが判断する「正解」または「不正解」によって与え
られるユーザ評価に基づき学習して、さらに写像手段2
06により、写像関数データベース205から1の写像
関数を選択して、該写像関数を用いて抽出された特徴量
を動作命令に変換し、動作出力手段207から該動作命
令に応じた動作を出力する。
の実施形態のロボットおよびロボットの学習方法、並び
に、該ロボットの学習方法をプログラムとして記録する
記憶媒体では、認識手段202により、身振り、音声ま
たは(振動センシングによる)触覚で表現されるユーザ
入力についてユーザ指示またはユーザ評価の種別を認識
し、特徴量抽出手段204により、ユーザ入力から身振
りまたは音声に関する特徴量を抽出し、また写像関数デ
ータベース205には、特徴量を動作出力手段207に
よって出力すべき動作に写像変換する写像関数等を保持
し、学習手段203により、写像関数データベース20
5に保持されている写像関数群を、出力動作についてユ
ーザが判断する「正解」または「不正解」によって与え
られるユーザ評価に基づき学習して、さらに写像手段2
06により、写像関数データベース205から1の写像
関数を選択して、該写像関数を用いて抽出された特徴量
を動作命令に変換し、動作出力手段207から該動作命
令に応じた動作を出力する。
【0070】これにより、ユーザからの指示に従うよう
にロボットを学習させることができ、新しい動作を教え
ていくことができるので飽きずに楽しむことができる。
また、ユーザ入力として、身振りや音声等を用いるので
機械操作に不慣れなユーザでも簡単にロボットを学習
(訓練)させることができ、本物のペットを調教してい
るかのような育てる楽しみをユーザが享受できる。ま
た、ユーザによって調教内容が異なるので、個性的なロ
ボットを作る楽しみもある。さらに、1つの動作を評価
するだけで複数の知識等を学習する方法を繰り返し用い
ることにより、ユーザは動物を調教するような身振りや
音声を用いた調教の楽しみを疑似的に体験することがで
きる。
にロボットを学習させることができ、新しい動作を教え
ていくことができるので飽きずに楽しむことができる。
また、ユーザ入力として、身振りや音声等を用いるので
機械操作に不慣れなユーザでも簡単にロボットを学習
(訓練)させることができ、本物のペットを調教してい
るかのような育てる楽しみをユーザが享受できる。ま
た、ユーザによって調教内容が異なるので、個性的なロ
ボットを作る楽しみもある。さらに、1つの動作を評価
するだけで複数の知識等を学習する方法を繰り返し用い
ることにより、ユーザは動物を調教するような身振りや
音声を用いた調教の楽しみを疑似的に体験することがで
きる。
【0071】尚、上記説明では、ロボットを実体的な装
置として構成したが、これに限定されることなく、例え
ば、パーソナルコンピュータやゲーム機等の情報処理装
置において、表示出力手段上に仮想的に形成されるロボ
ットであってもよい。
置として構成したが、これに限定されることなく、例え
ば、パーソナルコンピュータやゲーム機等の情報処理装
置において、表示出力手段上に仮想的に形成されるロボ
ットであってもよい。
【0072】〔第2の実施形態〕 次に、図12は本発明の第2の実施形態に係るロボット
システムの構成図である。本実施形態のロボットシステ
ムは、第1ロボット1201および第2ロボット120
2の複数のロボットが存在し、同様の動作を学習させる
ことを想定している。すなわち、複数のロボットが存在
する場合に、個別に同等の動作学習をさせたのでは効率
的でないことから、1台のロボットに対する調教結果が
他のロボットにも即座に反映されるように構成したもの
である。尚、同図において、図2に示される装置と同一
構成部分については、同符号を付すことにより説明は省
略する。
システムの構成図である。本実施形態のロボットシステ
ムは、第1ロボット1201および第2ロボット120
2の複数のロボットが存在し、同様の動作を学習させる
ことを想定している。すなわち、複数のロボットが存在
する場合に、個別に同等の動作学習をさせたのでは効率
的でないことから、1台のロボットに対する調教結果が
他のロボットにも即座に反映されるように構成したもの
である。尚、同図において、図2に示される装置と同一
構成部分については、同符号を付すことにより説明は省
略する。
【0073】図12において、本実施形態の第1ロボッ
ト1201は、入力手段201、認識手段202、学習
手段1213、通信手段1221、特徴量抽出手段20
4、写像関数データベース205、写像手段206およ
び動作出力手段207を備えて構成されている。また、
第2ロボット1202についても、通信手段1222以
外は第1ロボット1201と同等の構成を備えている。
ト1201は、入力手段201、認識手段202、学習
手段1213、通信手段1221、特徴量抽出手段20
4、写像関数データベース205、写像手段206およ
び動作出力手段207を備えて構成されている。また、
第2ロボット1202についても、通信手段1222以
外は第1ロボット1201と同等の構成を備えている。
【0074】この第2の実施形態の特徴は、第1ロボッ
ト1201の学習手段1213により学習した写像関数
を、写像関数データベース205内に保持すると共に、
通信手段1221,1222を介して第2ロボット12
02にも送信する。
ト1201の学習手段1213により学習した写像関数
を、写像関数データベース205内に保持すると共に、
通信手段1221,1222を介して第2ロボット12
02にも送信する。
【0075】すなわち、まず、第1ロボット1201が
動作を出力して調教され、内部に持つ写像関数データベ
ース205の知識(写像関数パラメータ)が学習され
る。この時、学習の遺伝子アルゴリズムにおいて、正解
個体であった場合は、第1の実施形態で説明したと同様
の手順を進めると共に、該正解個体を第2ロボット12
02に対して通信手段1221,1222を介して送信
する。一方、正解個体を受け取った第2ロボット120
2側では、学習の遺伝子アルゴリズムにおいて、該正解
固体に対して距離が最も離れた個体を削除し、該削除し
た個体の代わりに正解個体を置き、残りの個体と正解個
体の間で交差等の操作を行う。
動作を出力して調教され、内部に持つ写像関数データベ
ース205の知識(写像関数パラメータ)が学習され
る。この時、学習の遺伝子アルゴリズムにおいて、正解
個体であった場合は、第1の実施形態で説明したと同様
の手順を進めると共に、該正解個体を第2ロボット12
02に対して通信手段1221,1222を介して送信
する。一方、正解個体を受け取った第2ロボット120
2側では、学習の遺伝子アルゴリズムにおいて、該正解
固体に対して距離が最も離れた個体を削除し、該削除し
た個体の代わりに正解個体を置き、残りの個体と正解個
体の間で交差等の操作を行う。
【0076】このように、本実施形態では、1台のロボ
ットに対する調教結果を他のロボットにも反映させるの
で、複数のロボット間で効率的な学習を行うことができ
る。
ットに対する調教結果を他のロボットにも反映させるの
で、複数のロボット間で効率的な学習を行うことができ
る。
【0077】〔第3の実施形態〕 次に、図13は本発明の第3の実施形態に係るロボット
システムの構成図である。本実施形態は、第1ロボット
1301および第2ロボット1302の複数のロボット
と、計算機1300を備えたロボットシステムであっ
て、第1ロボット1301および第2ロボット1302
に対して同様の動作を学習させることを想定している。
尚、同図において、図2に示される装置と同一構成部分
については、同符号を付すことにより説明は省略する。
システムの構成図である。本実施形態は、第1ロボット
1301および第2ロボット1302の複数のロボット
と、計算機1300を備えたロボットシステムであっ
て、第1ロボット1301および第2ロボット1302
に対して同様の動作を学習させることを想定している。
尚、同図において、図2に示される装置と同一構成部分
については、同符号を付すことにより説明は省略する。
【0078】図13において、本実施形態の第1ロボッ
ト1301は、入力手段201、認識手段1302、通
信手段1321、特徴量抽出手段204、写像関数デー
タベース1305、写像手段206および動作出力手段
207を備えて構成されている。また、第2ロボット1
302についても、通信手段1322以外は第1ロボッ
ト1301と同等の構成を備えている。さらに、計算機
1300は、通信手段1320および学習手段1313
を備えた構成である。
ト1301は、入力手段201、認識手段1302、通
信手段1321、特徴量抽出手段204、写像関数デー
タベース1305、写像手段206および動作出力手段
207を備えて構成されている。また、第2ロボット1
302についても、通信手段1322以外は第1ロボッ
ト1301と同等の構成を備えている。さらに、計算機
1300は、通信手段1320および学習手段1313
を備えた構成である。
【0079】この第3の実施形態では、各ロボットにお
いて、認識手段1312により、身振り音声または触覚
で表現されるユーザ入力についてユーザ指示またはユー
ザ評価の種別を認識し、また特徴量抽出手段204によ
り、ユーザ入力から身振りまたは音声に関する特徴量を
抽出し、写像関数データベース1315には、ユーザ指
示に基づく特徴量を動作出力手段207によって出力す
べき動作に変換する知識や写像関数パラメータが保持さ
れ、写像手段206により、写像関数データベース13
15から1の写像関数が選択され、該写像関数を用いて
抽出された特徴量を動作命令に変換し、動作出力手段2
07により該動作命令に応じた動作を出力する。また一
方、計算機1300側では、学習手段1313により、
各ロボットの写像関数データベース1315に保持され
ている知識や写像関数を、出力動作についてユーザが判
断する「正解」または「不正解」によって与えられるユ
ーザ評価に基づき学習し、学習後の知識や写像関数を通
信手段1320を介して各ロボットに送信する。
いて、認識手段1312により、身振り音声または触覚
で表現されるユーザ入力についてユーザ指示またはユー
ザ評価の種別を認識し、また特徴量抽出手段204によ
り、ユーザ入力から身振りまたは音声に関する特徴量を
抽出し、写像関数データベース1315には、ユーザ指
示に基づく特徴量を動作出力手段207によって出力す
べき動作に変換する知識や写像関数パラメータが保持さ
れ、写像手段206により、写像関数データベース13
15から1の写像関数が選択され、該写像関数を用いて
抽出された特徴量を動作命令に変換し、動作出力手段2
07により該動作命令に応じた動作を出力する。また一
方、計算機1300側では、学習手段1313により、
各ロボットの写像関数データベース1315に保持され
ている知識や写像関数を、出力動作についてユーザが判
断する「正解」または「不正解」によって与えられるユ
ーザ評価に基づき学習し、学習後の知識や写像関数を通
信手段1320を介して各ロボットに送信する。
【0080】例えば、第1ロボット1301が動作を出
力して調教されるとする。この時、第1ロボット130
1が持つ写像関数データベース1315の知識や写像関
数、および、第2ロボット1302が持つ写像関数デー
タベースの知識や写像関数が、計算機1300に送信さ
れる。また、第1ロボット1301が出力した動作が正
解か不正解かの認識結果も計算機1300に送信され
る。計算機1300では、該認識結果を元にして、第1
の実施形態で説明した遺伝子アルゴリズムを実行する。
その後、この遺伝子アルゴリズムにより学習された知識
や写像関数は、計算機1300から第1ロボット130
1および第2ロボット1302に送信され、各写像関数
データベースの内容が更新される。
力して調教されるとする。この時、第1ロボット130
1が持つ写像関数データベース1315の知識や写像関
数、および、第2ロボット1302が持つ写像関数デー
タベースの知識や写像関数が、計算機1300に送信さ
れる。また、第1ロボット1301が出力した動作が正
解か不正解かの認識結果も計算機1300に送信され
る。計算機1300では、該認識結果を元にして、第1
の実施形態で説明した遺伝子アルゴリズムを実行する。
その後、この遺伝子アルゴリズムにより学習された知識
や写像関数は、計算機1300から第1ロボット130
1および第2ロボット1302に送信され、各写像関数
データベースの内容が更新される。
【0081】これにより、第1の実施形態と同様に、ユ
ーザからの指示に従うようにロボットを学習させること
ができ、また、ユーザ入力として身振りや音声等を用い
るので機械操作に不慣れなユーザでも簡単にロボットを
学習(訓練)させることができ、さらに、玩具等に応用
した場合には、1つの動作を評価するだけで複数の知識
等を学習する方法を繰り返し用いることにより、ユーザ
は動物を調教するような身振りや音声を用いた調教の楽
しみを疑似的に体験することができるといった効果を奏
する他に、本実施形態特有の効果として、学習を計算機
1300側に任せて各ロボット1301,1302には
学習結果のみ保持するので、ロボット単体のコストを下
げることができると共に、複数ロボット間の学習を効率
的に行うことができる。
ーザからの指示に従うようにロボットを学習させること
ができ、また、ユーザ入力として身振りや音声等を用い
るので機械操作に不慣れなユーザでも簡単にロボットを
学習(訓練)させることができ、さらに、玩具等に応用
した場合には、1つの動作を評価するだけで複数の知識
等を学習する方法を繰り返し用いることにより、ユーザ
は動物を調教するような身振りや音声を用いた調教の楽
しみを疑似的に体験することができるといった効果を奏
する他に、本実施形態特有の効果として、学習を計算機
1300側に任せて各ロボット1301,1302には
学習結果のみ保持するので、ロボット単体のコストを下
げることができると共に、複数ロボット間の学習を効率
的に行うことができる。
【0082】
【発明の効果】以上の説明から明らかなように、本発明
によれば、ユーザからの指示に従うようにロボットを学
習させることができ、また、ユーザ入力として身振りや
音声等を用いることにより、機械操作に不慣れなユーザ
でも簡単にロボットを学習(訓練)させることができ
る。さらに、玩具等に応用した場合には、1つの動作を
評価するだけで複数の知識等を学習する方法を繰り返し
用いることにより、ユーザは動物を調教するような身振
りや音声を用いた調教の楽しみを疑似的に体験すること
ができる。
によれば、ユーザからの指示に従うようにロボットを学
習させることができ、また、ユーザ入力として身振りや
音声等を用いることにより、機械操作に不慣れなユーザ
でも簡単にロボットを学習(訓練)させることができ
る。さらに、玩具等に応用した場合には、1つの動作を
評価するだけで複数の知識等を学習する方法を繰り返し
用いることにより、ユーザは動物を調教するような身振
りや音声を用いた調教の楽しみを疑似的に体験すること
ができる。
【図1】本発明のロボットおよびロボットの学習方法に
おける基本動作原理を概念的に説明する説明図である。
おける基本動作原理を概念的に説明する説明図である。
【図2】本発明の第1の実施形態に係るロボットの構成
図である。
図である。
【図3】図3(a),(b)はメンバシップ関数「振動
の回数」および「振動の強さ」の説明図、図3(c)は
振動を認識するファジイ推論規則の説明図である。
の回数」および「振動の強さ」の説明図、図3(c)は
振動を認識するファジイ推論規則の説明図である。
【図4】特徴量抽出手段の出力である特徴量ベクトル
(配列データ)を例示する説明図である。
(配列データ)を例示する説明図である。
【図5】写像手段の出力である動作命令(配列データ)
を例示する説明図ある。
を例示する説明図ある。
【図6】階層型ニューラルネットワークの説明図であ
る。
る。
【図7】写像関数データベース内に記憶される写像関数
の関数パラメータを例示する説明図である。
の関数パラメータを例示する説明図である。
【図8】遺伝子アルゴリズムにおいて写像関数を表現す
る個体の説明図である。
る個体の説明図である。
【図9】遺伝的アルゴリズムによる学習処理の流れを説
明するフローチャートである。
明するフローチャートである。
【図10】子個体が作成される様子を説明する説明図で
ある。
ある。
【図11】第1の実施形態のロボットにおける学習動作
の全体的な処理手順を説明するフローチャートである。
の全体的な処理手順を説明するフローチャートである。
【図12】本発明の第2の実施形態に係るロボットシス
テムの構成図である。
テムの構成図である。
【図13】本発明の第3の実施形態に係るロボットシス
テムの構成図である。
テムの構成図である。
101,1201,1202,1301,1302 ロ
ボット 201 入力手段 202,1312 認識手段 203,1213,1313 学習手段 204 特徴量抽出手段 205,1315 写像関数データベース 206 写像手段 207 動作出力手段 1221,1222,1320,1321,1322
通信手段
ボット 201 入力手段 202,1312 認識手段 203,1213,1313 学習手段 204 特徴量抽出手段 205,1315 写像関数データベース 206 写像手段 207 動作出力手段 1221,1222,1320,1321,1322
通信手段
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−289006(JP,A) 特開 平7−213753(JP,A) 特開 平6−161984(JP,A) 特開 平7−84792(JP,A) 特開 平9−44226(JP,A) 特開 平2−36086(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05B 19/42 B25J 9/22 B25J 13/00 G05B 13/02 G06N 3/00 550 JICSTファイル(JOIS)
Claims (14)
- 【請求項1】 入力情報として少なくとも画像情報また
は音声情報を取得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともにに、入力情報がユーザ評価である
場合には、当該ユーザ評価についての正解または不正解
の別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
力手段によって出力すべき動作に変換する写像関数を複
数保持する記憶手段と、 前記記憶手段から1の写像関数を選択し、該写像関数を
用いて前記ユーザ指示に基づく特徴量を前記動作に変換
する変換手段と、前記動作出力手段から出力された動作に対する‘正解’
のユーザ評価が得られたときには、当該動作への変換に
用いられた前記1の写像関数と、前記記憶手段に保持さ
れたその他の写像関数とを、遺伝的アルゴリズムを用い
て適宜に交差させることにより、前記記憶手段に保持さ
れるべき新たな写像関数を生成する学習手段と、 を具備することを特徴とするロボット。 - 【請求項2】学習手段を介して新たに生成された写像関
数を少なくとも含む複数の写像関数を、他のロボットと
送受信する通信手段を更に具備することを特徴とする請
求項1に記載のロボット。 - 【請求項3】‘正解’のユーザ評価が得られたときの動
作変換に用いられた1の写像関数を、他のロボットと送
受信する通信手段と、 前記通信手段を介して他のロボットより得られる前記1
の写像関数と、自己の 記憶手段に保持された写像関数と
を、遺伝的アルゴリズムを用いて適宜に交差させること
により、前記記憶手段に保持されるべき新たな写像関数
を生成する学習手段とを更に具備することを特徴とす
る、請求項1に記載のロボット。 - 【請求項4】 入力情報は、身振り、手振り、頭部動
作、表情または音声の少なくとも1つで表現されること
を特徴とする請求項1乃至3のいずれかに記載のロボッ
ト。 - 【請求項5】 入力手段は、ユーザが与える物理量を触
覚情報としてセンシングする検知手段を有し、 前記入力情報は、身振り、手振り、頭部動作、表情、音
声または触覚の少なくとも1つで表現されることを特徴
とする請求項1乃至3のいずれかに記載のロボット。 - 【請求項6】 特徴量抽出手段は、前記入力情報から、
身振り、手振り、頭部動作、表情または音声の少なくと
も1つ以上に関する特徴量を抽出することを特徴とする
請求項1乃至5のいずれかに記載のロボット。 - 【請求項7】 正解または不正解は、身振り、手振り、
頭部動作、表情、音声または触覚の少なくとも1つで表
現されることを特徴とする請求項6に記載のロボット。 - 【請求項8】 動作出力手段は、動作を視覚的に表示出
力する表示出力手段であることを特徴とする請求項1乃
至7のいずれかに記載のロボット。 - 【請求項9】 複数のロボットと、情報処理装置と、を
具備するロボットシステムであって、 前記ロボットは、 入力情報として少なくとも画像情報または音声情報を取
得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともにに、入力情報がユーザ評価である
場合には、当該ユーザ評価についての正解または不正解
の別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
力手段によって出力すべき動作に変換する写像関数を複
数保持する記憶手段と、 前記記憶手段から1の写像関数を選択し、該写像関数を
用いて前記ユーザ指示に基づく特徴量を前記動作に変換
する変換手段と、前記情報処理装置と前記写像関数を送受信する通信手段
と、を有し、 前記情報処理装置は、前記ロボットと前記写像関数を送受信する通信手段と、 1のロボットにおいて出力された動作に対する‘正解’
のユーザ評価が得られたときに当該動作への変換に用い
られた1の写像関数と、該1のロボットまたはその他の
1のロボットの有する複数の写像関数のうちの一部また
は全部とを、遺伝的アルゴリズムを用いて適宜に交差さ
せることにより、新たな写像関数を生成する学習手段
と、を有し、 それにより、前記情報処理装置で生成された新たな写像
関数を少なくとも含む複数の写像関数は、前記通信手段
を介して情報処理装置から任意のロボットへと受け渡さ
れる、 ことを特徴とするロボットシステム。 - 【請求項10】請求項9のロボットシステムに適用され
るロボットであって、 情報処理装置で生成された新たな写像関数を少なくとも
含む複数の写像関数を通信手段を介して受け取ることに
より、該複数の写像関数を移植されるロボット。 - 【請求項11】 入力情報として少なくとも画像情報ま
たは音声情報を取得する入力手段と、動作を出力する動
作出力手段と、を備えたロボットの学習方法であって、
前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともに、入力情報がユーザ評価である場
合には、当該ユーザ評価についての正解または不正解の
別を認識する認識ステップと、前記入力情報から特徴量
を抽出する特徴量抽出ステップと、前記入力情報のユー
ザ指示に基づく特徴量を前記動作出力手段によって出力
すべき動作に変換する写像関数を複数保持する記憶ステ
ップと、前記記憶ステップにより保持された複数の写像
関数から1の写像関数を選択し、該写像関数を用いて前
記ユーザ指示に基づく特徴量を前記動作に変換する変換
ステップと、前記動作出力手段から出力された動作に対
する‘正解’のユーザ評価が得られたときには、当該動
作への変換に用いられた前記1の写像関数と、前記保持
されたその他の写像関数とを、遺伝的アルゴリズムを用
いて適宜に交差させることにより、新たに保持されるべ
き写像関数を生成する学習ステップと、を具備すること
を特徴とするロボットの学習方法。 - 【請求項12】 請求項11に記載のロボットの学習方
法をコンピュータに実行させるためのプログラムとして
記憶したコンピュータにより読み取り可能な記録媒体。 - 【請求項13】 入力情報として少なくとも画像情報ま
たは音声情報を取得する入力手段と、動作を出力する動
作出力手段と、データを送受信する通信手段とを備えた
複数のロボットと、前記ロボットとデータを送受信する
通信手段を備えた情報処理装置と、を具備するロボット
システムの学習方法であって、各ロボットにおいて、前
記入力情報についてユーザ指示またはユーザ評価の種別
を認識するとともにに、入力情報がユーザ評価である場
合には、当該ユーザ評価についての正解または不正解の
別を認識する認識ステップと、各ロボットにおいて、前
記入力情報から特徴量を抽出する特徴量抽出ステップ
と、各ロボットにおいて、前記入力情報のユーザ指示に
基づく特徴量を前記動作出力手段によって出力すべき動
作に変換する写像関数を複数保持する記憶ステップと、
各ロボットにおいて、前記記憶ステップにより保持され
た複数の写像関数から1の写像関数を選択し、該1の写
像関数を用いて前記ユーザ指示に基づく特徴量を前記動
作に変換する変換ステップと、前記情報処理装置におい
て、1のロボットにおいて出力された動作に対する‘正
解’のユーザ評価が得られたときに当該動作への変換に
用いられた1の写像関数と、該1のロボットまたはその
他の1のロボットの記憶手段に保持された複数の写像関
数の一部または全部とを、前記通信手段を介して取得す
るデータ受信ステップと、前記情報処理装置において、
該取得された‘正解’のユーザ評価が得られたときの1
の写像関数と、その他取得された写像関数とを、遺伝的
アルゴリズムを用いて適宜に交差させることにより、新
たな写像関数を生成する学習ステップと、該情報処理装
置において生成された新たな写像関数を含む複数の写像
関数を、前記通信手段を介して情報処理装置から任意の
ロボットへ と受け渡すステップと、を具備することを特
徴とするロボットシステムの学習方法。 - 【請求項14】 請求項13に記載のロボットシステム
の学習方法をコンピュータに実行させるためのプログラ
ムとして記憶したコンピュータにより読み取り可能な記
録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36312297A JP3211186B2 (ja) | 1997-12-15 | 1997-12-15 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36312297A JP3211186B2 (ja) | 1997-12-15 | 1997-12-15 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11175132A JPH11175132A (ja) | 1999-07-02 |
JP3211186B2 true JP3211186B2 (ja) | 2001-09-25 |
Family
ID=18478556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36312297A Expired - Fee Related JP3211186B2 (ja) | 1997-12-15 | 1997-12-15 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3211186B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185073A (ja) * | 2002-11-29 | 2004-07-02 | Toshiba Corp | プラント運用最適化制御装置 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020008848A (ko) * | 2000-03-31 | 2002-01-31 | 이데이 노부유끼 | 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법 |
JP2002321177A (ja) * | 2001-04-23 | 2002-11-05 | Sony Corp | 脚式移動ロボット及びその制御方法 |
JP3574632B2 (ja) * | 2001-07-09 | 2004-10-06 | 憲三 岩間 | 単語学習ロボット、移動物体の学習動作制御装置およびその方法 |
KR100426035B1 (ko) * | 2001-08-01 | 2004-04-03 | 주식회사 마이크로로보트 | 마이크로로봇 제어프로그램 교육 시스템 |
KR100446725B1 (ko) * | 2001-11-02 | 2004-09-01 | 엘지전자 주식회사 | 로봇의 행동 학습방법 |
SE0103994L (sv) * | 2001-11-29 | 2003-05-30 | Abb Ab | An industrial robot system and a method for programming thereof |
JP3529049B2 (ja) * | 2002-03-06 | 2004-05-24 | ソニー株式会社 | 学習装置及び学習方法並びにロボット装置 |
KR20030092762A (ko) * | 2002-05-31 | 2003-12-06 | (주)하늘아이 | 조립식 로봇 및 이를 제어하기 위한 아이콘 방식의 제어프로그램 작성 장치 |
WO2004052597A1 (ja) * | 2002-12-10 | 2004-06-24 | Honda Motor Co.,Ltd. | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2009262279A (ja) * | 2008-04-25 | 2009-11-12 | Nec Corp | ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム |
KR101239274B1 (ko) * | 2009-07-06 | 2013-03-06 | 한국전자통신연구원 | 상호작용성 로봇 |
TWI440862B (zh) * | 2011-11-21 | 2014-06-11 | 國立交通大學 | Electrical detection method and system based on user feedback information |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
DE102016015936B8 (de) | 2015-07-31 | 2024-10-24 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
WO2017134735A1 (ja) * | 2016-02-02 | 2017-08-10 | 株式会社日立製作所 | ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法 |
JP6549545B2 (ja) * | 2016-10-11 | 2019-07-24 | ファナック株式会社 | 人の行動を学習してロボットを制御する制御装置およびロボットシステム |
US10562181B2 (en) | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
US11106967B2 (en) | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
JP7154823B2 (ja) | 2018-05-28 | 2022-10-18 | キヤノン株式会社 | 情報処理装置、ロボット制御装置、情報処理方法及びプログラム |
JP2020121381A (ja) * | 2019-01-31 | 2020-08-13 | セイコーエプソン株式会社 | 機械学習器、ロボットシステム、及び機械学習方法 |
JP2022139741A (ja) * | 2021-03-12 | 2022-09-26 | オムロン株式会社 | 命令記述支援システム、命令記述支援方法および命令記述支援プログラム |
JP2022139742A (ja) * | 2021-03-12 | 2022-09-26 | オムロン株式会社 | 命令記述支援システム、命令記述支援方法および命令記述支援プログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0236086A (ja) * | 1988-07-22 | 1990-02-06 | Toyota Motor Corp | 複数ロボットの制御方法 |
JPH06161984A (ja) * | 1992-11-25 | 1994-06-10 | Ricoh Co Ltd | 情報処理装置およびニュ−ラルネットワ−ク |
JPH0784792A (ja) * | 1993-09-14 | 1995-03-31 | Toshiba Corp | ファジィ推論装置 |
JPH07213753A (ja) * | 1994-02-02 | 1995-08-15 | Hitachi Ltd | パーソナルロボット装置 |
JP3541510B2 (ja) * | 1995-07-28 | 2004-07-14 | 日産自動車株式会社 | ロボット制御装置 |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
-
1997
- 1997-12-15 JP JP36312297A patent/JP3211186B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185073A (ja) * | 2002-11-29 | 2004-07-02 | Toshiba Corp | プラント運用最適化制御装置 |
Also Published As
Publication number | Publication date |
---|---|
JPH11175132A (ja) | 1999-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3211186B2 (ja) | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 | |
TW581959B (en) | Robotic (animal) device and motion control method for robotic (animal) device | |
US6714840B2 (en) | User-machine interface system for enhanced interaction | |
EP0978770B1 (en) | System and method for controlling object by simulating emotions and a personality in the object | |
US8538750B2 (en) | Speech communication system and method, and robot apparatus | |
JP2003039363A (ja) | ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体 | |
CN110931111A (zh) | 基于虚拟现实及多模态信息的孤独症辅助干预系统及方法 | |
JP3178393B2 (ja) | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 | |
Maroto-Gómez et al. | Active learning based on computer vision and human–robot interaction for the user profiling and behavior personalization of an autonomous social robot | |
US20020019678A1 (en) | Pseudo-emotion sound expression system | |
Najar et al. | Interactively shaping robot behaviour with unlabeled human instructions | |
Li et al. | Facial feedback for reinforcement learning: a case study and offline analysis using the TAMER framework | |
CN118079182A (zh) | 一种多功能教育机器人 | |
WO2022109759A1 (zh) | 一种类人通用人工智能的实现方法 | |
JP3854061B2 (ja) | 疑似生物装置及び擬似生物装置における疑似生物の行動形成方法、及び疑似生物装置に行動形成を行わせるプログラムを記載したコンピュータ読み取り可能な記憶媒体 | |
Swinson et al. | Expanding frontiers of humanoid robotics [Guest Editor's Introduction] | |
KR20100070773A (ko) | 성격 변화 장치 및 그 방법과, 그를 이용한 행동 다양화 장치 및 그 방법과, 그 로봇 시스템 | |
CN113962353B (zh) | 一种建立强人工智能的方法 | |
Dossa et al. | Hybrid of reinforcement and imitation learning for human-like agents | |
CN115004254A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2000155750A (ja) | 行動生成装置、行動生成方法及び行動生成プログラム記録媒体 | |
Cuayáhuitl et al. | Training an interactive humanoid robot using multimodal deep reinforcement learning | |
Gharaee | Predicting the intended action using internal simulation of perception | |
Mier et al. | Generation of expressive motions for a tabletop robot interpolating from hand-made animations | |
JP2007280007A (ja) | データ処理装置、データ処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080719 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |