[go: up one dir, main page]

JP5560794B2 - 制御装置、制御方法およびプログラム - Google Patents

制御装置、制御方法およびプログラム Download PDF

Info

Publication number
JP5560794B2
JP5560794B2 JP2010059621A JP2010059621A JP5560794B2 JP 5560794 B2 JP5560794 B2 JP 5560794B2 JP 2010059621 A JP2010059621 A JP 2010059621A JP 2010059621 A JP2010059621 A JP 2010059621A JP 5560794 B2 JP5560794 B2 JP 5560794B2
Authority
JP
Japan
Prior art keywords
instruction
information
user
instruction information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010059621A
Other languages
English (en)
Other versions
JP2011189481A (ja
Inventor
嘉昭 岩井
泰広 周藤
憲一郎 長阪
章愛 田中
隆志 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010059621A priority Critical patent/JP5560794B2/ja
Priority to KR1020110020507A priority patent/KR101708061B1/ko
Priority to US13/042,707 priority patent/US20110231018A1/en
Priority to CN201110060837.1A priority patent/CN102189557B/zh
Priority to EP11157453.9A priority patent/EP2366503A3/en
Publication of JP2011189481A publication Critical patent/JP2011189481A/ja
Application granted granted Critical
Publication of JP5560794B2 publication Critical patent/JP5560794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40393Learn natural high level command, associate its template with a plan, sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Toys (AREA)
  • Navigation (AREA)

Description

本発明は、制御装置、制御方法およびプログラムに関する。
最近では、周囲の外部状態やロボット(以降、移動体とも称する。)自身の内部状態に応じて自立的に動作を行うことができるロボットが開発されている。例えば、歩行動作においては、外部の障害物を検出して障害物を回避するような行動経路を計画したり、周囲の環境の障害物地図を作成し、当該地図に基づいて行動経路を決定したりするロボットが開発されている(特許文献1および特許文献2)。
例えば、特許文献1では、ロボット装置が取得した3次元の距離情報から床面を検出することにより、障害物か否かを推定している。具体的には、ロボット装置周辺の環境を、所定の大きさのグリッドに分割されたロボット中心座標系の地図情報としての環境地図で表現し、地図内の各グリッドに対して障害物の存在確率を保持できるようにしている。そして、存在確率がある閾値を超えたグリッドを障害物として認識することにより、ロボットの周辺環境を識別している。また、特許文献2は、実際には存在しない平面や障害物等の観測ノイズに対して高い耐性を備え、かつ、高さ方向に対して高い解像度をもって周囲の環境を表現することを可能としている。
特開2003−269937号公報 特開2006−11880号公報
上記特許文献では、ロボットが自立的に周辺の物体や障害物などの存在確率を保持することにより環境地図を生成しているが、ユーザがロボットに対して指示した情報や、指示に応じた行動についての存在確率も環境地図に反映させることにより、ロボットへの作業指示を簡便化させたいという要望があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザとのインタラクションを介してロボットの周辺情報を更新し、ロボットへの指示を簡便化することが可能な、新規かつ改良された制御装置、制御方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、移動体に所定の処理を実行させる実行部と、前記移動体が移動可能な領域の環境地図を記憶している記憶部と、前記移動体の周辺情報を検出する検出部と、前記検出部により検出された前記移動体の周辺情報に基づいて、前記環境地図を更新する更新部と、ユーザ入力に応じて、ユーザの指示を示す指示情報を取得する取得部と、を備え、前記実行部は、前記環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させ、前記更新部は、前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新する、制御装置が提供される。
また、前記環境地図は、物体の存在確率を示す情報を含んで構成され、前記検出部は、前記移動体の周辺に存在する物体を検出し、前記更新部は、前記環境地図に含まれる物体の存在確率を更新してもよい。
また、前記更新部は、前記指示情報に含まれる前記物体に関する情報と、前記物体の存在確率とを関連付けて前記環境地図を更新してもよい。
また、前記更新部は、前記指示情報に含まれる指示語と前記物体の存在確率とを関連付けて前記環境地図を更新してもよい。
また、前記更新部は、前記指示語の出現確率を所定の時間毎に更新してもよい。
また、前記実行部は、前記指示情報を解析して、前記指示情報に含まれるユーザに指示された物体をユーザ位置に移動させる処理を移動体に実行させてもよい。
また、前記実行部は、前記移動体をユーザに指示された物体が存在する場所に移動させ、前記物体を把持して前記ユーザの位置している場所に移動させてもよい。
また、ユーザ入力に応じて、前記実行部により実行された前記移動体の処理が前記ユーザの指示に対応しているか否かを判定してもよい。
また、前記判定部により前記実行部により実行された前記移動体の処理と前記ユーザの指示とが一致していると判定された場合、前記更新部は、前記指示情報に含まれる物体に関する情報の存在確率を増加させてもよい。
また、前記更新部は、前記指示情報に含まれる指示された場所における指示された物体の存在確率を増加させてもよい。
また、前記更新部は、前記指示情報に含まれる指示された時間における指示語の存在確率を増加させてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザ入力に応じて、ユーザの指示を示す指示情報を取得するステップと、記憶部に記憶されている移動体が移動可能な領域の環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させるステップと、前記移動体の周辺情報を検出するステップと、前記検出された前記移動体の周辺情報に基づいて、前記環境地図を更新するステップと、前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新するステップと、を含む、移動体の制御方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、移動体に所定の処理を実行させる実行部と、前記移動体が移動可能な領域の環境地図を記憶している記憶部と、前記移動体の周辺情報を検出する検出部と、前記検出部により検出された前記移動体の周辺情報に基づいて、前記環境地図を更新する更新部と、ユーザ入力に応じて、ユーザの指示を示す指示情報を取得する取得部と、を備え、前記実行部は、前記環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させ、前記更新部は、前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新する、制御装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、ユーザとのインタラクションを介してロボットの周辺情報を更新し、ロボットへの指示を簡便化することができる。
本発明の実施形態に係る制御装置のハードウェア構成を示すブロック図である。 同実施形態にかかる制御装置の機能構成を示すブロック図である。 同実施形態にかかる環境地図生成処理を示すフローチャートである。 同実施形態にかかる環境地図の存在確率について説明する説明図である。 同実施形態にかかる環境地図の更新処理を示すフローチャートである。 同実施形態にかかる環境地図の更新処理を示すフローチャートである。 同実施形態にかかる環境地図の階層化構造について説明する説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下に示す順序に従って、当該「発明を実施するための形態」を説明する。
1.本実施形態の目的
2.制御装置のハードウェア構成
3.制御装置の機能構成
4.制御装置の動作の詳細
<1.本実施形態の目的>
まず、本実施形態の目的について説明する。最近では、周囲の外部状態やロボット(以降、移動体とも称する。)自身の内部状態に応じて自立的に動作を行うことができるロボットが開発されている。例えば、歩行動作においては、外部の障害物を検出して障害物を回避するような行動経路を計画したり、周囲の環境の障害物地図を作成し、当該地図に基づいて行動経路を決定したりするロボットが開発されている(特許文献1および特許文献2)。
例えば、特許文献1では、ロボット装置が取得した3次元の距離情報から床面を検出することにより、障害物か否かを推定している。具体的には、ロボット装置周辺の環境を、所定の大きさグリッドに分割されたロボット中心座標系の地図情報としての環境地図で表現し、地図内の各グリッドに対して障害物の存在確率を保持できるようにしている。そして、存在確率がある閾値を超えたグリッドを障害物として認識することにより、ロボットの周辺環境を識別している。また、特許文献2は、実際には存在しない平面や障害物等の観測ノイズに対して高い耐性を備え、かつ、高さ方向に対して高い解像度をもって周囲の環境を表現することを可能としている。
上記特許文献では、ロボットが自立的に周辺の物体や障害物などの存在確率を保持することにより環境地図を生成しているが、ユーザがロボットに対して指示した情報や、指示に応じた行動についての存在確率も環境地図に反映させることにより、ロボットへの作業指示を簡便化させたいという要望があった。そこで、上記のような事情を一着眼点として、本実施形態に係る制御装置100が創作されるに至った。制御装置100によれば、ユーザとのインタラクションを介してロボットの周辺情報を更新し、ロボットへの指示を簡便化することが可能となる。
<2.制御装置のハードウェア構成>
次に、図1を参照して、本実施形態にかかる制御装置100のハードウェア構成について説明する。図1は、制御装置100のハードウェア構成を示すブロック図である。図1に示したように、制御装置100は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、ホストバス14と、ブリッジ15と、外部バス16と、インタフェース17と、入力装置18と、出力装置19と、ストレージ装置(HDD)20と、ドライブ21と、接続ポート22と、通信装置23とを備える。
CPU11は、演算処理装置および制御装置として機能し、各種プログラムに従って制御装置100内の動作全般を制御する。また、CPU11は、マイクロプロセッサであってもよい。ROM12は、CPU11が使用するプログラムや演算パラメータ等を記憶する。RAM13は、CPU11の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス14により相互に接続されている。
ホストバス14は、ブリッジ15を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス16に接続されている。なお、必ずしもホストバス14、ブリッジ15および外部バス16を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置18は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU11に出力する入力制御回路などから構成されている。制御装置100のユーザは、該入力装置18を操作することにより、制御装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置19は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力装置19は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
ストレージ装置20は、本実施形態にかかる制御装置100の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置20は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置20は、ハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ21は、記憶媒体用リーダライタであり、制御装置100に内蔵、あるいは外付けされる。ドライブ21は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM13に出力する。
接続ポート22は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置23は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置23は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。以上、制御装置100のハードウェア構成について説明した。
<3.制御装置の機能構成>
次に、図2を参照して、制御装置100の機能構成について説明する。図2は、制御装置100の機能構成を示すブロック図である。図2に示したように、制御装置100は、画像認識器101、検出部102、記憶部104、更新部106、実行部108、取得部110、判定部112などを備える。
検出部102は、ロボットの周辺情報を検出する機能を有する。具体的には、検出部102は、ステレオカメラやレーザーレンジファインダなどの各種センサから提供される周囲の画像情報や3D情報をもとに周辺の床面を検出する。また、3D情報をもとに周辺の床面検出を行うことにより、床面上の物体を検出することができる。さらに、床面のテクスチャを登録することにより、登録されたテクスチャと異なるテクスチャが存在しているか否かにより物体を検出することができる。
検出部102はさらに、床面以外の物体の存在を検出した場合には、その物体が何であるかを検出してもよい。物体が何であるかの情報は、画像認識器101により取得してもよい。画像認識器101は、物体の画像の画像特徴量と、該物体の概念や名称等を関連付けて学習している。したがって、検出部102は、ステレオカメラなどにより取得された物体の画像特徴量と、画像認識器101の物体の画像特徴量とを比較することにより、当該物体が何であるかを検出することができる。
また、検出部102は、物体が把持可能である場合に、物体の重さを検出してもよい。検出部102により検出されたロボットの周辺情報は、記憶部104の環境地図105に記憶されたり更新部106に提供されたりする。
記憶部104に記憶されている環境地図105は、ロボットが移動可能な領域の環境を示す情報である。具体的には、環境地図105は、ロボット周辺の環境を、所定の大きさのグリッドに分割されたロボット中心座標系の地図情報として表現されている。また、環境地図内の各グリッドに対して障害物の存在確率を保持できるようにしている。そして、存在確率がある閾値を超えたグリッドを障害物として認識することにより、ロボットの周辺環境を識別している。
また、環境地図105における障害物の存在確率を3次元グリッドで表現してもよい。例えば、4メール四方、水平解像度4センチおよび垂直解像度1センチを1セルとした3次元グリッドで表現してもよい。ロボットは、例えば、1秒間に30回というように所定間隔毎に周囲の状態を取得してもよい。ロボットが移動している場合には、3次元グリッドとして表現される空間は、時々刻々と変化する。例えば、取得されたセルについて、見えたところを1、見えないところを0.5として表現してもよい。占有確率は1秒間に30回測定するうちに徐々に更新されていくようにしてもよい。
また、環境地図105は、全体地図と局所地図とが階層化された構造となっていてもよい。この場合、各局所地図は、時間情報を考慮した3次元的な構造となる。また、局所地図における各グリッド(x、y、t)に付随する情報としては、物体の存在確率、物体の情報(名称、重さ)、ユーザからの指示語の確率などが挙げられる。ユーザからの指示語とは、後述する取得部110により取得されるユーザの指示を示す指示情報に含まれる「あれ」や「それ」などである。
更新部106は、検出部102により検出された移動体の周辺情報に基づいて、環境地図105を更新する機能を有する。具体的には、更新部106は、環境地図の各グリッドに対応付けられている物体の存在確率を更新する。また、更新部106は、後述する実行部108により実行された移動体の処理をもとに環境地図を更新する。また、更新部106は、検出部102により、物体の名称や重さが検出された場合には、グリッドに対応付けられている物体の名称や重さの情報を更新する。
取得部110は、ユーザ入力に応じて、ユーザの指示を示す指示情報を取得する機能を有する。指示情報とは、例えば、ユーザが手元に持ってきてほしい物体に関する情報などであって、物体が存在する場所や物体の名称などの情報である。また、「リビングのジュースを持ってきて」や、「あれ取ってきて」などのユーザからの指示を示す文章であってもよい。取得部110は、取得したユーザからの指示情報を実行部108に提供する。取得部110は、ユーザの指示情報から、ユーザとロボットとの位置関係や、ロボットの存在場所などのコンテキストを取得して実行部108に提供してもよい。
実行部108は、環境地図105を参照して、指示情報に基づく処理をロボットに実行させる機能を有する。実行部108は、取得部110により提供された指示情報を解析して、指示情報に含まれるユーザに指示された物体を、ユーザ位置に移動させる処理をロボットに実行させる。また、実行部108は、ユーザに指示された物体が存在する場所にロボットを移動させて、ロボットに該物体を把持させてユーザの位置している場所に移動させる。
例えば、ユーザから「あれ取ってきて」と指示された場合には、実行部108は、環境地図105を参照して、「あれ」に相当する物体を推定する。上記したように、指示情報に含まれる指示語の出現確率は、時間毎に環境地図105に記憶されている。したがって、どこで何時に「あれ取ってきて」と指示されたかを解析することにより、時間毎に保持されている「あれ」の確率から、「あれ」が何であるかを推定することができる。
また、更新部106は、実行部108により実行されたユーザからの指示に含まれる指示語と物体の存在確率とを関連付けて環境地図を更新してもよい。さらに、更新部106は、指示語の出現確率を所定の時間ごとに更新してもよい。すなわち、ロボットが行動した時間や場所における環境地図やグリッドの「あれ」と指示される確率を増加させる。
判定部112は、ユーザ入力に応じて実行部108により実行されたロボットの処理がユーザの指示に対応しているか否かを判定する機能を有する。判定部112により、実行部108により実行されたロボットの処理とユーザの指示とが一致していると判定された場合には、更新部106は、指示情報に含まれる物体に関する情報の存在確率を増加させる。
また、更新部106は、判定部112により、実行部108により実行されたロボットの処理とユーザの指示とが一致していると判定された場合には、指示情報に含まれる指示された場所における指示された物体の存在確率を増加させる。さらに、更新部106は、指示された時間における「あれ」などの指示語の存在確率を増加させる。なお、上記実施形態では、床面上をロボットが物体を把持可能な領域として説明しているが、かかる例に限定されず、例えば、テーブルの上や棚の上などの平面上も把持可能領域としてもよい。以上、制御装置100の機能構成について説明した。
<4.制御装置の動作の詳細>
次に、図3〜図7を参照して、制御装置100の動作の詳細について説明する。図3は、制御装置100における環境地図生成処理を示すフローチャートである。図3では、移動体が自立的に移動して、環境地図を生成したり、更新したりする場合を例示して説明する。
図3に示したように、まず、ロボットの移動とともに、自己位置の推定を行う(S102)。自己位置の推定とは、ロボットが環境地図上のどの位置に存在しているか否かを推定することである。ステップS102において、環境地図が既に生成されている場合には、環境地図のどのグリッドに位置しているかを判定する。また、環境地図が生成されていない場合には、所定の座標系における自己位置を判定する。
そして、ロボットの周辺の画像データや3Dデータを取得する(S104)。ステップS104においては、ステレオカメラやレーザーレンジファインダなどのセンサからの情報を用いて、周囲の画像情報や3D情報を取得する。
そして、3D情報をもとに床面検出を行うことにより、床面上の物体を検出する(S106)。また、ステップS106において、床面のテクスチャを予め登録しておくことにより、登録されたテクスチャと異なるテクスチャが存在するか否かにより物体を検出してもよい。
そして、床面以外の物体が存在するか否かを判定する(S108)。ステップS108において、床面以外の物体が存在すると判定された場合には、画像認識器101により、その物体が何であるかを認識する。ただし、ステップS110において、物体の認識に失敗したか、または、当該物体に対応する認識機がない場合には、物体情報はUnknownとする。
また、物体を押したり把持したりすることにより、物体が把持可能であるか否かを検証する。そして、物体が把持可能である場合には、物体の重さの情報を取得する。ステップS108において、床面以外の物体が存在しないと判定された場合には、ステップS112の処理を実行する。
そして、ステップS106における物体の検出結果や、ステップS110における物体の認識結果に応じて、環境地図(Map)情報を更新する(S112)。ステップS108において、床面以外の物体が存在しないと判定された場合には、環境地図の該当位置に物体が存在する確率を減少させる。
また、ステップS108において、床面以外の物体が存在すると判定された場合には、環境地図の該当位置に物体が存在する確率を増加させる。ただし、過去に観測したデータにより、環境地図上にすでに情報がある場合には、現在推定した情報との照合を図る必要がある。このため、過去の情報と検出した物体の情報とが一致しない場合には、環境地図上の同一の場所に複数の異なる物体の存在確率を有するようになる。
図4は、環境地図の存在確率について説明する説明図である。図4は、障害物の存在確率が与えられた3次元グリッドを示す説明図である。3次元グリッドとして表される領域は、例えば、4メートル四方、水平解像度4センチおよび垂直解像度1センチを1セルとした3次元グリッドで表現されている。また、例えば、1秒間に30回というように所定間隔毎に周囲の状態を取得するため、ロボットが移動する場合には、3次元グリッドとして表現させる空間は、時々刻々と変化する。取得されたセルは、例えば、見えたところを1、見えないところを0.5とする。存在確率は、1秒間に30回測定する間に徐々に更新されていく。
図4に示した3次元グリッドの作成および更新は、測定点と観測中心とを結ぶ直線上には障害物が存在しないというアルゴリズムに基づいて行われている。例えば、測定対象点であるセルpとロボット装置のステレオカメラ等の撮像装置の間に存在するセルに対して、エンプティ(Empty)処理を行う。続いて、測定点pにあたるセルに対してオキュパイド(Occupied)処理を行う。
3次元グリッドは、セルCに対して障害物の存在確率(障害物によって占有されている確率)p(C)を保持しており、エンプティ処理およびオキュパイド処理は、各セルに対して統計的な処理である。エンプティ処理は障害物の存在確率を低下させる処理であり、オキュパイド処理は障害物の存在確率を増加させる処理である。本実施形態では、エンプティ処理およびオキュパイド処理の存在確率を算出する手法の一例として、ベイズの更新則を用いる。
エンプティ処理のときは以下の数式1により占有確率を減少させ、オキュパイド処理のときは以下の数式2により占有確率を増加させる。数式1は、セルCの占有確率を表すp(c)が“占有”という条件下にあるセルCの確率を表している。また、数式1または数式2において、セルCが占有されているかまたは占有されていないかを表す確率p(occ|・・・)、p(empty|・・・)は、予め決められた閾値thである。
Figure 0005560794
Figure 0005560794
以上、制御装置100における環境地図生成処理について説明した。次に、図5を参照して、ユーザの指示による行動に基づく環境地図の更新処理について説明する。図5は、ユーザの指示よる行動に基づく環境地図の更新処理を示すフローチャートである。図5に示したように、まず、ユーザの指示情報を取得する(S202)。ステップS202においては、ユーザの指示情報として、ユーザから対象物体の場所や対象物体の名称などの情報を取得する。
そして、ステップS202において指定された場所にロボットを移動させる(S204)。ステップS204において、ロボットが移動中もさまざまな観測データを取得することができるため、図3に示した自律移動による環境地図更新処理を実行してもよい。また、ロボットを移動させる際には、現在までに生成または更新された環境地図の情報に基づいて、最適な移動パスを決定することが可能である。
ステップS204でロボットが指定場所に移動した後、指定場所で物体を検出し、検出位置を環境地図上の情報として保持する(S206)。そして、ステップS206において検出した物体をロボットに把持させる(S208)。
そして、ユーザが位置する場所に移動する(S210)。ステップS210においても、ロボットの移動中の観測データを取得して、環境地図を更新してもよい。
そして、ステップS208において把持した物体をユーザへ渡す(S212)。ここで、ステップS212においてユーザに渡した物体が、ユーザが指示した物体か否かを確認する(S214)。ステップS214においてユーザに確認することにより、ロボットによる物体の認識ミスや移動ミスにより、間違った物体情報を環境地図に反映することを防止することができる。
ステップS214において、ユーザに渡した物体が、ユーザが指示した物体であることが確認された場合には、環境地図を更新する(S216)。ステップS216では、環境地図上において、物体を検出した場所や、物体の名称や重さなどの物体情報などの存在確率を増加させる。図3に示した自立的に環境地図を更新する処理と異なり、ユーザ指示に応じて環境地図を更新する場合には、ユーザにより物体の名称等の確認がとれているため、環境地図の存在確率を大きく更新してもよい。
次に、図6を参照して、ユーザに「あれとってきて」と指示された場合の処理について説明する。図6は、ユーザに「あれとってきて」と指示された場合の処理を示すフローチャートである。図6に示したように、まず、ユーザの指示情報として、「あれとってきて」を取得する(S222)。
ステップS222においてユーザに「あれとってきて」と指示された後に、ユーザとロボットとの位置関係や、ロボットの現在の場所や現在時刻などのコンテキストを把握する(S224)。例えば、ロボットの現在の場所がリビングなのかキッチンなのかを把握したり、現在時刻から朝なのか昼なのか夕方なのかを把握したりする。これらのコンテキストを用いて、環境地図情報から「あれ」に相当する物体を推定する。
ここで、環境地図の階層化構造について説明する。図7に示したように、環境地図は、全体地図(全体Map)と局所地図(局所Map)とを有する階層化された構造となっている。また、局所地図は、時間軸情報を考慮した3次元的な構造となっている。環境地図の各ピクセル(x、y、t)に付随する情報としては、物体の存在確率、物体の情報(名称、重さ)、ユーザからの指示語の確率などが挙げられる。
環境地図の更新は、上記したように、すべての確率を増加したり減少したりすることによって行われる。確率密度の更新は、時空間的に行われる。ただし、「あれ」などの指示語の確率に関しては、その時刻の空間のみにおいて更新する。例えば、キッチン61のなかで「あれ」として指示される物体の確率は、説明図63に示したように、時刻毎に更新される。これは、時刻によって「あれ」と指示される物体の確率は変化するためである。時刻毎に「あれ」の確率を更新することにより、ユーザからの「あれとってきて」の「あれ」をロボットに正しく解釈させることが可能となる。
図6に戻り、ステップS224において、「あれ」に相当する物体を推定した後に、ユーザにユーザが指示した「あれ」が、推定した物体であるか否かを確認してもよい。これにより、より確実にユーザが指示した物体をユーザのもとへ移動させることができる。
ステップS224においてユーザが「あれ」と指示した物体を推定し、環境地図情報をもとにユーザの指示した物体がある位置へ移動する(S226)。ステップS226において、ロボットが移動中もさまざまな観測データを取得して、随時環境地図を更新してもよい。
そして、物体を検出し、当該物体をロボットに把持させる(S228)。ステップS228において、必要であれば、環境地図に登録されている物体の名称を用いてユーザに確認をとってもよい。例えば、「あれ」と指示された物体の名称が「ペットボトル」や「ジュース」などの名称であるかをテキストで表示してもよいし、物体の画像をユーザに表示させてもよい。
そして、ユーザが位置する場所に移動する(S230)。ステップS210においても、ロボットの移動中の観測データを取得して、環境地図を更新してもよい。
そして、ステップS228において把持した物体をユーザへ渡す(S232)。ここで、ステップS232においてユーザに渡した物体が、ユーザが指示した物体か否かを確認する(S234)。ステップS234において、ユーザに渡した物体が、ユーザが指示した「あれ」に相当するものであることが確認された場合には、環境地図を更新する(S236)。ステップS236では、環境地図の該当箇所における物体情報を更新する。すなわち、あるコンテキストにおける「あれ」と指示される確立を増加させる。
以上、ユーザに「あれとってきて」と指示された場合の処理について説明した。以上より、本実施形態によれば、環境地図を参照して、ロボットにユーザからの指示情報に基づく処理を実行させ、ユーザからの指示情報や指示情報に基づく移動体の処理をもとに環境地図を更新する。これにより、ユーザとのインタラクションを通じて、環境地図に様々な情報を付加することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の制御装置100の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、制御装置100の処理における各ステップは、異なる処理であっても並列的に実行されてもよい。
また、制御装置100などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した制御装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
100 制御装置
101 画像認識器
102 検出部
104 記憶部
105 環境地図
106 更新部
108 実行部
110 取得部
112 判定部

Claims (11)

  1. 移動体に所定の処理を実行させる実行部と、
    前記移動体が移動可能な領域の環境地図を記憶している記憶部と、
    前記移動体の周辺情報を検出する検出部と、
    前記検出部により検出された前記移動体の周辺情報に基づいて、前記環境地図を更新する更新部と、
    ユーザ入力に応じて、ユーザの指示を示す指示情報を取得する取得部と、
    を備え、
    前記実行部は、前記環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させ、
    前記更新部は、前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新し、
    前記環境地図は、物体の存在確率を示す情報を含んで構成され、
    前記更新部は、前記指示情報に含まれる指示語と前記物体の存在確率とを関連付けて前記環境地図を更新し、さらに前記指示語の出現確率を所定の時間毎に更新する、制御装置。
  2. 記検出部は、前記移動体の周辺に存在する物体を検出し、
    前記更新部は、前記環境地図に含まれる物体の存在確率を更新する、請求項1に記載の制御装置。
  3. 前記更新部は、前記指示情報に含まれる前記物体に関する情報と、前記物体の存在確率とを関連付けて前記環境地図を更新する、請求項2に記載の制御装置。
  4. 前記実行部は、前記指示情報を解析して、前記指示情報に含まれるユーザに指示された物体をユーザ位置に移動させる処理を移動体に実行させる、請求項1に記載の制御装置。
  5. 前記実行部は、前記移動体をユーザに指示された物体が存在する場所に移動させ、前記物体を把持して前記ユーザの位置している場所に移動させる、請求項1に記載の制御装置。
  6. ユーザ入力に応じて、前記実行部により実行された前記移動体の処理が前記ユーザの指示に対応しているか否かを判定する判定部を備える、請求項1に記載の制御装置。
  7. 前記判定部により前記実行部により実行された前記移動体の処理と前記ユーザの指示とが一致していると判定された場合、前記更新部は、前記指示情報に含まれる物体に関する情報の存在確率を増加させる、請求項に記載の制御装置。
  8. 前記更新部は、前記指示情報に含まれる指示された場所における指示された物体の存在確率を増加させる、請求項に記載の制御装置。
  9. 前記更新部は、前記指示情報に含まれる指示された時間における指示語の存在確率を増加させる、請求項に記載の制御装置。
  10. ユーザ入力に応じて、ユーザの指示を示す指示情報を取得するステップと、
    記憶部に記憶されている移動体が移動可能な領域の環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させるステップと、
    前記移動体の周辺情報を検出するステップと、
    前記検出された前記移動体の周辺情報に基づいて、前記環境地図を更新するステップと、
    前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新するステップと、
    を含み、
    前記環境地図は、物体の存在確率を示す情報を含んで構成され、
    前記更新するステップは、前記指示情報に含まれる指示語と前記物体の存在確率とを関連付けて前記環境地図を更新し、さらに前記指示語の出現確率を所定の時間毎に更新する、移動体の制御方法。
  11. コンピュータを、
    移動体に所定の処理を実行させる実行部と、
    前記移動体が移動可能な領域の環境地図を記憶している記憶部と、
    前記移動体の周辺情報を検出する検出部と、
    前記検出部により検出された前記移動体の周辺情報に基づいて、前記環境地図を更新する更新部と、
    ユーザ入力に応じて、ユーザの指示を示す指示情報を取得する取得部と、
    を備え、
    前記実行部は、前記環境地図を参照して、前記移動体に前記指示情報に基づく処理を実行させ、
    前記更新部は、前記指示情報および前記指示情報に基づく前記移動体により実行される処理をもとに前記環境地図を更新し、
    前記環境地図は、物体の存在確率を示す情報を含んで構成され、
    前記更新部は、前記指示情報に含まれる指示語と前記物体の存在確率とを関連付けて前記環境地図を更新し、さらに前記指示語の出現確率を所定の時間毎に更新する、制御装置として機能させるためのプログラム。


JP2010059621A 2010-03-16 2010-03-16 制御装置、制御方法およびプログラム Active JP5560794B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010059621A JP5560794B2 (ja) 2010-03-16 2010-03-16 制御装置、制御方法およびプログラム
KR1020110020507A KR101708061B1 (ko) 2010-03-16 2011-03-08 제어 장치, 제어 방법 및 기록 매체
US13/042,707 US20110231018A1 (en) 2010-03-16 2011-03-08 Control apparatus, control method and program
CN201110060837.1A CN102189557B (zh) 2010-03-16 2011-03-09 控制设备、控制方法和程序
EP11157453.9A EP2366503A3 (en) 2010-03-16 2011-03-09 Control apparatus, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010059621A JP5560794B2 (ja) 2010-03-16 2010-03-16 制御装置、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011189481A JP2011189481A (ja) 2011-09-29
JP5560794B2 true JP5560794B2 (ja) 2014-07-30

Family

ID=44201270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010059621A Active JP5560794B2 (ja) 2010-03-16 2010-03-16 制御装置、制御方法およびプログラム

Country Status (5)

Country Link
US (1) US20110231018A1 (ja)
EP (1) EP2366503A3 (ja)
JP (1) JP5560794B2 (ja)
KR (1) KR101708061B1 (ja)
CN (1) CN102189557B (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20115923A0 (fi) * 2011-09-21 2011-09-21 Zenrobotics Oy Iskunvaimennusrakenne
KR101439249B1 (ko) * 2012-06-28 2014-09-11 한국과학기술연구원 공간 점유 정보를 이용한 로봇 동작 생성 장치 및 방법
JP6141782B2 (ja) * 2014-03-12 2017-06-07 株式会社豊田自動織機 無人搬送車と在庫管理システムの連動システムにおける地図情報更新方法
JP6416590B2 (ja) * 2014-03-31 2018-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物管理システムおよび運搬ロボット
DE102015214743A1 (de) * 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
DE102015119501A1 (de) * 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
WO2017082388A1 (ja) * 2015-11-11 2017-05-18 パイオニア株式会社 セキュリティ装置、セキュリティ制御方法、プログラム及び記憶媒体
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
US10093021B2 (en) * 2015-12-02 2018-10-09 Qualcomm Incorporated Simultaneous mapping and planning by a robot
CN105397812B (zh) * 2015-12-28 2017-07-18 青岛海通机器人系统有限公司 移动机器人及基于移动机器人更换产品的方法
JP7073336B2 (ja) 2016-08-05 2022-05-23 ロブアート ゲーエムベーハー 自律移動ロボットを制御する方法
US11119722B2 (en) * 2016-11-08 2021-09-14 Sharp Kabushiki Kaisha Movable body control apparatus and recording medium
EP3563344B1 (en) * 2017-02-09 2024-08-07 Google LLC Agent navigation using visual inputs
CN106802668B (zh) * 2017-02-16 2020-11-17 上海交通大学 基于双目与超声波融合的无人机三维避撞方法及系统
JP2021081758A (ja) * 2018-03-15 2021-05-27 ソニーグループ株式会社 制御装置、制御方法及びプログラム
SE544090C2 (en) 2018-04-22 2021-12-21 Zenrobotics Oy Waste Sorting Gantry Robot
JP7310831B2 (ja) * 2018-05-30 2023-07-19 ソニーグループ株式会社 制御装置、制御方法、ロボット装置、プログラムおよび非一時的な機械可読媒体
CN110968083B (zh) * 2018-09-30 2023-02-10 科沃斯机器人股份有限公司 栅格地图的构建方法、避障的方法、设备及介质
JP2020064385A (ja) 2018-10-16 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11921509B2 (en) * 2018-10-30 2024-03-05 Sony Group Corporation Information processing apparatus, information processing method, and program
WO2020179459A1 (ja) * 2019-03-06 2020-09-10 ソニー株式会社 地図作成装置、地図作成方法、及びプログラム
DE112020002287T5 (de) 2019-05-09 2022-02-17 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN113465614B (zh) * 2020-03-31 2023-04-18 北京三快在线科技有限公司 无人机及其导航地图的生成方法和装置
SE544165C2 (en) 2020-06-24 2022-02-15 Zenrobotics Oy Waste Sorting Robot
SE544103C2 (en) 2020-10-28 2021-12-21 Zenrobotics Oy Waste Sorting Robot with gripper that releases waste object at a throw position

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7429843B2 (en) * 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
JP3945279B2 (ja) 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP4206702B2 (ja) * 2002-07-17 2009-01-14 日産自動車株式会社 内燃機関の排気浄化装置
JP4532280B2 (ja) * 2002-10-23 2010-08-25 シーメンス アクチエンゲゼルシヤフト 自由面および占有面を有する面を記述するグラフ構造を形成するための方法および装置ならびにプログラムコード手段を有するコンピュータプログラムおよびコンピュータプログラム製品
JP4276624B2 (ja) * 2002-12-10 2009-06-10 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
CN100352623C (zh) * 2005-04-11 2007-12-05 中国科学院自动化研究所 一种自动拾取物体的智能移动机器人控制装置及方法
JP2007219645A (ja) * 2006-02-14 2007-08-30 Sony Corp データ処理方法、データ処理装置およびプログラム
KR100791382B1 (ko) * 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
KR100843085B1 (ko) * 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
KR20080029548A (ko) * 2006-09-29 2008-04-03 삼성전자주식회사 실사기반 이동기기 제어 방법 및 장치
US20090234788A1 (en) * 2007-03-31 2009-09-17 Mitchell Kwok Practical Time Machine Using Dynamic Efficient Virtual And Real Robots
JP2009093308A (ja) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd ロボットシステム
JP4968684B2 (ja) * 2007-12-10 2012-07-04 本田技研工業株式会社 目標経路設定支援システム
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP4999734B2 (ja) * 2008-03-07 2012-08-15 株式会社日立製作所 環境地図生成装置、方法及びプログラム
JP5259286B2 (ja) * 2008-07-16 2013-08-07 株式会社日立製作所 3次元物体認識システム及びそれを用いた棚卸システム
JP5169638B2 (ja) 2008-09-01 2013-03-27 株式会社大林組 地中構造物の構築方法
US8515612B2 (en) * 2008-09-03 2013-08-20 Murata Machinery, Ltd. Route planning method, route planning device and autonomous mobile device

Also Published As

Publication number Publication date
EP2366503A3 (en) 2013-05-22
KR20110104431A (ko) 2011-09-22
JP2011189481A (ja) 2011-09-29
CN102189557B (zh) 2015-04-22
KR101708061B1 (ko) 2017-02-17
CN102189557A (zh) 2011-09-21
US20110231018A1 (en) 2011-09-22
EP2366503A2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP5560794B2 (ja) 制御装置、制御方法およびプログラム
AU2020200546B2 (en) Structure modelling
US11830618B2 (en) Interfacing with a mobile telepresence robot
CN106796434B (zh) 地图生成方法、自身位置推定方法、机器人系统和机器人
WO2020107772A1 (zh) 机器人地图构建和定位
JP6705465B2 (ja) 可観測性グリッドベースの自律的環境探索
WO2021103987A1 (zh) 扫地机器人控制方法、扫地机器人及存储介质
US11157016B2 (en) Automatic recognition of multiple floorplans by cleaning robot
GB2567944A (en) Robotic virtual boundaries
JP2019522301A (ja) 経路を自律走行するようにロボットを訓練するためのシステムおよび方法
EP3548993A1 (en) Virtual sensor configuration
JP2019537715A (ja) 障害物検出システム及び方法
JP2011118834A (ja) 情報処理装置、情報処理方法およびプログラム
US20210348927A1 (en) Information processing apparatus, information processing method, and recording medium
WO2018214605A1 (zh) 智能终端设备的定位方法、装置和关联的智能终端设备
WO2017038012A1 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
US20230184949A1 (en) Learning-based system and method for estimating semantic maps from 2d lidar scans
CN113001544B (zh) 一种机器人的控制方法、装置及机器人
EP4459553A1 (en) Method and device for optimizing three-dimensional map display
WO2021056428A1 (zh) 智能终端、控制系统及与移动机器人的交互方法
WO2018123497A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20240091950A1 (en) Probabilistic approach to unifying representations for robotic mapping
CN114964204A (zh) 地图构建方法、地图使用方法、装置、设备和存储介质
JP2014174683A (ja) 位置推定装置、位置推定プログラムおよび位置推定方法
JP4569663B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R151 Written notification of patent or utility model registration

Ref document number: 5560794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250