JP6260509B2 - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP6260509B2 JP6260509B2 JP2014205561A JP2014205561A JP6260509B2 JP 6260509 B2 JP6260509 B2 JP 6260509B2 JP 2014205561 A JP2014205561 A JP 2014205561A JP 2014205561 A JP2014205561 A JP 2014205561A JP 6260509 B2 JP6260509 B2 JP 6260509B2
- Authority
- JP
- Japan
- Prior art keywords
- distance information
- hand
- distance
- self
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 43
- 230000008859 change Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Description
本発明はロボットに関し、特に、物体との距離情報に基づいて自己位置を推定するロボットに関する。 The present invention relates to a robot, and more particularly to a robot that estimates its own position based on distance information with respect to an object.
環境地図を参照することにより、障害物等を避けて移動するロボットが知られている。また、このようなロボットにおいて、距離センサを用いて物体までの距離を計測し、計測結果を環境情報とマッチングすることにより自己位置を推定する技術が知られている。 A robot that moves while avoiding obstacles by referring to an environmental map is known. In such a robot, a technique is known in which the distance to an object is measured using a distance sensor, and the self-position is estimated by matching the measurement result with environmental information.
例えば、特許文献1は、ロボットの周辺に存在する物体までの距離を計測するセンサによる計測結果を環境地図に幾何学的に合わせこむことで自己位置を推定する技術について開示している。
For example,
生活支援ロボット(HSR:Human Support Robot)などのように、マニピューレータにより対象物を操作する場合、操作に応じて対象物の位置が変動する。距離センサにより対象物までの距離を検知し、この検知により得られた距離情報に基づいて自己位置を推定する場合、距離センサにより取得される距離情報には、自身が操作している対象物の動的な位置情報が含まれることとなる。このため、結果として自己位置の推定精度が劣化するという問題がある。 When an object is operated by a manipulator such as a human support robot (HSR), the position of the object varies according to the operation. When the distance to the object is detected by the distance sensor and the self-position is estimated based on the distance information obtained by this detection, the distance information acquired by the distance sensor includes the object being operated by the distance sensor. Dynamic position information will be included. For this reason, there is a problem that the estimation accuracy of the self-position deteriorates as a result.
本発明は、上記した事情を背景としてなされたものであり、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することを目的とする。 The present invention has been made against the background of the above-described circumstances, and an object thereof is to provide a robot capable of suppressing deterioration in self-position estimation accuracy when an object is being operated.
本発明にかかるロボットは、把持対象を把持する把持手段と、検出領域内の物体との距離情報を検出する距離検出手段と、前記距離情報に基づいて、自己位置を推定する自己位置推定手段とを有し、前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する。 A robot according to the present invention includes a gripping unit that grips a gripping target, a distance detection unit that detects distance information from an object in a detection region, and a self-position estimation unit that estimates a self-position based on the distance information. And the self-position estimating means excludes the distance information in which the amount of change from the past distance information with reference to the coordinate system of the gripping means is less than or equal to a predetermined threshold. Estimate self-position.
このようなロボットによれば、把持手段による操作により位置が移動する対象物についての距離情報である動的な距離情報が除かれた距離情報に基づいて自己位置の推定が行われる。したがって、自身の操作により位置が変動している物体の影響が排除され、自己位置の推定精度の劣化を抑制することができる。 According to such a robot, self-position estimation is performed based on distance information from which dynamic distance information, which is distance information about an object whose position is moved by an operation by the gripping means, is removed. Therefore, the influence of the object whose position is changed by its own operation is eliminated, and deterioration of the self-position estimation accuracy can be suppressed.
本発明によれば、対象物を操作している場合における、自己位置の推定精度の劣化を抑制することができるロボットを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, when operating the target object, the robot which can suppress the deterioration of the self-position estimation precision can be provided.
以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施形態に係るロボット1の外観を示す斜視図である。図2は、実施形態に係るロボット1の概略的システム構成を示すブロック図である。
ロボット1は、台車10と、ロボット本体11と、ロボット本体11に支持されたアーム12と、アーム12の先端に設けられたハンド13と、距離センサ14と、制御装置15とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a perspective view showing an appearance of a
The
台車10は、例えば、図示しないキャスタと、図示しない一対の対向する駆動車輪とが設けられており、制御信号にしたがって移動する。具体的には、台車10には、モータなどにより構成された台車用駆動機構100が設けられており、制御装置15からの制御信号に基づいて台車用駆動機構100が動作することにより、台車10が移動する。
For example, the
また、台車10には、台車状態検出センサ101が設けられている。台車状態検出センサ101は、例えばエンコーダなどによって、駆動車輪の回転情報を検出することにより、台車10の速さ、移動方向、移動軌跡などの状態を検出する。台車状態検出センサ101による検出結果は、制御装置15に出力される。
Further, the
ロボット本体11は、台車10上に設置されており、台車10の移動にともない移動する。なお、ロボット本体11は、台車10に対して固定されて設置されていてもよいし、台車10に対して変動可能に設置されていてもよい。例えば、ロボット本体11は、台車10上で旋回可能に設置されていてもよい。また、ロボット本体11自体の位置姿勢を変更するための駆動機構が設けられていてもよい。
The
アーム12は、例えば、多関節型アームとして構成されている。アーム12は、例えば、ロボット本体11の前面に設けられている。アーム12には、アーム用駆動機構120が設けられており、アーム用駆動機構120の動作によりアーム12の位置姿勢が変化する。アーム用駆動機構120は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。
The
また、アーム12には、アーム状態検出センサ121が設けられている。アーム状態検出センサ121は、例えばエンコーダなどによって、関節部分の回転情報を検出することにより、アーム12の姿勢や位置といった状態を検出する。アーム状態検出センサ121による検出結果は、制御装置15に出力される。
The
ハンド13は、把持手段に相当し、操作対象物(把持対象)の把持等を行う操作機構として構成されている。ハンド13は、例えば、家具や建具などの操作対象を操作する。なお、ハンド13は、操作時、操作対象物を固定的に把持しており、操作時においてハンド13と操作対象物との幾何学的な相対位置関係は固定されている。ハンド13には、ハンド用駆動機構130が設けられており、ハンド用駆動機構130の動作によりハンド13の位置姿勢が変化する。ハンド用駆動機構130は、図示しないモータを備え、制御装置15からの制御信号にしたがって動作する。
The
また、ハンド13には、ハンド状態検出センサ131が設けられている。ハンド状態検出センサ131は、例えばエンコーダなどによって関節部分の回転情報を検出することにより、ハンド13の姿勢や位置といった状態を検出する。ハンド状態検出センサ131による検出結果は、制御装置15に出力される。
The
距離センサ14は、距離検出手段に相当し、ロボット1周辺の検出領域S内にある環境(物体)とロボット1との距離情報を検出する。なお、図において、検出領域Sは、平面的な領域として図示されているが、検出領域Sは2次元に限らず、3次元であってもよい。距離センサ14は、例えば、レーザレンジファインダが用いられる。例えば、レーザレンジファインダは、ロボット1の前方の検出領域Sへ放射状にレーザ光を放射し、その検出領域S内の物体からの反射光を受光することで、その物体の距離情報を検出することができる。なお、距離センサ14は、レーザレンジファインダに限られない。例えば、デプスセンサ、超音波センサ、赤外線センサ、カメラ等の任意の距離センサを用いることができる。
The
距離センサ14は、ロボット1に設けられており、距離センサ14の検出領域Sとハンド13の動作領域との少なくとも一部が重複するよう配置されている。例えば、距離センサ14は、台車10又はロボット本体11の外周のうち、アーム12が取り付けられている方向を検出できる位置に設けられている。
The
制御装置15は、例えばロボット本体11に内蔵されているが、台車10などの他の構成部分に設けられていてもよい。制御装置15は、例えば、制御処理、演算処理等を行うCPU(Central Processing Unit)15a、CPU15aによって実行される制御プログラム、演算プログラム、処理データ等を記憶する、ROM(Read Only Memory)及びRAM(Random Access Memory)などにより構成される記憶部15b等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。
The control device 15 is built in, for example, the
制御装置15は、作業内容や移動内容などの指示が含まれる指示情報、並びに、台車状態検出センサ101、アーム状態検出センサ121、ハンド状態検出センサ131及び距離センサ14からの検出結果などに基づいて、上述の各駆動機構を制御するとともに、後述する図3に示される処理を実行する。
また、記憶部15bには、ロボット1が動作する環境についての地図情報が記憶されている。地図情報として、例えば、ロボット1が動作するエリア全体に略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップが記憶されている。障害物の存在の有無を示す障害物情報が、予め又はリアルタイムに各グリッドに対して設定される。なお、地図情報には、障害物情報に限らず、路面情報、経路情報などの他の情報が含まれていてもよい。
The control device 15 is based on instruction information including instructions such as work contents and movement contents, and detection results from the carriage
The
図3は、実施形態に係る制御装置15の機能構成の一例を示すブロック図である。なお、図3に示される各構成は、例えば、上記制御プログラム又は演算プログラムがCPU15aにより実行されることで実現されてもよいし、ハードウェアにより実現されてもよい。
FIG. 3 is a block diagram illustrating an example of a functional configuration of the control device 15 according to the embodiment. Each configuration illustrated in FIG. 3 may be realized, for example, by the
制御装置15は、ハンド位置姿勢情報取得部150と、距離情報取得部151と、距離情報選択部152と、自己位置推定部153とを有している。
The control device 15 includes a hand position / posture
ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。ここで、距離センサ14の座標系とは、距離センサ14に固定された座標系である。ハンド位置姿勢情報取得部150は、例えば、ハンド状態検出センサ131による測定値及びアーム状態検出センサ121による測定値から、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を生成する。
The hand position and orientation
距離情報取得部151は、検出領域S内にある物体とロボット1との距離情報であって、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、検出領域Sを分割した各領域である、複数の部分領域ごとに、距離情報を取得する。本実施形態では、距離情報取得部151は、一度にN個の距離情報を取得するものとする。また、距離情報取得部151は、予め定められたタイミングにより、距離情報を取得する。例えば、距離情報取得部151は、予め定められた時間間隔ごとに、N個の距離情報を取得してもよいし、ロボット1の予め定められた移動距離ごとに、N個の距離情報を取得してもよい。なお、距離情報取得部151は、距離センサ14の測定値から距離センサ14の座標系を基準とした距離情報を生成してもよい。
The distance
距離情報選択部152は、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものを選択する。具体的には、距離情報選択部152は、距離情報取得部151により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除き、残った距離情報を自己位置の推定のために用いるものとして選択する。なお、ハンド13の座標系とは、ハンド13に固定された座標系である。
The distance
距離情報選択部152は、まず、距離情報取得部151が取得した、距離センサ14の座標系を基準とした距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。距離情報選択部152は、例えば、下記の式(1)のように算出する。ここで、Dt,sensor(i)は、タイミングtにおける、距離センサ14の座標系を基準とした距離情報のデータを示している。なお、iは、距離情報のデータのインデックスを表し、0<i≦Nを満たす整数である。また、sensorThand −1は、距離センサ14の座標系を基準としたハンド13の位置姿勢データの逆行列である。また、Dt,hand(i)は、タイミングtにおける、ハンド13の座標系を基準とした距離情報のデータを示している。
The distance
Dt,hand(i)=sensorThand −1Dt,sensor(i) ・・・(1) D t, hand (i) = sensor T hand −1 D t, sensor (i) (1)
距離情報選択部152は、式(1)により、1からNの全ての距離情報のデータについて、変換を行う。
距離情報選択部152は、次に、変換して得られたハンド13の座標系を基準とした距離情報について、前回のタイミングにおけるハンド13の座標系を基準とした距離情報と比較する。そして、距離情報選択部152は、前回のタイミングにおけるハンド13の座標系を基準とした距離情報との変動量が予め定められた閾値以下の距離情報については、ハンド13により操作されている対象であるとみなして、選択候補から除外する。
The distance
Next, the distance
距離情報選択部152は、例えば、下記の式(2)のように表される変動量diffを閾値thと比較する。なお、式(2)において、変動量diff(i)は、インデックスがiである距離情報についての変動量を示す。また、Dt−1,hand(i)は、タイミングt−1における、ハンド13の座標系を基準とした距離情報のデータを示している。なお、タイミングt−1は、タイミングtの1周期分前のタイミングである。また、abs()は、()内の絶対値を演算する関数である。
The distance
diff(i)=abs(Dt,hand(i)−Dt−1,hand(i)) ・・・(2) diff (i) = abs (D t, hand (i) −D t−1, hand (i)) (2)
距離情報選択部152は、式(2)により、1からNの全ての距離情報のデータについて、変動量(差分)を算出する。そして、距離情報選択部152は、変動量が閾値thよりも大きい場合には、当該距離情報のデータ、すなわちDt,hand(i)を、自己位置の推定のために用いるものとして採用し、変動量が閾値th以下の場合には、自己位置の推定のために用いるものとして採用しない。例えば、距離情報選択部152は、自己位置の推定のために用いるものとして選択したデータを、リストに保持する。このように、距離情報選択部152は、1からNの全ての距離情報のデータについて、変動量に基づいて、採用又は不採用が決定する。距離情報選択部152は、採用すると決定したデータ集合、すなわち距離情報選択部152により選択されたデータ集合を、自己位置推定部153に出力する。このようにして、自己位置推定部153に入力されるデータ集合は、ハンド13により位置が変動する動的な対象物に対する距離情報が除かれた静的な環境情報となる。
The distance
ここで、距離情報選択部152による距離情報の選択について、図4及び図5を用いて補足説明する。なお、図4及び図5に示す例では、2次元で図示されているが、距離情報は3次元の情報であってもよい。
Here, the selection of distance information by the distance
図4は、タンス2のタンス本体20から引き出し21が、ハンド13による操作によって引き出される様子を示す模式図である。なお、図4に示した例では、タンス2は、コの字型に配置された壁3に寄せて置かれている。また、図4において、破線は、距離センサ14により検出される物体(タンス2及び壁3)の位置を示している。したがって、図4における破線は、距離情報選択部152に入力される距離情報のデータに対応している。また、図4(a)は、タイミングt−1における様子を示しており、ハンド13により引き出し21が引き出される前の状態を示している。これに対し、図4(b)は、タイミングtにおける様子を示しており、ハンド13により引き出し21が引き出された状態を示している。図4に示されるように、ハンド13の操作により、タンス2についての距離情報に関し、引き出し21に対する操作前後で、引き出し21部分の距離情報が変化している。
FIG. 4 is a schematic diagram showing a state in which the drawer 21 is pulled out from the chase body 20 of the chase 2 by an operation with the
次に、図5について説明する。図5は、図4に示されるハンド13の操作前後におけるハンド13の座標系を基準とした距離情報について示す模式図である。図5において、破線は、タイミングt−1(図4(a)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものであり、実線は、タイミングt(図4(b)に対応)におけるハンド13の座標系を基準とした距離情報を模式的に示したものである。図5に示されるように、ハンド13の座標系を基準とした場合には、操作前後において、タンス2が設けられた壁面に対する距離情報は変動するものの、引き出し21に対する距離情報(図中の二点鎖線で囲まれた部分)は変動しない。ここで、引き出し21に対する距離情報は、上述の変動量が閾値以下の距離情報に対応している。
Next, FIG. 5 will be described. FIG. 5 is a schematic diagram showing distance information based on the coordinate system of the
このように、距離情報選択部152は、変動量が閾値以下の距離情報であるか否かを確認することで、ハンド13の操作よる操作対象の距離情報であるか否かを判別している。
As described above, the distance
自己位置推定部153は、距離センサ14による検出により取得された距離情報に基づいて、ロボット1の自己位置を推定する。具体的には、自己位置推定部153は、距離センサ14による検出により取得された距離情報と、上述の地図情報とを比較してマッチング処理を行うことで自己位置推定処理を行う。なお、自己位置推定部153は、例えばオドメトリによって取得された自己位置を、距離情報選択部152から出力されたデータ集合と上述の地図情報とを比較してマッチング処理の結果にしたがって補正してもよい。
The self-
ここで、自己位置推定部153は、距離センサ14による検出により取得された距離情報のうち、ハンド13の座標系を基準とした過去の距離情報からの変化量が予め定められた閾値以下の距離情報を除いて自己位置を推定する。すなわち、自己位置推定部153は、距離情報選択部152から出力されたデータ集合を用いて、自己位置推定処理を行う。
Here, the self-
このため、自己位置推定部153は、ハンド13により位置が変動する動的な対象物についての距離情報が除かれた距離情報のみを用いて、自己推定処理を行うこととなる。ハンド13が操作対象を操作している際には、例えば、図6に示されるように、距離センサ14の検出領域S内に、ハンド13の操作によって位置が変化する動的な対象物が含まれることがある。その場合、距離情報取得部151が取得する距離情報には、ハンド13の操作によって位置が変化する動的な対象物についての距離情報も含まれることとなる。そして、動的な対象物についての距離情報を含んだデータに基づいて自己位置推定処理を行う場合には、正確な自己位置の計算を行うことが阻害されることとなる。なお、図6(a)は、操作対象であるドアなどの建具4が検出領域S内に侵入している様子を示す模式図であり、図6(b)は、操作対象であるタンス2が検出領域S内に侵入している様子を示す模式図である。
For this reason, the self-
しかしながら、本実施形態にかかるロボット1においては、上述のとおり、距離情報選択部152によって、距離情報取得部151が取得した距離情報のうち、ハンド13が現在操作中の対象物についての距離情報以外のものが選択され、自己位置推定部153は、選択された距離情報に基づいて自己位置の推定処理を行う。このため、ロボット1自身が操作している動的な物体の影響を排除することができる。したがって、ハンド13が操作している対象物の距離情報を含んで自己位置推定を行う場合に比べ、正確な自己位置の推定を行うことができる。ハンド13が操作対象を操作している際には、距離情報取得部151が取得する距離情報の大部分が、操作対象の距離情報であることも想定されるが、そのような外乱により自己位置の正確な推定が困難な状況にあっても、本実施形態にかかるロボット1は、自己位置の推定の精度を向上することができる。
However, in the
また、本実施形態にかかるロボット1においては、距離情報取得部151が取得した距離情報を選別することで、ハンド13が現在操作中の対象物についての距離情報を除外している。このため、例えば、予め家具などのモデルデータを登録するなどの作業も発生しない。さらに、距離情報のうち、操作中の対象物についての距離情報を除外するという方式であるため、タスクを実行する際に自己位置推定方法を切り替える必要がなく、自己位置推定のロバスト性を向上させることができる。また、自己位置推定方法の切り替えが不要であるため、ロボット1の制御にかかるソフトウェアの汎用性を保つことができる。
Further, in the
次に、本実施の形態に係る制御装置15の動作の一例を図7に示すフローチャートを参照して説明する。 Next, an example of operation | movement of the control apparatus 15 which concerns on this Embodiment is demonstrated with reference to the flowchart shown in FIG.
ステップ100(S100)において、ハンド位置姿勢情報取得部150は、距離センサ14の座標系を基準としたハンド13の位置姿勢についての情報を取得する。また、ハンド位置姿勢情報取得部150は、取得したハンド13の位置姿勢についての情報(データ)を距離情報選択部152に出力する。
In step 100 (S100), the hand position / orientation
ステップ101(S101)において、距離情報取得部151は、距離センサ14の座標系を基準とした距離情報を距離センサ14から取得する。距離情報取得部151は、例えば、タイミングtの距離情報として、N個の距離情報を取得する。また、距離情報取得部151は、取得した距離情報のデータを距離情報選択部152に出力する。
In step 101 (S101), the distance
ステップ102(S102)において、距離情報選択部152は、ステップ101で取得した、距離センサ14の座標系を基準とした各距離情報について、ハンド13の座標系を基準とした距離情報へと変換する。
In step 102 (S102), the distance
ステップ103(S103)において、距離情報選択部152は、ステップ102で変換された距離情報の変化量と、予め定められた閾値とを比較する。具体的には、距離情報選択部152は、タイミングtの距離情報とタイミングt−1の距離情報との差分の絶対値で表される変動量diffと、閾値thとを比較する。そして、変動量が予め定められた閾値を超える場合にはステップ104へ移行し、変動量が予め定められた閾値以下の場合には、ステップ105へ移行する。
In step 103 (S103), the distance
ステップ104(S104)において、距離情報選択部152は、変動量が予め定められた閾値を超えると判定された距離情報のデータをリストに保持する。
In step 104 (S104), the distance
ステップ105(S105)において、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われたか否かを判定し、全ての距離情報について処理が行われた場合には、ステップ106へ移行し、未だ処理が行われていない距離情報がある場合については、ステップ103に戻り、未だ処理が行われていない距離情報に対してステップ103以降の処理を行う。例えば、ステップ102においてN個の距離情報が変換された場合には、変換されたN個の距離情報全てについてステップ103の処理が行われると、ステップ106に進むこととなる。なお、距離情報選択部152は、ステップ102で変換された全ての距離情報についてステップ103の処理が行われた場合には、変動量が予め定められた閾値を超えると判定された距離情報のデータが含まれている上述のリストを自己位置推定部153に出力する。
In step 105 (S105), the distance
ステップ106(S106)において、自己位置推定部153は、ステップ105で距離情報選択部152から出力されたリストに含まれる距離情報に基づいて、ロボット1の自己位置を推定する。
In step 106 (S106), the self-
以上、本発明の実施形態について説明したが、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.
例えば、上述の実施形態では、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報と、同じくインデックスがiであるタイミングt−1における距離情報とが対応するものとして、両者の差分を算出しているが、タイミングtの距離情報のインデックスとは異なるインデックスを有するタイミングt−1の距離情報とを対応付けてもよい。例えば、距離情報選択部152は、インデックスがiであるタイミングtにおける距離情報に対応するタイミングt−1の距離情報を最近傍探索により見つけるよう構成してもよい。すなわち、タイミングt−1における距離情報のデータ群のうち、タイミングtの当該距離情報と最も位置が近いデータを当該距離情報に対応するデータとしてもよい。
また、距離情報は、2次元の情報に限らず深度画像のような3次元情報であってもよい。
For example, in the above-described embodiment, the distance
The distance information is not limited to two-dimensional information, but may be three-dimensional information such as a depth image.
1 ロボット
10 台車
11 ロボット本体
12 アーム
13 ハンド
14 距離センサ
15 制御装置
100 台車用駆動機構
101 台車状態検出センサ
120 アーム用駆動機構
121 アーム状態検出センサ
130 ハンド用駆動機構
131 ハンド状態検出センサ
150 ハンド位置姿勢情報取得部
151 距離情報取得部
152 距離情報選択部
153 自己位置推定部
DESCRIPTION OF
Claims (1)
検出領域内の物体との距離情報を検出する距離検出手段と、
前記距離情報に基づいて、自己位置を推定する自己位置推定手段と
を有し、
前記自己位置推定手段は、前記距離情報のうち、前記把持手段の座標系を基準とした過去の前記距離情報からの変化量が予め定められた閾値以下の前記距離情報を除いて自己位置を推定する
ロボット。 A gripping means for gripping a gripping object;
Distance detecting means for detecting distance information with an object in the detection region;
Self-position estimating means for estimating the self-position based on the distance information;
The self-position estimating means estimates the self-position by excluding the distance information in which the amount of change from the distance information in the past with reference to the coordinate system of the gripping means is equal to or less than a predetermined threshold. Robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014205561A JP6260509B2 (en) | 2014-10-06 | 2014-10-06 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014205561A JP6260509B2 (en) | 2014-10-06 | 2014-10-06 | robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016074053A JP2016074053A (en) | 2016-05-12 |
JP6260509B2 true JP6260509B2 (en) | 2018-01-17 |
Family
ID=55950588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014205561A Active JP6260509B2 (en) | 2014-10-06 | 2014-10-06 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6260509B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6786264B2 (en) * | 2016-05-27 | 2020-11-18 | 株式会社東芝 | Information processing equipment, information processing methods, and vehicles |
EP3366433B1 (en) * | 2017-02-09 | 2022-03-09 | Canon Kabushiki Kaisha | Method of controlling robot, method of teaching robot, and robot system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4506685B2 (en) * | 2006-02-17 | 2010-07-21 | トヨタ自動車株式会社 | Mobile robot |
JP2008142841A (en) * | 2006-12-11 | 2008-06-26 | Toyota Motor Corp | Mobile robot |
JP5304534B2 (en) * | 2009-08-21 | 2013-10-02 | トヨタ自動車株式会社 | Self-position estimation apparatus, self-position estimation method and program |
JP5892663B2 (en) * | 2011-06-21 | 2016-03-23 | 国立大学法人 奈良先端科学技術大学院大学 | Self-position estimation device, self-position estimation method, self-position estimation program, and moving object |
JP5817611B2 (en) * | 2012-03-23 | 2015-11-18 | トヨタ自動車株式会社 | Mobile robot |
-
2014
- 2014-10-06 JP JP2014205561A patent/JP6260509B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016074053A (en) | 2016-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5080333B2 (en) | Object recognition device for autonomous mobile objects | |
JP5276931B2 (en) | Method for recovering from moving object and position estimation error state of moving object | |
CN109394095B (en) | Robot movement carpet deviation control method, chip and cleaning robot | |
US8855819B2 (en) | Method and apparatus for simultaneous localization and mapping of robot | |
JP6481347B2 (en) | Travel amount estimation device, autonomous mobile body, and travel amount estimation method | |
JP6711138B2 (en) | Self-position estimating device and self-position estimating method | |
WO2012153629A1 (en) | Device and method for controlling prediction of motion | |
JP5287051B2 (en) | Autonomous mobile device | |
JP5287060B2 (en) | Route planning device and autonomous mobile device | |
JP2009031884A (en) | Autonomous mobile object, map information creation method in autonomous mobile object, and moving route identification method in autonomous mobile object | |
JP2008142841A (en) | Mobile robot | |
Tsai et al. | Use of ultrasonic sensors to enable wheeled mobile robots to avoid obstacles | |
JP2007011978A (en) | Robot motion control device | |
JP6260509B2 (en) | robot | |
JP4774401B2 (en) | Autonomous mobile route setting device | |
JP2017146893A (en) | Self-position estimation method | |
KR100784125B1 (en) | Method of Extracting Coordinates of Landmark of Mobile Robot Using Single Camera | |
JP2016078185A (en) | robot | |
JP6589578B2 (en) | Travel amount estimation device, autonomous mobile body, and travel amount estimation method | |
JP2016081159A (en) | Mobile entity | |
JP2017027311A5 (en) | ||
Jean et al. | Development of an indoor patrol robot based on ultrasonic and vision data fusion | |
JP2021176052A (en) | Self-position estimating device | |
JP2016081327A (en) | Quantity-of-movement estimation system, autonomous moving entity, and quantity-of-movement estimation method | |
JP5057224B2 (en) | Mobile robot controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6260509 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |