[go: up one dir, main page]

JP2005324297A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2005324297A
JP2005324297A JP2004145739A JP2004145739A JP2005324297A JP 2005324297 A JP2005324297 A JP 2005324297A JP 2004145739 A JP2004145739 A JP 2004145739A JP 2004145739 A JP2004145739 A JP 2004145739A JP 2005324297 A JP2005324297 A JP 2005324297A
Authority
JP
Japan
Prior art keywords
image
pattern
light
main body
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004145739A
Other languages
English (en)
Inventor
Takashi Anezaki
隆 姉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004145739A priority Critical patent/JP2005324297A/ja
Priority to US11/129,324 priority patent/US20060041333A1/en
Publication of JP2005324297A publication Critical patent/JP2005324297A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】 ロボットの周囲に対して障害物の有無の検出等を行う。
【解決手段】 本体部2の上方から本体部2の周囲の床面5に向けてかつ床面5に対して斜め方向に、本体部2を囲む環状のパターン光3aを投光する周囲パターン投射系3と、周囲パターン投射系3から投光されたパターン光3aの投射パターン像7を本体部2の上方から撮像するカメラ8と、カメラ8により撮像した画像に基づいて、パターン光3aが本体部2の周囲の障害物6における床面5とは高さの異なる箇所に投光されている場合に生じるパターン光3aの投射パターン像7のずれを検知することで、本体部2の周囲における障害物6を検出する画像処理装置9とを有する。
【選択図】 図1

Description

本発明は、ロボットに関する。
物体の認識およびその物体の三次元形状の計測を行うために、過去においていくつかの手法が提案されてきた。例えば、特許文献1には、三角測量の原理を用いた計測方法や投光法を用いた計測方法が記載されている。以下、これらの例を、図8〜図12を用いて説明する。
まず、三角測量の原理を図8に示す。図8に示すように、三角形ABCにおいて、ノード(点)aにカメラ、ノードbに測量の対象となる対象物、ノードcにカメラが設置されている場合、ノードa、cに設置されているカメラにより対象物を撮像し、得られた画像から、画像上における対象物の位置情報(x、y)を得ることができる。しかし、この画像からでは、対象物の奥行き方向の位置情報(z成分)を得ることができない。
そこでノードa、cにおいて、ノードbに対する方向θ、θがわかると、ノードac間の距離をLとすれば、これらの値より、ノードab、ノードbc間の距離を算出することができる。したがって、画像から、対象物の奥行き方向の位置情報(z成分)、すなわちbh間の距離Dを、
D=L/(cotθ+cotθ)にて算出することができる。
上述した三角測量の原理に基づいて計測対象物までの距離を計測する手法を、図9に示す。なお、この手法は、両眼視法と呼ばれている。
図9において、F1、F2はそれぞれのカメラのレンズの中心で、事前にその三次元位置は把握されている。いま、それぞれのカメラで計測対象物における点Pを撮像し、左側の画面C1においては、点Pの位置が点P1の位置に映り、右側の画面C2においては、点Pの位置が点P3の位置に映ったとすると、点Pの三次元位置は、二つの直線F1P1とF2P3との交点として求めることができる。
しかし、このような計測方法では、左側の画面の点P1の位置に右側の画面の点P3の位置が対応することがわかっていないと、点Pの位置を計測することができない。これらの画面C1、C2における点を対応させることを対応点検出と呼ぶが、この対応点検出のための確実で一般的な手法は現在のところ得られていない。
これに対し、上述の対応点検出を必要としない投光法と呼ばれる計測方法を、図10および図11を用いて説明する。
図10に示すように、投光装置20から物体21の一点Pにスポット光22を投射し、その反射光23をセンサ24で受けて、三角測量の原理から点Pの三次元位置を求める。したがって、投光法では、上述した対応点検出の問題は生じない。なお、スポット光22のビームはできる限り絞られた方がよいので、投光装置20には光源としてレーザが用いられる。また、センサ24としては、輝点の2次元位置を出力する半導体の光位置検出器(PSD:Position Sensitive Device)がよく用いられる。
上記のような計測方法において、多数の点の距離情報を得るためには、スポット光22の光路中に鏡25を設け、この鏡25を回動させてスポット光22の向きを変え、そのたびに、距離情報を算出すればよい。
しかし、このような計測方法では、計測時間がこの鏡25の回動時間で制限される。すなわち、計測にかなりの時間がかかってしまう。
また、図10に示した投光法とは別の投光法であるパターン投光法を用いた計測方法を図11に示す。
図11に示すように、投光中心Sを有した投光器30からパターン光31を計測対象物32に投影し、その反射像を、レンズ中心Fを有したテレビカメラ33で撮像する。34は投光器30におけるパターン、35はテレビ画面である。
このようにすると、計測対象物32上の点Pがパターン34において点P1の位置に、テレビ画面35において点P2の位置に映った場合には、この点Pの位置は、直線SP1とFP2との交点として求めることができる。また、多数の点の距離情報を得るには、投光器30を回動させ、そのたびに、計測対象物32に投射される像をテレビカメラ33により撮像して、距離情報を算出すればよい。このように、図10に示したスポット光22のかわりに、図11に示すようなパターン光31を用いると、一回の撮像で計測できる点の数は大きく増える。
なお、例えば、特許文献2〜4には、上記のような三次元計測の技術を用いて、物品の三次元計測を非接触で行う技術が記載されている。
特許第2559443号公報 特開昭63−5247号公報 特開昭62−228106号公報 実開昭63−181947号公報
上記において、物体の三次元位置の計測、認識のための技術を示したが、図9に示したような両眼視法は、上述したように、両眼での対応点検出に確実な方法がなく、問題であった。
また、図10および図11に示したような投光法では、投光した光点を画像上で特定でき、対応点検出を本質的に必要としないが、光点またはパターン光を対象物の表面全体に展開しなければ、対象物の三次元情報は得られないという問題があった。このため、例えば、光点またはパターン光を対象物の表面全体に展開するために、200本のパターン光を対象物の表面に順次、投光した場合には、テレビカメラで200回撮像しなくてはならなかった。
これを解決する方法として、並列パターン光や格子縞パターン光を投光する方法などが考えられるが、これらの方法では、両眼視のときと同様に、対応点の決定を問題が生じ、また、それぞれのパターン光が混同しないように区別(識別)する必要がある。
これに対し、各パターン光を区別できるように、パターン光に符号付けをする方法が考案されてきた。この符号化の方法としては、パターン光の幅による符号化や、時系列に複数枚のパターン画像を用いることなどが考えられる。しかし、実際に物体の三次元計測に符号化投光法を用いる場合、たとえば製造ラインでは投光−画像入力スピードは速ければ速い程よく、対象物は種々のパターン光の反射条件のものとなるため、物体に合わせて、パターン光を縦、横、斜めなどにリアルタイムで任意に変化させる必要が生じる。
このような中、図12に示すように、複数のパターン光を同時に形成し、それぞれのパターン光を区別するための情報をそれぞれのパターン光に保有させることができるドットマトリックス型電気光学シャッター40を用いて、それぞれに符号が付された任意形状の複数のパターン光43を、計測対象物41や床面42に投光し、その投光像をテレビカメラ44で撮像するとともに、撮像した画像に、画像処理装置45により画像処理を施すことで、計測対象物41の三次元計測を行う方法がある。なお、ドットマトリックス型電気光学シャッターとは、通常の各画素が透明状態にあり、その中の所定の画素に通電すると、その画素が不透明となるものである。すなわち、非通電画素を選択することにより、必要とする二次元の任意の形状(一次元のスポットも含む)の透過光パターンの生成(シャッターリング)が瞬時に可能となる。通電は、電気的に実施されるため、前記パターンの変化の動作は静的かつ高速である。また、透過させる光束もパターンに対してなんら変化させる必要が無く、一定光量の光源を用いればよい。
図12に示したドットマトリックス型電気光学シャッターを用いた手法は、リアルタイムでパターン光またはスポット光を任意の形状に変化させることができる。しかしながら、図8〜図12を用いて示した技術においては、移動して作業する単体機械装置、例えばロボットのようなものの周囲360度に対して一度に、障害物の有無の検出等を行うことができない。
そこで本発明はこのような問題を解決するもので、ロボットの周囲に対して、障害物の有無の検出等を行うことを目的とする。
上記問題を解決するために請求項1記載の発明は、本体部の上方から前記本体部の周囲の床面に向けてかつ前記床面に対して斜め方向に、前記本体部を囲む環状または円弧状のパターン光を投光する投光部と、前記投光部から投光された前記パターン光の投射像を前記本体部の上方から撮像する撮像部と、前記撮像部により撮像した画像に基づいて、前記パターン光が前記本体部の周囲の障害物における前記床面とは高さの異なる箇所に投光されている場合に生じる前記パターン光の投射像のずれを検知することで、前記本体部の周囲における障害物を検出する画像処理装置とを有するものである。
このような構成によれば、投光部により、本体部の上方から前記本体部の周囲の床面に向けてかつ前記床面に対して斜め方向に、前記本体部を囲む環状または円弧状のパターン光を投光し、前記投光部から投光された前記パターン光の投射像を前記本体部の上方から撮像部により撮像し、画像処理装置により、撮像部により撮像した画像に基づいて、前記パターン光が本体部の周囲の障害物における前記床面とは高さの異なる箇所に投光されている場合に生じる前記パターン光の投射像のずれを検知することで、本体部の周囲における障害物を検出することができる。
以上のように本発明によると、投光部により、本体部の上方から前記本体部の周囲の床面に向けてかつ前記床面に対して斜め方向に、前記本体部を囲む環状または円弧状のパターン光を投光し、前記投光部から投光された前記パターン光の投射像を前記本体部の上方から撮像部により撮像し、画像処理装置により、撮像部により撮像した画像に基づいて、前記パターン光が本体部の周囲の障害物における前記床面とは高さの異なる箇所に投光されている場合に生じる前記パターン光の投射像のずれを検知することで、本体部の周囲における障害物を検出することができる。したがって、例えば、本体部の周囲に複数の障害物が同時に存在しても、投光部により、パターン光をこれらの障害物に同時に投光することで、これらの障害物の有無を一度に判断することができる。
以下、本発明のロボットの一実施の形態を、図1〜図7を参照しながら説明する。
図1に示すように、本発明の実施の形態のロボット1は、ロボット1の本体部2と、本体部2の上部に設けられて、本体部2の上方から本体部2の周囲の床面5に向けてかつ床面5に対して斜め方向に、本体部2を囲む環状または円弧状のパターン光3aを投光する投光部としての周囲パターン投射系3と、周囲パターン投射系3の上部に接続部材4を介して取り付けられ、周囲パターン投射系3から床面5や障害物6上に投光されたパターン光3aの投射像7(以下、投射パターン像と記す)を本体部2の上方から撮像する撮像部としての全方位または通常のカメラ8と、カメラ8により撮像した画像に基づいて、障害物6の有無の検出および障害物6がある場合にその障害物6の高さの計測を行う(詳細は後述)画像処理装置9とを有する。なお、8aは、カメラ8の撮像範囲を示している。また、2aは、ロボット1が移動可能なように本体部2に設けられている車輪である。
周囲パターン投射系3は、図2(a)に示すように、液晶パネル等のドットマトリックス型シャッター10と、シャッター10に対して所定の光束を下方から投光する光源11と、シャッター10を下方から上方へと通過した光を床面5側に向けて反射する錐体状の反射部としての全周囲鏡面反射板12とを有する。
シャッター10は、シャッター10における任意の部分を遮蔽して、例えば、環状または円弧状のパターンをリアルタイムで形成可能であり、光源11から投光された光束がこのシャッター10を通過することで、この光束が環状または円弧状のパターン光3aに加工される。なお、図1〜図4においては、パターン光3aが環状である場合の説明を行う。
全周囲鏡面反射板12は、図2(a)および図2(b)に示すように、漏斗状すなわち逆さ円錐形状でその側面12aが凹面状にかつ鏡面に形成されている。これにより、シャッター10を下方側から上方側に通過したパターン光3aを全周囲鏡面反射板12の側面12aの全周で鏡面反射し、この全周囲鏡面反射板12を中心とした環状のパターン光3aを、ロボット1の周囲の床面5に向けてかつ床面5に対して斜め方向に、ロボット1を囲むように投光することができる。
このような構成において、ロボット1の周囲における障害物6の有無を検出するとともに、ロボット1の周囲に障害物6がある場合に、この障害物6の床面5からの高さの計測を行うには、まず、ロボット1の周囲の床面5がほぼ水平であって、かつ、ロボット1の周囲に障害物6が存在しない時に床面5に対してパターン光3aを投光し、その時のパターン光3aが投光された床面5をカメラ8により撮像し、この画像を画像処理装置9に入力して、パターン光3aの投射パターン像7を基準投射像(以下、基準投射パターン像と記す)14(図4参照)として記憶させておく。また、そのときの画像を基準画像15(図4参照)として記憶させておく。
そして、基準画像15を記憶させると、周囲パターン投射系3によりロボット1の周囲にパターン光3aを投光し、ロボット1を自走させるなどしながら、ロボット1の周囲の床面5をカメラ8により撮像し、ロボット1の周囲に存在する障害物6の検知を開始する。このとき、例えば、図1に示すように、ロボット1の周囲に障害物6が存在している場合の撮影画像13を図3に示す。
通常、ロボット1の周囲に障害物6が無い場合には、上述したように、パターン光3aの投射パターン像7は基準投射パターン像14と同様の環状になるが、ロボット1の周囲に障害物6が存在する場合には、パターン光3aが床面5に対して斜め方向に投光され、かつパターン光3aが投光された障害物6が高さを有することから、図3に示すように、投射パターン像7における障害物6に投射されている部分7aは、床面5に投射されている部分7bよりも撮影画像13の中心側にずれる。
この撮影画像13に、画像処理装置9により画像処理を施すことで、投射パターン像7における部分7aが部分7bよりも撮影画像13の中心側にずれていることを認識し、ロボット1の周囲に障害物6が存在することを判断することができる。
詳細には、画像処理装置9により、図4に示すように、撮影画像13と記憶している基準画像15とを比較する。すなわち、このときの床面5が水平であれば、ロボット1がどこに移動しようとも投射パターン像7に変化は生じないが、逆に、パターン光3aが床面5とは高さの異なるものすなわち障害物6などに投光された場合には、上述のように、投射パターン像7における障害物6に投射されている部分が撮像画像13の中心側にずれる。したがって、撮影画像13から基準画像15を画像減算すれば、基準投射パターン像14に対して撮像した投射パターン像7がずれているところ、すなわち投射パターン像7における障害物6に投射されている部分7aが映る差分画像16を得ることができる。
このようにして、撮影画像13と基準画像15との画像減算の結果から、差分画像16上において、基準投射パターン像14と投射パターン像7とが一致しない箇所が、0以外の値でまとまりを持っている(画像)領域となるので、この領域を検出することで、ロボット1の周囲に障害物6があることを検出することができる。したがって、例えば、ロボット1の周囲の床面5上に複数の障害物6が存在していても、これらの障害物6にパターン光3aを投光することができれば、これらの障害物6を一度に検出することができる。
さらに、このとき、投射パターン像7における障害物6に投射されている部分7aが、基準投射パターン像14よりもどれだけ撮影画像13の中心側にずれているのかというずれの量を算出することで、パターン光3aが床面5に対して斜め方向に投光されていることに基づく、ずれの量と障害物6における床面5からの高さとの関係から、この高さを計測することができる。
詳細には、図5に示すように、周囲パターン投射系3から投光されるパターン光3aが鉛直方向に対して傾斜している角度をθとし、基準投射パターン像14と投射パターン像7における障害物6に投射されている部分7aとのずれの量をsとすると、障害物6の高さhは、
h・tanθ=s
により算出することができる。
したがって、例えば、ロボット1の周囲に複数の障害物6が存在しても、画像減算の結果から、これらの障害物6に投光されているパターン光3aの投射パターン像7が、基準投射パターン像14からどれだけずれているのかを算出することで、これらの障害物6の床面5からの高さを一度に算出することができる。
また、上記においては、周囲パターン投射系3において、ドットマトリックス型電気光学シャッター10を用いていることにより、パターン光3aのパターンを、リアルタイムで変化させることができる。
なお、ドットマトリックス型シャッター10としては、現在のところ、液晶素子が有効である。そのほかにプラズマパネルPLZT素子などの試算機端末用表示素子を活用すれば、さらに高速、高S/Nのシャッターを期待できる。
また、上記においては、シャッター10が、投射パターン像7の形状が一周つながった環状になるようなパターンを形成している場合を説明したがこれに限らず、例えば、図6(a)に示すような、破線で描かれる環状の投射パターン像7cとなるパターンを形成しても良いし、図6(b)に示すような、円弧状、例えば半円弧状の投射パターン像7dとなるパターンを形成してもしても良い。このようにしても、上記と同様にして、ロボット1から所定の距離にある障害物6を検出することができる。
さらに、上記において、ドットマトリックス型電気光学シャッター10により、径の異なる複数の環状の投射パターン像7を同時にかつ同心状に形成するようにすると、それぞれの投射パターン像7における障害物6に投光されている箇所には、ずれが生じることから、それらの投射パターン像7の一本一本について、ずれている箇所やそのずれの量を確認することで、例えば、複数の投射パターン像7におけるずれている部分どうしの間隔が広い箇所や狭い箇所を確認することができ、投射パターン像7が一本であるときには、障害物6の存在と高さを調べることができるが、これに加えて、障害物6の大きさや形状を詳しく調べることができる。
このとき、これらの複数のずれは、上述のように、撮影画像13の中心側にずれる。このため、例えば、図7に示すように、環状の投射パターン像17とその内側に投射パターン像17よりも小径の環状の投射パターン像18とが同時にかつ同心状に存在する場合であれば、投射パターン像17、18における障害物6が存在する箇所は、この障害物6により分断され、その結果、この箇所には隙間ができることになる。そして、場合によっては、投射パターン像17におけるずれた部分17aが、投射パターン像18における前記隙間にはまり込んでしまうことがある。
したがって、カメラ8により撮像した画像には、投射パターン像18が周方向に一周つながっているように映り、投射パターン像17におけるずれた部分17aと、投射パターン像18との区別がつきにくくなる。
しかしながら、ドットマトリックス型電気光学シャッター10により、あらかじめ、投射パターン像17と投射パターン像18とに、それぞれを区別するための情報を保有させ、それぞれの投射パターン像17、18に付した情報を画像処理装置9に入力すれば、画像処理装置9がこの情報に基づいて、投射パターン像17の部分17aと、投射パターン像18とを区別することができる。これにより、それぞれの投射パターン像17、18におけるずれている箇所やそのずれの量を確認することができるので、障害物6の大きさや形状などを調べることができる。
本発明のロボットによれば、ロボットの周囲に対して障害物の有無の検出等を行うことができるので、周囲に人などがいる環境において作業するロボットなどに利用することができる。
本発明の実施の形態のロボットの概略構成を示す図である。 (a)は、図1に示したロボットにおける周囲パターン投射系を示す図、(b)は、図2(a)に示した周囲パターン投射系における全周囲鏡面反射板の断面、シャッター、光源を示す図である。 カメラの撮影画像の一例を示す図である。 画像処理装置による画像減算を示す図である。 障害物の高さを求める場合の一例を示す図である。 図1における投射パターン像とは異なる形状の投射パターン像の例を示す図である。 ドットマトリックス型電気光学シャッターにより、複数の投射パターン像を形成した場合を示す図である。 三角測量の原理を示す図である。 三角測量の原理に基づいて、両眼視法により計測対象物までの距離を計測する手法を示す図である。 スポット投光法により、計測対象物までの距離を計測する手法の一例を示す図である。 パターン投光法により、計測対象物までの距離を計測する手法の一例を示す図である。 ドットマトリックス型電気光学シャッターを用いた計測方法を示す図である。
符号の説明
2 本体部
3 周囲パターン投射系
3a パターン光
5 床面
6 障害物
7 投射パターン像
8 カメラ
9 画像処理装置

Claims (6)

  1. 本体部の上方から前記本体部の周囲の床面に向けてかつ前記床面に対して斜め方向に、前記本体部を囲む環状または円弧状のパターン光を投光する投光部と、前記投光部から投光された前記パターン光の投射像を前記本体部の上方から撮像する撮像部と、前記撮像部により撮像した画像に基づいて、前記パターン光が前記本体部の周囲の障害物における前記床面とは高さの異なる箇所に投光されている場合に生じる前記パターン光の投射像のずれを検知することで、前記本体部の周囲における障害物を検出する画像処理装置とを有することを特徴とするロボット。
  2. 画像処理装置が、撮像部により撮像した画像に基づいてパターン光の投射像のずれの量を算出し、前記パターン光が床面に対して斜め方向に投光されていることに基づく、前記ずれの量と障害物における前記床面からの高さとの関係から、前記高さを計測可能であることを特徴とする請求項1記載のロボット。
  3. 画像処理装置が、パターン光が障害物の存在しない水平な床面に投光されている状態の前記パターン光の投射像を基準投射像として保有し、本体部の周囲の障害物にパターン光が投光された時のパターン光の投射像と、前記保有している基準投射像とを画像減算することで、前記画像減算の結果の差分画像を算出可能とされていることを特徴とする請求項1または2記載のロボット。
  4. 投光部が、所定の光束を発生する光源と、前記光源から発生した前記光束の任意の部分を遮蔽して前記光束を環状または円弧状のパターン光に加工するドットマトリックス型電気光学シャッターと、前記パターン光を側面の全周または一部で反射する錐体状の反射部とを有することを特徴とする請求項1〜3の何れか1項記載のロボット。
  5. ドットマトリックス型電気光学シャッターが複数の環状または円弧状のパターン光を同時に形成可能とされ、前記複数の環状または円弧状のパターン光が、同心円状とされていることを特徴とする請求項4記載のロボット。
  6. ドットマトリックス型電気光学シャッターが複数の環状または円弧状のパターン光を同時に形成可能とされ、前記ドットマトリックス型電気光学シャッターが前記複数のパターン光を区別するための情報を前記複数のパターン光に保有させ、画像処理装置が前記情報に基づいて、前記複数のパターン光を区別可能とされていることを特徴とする請求項4記載のロボット。
JP2004145739A 2004-05-17 2004-05-17 ロボット Pending JP2005324297A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004145739A JP2005324297A (ja) 2004-05-17 2004-05-17 ロボット
US11/129,324 US20060041333A1 (en) 2004-05-17 2005-05-16 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004145739A JP2005324297A (ja) 2004-05-17 2004-05-17 ロボット

Publications (1)

Publication Number Publication Date
JP2005324297A true JP2005324297A (ja) 2005-11-24

Family

ID=35471044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004145739A Pending JP2005324297A (ja) 2004-05-17 2004-05-17 ロボット

Country Status (2)

Country Link
US (1) US20060041333A1 (ja)
JP (1) JP2005324297A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007309921A (ja) * 2006-05-17 2007-11-29 Samsung Electronics Co Ltd 構造光を用いた物体検出方法及びこれを用いたロボット
JP2008254150A (ja) * 2007-04-09 2008-10-23 Denso Wave Inc ロボットの教示装置及び教示方法
JP2010208003A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
KR101318071B1 (ko) * 2010-08-18 2013-10-15 주식회사 에스원 이동 디바이스 및 그 구동 방법
JP2017049792A (ja) * 2015-09-02 2017-03-09 株式会社中電工 指定範囲監視システム
JP2019219751A (ja) * 2018-06-15 2019-12-26 株式会社今仙電機製作所 搬送車及びこの搬送車を制御する制御方法及び制御プログラム
US20210146526A1 (en) * 2019-11-18 2021-05-20 Lg Electronics Inc. Robot system and method for controllng the same
WO2021172936A1 (en) * 2020-02-28 2021-09-02 Lg Electronics Inc. Moving robot and control method thereof
JP2021526266A (ja) * 2018-06-05 2021-09-30 ダイソン・テクノロジー・リミテッド 移動ロボットのための視覚システム
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2281667B1 (en) 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
US20070150094A1 (en) * 2005-12-23 2007-06-28 Qingfeng Huang System and method for planning and indirectly guiding robotic actions based on external factor tracking and analysis
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
KR101293247B1 (ko) * 2006-02-07 2013-08-09 삼성전자주식회사 자율 이동 로봇 및 그 제어 방법
NL1033590C2 (nl) * 2007-03-26 2008-09-29 Maasland Nv Onbemand voertuig voor het afgeven van voer aan een dier.
JP5337408B2 (ja) * 2008-05-28 2013-11-06 村田機械株式会社 自律移動体及びその移動制御方法
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
KR101395089B1 (ko) * 2010-10-01 2014-05-16 안동대학교 산학협력단 장애물 감지 시스템 및 방법
CN102338621B (zh) * 2011-04-27 2013-11-20 天津工业大学 一种室内视觉导航用障碍物高度检测方法
JP6123307B2 (ja) 2013-01-23 2017-05-10 株式会社デンソーウェーブ ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
DE102014219754B4 (de) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gestenbasierte industrielle Überwachung
US9283674B2 (en) 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
KR101620427B1 (ko) 2014-10-14 2016-05-12 엘지전자 주식회사 로봇 청소기의 제어방법
DE102015224309A1 (de) * 2015-12-04 2017-06-08 Kuka Roboter Gmbh Darstellung variabler Schutzfelder
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
US9817395B2 (en) * 2016-03-31 2017-11-14 Toyota Jidosha Kabushiki Kaisha Autonomous navigation of people using a robot network
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN107030733B (zh) * 2017-06-19 2023-08-04 合肥虹慧达科技有限公司 一种轮式机器人
EP3702111B1 (en) * 2017-10-25 2024-01-24 LG Electronics Inc. Artificial intelligence moving robot which learns obstacles, and control method therefor
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
EP4419302A1 (en) * 2021-10-19 2024-08-28 ABB Schweiz AG Robotic system comprising an environment sensor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2316169A (en) * 1996-08-08 1998-02-18 Secr Defence Optical detection system
DE10000287B4 (de) * 2000-01-07 2004-02-12 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
JP2003187342A (ja) * 2001-12-19 2003-07-04 Hitachi Ltd セキュリティシステム
US20040066500A1 (en) * 2002-10-02 2004-04-08 Gokturk Salih Burak Occupancy detection and measurement system and method
JP2004298977A (ja) * 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
CA2505715A1 (en) * 2004-05-03 2005-11-03 Her Majesty In Right Of Canada As Represented By The Minister Of National Defence Volumetric sensor for mobile robotics
JP2005331784A (ja) * 2004-05-20 2005-12-02 Fuji Xerox Co Ltd 光学レンズ系およびこれを用いた位置計測システム
US7440620B1 (en) * 2004-05-21 2008-10-21 Rockwell Automation B.V. Infrared safety systems and methods

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007309921A (ja) * 2006-05-17 2007-11-29 Samsung Electronics Co Ltd 構造光を用いた物体検出方法及びこれを用いたロボット
JP2008254150A (ja) * 2007-04-09 2008-10-23 Denso Wave Inc ロボットの教示装置及び教示方法
JP2010208003A (ja) * 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
KR101318071B1 (ko) * 2010-08-18 2013-10-15 주식회사 에스원 이동 디바이스 및 그 구동 방법
JP2017049792A (ja) * 2015-09-02 2017-03-09 株式会社中電工 指定範囲監視システム
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
JP7128908B2 (ja) 2018-06-05 2022-08-31 ダイソン・テクノロジー・リミテッド 移動ロボットのための視覚システム
JP2021526266A (ja) * 2018-06-05 2021-09-30 ダイソン・テクノロジー・リミテッド 移動ロボットのための視覚システム
US12064068B2 (en) 2018-06-05 2024-08-20 Dyson Technology Limited Vision system for a mobile robot
JP7165515B2 (ja) 2018-06-15 2022-11-04 株式会社今仙電機製作所 搬送車及びこの搬送車を制御する制御方法及び制御プログラム
JP2019219751A (ja) * 2018-06-15 2019-12-26 株式会社今仙電機製作所 搬送車及びこの搬送車を制御する制御方法及び制御プログラム
US20210146526A1 (en) * 2019-11-18 2021-05-20 Lg Electronics Inc. Robot system and method for controllng the same
US11717955B2 (en) * 2019-11-18 2023-08-08 Lg Electronics Inc. Robot system and method for controlling the same
WO2021172936A1 (en) * 2020-02-28 2021-09-02 Lg Electronics Inc. Moving robot and control method thereof
US12329335B2 (en) 2020-02-28 2025-06-17 Lg Electronics Inc. Moving robot and control method thereof

Also Published As

Publication number Publication date
US20060041333A1 (en) 2006-02-23

Similar Documents

Publication Publication Date Title
JP2005324297A (ja) ロボット
JP6586239B2 (ja) 撮影装置及び撮影方法
JP2006514739A5 (ja)
JP2005347790A (ja) 台形歪み補正装置を備えたプロジェクタ
JP2008241643A (ja) 3次元形状測定装置
JPH06137828A (ja) 障害物位置検出方法
KR20180015139A (ko) 투명 기판의 내부 결함을 검출하기 위한 광학 디바이스 및 이를 위한 방법
JP5874252B2 (ja) 対象物との相対位置計測方法と装置
US10789730B2 (en) Method and apparatus for monitoring a position
JP4918830B2 (ja) 位置計測システム
JP5682334B2 (ja) 移動体の距離測定装置
JP6740042B2 (ja) 位置検知システム
JP2007093412A (ja) 3次元形状測定装置
JP2010014505A (ja) 三次元形状測定装置及び三次元形状測定方法
JP2007240197A (ja) 三次元形状計測システム
JP2017138176A (ja) 三次元情報取得システム、三次元情報取得方法及びピッキングシステム
JP6508763B2 (ja) 表面検査装置
JP2019028004A (ja) 三次元計測装置、及び三次元計測装置における異常検知方法
JP3373668B2 (ja) 重機接近監視システム
JPS636679A (ja) ワイヤの傾き検出方法
KR100395773B1 (ko) 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치
JPH08145637A (ja) パイプ形状認識方法及びその装置
JP7277267B2 (ja) 計測装置、撮像装置、計測システム及びプログラム
JP2005318355A (ja) プロジェクタの台形歪み補正装置と該台形歪み補正装置を備えたプロジェクタ
JPS62222117A (ja) 多点距離計測センサ