JP4464912B2 - Robot control apparatus and autonomous mobile robot - Google Patents
Robot control apparatus and autonomous mobile robot Download PDFInfo
- Publication number
- JP4464912B2 JP4464912B2 JP2005349159A JP2005349159A JP4464912B2 JP 4464912 B2 JP4464912 B2 JP 4464912B2 JP 2005349159 A JP2005349159 A JP 2005349159A JP 2005349159 A JP2005349159 A JP 2005349159A JP 4464912 B2 JP4464912 B2 JP 4464912B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- movement
- person
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 121
- 238000004364 calculation method Methods 0.000 claims description 97
- 238000006243 chemical reaction Methods 0.000 claims description 37
- 230000002093 peripheral effect Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 22
- 210000000746 body region Anatomy 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 13
- 238000000034 method Methods 0.000 description 43
- 230000003287 optical effect Effects 0.000 description 30
- 238000013500 data storage Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000011161 development Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- OZZAYJQNMKMUSD-DMISRAGPSA-N pregnenolone succinate Chemical compound C1C=C2C[C@@H](OC(=O)CCC(O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H](C(=O)C)[C@@]1(C)CC2 OZZAYJQNMKMUSD-DMISRAGPSA-N 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
本発明は、自律移動ロボットが自律移動で移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットに関する。本発明は、特に誘導路として床面に部分的に磁気テープや反射テープ等を敷設せずに、例えば、自律移動ロボットにアレーアンテナ、人に送信機等を設け、ロボット前方に存在する人の方向角を時系列に検出し、人の移動に合わせてロボットも移動させ、基本経路を人が歩いて倣い経路教示して、移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットに関する。 The present invention relates to a robot control apparatus and an autonomous mobile robot that generate a movable route while an autonomous mobile robot recognizes a movable range by autonomous movement . The present invention does not particularly lay a magnetic tape or a reflective tape partially on the floor surface as a guide path. For example, an autonomous mobile robot is provided with an array antenna, a person is provided with a transmitter, and the like. A robot control device that detects a direction angle in time series, moves a robot in accordance with the movement of a person, teaches a basic path by walking and follows a basic path, and generates a movable path while recognizing a movable range And an autonomous mobile robot .
従来技術では、自律移動ロボットの経路教示及び位置検出制御方法に関し、詳細に人手にて作成した地図情報が不可欠である。例えば特許文献1では、地図情報と移動ルートの記憶部と、車体の前部及び側部に設けたセンサからの位置情報に基づいて移動体を制御することで、誘導線などのガイドを不要にしている。
In the prior art, detailed manual map information is indispensable regarding the route teaching and position detection control method of the autonomous mobile robot. For example, in
しかしながら、家庭環境における移動ロボット経路教示では、位置データを直接人に編集させ教示させることは実用的ではない。従来の技術は、床面上を移動する移動体の地図情報を記憶した記憶部と、前記移動体の前面に設けられた第1の距離センサと、前記移動体の側面に水平方向に設けられた複数個の第2の距離センサと、前記第1の距離センサ及び前記第2の距離センサの出力をそれぞれ信号処理する信号処理回路と、この信号処理回路の出力信号が入力され、前記第2の距離センサの検出距離に基づいて走行中のずれ量を求めると共に車体角を求め、且つ前記第1の距離センサ及び第2の距離センサの検出距離に基づいてコーナ部を検出すると共に前記記憶部に記憶されている地図情報に基づいて前記移動体の位置を検出する位置検出部と、この位置検出部の検出結果に基づいて前記移動体の移動方向を制御する制御部とを具備する。 However, in mobile robot route teaching in a home environment, it is not practical to let a person directly edit and teach position data. A conventional technique is provided in a horizontal direction on a storage unit that stores map information of a moving object that moves on a floor, a first distance sensor provided on the front surface of the moving object, and a side surface of the moving object. A plurality of second distance sensors, a signal processing circuit that performs signal processing on the outputs of the first distance sensor and the second distance sensor, and an output signal of the signal processing circuit. The amount of deviation during traveling is obtained based on the detection distance of the distance sensor, the vehicle body angle is obtained, the corner portion is detected based on the detection distances of the first distance sensor and the second distance sensor, and the storage portion A position detecting unit that detects the position of the moving body based on the map information stored in the control unit, and a control unit that controls the moving direction of the moving body based on the detection result of the position detecting unit.
前記従来の技術は、記憶されている地図情報に基づいて前記移動体の位置を検出し、この位置検出結果に基づいて前記移動体の移動方向を制御する方法である。地図を教示媒介としない方法は、従来技術で見あたらない。 The prior art is a method of detecting the position of the moving body based on stored map information and controlling the moving direction of the moving body based on the position detection result. There is no method in the prior art that does not use maps as teaching mediators.
従来の技術におけるロボット経路教示及び経路生成では、位置データを直接数値又は視覚情報で人に編集させて教示させるようにしている。 In robot path teaching and path generation in the prior art, position data is directly edited by numerical values or visual information to be taught by a person.
しかしながら、家庭環境における移動ロボット経路教示では、位置データを、直接、人に編集させて教示させることは実用的ではない。人の指示を順次追いかける等の手法の適用が課題である。 However, in mobile robot route teaching in a home environment, it is not practical to let a person edit and teach position data directly. The application of techniques such as chasing human instructions sequentially is a problem.
従って、本発明の目的は、位置データを、直接、人に編集させて教示させる必要がなく、基本経路を人が歩き、倣い経路を教示したのち、ロボットをその自律移動で移動可能な範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び自律移動ロボットを提供することにある。 Therefore, the object of the present invention is not to let the person directly edit and teach the position data, and after walking the basic route and teaching the copying route, the range in which the robot can move by its autonomous movement is set. An object of the present invention is to provide a robot control device and an autonomous mobile robot that generate a movable route while recognizing.
前記目的を達成するために、本発明は以下のように構成する。 In order to achieve the above object, the present invention is configured as follows.
本発明の第1態様によれば、移動可能なロボットに搭載され、かつ、前記ロボットの前方に存在する移動体としての人を検知した後、前記人の移動を検知する人移動検知部と、
前記ロボットに搭載され、かつ、経路教示時、前記人移動検知部で検知された前記人の移動に合わせて前記ロボットを移動させる駆動装置と、
前記駆動装置で移動させられた前記ロボットの移動量を検知するロボット移動量検知部と、
前記ロボット移動量検知部で検知した前記移動量をあらわす移動量データを蓄積し経路教示データに変換する第1経路教示データ変換部と、
前記ロボットに搭載され、かつ、前記ロボットの周囲の障害物や前記ロボットが移動する空間の天井又は壁位置を検出する周囲物体検出部と、
前記第1経路教示データ変換部で変換された前記経路教示データに沿って前記駆動装置の駆動により前記ロボットが自律移動するとき、前記周囲物体検出部にて検出した前記障害物の位置より、前記経路教示データに対する前記ロボットのロボット移動可能範囲を算出するロボット移動可能範囲算出部と、
前記経路教示データと前記ロボット移動可能範囲算出部で算出された前記移動可能範囲とより、前記ロボットの自律移動用移動経路を生成する移動経路生成部とを備えて、
前記人移動検知部は、
予め、前記ロボットの周囲の、前記人の動きに合わせて検出する対応点の位置を算出及び配置する対応点位置算出配置部と、
時系列に複数の画像を取得する時系列複数画像取得部と、
前記時系列複数画像取得部により取得された前記時系列の複数の画像間にて、前記対応点位置算出配置部により配置された対応点を検出し、検出された対応点の複数の画像間での移動量を算出する移動量算出部と、
前記移動量算出部により算出した前記移動量より、前記人の移動に合致する対応点であるか否かを判断する移動体移動判断部と、
前記移動体移動判断部で得られた対応点群より、前記人が存在している範囲である移動体領域を抽出する移動体領域抽出部と、
前記ロボットの周囲のある範囲である前記ロボットの周囲の距離画像特定範囲の距離画像を算出する距離画像算出部と、
前記移動体領域抽出部で抽出した前記移動体領域の範囲に合わせるように、前記距離画像算出部で算出された前記距離画像特定範囲を移動させる距離画像特定範囲移動部と、
前記距離画像特定範囲移動部による前記移動後の距離画像の移動体領域を判定する移動体領域判定部と、
前記移動体領域判定部により得られた前記距離画像の移動体領域より前記人の位置を特定する移動体位置特定部と、
前記移動体位置特定部により前記距離画像上で特定された前記人の位置より、前記ロボットから前記人への距離を算出する距離算出部と、
予め前記人の動きに合わせて検出する対応点の位置を、前記人の位置に合わせて、その都度、変更する対応点位置算出配置変更部とを備えるように構成して、
前記移動経路生成部で生成された前記移動経路に従って、前記人移動検知部により前記人を特定しかつ継続して前記人と前記ロボットとの距離及び方向検知を行うことにより、前記ロボットを自律移動させるように制御する、ロボット制御装置。
本発明の第2態様によれば、前記周囲物体検出部が、前記ロボットの周囲の全方位の画像を取得可能な全方位画像入力系及び前記ロボットの周囲の障害物を検出可能な障害物検出部とを有して、前記ロボットの周囲の前記障害物や前記ロボットが移動する空間の天井又は壁位置を検出する、第1の態様に記載のロボット制御装置を提供する。
本発明の第3態様によれば、第1又は第2の態様に記載のロボット制御装置を備える、自律移動ロボットを提供する。
According to a first aspect of the present invention is mounted on a movable robot, and, after detection knowledge the human as a moving body existing in front of the robot, the human movement detection section for detecting a movement of the person When,
A driving device that is mounted on the robot and moves the robot in accordance with the movement of the person detected by the human movement detection unit during route teaching;
A robot movement amount detection unit for detecting a movement amount of the robot moved by the driving device;
A first route teaching data conversion unit that accumulates movement amount data representing the movement amount detected by the robot movement amount detection unit and converts the movement amount data into route teaching data;
It is mounted on the robot, and a peripheral object detection unit around the obstacles and the robot before Symbol robot detects the ceiling or wall position of the space to be moved,
When the robot autonomously moves by driving the driving device along the route teaching data converted by the first route teaching data conversion unit, the position of the obstacle detected by the surrounding object detection unit is A robot movable range calculator that calculates a robot movable range of the robot with respect to route teaching data;
A movement path generation unit that generates a movement path for autonomous movement of the robot based on the path teaching data and the movement range calculated by the robot movement range calculation unit;
The human movement detector is
A corresponding point position calculating and arranging unit for calculating and arranging the position of corresponding points to be detected according to the movement of the person around the robot in advance;
A time-series multiple image acquisition unit that acquires a plurality of images in time series;
Corresponding points arranged by the corresponding point position calculating and arranging unit are detected between the time-series images acquired by the time-series plural image acquiring unit, and between the detected images of the corresponding points are detected. A movement amount calculation unit for calculating the movement amount of
A moving body movement determination unit that determines whether the movement amount calculated by the movement amount calculation unit is a corresponding point that matches the movement of the person;
From the corresponding point group obtained by the mobile body movement determination unit, a mobile body region extraction unit that extracts a mobile body region that is a range where the person exists,
A distance image calculation unit that calculates a distance image of a distance image specific range around the robot that is a certain range around the robot;
A distance image specifying range moving unit that moves the distance image specifying range calculated by the distance image calculating unit so as to match the range of the moving object region extracted by the moving object region extracting unit;
A moving object region determination unit that determines a moving object region of the distance image after the movement by the distance image specific range moving unit;
A moving body position specifying unit that specifies the position of the person from the moving body area of the distance image obtained by the moving body area determination unit;
A distance calculating unit that calculates a distance from the robot to the person based on the position of the person specified on the distance image by the moving body position specifying unit;
The position of the corresponding point to be detected according to the movement of the person in advance is configured to include a corresponding point position calculation arrangement changing unit that changes each time according to the position of the person,
According to the movement route generated by the movement route generation unit, the person movement detection unit identifies the person and continuously detects the distance and direction between the person and the robot, thereby autonomously moving the robot. A robot controller that controls
According to the second aspect of the present invention, the surrounding object detection unit can acquire an omnidirectional image around the robot and an obstacle detection capable of detecting an obstacle around the robot. The robot control device according to the first aspect is provided for detecting the obstacle around the robot and a ceiling or wall position of a space in which the robot moves.
According to a third aspect of the present invention, there is provided an autonomous mobile robot comprising the robot control device according to the first or second aspect.
上述のように、本発明のロボット制御装置によれば、移動体を特定し継続して移動体の(距離・方向)検知を行うことができる。 As described above, according to the robot control apparatus of the present invention, it is possible to identify a moving body and continuously detect the distance (direction / direction) of the moving body.
本発明のロボット制御装置によれば、前記全方位画像入力部の一例としてのロボット付属全方位カメラにて、天井・壁面の全景画像を入力し、予め画像入力記憶した目標地点の天井・壁面の全景画像との位置ずれ情報を算出し、例えばロボットの駆動装置の車輪付属エンコーダによる経路積算値及び位置ズレ情報を台車運動方程式に算入し台車位置制御を行い、移動しながら目標地点からのずれを修正し、ロボットなどの作業機器による屋内作業を実施するものである。 According to the robot control apparatus of the present invention, a panoramic image of the ceiling / wall surface is input by the omnidirectional camera attached to the robot as an example of the omnidirectional image input unit, and the ceiling / wall surface of the target point stored in advance by image input is stored. Calculate the position deviation information with the panoramic image, for example, add the path integrated value and position deviation information by the wheel attached encoder of the robot drive unit to the carriage motion equation and control the carriage position, and move the deviation from the target point while moving It is corrected and the indoor work is carried out by a work device such as a robot.
これにより、詳細に作成された地図情報や、床面に設置された磁気テープ等を必要とせず、なおかつ、屋内の様々な場面に対応して、ロボットを移動させることが可能となる。 As a result, it is possible to move the robot in accordance with various indoor scenes without requiring detailed map information or magnetic tape installed on the floor surface.
本発明によると、移動中での位置ズレ修正が実現可能であり、多数地点での作業を連続で短時間に行うことができる。さらに、目標地点の天井・壁面の全景画像を画像入力記憶すれば、所謂ランドマーク等の固定位置指定が不要となるものである。 According to the present invention, it is possible to correct misalignment during movement, and work at multiple points can be performed continuously in a short time. Further, if a panoramic image of the ceiling or wall surface of the target point is input and stored, designation of a fixed position such as a so-called landmark becomes unnecessary.
本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号を付している。 Before continuing the description of the present invention, the same parts are denoted by the same reference numerals in the accompanying drawings.
以下、本発明による種々の実施形態について添付図面に沿って詳述する。 Hereinafter, various embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
(第1実施形態)
図1Aに示すように、本発明の第1実施形態にかかるロボット制御装置は、大略平面の走行床面105上を走行可能なロボット1に搭載されて、移動ロボット1の前後進、及び左右側の移動を制御するものである。このロボット制御装置は、具体的には、駆動装置10と、走行距離検出部20と、方向角検出部30と、人移動検知部31と、ロボット移動量検出部32と、ロボット基本経路教示データ変換部33と、ロボット基本経路教示データ蓄積部34と、移動可能範囲算出部35と、障害物検出部36と、移動経路生成部37と、駆動装置10から移動経路生成部37までをそれぞれ動作制御する制御部50とを備えるように構成している。
(First embodiment)
As shown in FIG. 1A, the robot control apparatus according to the first embodiment of the present invention is mounted on a
前記駆動装置10は、前記移動ロボット1を右側に移動させるように左側走行モータ111を駆動する左側モータ駆動部11と、前記移動ロボット1を左側に移動させるよう右側走行モータ121を駆動する右側モータ駆動部12とを備えるように構成されている。前記左側走行モータ111と右側走行モータ121には、図1B及び図2に示す後側駆動輪100がそれぞれ取付けられており、前記移動ロボット1を右側に移動させるときには、左側モータ駆動部11により、右側走行モータ121の回転よりも多く、左側走行モータ111を回転させる。逆に、前記移動ロボット1を左側に移動させるときには、右側モータ駆動部12により、左側走行モータ111の回転よりも多く、右側走行モータ121を回転させる。前記移動ロボット1を前進又は後退させるときには、左側モータ駆動部11と右側モータ駆動部12とを同期して、左側走行モータ111と右側走行モータ121とを同様に正回転又は逆回転させるようにしている。なお、ロボット1の前側には、一対の前側補助走行輪101が回動可能に回転自在に配置されている。
The
さらに、走行距離検出部20は、前記駆動装置10により移動させられる移動ロボット1の走行距離を検出して走行距離データを出力するものである。前記走行距離検出部20の具体的な構成例としては、前記駆動装置10の制御により駆動する左側駆動輪100の回転数、すなわち、前記左側走行モータ111の回転数に比例するパルス信号を発生させて前記移動ロボット1が右側に移動した走行距離を検出する左側エンコーダ21と、前記駆動装置10の制御により駆動する右側駆動輪100の回転数、すなわち、前記右側走行モータ121の回転数に比例するパルス信号を発生させて前記移動ロボット1が左側に移動した走行距離を検出する右側エンコーダ22とを備えるように構成されて、前記移動ロボット1が右側に移動した走行距離と左側に移動した走行距離とを基に、移動ロボット1の走行距離を検出して走行距離データを出力するようにしている。
Further, the travel
方向角検出部30は、移動ロボット1において、前記駆動装置10により移動される移動ロボット1の走行方向変化を検出して、走行方向データを出力するものである。例えば、左側エンコーダ21からの左側駆動輪100の回転数を積算して左側駆動輪100の移動量とし、右側エンコーダ22からの右側駆動輪100の回転数を積算して右側駆動輪100の移動量とし、両方の移動量の情報からロボット1の走行方向変化を算出して、走行方向データを出力すればよい。
The direction
人移動検知部31は、移動ロボット1において、図11Aの人検出に示すように、ロボット1の例えば後部に立設された支柱32bの上端に固定された、全方位画像入力系の一例としての全方位光学系32aにより撮像して得られた画像データ及びオプティカルフロー演算を用いてロボット1の周囲に存在する人を検出する。具体的には、オプティカルフロー演算の結果より、全周囲画像のうち、一定の角度(30°〜100°、ベストは70°程度)の中に、連続して(全周囲画像の径方向に長さを有する)物体が存在している場合、人102が存在していると判断して人102を検出し、その中心角度に、ロボット1の例えば前部に配置されたステレオカメラ31a,31bを向けている。
The human
さらに図11Bなどのロボット1による人追随に示すように、ロボット1の例えば前部に配置されたステレオカメラ系31a,31bにより撮像して得られた画像データを用いてロボット1の前方を移動する人102を検出し、ロボット1の前方に存在する人102の方向角及び距離を検出して、人102の方向角及び距離データを出力する。具体的には、全周囲画像で検出された人の領域に基づき、ステレオカメラ系31a,31bにより撮像して得られた画像データの中で人の部分の画像の濃淡値(距離値)を平均して、人102の位置データ(ロボット1と人102との距離データ)とを算出し、人102の方向角及び距離を検出して、人102の方向角及び距離データを出力する。
Further, as shown in FIG. 11B and the like, the
ここで、全方位光学系32aは、例えば、全方位カメラより構成されるものである。全方位カメラとは、反射光学系を利用したものであり、上向きに設置した1つのカメラと、その上に設置した複合反射ミラーから構成されて、前記1つのカメラによって、前記複合反射ミラーに反射した周囲の全方位の画像を取得することができる。ここで、オプティカルフローとは、例えば全方位光学系32aで所定時間毎に撮像した撮像画像フレーム間の差分だけでは、ロボット1がどのように移動しているかを求めることができないことから、ロボット1がどのように移動しているかを調べるため、フレーム中の各点がどのような速度ベクトルを持っているかを求めたものである(図13参照)。
Here, the omnidirectional
ロボット移動量検出部32は、前記人移動検知部31により検知された前記方向角及び前記距離を時系列に監視し、同時に時系列に全方位光学系32aによるロボット1の上方でかつロボット1が移動する部屋の天井全景の画像を撮像して天井全景画像データを得るとともに、人の移動軌跡(経路)に合わせて(人の移動経路を再現しながら)ロボット1を駆動装置10により移動させ、前記方向角検出部30及び前記走行距離検出部20から出力されるロボット1の移動方向データ及び移動距離データを用いて、ロボット1の移動方向及び移動距離よりなる移動量を検出して移動量データをロボット基本経路教示データ変換部33などに出力する。ロボット1の移動量は、例えば、左側エンコーダ21からの左側駆動輪100の回転数を積算して左側駆動輪100の移動量とし、右側エンコーダ22からの右側駆動輪100の回転数を積算して右側駆動輪100の移動量とし、両方の移動量の情報からロボット1の移動量を算出すればよい。
The robot movement
ロボット基本経路教示データ変換部33は、前記検出された移動量のデータ(ロボット1自体の移動方向及び移動距離、全方位光学系32aの天井全景画像データ―図9Bの教示結果)を時系列に蓄積して、基本経路教示データに変換してロボット基本経路教示データ蓄積部34などに出力する。
The robot basic route teaching
ロボット基本経路教示データ蓄積部34は、ロボット基本経路教示データ変換部33によって出力されたロボット基本経路教示データを蓄積して移動可能範囲算出部35などに出力している。
The robot basic route teaching
移動可能範囲算出部35は、前記ロボット基本経路教示データ蓄積部34で蓄積された前記ロボット基本経路教示データを基にロボット1を自律移動させながら、ロボット1の例えば前部両側に配置された例えば超音波センサ等の障害物検出部36で障害物103の位置を検出し算出された障害物情報を用いて、ロボット1の移動が障害物103などにより阻害されることなくロボット1が基本経路104に対して幅方向に移動可能な範囲(移動可能範囲)104aのデータ、すなわち、移動可能範囲データを算出して移動経路生成部37などに出力する。
The movable range calculation unit 35 is arranged, for example, on both sides of the front part of the
移動経路生成部37は、前記移動可能範囲算出部35にて出力された移動可能範囲データより、ロボット1に最適な移動経路を生成して出力する。
The movement
また、図1Aにおいて、制御部50には、前記走行距離検出部20により検出された走行距離データ、及び前記方向角検出部30により検出された走行方向データが所定時間間隔で入力される。そして、制御部50に入力された走行距離データと走行方向データとを基に前記移動ロボット1の現在位置を制御部50により演算し、その演算結果により得られた前記移動ロボット1の現在位置と移動経路生成部37から出力された移動経路を基に駆動装置10を制御部50により駆動制御して、前記移動ロボット1が、正常軌道である移動経路から逸脱せずに、目標地点まで正確に走行できるよう動作制御する中央処理装置(CPU)として制御部50が構成されている。なお、制御部50は、他の部分の動作制御も行うようにしている。
Further, in FIG. 1A, the travel distance data detected by the
以下、前記のように構成された移動ロボット1の位置決め装置及び方法、及びその制御装置及び方法の作用、効果について述べる。
Hereinafter, the operation and effect of the positioning device and method of the
図3は、移動ロボット1の基本経路直接教示方法を示す。このロボット1の基本経路直接教示方法は、基本経路沿いに進む人102の後をロボット1が追いかけることにより、ロボット1が基本経路104沿いに移動し、このロボット移動時の位置情報をロボット1の基本経路教示データ蓄積部34に累積させて、累積した位置情報を基にロボット基本経路教示データ変換部33がロボット1の基本経路教示データに変換して、基本経路教示データを基本経路教示データ蓄積部34に蓄積させる。
FIG. 3 shows a basic route direct teaching method of the
この基本経路直接教示方法の具体な方法としては、人102の移動検知部31の全方位画像入力系32a等を用いてロボット1の周囲例えば前方に存在する人102を検出しながら、ロボット1の駆動装置10を駆動することにより、基本経路104を歩いている人102の後をロボット1が追いかけるように移動する。すなわち、ロボット1と人102との間の距離が許容範囲(例えば、人102がロボット1に接触せずかつ全方位画像入力系32aで取得する画像内から人102が外れない程度の距離の範囲)内に入るように、ロボット1の駆動装置10を制御部50が駆動制御しながらロボット1が移動しているとき、ロボット移動時の位置情報を基本経路教示データ蓄積部34に累積して蓄積し、ロボット基本経路教示データとする。なお、図3において、103は障害物である。
As a specific method of this basic route direct teaching method, while detecting the
図4は、ロボット1による移動可能範囲追加学習を示す。移動可能範囲追加学習とは、ロボット基本経路教示データに関連して、障害物103などを避けるときに移動可能な範囲である、移動可能範囲を追加して学習することを意味する。
FIG. 4 shows the movable range additional learning by the
人102によるロボット基本経路教示データを基に、例えば超音波センサ等の障害物検出部36で検出された障害物の位置や大きさなどの障害物情報を用い、ロボット自律移動時にロボット1が障害物等103に直面しそうになる場合、その都度、制御部50で駆動装置10を制御して、障害物103の手前でロボット1に障害物103を回避させ、再び、ロボット1に基本経路104に沿って自律移動させる。これを障害物等103にロボット1が直面しそうになる毎に、その都度、繰り返してロボット基本経路教示データをロボット1の走行床面105沿いに拡張する。最終的に拡張して得られた最終拡張平面を、ロボット1の移動可能範囲104aとして基本経路教示データ蓄積部34に記憶する。
Based on the robot basic route teaching data by the
図5は、ロボット1による移動可能範囲内経路生成を示す。
FIG. 5 shows generation of a movable range route by the
移動経路生成部37は、前記移動可能範囲算出部35にて得られた移動可能範囲104aより、ロボット1に最適な移動経路106を生成する。基本的には、移動可能範囲104aの平面の幅方向中央部を移動経路106として生成する。具体的には、まず、移動可能範囲104aの平面の幅方向の成分106aを所定間隔毎に抽出し、次いで、幅方向の成分106aの中央部を結んで移動経路106として生成する。
The movement
ここで、後追い教示において、教示を行うオペレータである人102の移動方向情報のみを使い、人102の位置をそのまま追いかけた場合には、図6Aに示すように、人102が、赤ん坊のいる場所107bを避けようとして大略90度に曲がるような経路107aを進む。その結果として、図6Bに示すように、そのコーナ付近でロボット1は近道107cを選択するように動作してしまうと、ロボット1が、赤ん坊のいる場所107bを移動することになり、正しい教示ができない場合がある。
Here, in the follow-up teaching, when only the movement direction information of the
そこで、この第1実施形態では、人102の移動方向と移動距離の両方の情報を用いて、図6Cのようなシステムにより、オペレータの経路である経路107aをロボット1の経路107dとする制御の実現を図る(図6B参照)。
Therefore, in the first embodiment, by using the information on both the moving direction and the moving distance of the
図6Cのシステム60は、前記全方位光学系32aとステレオカメラ系31a,31bなどに相当するオペレータ相対位置検知センサ61と、前記走行距離検出部20と前記方向角検出部30と制御部50などとより構成するロボット現在位置検出部62とにより、オペレータである人102の教示経路に対する位置を検出し、人102の経路を経路データベース64に記憶する。また、ロボット現在位置検出部62により検出されたロボット1の現在位置に基づき、教示経路を形成し、形成された教示経路を教示経路データベース63に記憶させる。そして、ロボット現在位置検出部62により検出されるロボット1の現在位置と、経路データベース64に記憶された人102の経路と、教示経路データベース63に記憶された教示経路とに基づき、人102に対する後追い経路を形成して、形成された後追い経路に沿ってロボット1が移動するように、制御部50で駆動装置10を駆動制御してロボット1を移動させる。
6C includes an operator relative
より具体的なロボット1の移動は以下の通りである。
More specific movement of the
(1) ロボット1が、ロボット1の進行経路と現在のオペレータ102の相対位置を全方位光学系32aで撮像して検出し、オペレータである人102の進む経路を生成し、生成した経路を経路データベース64に保存する(図6B)。
(1) The
(2) その経路データベース64に保存したオペレータ102の経路を、現在のロボット1の経路と比較して、ロボット1の進行方向(移動方向)を決め、決められたロボット1の進行方向(移動方向)に基づき、制御部50により駆動装置10を駆動制御して、ロボット1が人102の後追いを行う。
(2) The route of the
前記のごとく、ロボット1が人102の後を追いかけ、ロボット移動時の位置情報を基本経路教示データ蓄積部34に累積し、累積した位置情報を基に基本経路教示データを移動可能範囲算出部35により作成し、作成された基本経路教示データを基に制御部50により駆動装置10を駆動制御してロボット1が基本経路104沿いに自律移動する手法を「プレイバック型ナビゲーション」と呼ぶことにする。
As described above, the
このプレイバック型ナビゲーションの内容を改めて記述すると、ロボット1が人に追随するように移動して、ロボット1が安全に移動可能な基本経路104をロボット1が学習し、ロボット1が自律移動するときには、ロボット1が、前記学習した基本経路104に沿ってプレイバック自律移動するものである。
When the content of this playback type navigation is described again, when the
図7のプレイバック型ナビゲーションの動作フローに示すように、プレイバック型ナビゲーションの動作は、2つのステップS71とS72とより構成されている。 As shown in the operation flow of the playback type navigation in FIG. 7, the operation of the playback type navigation is composed of two steps S71 and S72.
1つ目のステップS71は、人追随基本経路教示のステップである。このステップS71では、ロボット1の自律移動前に基本経路を人102がロボット1に教示し、同時にロボット1が移動するときの周囲のランドマーク及び目標地点も全方位カメラ32aから基本経路教示データ蓄積部34に取り込んで記憶する。次いで、基本経路教示データ蓄積部34に記憶された教示経路/位置情報を基にロボット1の移動可能範囲算出部35で、地図情報で構成された基本経路104を生成する。ここでの地図情報で構成された基本経路104は、駆動装置10から得られるオドメトリベースの点と線の情報より構成されている。
The first step S71 is a step for teaching a person-following basic route. In this step S71, before the
2つ目のステップS72はプレイバック型自律移動のステップである。このステップS72では、安全確保技術(例えば、障害物検出部36で検出された障害物103に接触しないように、障害物103とロボット1とが接触せずかつ障害物103の検出された位置から十分に安全な距離だけ離れた経路をロボット1が移動するように制御部50が駆動装置10を駆動制御するなどの技術)を用いて、ロボット1が障害物103を回避しつつ自律移動する。ロボット1の自律移動前に人102がロボット1に教示して基本経路教示データ蓄積部34に記憶された基本経路104の情報をベースとし、ロボット1の移動時の経路情報(例えば、ロボット1が新たに障害物103を回避したという経路変更情報)は、ロボット1が障害物103を回避するなどして移動可能範囲算出部35により追加経路情報が新たに生成される都度、追加経路情報が、基本経路教示データ蓄積部34に記憶された地図情報に追加する。このようにして、ロボット1が基本経路104を移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。
The second step S72 is a playback type autonomous movement step. In this step S72, a safety ensuring technique (for example, the
以下に、前記2つのステップS71とS72を詳述する。 Hereinafter, the two steps S71 and S72 will be described in detail.
(ステップS71、すなわち、人追随基本経路教示(人倣い基本経路学習))
図8A〜図8Cは人追随基本経路教示のステップを示す。ロボット1が自律移動する前に基本経路104を人102がロボット1に教示し、同時にロボット1が移動するときの周囲のランドマーク及び目標地点も全方位カメラ32aから基本経路教示データ蓄積部34に取り込んで記憶する。基本経路104の教示は、例えば部屋110内で人102が、机111や棚112や壁113などに接触しないように、安全な経路104Pを歩き、ロボット1を人102に追随するように移動させる。すなわち、全方位カメラ32aのある一定の部分に常に人102が位置するように、制御部50で駆動装置10を駆動してロボット1を移動させる。このようにして人102に追随移動させるときのロボットオドメトリ情報(例えば、左側エンコーダ21からの左側駆動輪100の回転数の情報と、右側エンコーダ22からの右側駆動輪100の回転数の情報)を、駆動装置10から基本経路教示データ蓄積部34にそれぞれ積算してそれぞれの移動量の情報として保存する。基本経路教示データ蓄積部34に記憶された教示経路/位置情報を基に、ロボット1の移動可能範囲算出部35で地図情報で構成された基本経路104を生成する。ここでの地図情報で構成された基本経路104は、オドメトリベースの点と線の情報より構成されている。
(Step S71, that is, person-following basic route teaching (person-following basic route learning))
FIG. 8A to FIG. 8C show the steps of the person following basic route teaching. Before the
人追随基本経路教示は、全方位カメラ32aによる人位置検出を用いる。まず、ロボット1から見た、ロボット1に接近する人102の方向を全方位カメラ32aの画像から、人に対応する画像を抽出することにより人102を検出し、ロボット1の前部を人102の方向に向け、次に、ステレオカメラ31a,31bを用いてロボット1から見た人102の方向とロボット1と人102との間の距離を検出しながらロボット1が人102を追いかける。言い換えれば、例えば、ステレオカメラ31a,31bで得られる画像の所定領域内に常に人102が位置し、かつ、ロボット1と人102との間の距離が常に許容範囲(例えば、人102がロボット1に接触せずかつカメラ画像内から人102が外れない程度の距離の範囲)内に入るように、ロボット1の駆動装置10を制御部50で制御しながら、ロボット1が人102を追いかける。さらに、基本経路教示時に超音波センサ等の障害物検出部36にて基本経路104の許容幅(移動可能範囲104a)を検出する。
The person-following basic route teaching uses human position detection by the
図9A〜図9Bに示すように、人追随基本経路を学習しながら、時系列に部屋110の天井114の全景を全方位カメラ32aにより記憶部51に取込む。画像取込時の位置のオドメトリ情報とともに保存する。
As shown in FIGS. 9A to 9B, the entire view of the
(ステップS72、すなわち、プレイバック型の自律移動)
図10はプレイバック型のロボット1の自律移動を示す。前記安全確保技術を用いて、ロボット1が障害物103を回避しつつ自律移動する。毎回移動時の経路情報は、ロボット1の自律移動前に人102がロボット1に教示して基本経路教示データ蓄積部34に記憶された基本経路104の情報をベースとし、ロボット1の移動時の経路情報(例えば、ロボット1が新たに障害物103を回避したという経路変更情報)は、ロボット1が障害物103を回避するなどして移動可能範囲算出部35により追加経路情報が新たに生成される都度、追加経路情報が、基本経路教示データ蓄積部34に記憶された地図情報に追加する。このようにして、ロボット1が基本経路104を移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。
(Step S72, ie, playback type autonomous movement)
FIG. 10 shows the autonomous movement of the
自律移動時のロボット1の位置補正には、人追随基本経路教示時に同時に取得した時系列に天井全景画像及びオドメトリ情報を用いる。障害物103を障害物検出部36で検知した場合、移動可能範囲算出部35で局所的に経路を算出して移動経路生成部37で生成し、生成された局所的な経路104Lに沿ってロボット1が移動するように駆動装置10を制御部50で制御して、前記検知した障害物103を回避し、その後、元の基本経路104へ復帰する。移動可能範囲算出部35と移動経路生成部37による前記局所経路算出生成の際に、複数の経路が発生した場合は、最短の経路を移動経路生成部37により選定する。局所的に回避経路算出生成した際の経路情報(局所的な経路104Lに関する経路情報)は、基本経路教示データ蓄積部34に記憶されたステップS71の基本経路(地図)情報に追加される。これにより、ロボット1が基本経路104を自律移動しながら、点と線の地図情報(点と線で構成される基本経路104)から、面の地図情報(点と線で構成される基本経路104に対して幅方向(ロボット移動方向と直交する方向)の移動可能な範囲(追加経路情報)104aを加えた移動可能範囲内経路)に成長させて、基本経路教示データ蓄積部34に記憶させる。このとき、例えば、前記検知した障害物103が赤ん坊や老人などの人103Lの場合、不意にその周囲にさらに移動する場合も考えられるため、大きく迂回するように局所的な経路104Lを生成することが望ましい。また、ロボット1が液体などを搬送する場合を考えると、液体などが誤ってこぼれると損傷しやすいテレビなどの精密機器103Mの付近をロボット1が移動する場合には、精密機器103Mの付近をやや遠ざかるように湾曲して移動するように局所的な経路104Mを生成することが望ましい。
For the position correction of the
前記した第1実施形態によれば、基本経路104を人102が歩き、人102に追随してロボット1が基本経路104を移動することにより、基本経路104をロボット1に教示したのち、教示された基本経路104に沿ってロボット1が自律移動するとき、障害物103等を避けるための移動可能範囲を算出し、前記基本経路104と前記移動可能範囲とにより、ロボット1が実際に自律移動可能な移動経路106を生成することができる。
According to the first embodiment described above, the
以上のようなロボット1の活用場面としては、例えば、家庭内での荷物を運搬するロボットが考えられる、家の玄関にてロボットが待機しており、オペレータである人が帰宅すると、その人から荷物をロボットが受け取り、同時に、荷物を置いた人を追随対象としてロボットが認識し、その人の後ろをロボットが追随してロボットが荷物を運ぶ。このとき、家庭内のロボットの移動経路においては、公共の場と異なり、多数の障害物が存在していることが多い。しかしながら、障害物を回避する手段を備えている第1実施形態のロボットは、人の移動経路を追随することにより、その障害物を回避することができる。これは、第1実施形態のロボット1が移動経路とした経路は、直前にオペレータである人102が通った移動経路であるため、障害物が存在する確率が低いためである。もし万が一、人102が通過した後に障害物が現れても、ロボット1に搭載された障害物検出部36により、障害物を検出して、検出された障害物をロボット1が回避することが可能である。
For example, the
(第2実施形態)
次に、本発明の第2実施形態かかるロボット制御装置及び方法において、移動体の検出を行う移動体検出装置(人移動検知部31に相当。)及び方法について、図12A〜図18Dに沿って詳述する。なお、ここで言う「移動体」とは、人、動物、又は、自動的に移動する機器(自律移動可能なロボット、自律走行型掃除機など)などを指す。また、移動体検出装置1200は、第1実施形態かかるロボット制御装置に新たに付加されるものであるが(図1A参照)、その一部の構成要素は、第1実施形態かかるロボット制御装置の構成要素を兼用することも可能なものである。
(Second Embodiment)
Next, in the robot control apparatus and method according to the second embodiment of the present invention, a moving body detection apparatus (corresponding to the human movement detection unit 31) and method for detecting a moving body will be described with reference to FIGS. 12A to 18D. Detailed description. The “moving body” referred to here refers to a person, an animal, or an automatically moving device (such as a robot capable of autonomous movement, an autonomous traveling cleaner). In addition, the moving
前記移動体検出装置及び方法には、オプティカルフローを用いている。 The mobile object detection apparatus and method uses an optical flow.
前記移動体検出装置及び方法について説明する前に、まず、オプティカルフローの説明を図13に示す。 Before explaining the moving body detection apparatus and method, first, an explanation of the optical flow is shown in FIG.
通常、オプティカルフローは、図13の対応点201に示すように、処理対象の全画面に格子点状にフローを算出する対応点201を配置し、時系列に継続する複数の画像上で各対応点201に対応する点をそれぞれ検出し、各対応点201に対応する点間の移動量を検出して、各対応点201毎のフローを得る。このため、対応点201は全画面に等間隔に格子点状に配置し、その対応点201毎にフロー算出するため、膨大な演算量となる。また、対応点201が多いほど、ノイズフロー検出の可能性が高まり、誤検出しやすくなる。
Normally, as shown in the corresponding
ここで、全方位光学系32aを用いる場合、図16Aの全方位カメラ画像302及び全方位カメラ画像302から対応点のみを取り出した図16Bの対応点図に示すように、人102の足元(床に近い)領域302aとなる画像中央部分の対応点301、及び、全方位カメラの視野外となる画像の四隅の領域302bの対応点301では、人及び物体の移動により発生するオプティカルフロー以外のフロー(ノイズフロー)が発生しやすい。
Here, when using the omnidirectional
そこで、本発明の第2実施形態のロボット制御装置及び方法の移動体検出装置及び方法では、対応点(フロー算出点)301を配置する領域を、全画面領域に均等に配置するのではなく、ロボット1に接近する移動体の特定領域に限定し、演算量及び演算コストを削減するものである。全方位光学系32aの一例として全方位カメラを用いた場合の画像の実例を図14Aに示すとともに、その画像に対する対応点の種々の配置例を図14B〜図14Eにそれぞれ示す。
Therefore, in the moving body detection apparatus and method of the robot control apparatus and method according to the second embodiment of the present invention, the area where the corresponding points (flow calculation points) 301 are arranged is not evenly arranged in the entire screen area. The calculation amount and the calculation cost are reduced by limiting to a specific region of the moving body approaching the
全方位カメラを用いて撮像された全方位カメラ画像302の場合(図14A)、人102は、画像302の外側円周上に現れる。このため、図14Bの対応点301は、画像302の外側円周上に配置する。具体例として、256×256画素サイズの全方位カメラ画像の場合、全方位カメラ画像の外側円周上に16画素程度の間隔で配置する。また、全方位カメラ画像302の内側円周上は人102の足等が現れ、位置検出には不適切なノイズフローが現れやすい。さらに、全方位カメラ画像302の場合、全方位カメラ画像302の四隅は、有意な画像範囲外となり、対応点によるフロー演算は不要である。従って、図14Bのように、全方位カメラ画像302の外側円周上にフロー対応点301を配置しかつ内側円周上にはフロー対応点301を配置しないようにすると、演算コスト及びノイズ対策両面で有利となる。
In the case of an
また、図14Cのように、ロボット1に対して接近する人102に限定して人102を検出する場合、全方位カメラ画像302の最外周の円周上のみにフロー対応点311を配置してもよい。
Further, as shown in FIG. 14C, when detecting the
さらに、図14Dのように、人102の接近と障害物103の接近の両方で検知する場合は、全方位カメラ画像302の最外周の円周及び最内周の円周上のみにフロー対応点312を配置してもよい。
Furthermore, as shown in FIG. 14D, when detecting both the approach of the
また、図14Eのように、高速演算のため、全方位カメラ画像302のx方向(図14Eの横方向)及びy方向(図14Eの縦方向)にそれぞれ等間隔に、格子状にフロー対応点313を配置してもよい。具体例として、256×256画素サイズの全方位カメラ画像の場合、全方位カメラ画像のx方向に16画素、y方向に16画素の間隔で配置する。
Further, as shown in FIG. 14E, for high-speed calculation, the flow correspondence points are arranged in a grid pattern at equal intervals in the x direction (horizontal direction in FIG. 14E) and the y direction (vertical direction in FIG. 14E) of the
第2実施形態の移動体検出方法を行うための移動体検出装置1200は、図12Aに示すように、フロー算出対応点位置算出配置部1201と、時系列画像取得部1202と、移動量算出部1203と、移動体移動判断部1204と、移動体領域抽出部1205と、距離画像算出部1206aと、距離画像特定範囲移動部1206bと、移動体領域判定部1206cと、移動体位置特定部1206dと、距離算出部1206eと、記憶部51とを備えるように構成している。
As shown in FIG. 12A, a moving
前記フロー算出対応点位置算出配置部1201は、全方位光学系32aの一例である全方位カメラにより撮像された図14Aに示す全方位カメラ画像302を時系列に記憶部51に取り込んだ全方位時系列画像の場合、図14B,図14C,図14D,又は図14Eに示すように、全方位時系列画像の円周上に有意な前記対応点301,311,312,又は313の位置を算出する。フロー算出対応点位置算出配置部1201は、対応点位置算出配置変更部1201aをさらに備えて、予め移動体例えば人102の動きに合わせて算出及び配置する検出する(フロー算出)対応点位置を、移動体例えば人102の位置に合わせて、その都度、対応点位置算出配置変更部1201aにより変更するようにしてもよい。このようにすれば、より一層、演算コスト及びノイズ対策両面で有利となる。また、このフロー算出対応点位置算出配置部1201で算出したフロー算出対応点位置の対応点301,311,312,又は313毎に、移動量算出部1203において、オプティカルフローを算出する。
The flow calculation corresponding point position calculating / arranging
前記時系列画像取得部1202は、オプティカルフロー演算向けに適切な時間間隔で画像を取り込む。例えば、全方位カメラにより撮像した全方位カメラ画像302を、数百ms毎に、時系列画像取得部1202により、記憶部51に入力して記憶する。全方位カメラにより撮像した全方位カメラ画像302を用いる場合、ロボット1の周囲の360度の範囲内でロボット1に接近する移動体を検知可能であるため、接近する移動体の検知のために、移動体検知用カメラの移動及び回転の必要がない。また、時間遅延なく追随対象となる、接近する移動体(例えば基本経路を教示する人)が、ロボット1に対していずれの方向から接近しても、その移動体の検知が容易にかつ確実に可能となる。
The time-series
前記移動量算出部1203は、フロー算出対応点位置算出配置部1201で算出された対応点301,311,312,又は313毎に、の時系列画像取得部1202で取得した時系列画像間で対応点301,311,312,又は313の位置関係を検知する。通常は、時系列画像の古い方の対応点301,311,312,又は313よりなる対応点ブロックをテンプレートとし、時系列画像の新しい方の時系列画像上でテンプレートマッチングを行う。このテンプレートマッチングで得られた、一致点の情報と、古い方の画像の対応点ブロック位置の位置ズレ情報をフローとして算出する。テンプレートマッチング時の一致度等もフロー演算情報として算出する。
The movement
前記移動体移動判断部1204では、対応点301,311,312,又は313毎に算出移動量を移動体の移動に合致するか否か判断する。より具体的には、この移動体移動判断部は、対応点ブロック位置の位置ズレ情報及び、フロー演算情報等を用いて、移動体が移動したかどうかを判断する。この場合、全画面で同じ判断基準を用いると、例えば移動体の例である人の足と頭の場合、人の足をフローとして検出する可能性が高くなる。しかし、実際には、人の頭を優先してフロー検知する必要がある。このため、この第2実施形態では、フロー算出対応点位置算出配置部1201で配置した対応点301,311,312,又は313毎に異なる判断基準を用いる。一つの実例として、全方位カメラ画像のフロー判断基準として、全方位カメラ画像の内側(具体例として、全方位カメラ画像の中心より半径1/4(横画像サイズ)より内側)では放射方向フローを残し、全方位カメラ画像の外側(具体例として、全方位カメラ画像の中心より半径1/4(横画像サイズ)より外側)では、放射と同心円の両方向フローを残す。
The moving body
移動体領域抽出部1205は、合致した対応点群を統合して移動体領域を抽出する。すなわち、移動体領域抽出部1205は、対応点毎に算出移動量を移動体の移動に合致するか否か判断する移動体移動判断部1204にて合格判定したフロー対応点を統合し、移動体領域として抽出する。図15Aに示すように、移動体移動判断部1204で合格判定した対応点群401を囲む領域を、移動体領域抽出部1205により抽出する。図15Bに示すように、参照符号402で囲まれた台形状の領域が、抽出した前記移動体領域(移動体の一例としての人の場合の人領域)の例である。なお、図15Cは、人102の人領域のパノラマ展開画像502を用い、人領域パノラマ展開画像502の特定濃淡値射像(縦方向は503、横方向は504で示す。)より、頭を抽出した結果の説明図である。頭を抽出した領域を501で示す。
The moving body
前記距離画像算出部1206aは、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を算出する。距離画像とは、ロボット1に対して、より距離の近いものを明るく表現した画像である。特定範囲は、ロボット1の正面に対して例えば±30°(経験値で決定。センサ等の感度によって可変。)の範囲と予め設定しておく。
The distance
前記距離画像特定範囲移動部1206bは、前記移動体領域抽出部1205により抽出された移動体領域の一例としての人領域402の範囲に前記距離画像特定範囲が合うように、前記人領域402の範囲の移動に合わせて前記距離画像特定範囲を移動させる。具体的には、図18A〜図18Dに示すように、対応点群401を囲む人領域402の中心と画像の中心とを結ぶ線と図18Aのロボット1の前方向との角度を距離画像特定範囲移動部1206bにより求めることにより、図18Aにおいて参照符号404の人102の方向角α(図18Aのロボット1の前方向を方向角の基準角0°とする。)が算出できる。算出した角度(方向角)αに対応して、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を移動させて、人領域402の範囲に前記距離画像特定範囲を合わせるようにする。このように人領域402の範囲に合わせるように距離画像特定範囲を移動させるためには、具体的には、駆動装置10により、両方の駆動輪100を互いに逆回転させて、その場でロボット1の方向を前記角度(方向角)αだけ回転させて、前記抽出した人領域402の範囲に前記距離画像特定範囲が合うようにする。これにより、前記距離画像特定範囲、言い換えれば、距離画像算出部1206aの一部を構成する距離画像検出センサの一例であるステレオカメラ系31a,31bにより撮像できる範囲内であるロボット1の前方に、検出した人102を位置させることができる。
The distance image specific
前記移動体領域判定部1206cは、距離画像算出部1206aにより移動された後の距離画像特定範囲内の移動体領域を判定する。例えば、距離画像特定範囲内の濃淡画像のうち面積最大のものを移動体領域と判定する。
The moving body
前記移動体位置特定部1206dは、得られた距離画像移動体領域より移動体例えば人102の位置を特定する。人102の位置を特定する具体的な例としては、図18Cにおいて、人領域の重心位置(図18Cの十字線の交点904)を人102の位置及び方向として算出することにより、人102の位置を特定することができる。
The moving body
前記距離算出部1206eは、前記距離画像上の移動体例えば人102の位置より、ロボット1から人102までの距離を算出する。
The
前記構成にかかる移動体検出装置1200を使用して、移動体検出動作を行うことについて、図18A〜図19などを参照しながら説明する。
Using the mobile
まず、ステップS191では、距離画像算出部1206aに距離画像を入力する。具体的には、以下の動作を行う。図18Aにおいて、距離画像算出部1206aの具体的な例としては、ロボット1の周囲の特定範囲の距離画像(距離画像特定範囲)を算出する距離画像検出センサと距離画像検出センサで検出された距離画像の演算を行う距離画像演算部とで構成することができる。前記移動体移動判断部1204及び人102の方向角404及び距離画像特定範囲移動部1206bにより、人102はロボット1の周囲の特定範囲に位置するものとする。平行光軸のステレオカメラ31a,31bを距離画像検出センサの一例として用いれば、左右のステレオカメラ31a,31bの対応点が同一走査線上に現れ、高速な対応点検出及び三次元距離算出が距離画像算出部1206aにより可能である。左右のステレオカメラ31a,31bの対応点検出及び距離画像算出部1206aによる三次元距離算出結果である距離画像を図18Dに902で示す。距離画像902において、ステレオカメラ31a,31bでは、ロボット1に対して、より距離の近いものを明るく表現する。
First, in step S191, a distance image is input to the distance
次いで、ステップS192では、ロボット1に至近の物体(言い換えれば、距離画像902上で一定の明るさ(予め決められた閾値を超える明るさ)を持つ領域)を人領域としてにより検出する。検出結果を2値化した画像が、人領域として検出した図18Dの画像903である。
Next, in step S192, an object close to the robot 1 (in other words, an area having a constant brightness (brightness exceeding a predetermined threshold) on the distance image 902) is detected as a human area. An image obtained by binarizing the detection result is the
次いで、ステップS193では、前記距離算出部1206eにより、図18Dの人領域として検出した画像903の人領域(濃淡画像を「0」と「1」で2値化したとき、人の居る領域に相当する「1」の領域)で距離画像902をマスク(画像間AND演算)し、人領域の距離画像を前記距離算出部1206eにより特定する。前記人領域の距離(人領域の濃淡値(距離値))を前記距離算出部1206eにより平均して、人102の位置(ロボット1と人102との距離)とする。
Next, in step S193, the
次いで、ステップS194では、上記平均して得られた濃淡値(距離値)を、前記距離算出部1206eの距離値−実距離値変換テーブルに代入し、ロボット1と人102との間の距離Lを前記距離算出部1206eにより算出する。距離値−実距離値変換テーブルの一例としては、図17に、全方位カメラ画像のパノラマ展開画像で人102への距離が異なる画像を並べた画像801において、ロボット1と人102との間の距離が100cmのとき50cm/10画素ならば±2.5cm/画素、前記距離が200cmのとき50cm/5画素ならば±5cm/画素、前記距離が300cmのとき50cm/2.5画素ならば±10cm/画素である。
Next, in step S194, the gray value (distance value) obtained by averaging is substituted into the distance value-actual distance value conversion table of the
次いで、ステップS195では、画像903の人領域の重心位置を前記移動体位置特定部1206dにより算出する。重心位置のx座標を、前記移動体位置特定部1206dの重心x座標−人方向変換テーブルに代入し、人の方向βを前記移動体位置特定部1206dにより算出する。
Next, in step S195, the center of gravity position of the human region in the
次いで、ステップS196では、前記ロボット1と人102との間の距離Lと人の方向βを第1実施形態の制御装置のロボット移動量検出部32に送り、人102の移動経路を再現させる方向にロボット1の移動方向及び移動距離よりなる移動量を検出する。
Next, in step S196, the distance L between the
次いで、ステップS197では、前記検出した、ロボット1の移動方向及び移動距離よりなる移動量に従いロボット1を移動させる。ロボット移動時のオドメトリデータをロボット基本経路教示データ変換部33に蓄積する。
Next, in step S197, the
このようにステップS191〜S197の演算を繰り返すことで、人102を特定し、継続して前記ロボット1と人102との間の距離Lと人の方向βの検知を行うことができる。
Thus, by repeating the calculations in steps S191 to S197, the
なお、人102が追随走行を教示する動作を確認する方法(図1Bの38を参照)としては、最も接近し、ロボット1と接触する人102が人追随対象者(ターゲット)であるとの知見に基づき、複数の対象者が混在する場合の教示対象者識別部38として組み込むことが考えられる(図12B参照)。具体的な教示対象者識別部38の例としては、ロボット1の特定位置に設置したスイッチを押す、音声を発声させてマイクなどの音声入力装置により音源位置推定する等の例がある。あるいは、人102がID共振タグ等を所持し、ID共振タグを読み取り可能な読取装置をロボット1に備えて、特定人の検定をさせる例もある。これにより、図12Bに示すように、ロボット追随対象者を特定し、同時にロボット人追随動作開始のトリガとして利用することができる。
In addition, as a method for confirming the operation in which the
以上のように、第2実施形態においては、前記構成により、ロボット1から人102の距離と方向を検出することで、追随走行において、人102の位置をそのまま追いかけた場合、正しい経路生成ができない場合を回避できる(図6A及び図6B参照)。これは、人102の方向のみを検出した場合で、例えば図6Aのごとく人102の経路107aが直角コーナとなった時、ロボット1は直角に人102を後追いせず、近道を経路107cとして生成することがある。本発明の第2実施形態では、人102の方向と距離を得ることにより直角コーナの人102の経路107aをロボット1の経路107dとする制御の実現を図る(図6B参照)。このような経路107dの生成手順を下記する。
As described above, according to the second embodiment, by detecting the distance and direction of the
(1)ロボット1が自分の進行経路と現在のオペレータ102の相対位置を見て、オペレータ102の経路107aを生成し、これを保存する(図6B)。
(1) The
(2)その保存したオペレータ102の経路107aをロボット1が現在の自分の経路107dと比較してロボット1の進行方向を決め、ロボット1がオペレータ102の後追いを行うことにより、オペレータ102の経路107aに沿ったロボット1の経路107dで移動することができる。
(2) The stored
前記第2実施形態にかかる前記構成によれば、移動体、例えば経路を教示する人102を特定し、継続して人102の検知(例えば、ロボット1と人102との間の距離及びロボット1から見た人102の方向の検知)を行うことができる。
According to the configuration of the second embodiment, the mobile object, for example, the
(第3実施形態)
次に、本発明の第3実施形態にかかるロボット制御装置及び方法のロボット位置決め装置及び方法について図20A〜図26に沿って詳述する。以下の第3実施形態にかかるロボット制御装置は、第1実施形態かかるロボット制御装置に新たに付加されるものであるが、その一部の構成要素は、第1実施形態かかるロボット制御装置の構成要素を兼用することも可能なものである。
(Third embodiment)
Next, the robot positioning apparatus and method of the robot control apparatus and method according to the third embodiment of the present invention will be described in detail with reference to FIGS. The robot control device according to the following third embodiment is newly added to the robot control device according to the first embodiment, but some of the components are the configuration of the robot control device according to the first embodiment. It is also possible to combine elements.
図20Aに示すように、第3実施形態にかかるロボット制御装置のロボット位置決め装置は、大略、駆動装置10と、走行距離検出部20と、方向角検出部30と、位置ずれ情報算出部40と、制御部50とを備えて構成されている。なお、図20Aでは、第1実施形態のロボット制御装置において図1Aに図示された、移動検知部31〜移動経路生成部37、教示対象者識別部38、移動体検出装置1200などの部材は図示を省略している。図1Aには、第1から3実施形態にかかるロボット制御装置を示すために、前記位置ずれ情報算出部40なども図示している。
As shown in FIG. 20A, the robot positioning device of the robot control device according to the third embodiment is roughly configured by a
この第3実施形態にかかるロボット制御装置の駆動装置10は、自律走行車の例であるロボット1の前後進、及び左右側の移動を制御するものであって、第1実施形態にかかるロボット制御装置の駆動装置10と同じものである。なお、ロボット1のより具体的な例としては、自律走行型掃除機が挙げられる。
The
さらに、この第3実施形態にかかるロボット制御装置の走行距離検出部20は、第1実施形態にかかるロボット制御装置の走行距離検出部20と同じものであって、前記駆動装置10により移動されるロボット1の走行距離を検出するものである。
Furthermore, the travel
また、方向角検出部30は、第1実施形態にかかるロボット制御装置の方向角検出部30と同様に、前記駆動装置10により移動されるロボット1の走行方向変化を検出するものであって、前記方向角検出部30は、前記駆動装置10により移動されるロボット1の回転時に変化する電圧レベルに従ってロボット1の回転速度を感知して走行方向変化を検出するジャイロセンサなどの方向角センサである。
Further, the direction
位置ずれ情報算出部40は、前記駆動装置10により移動されるロボット1の移動経路(基本経路104)に存在する天井114及び壁面113までの目標地点を検出し、予め記憶部51にキーボードやタッチパネルなどの入出力部52から入力した目標地点との位置ずれ情報を算出するものであって、前記位置ずれ情報算出部40は、前記ロボット1の移動経路に存在する天井114及び壁面113までの目標地点を検出する、ロボット1に付属した全方位カメラ部41を備えるように構成されている。なお、入出力部52には、目標地点など必要な情報を適宜表示し人が確認するためのディスプレイなどの表示装置も備えている。
The misregistration
前記位置ずれ情報算出部40のロボット付属全方位カメラ部41は、前記ロボット1の移動経路に存在する天井114及び壁面113までの目標地点を検出するロボット付属全方位カメラ411(図1Bなどの全方位カメラ32aに相当。)と、全方位カメラ411の画像を入力処理する全方位カメラ処理部412と、前記ロボット付属全方位カメラ411の、ロボット1が走行する床面105からの高さを検出するカメラ高さ検出部414(例えば、上向きの超音波センサ)と、該全方位カメラ411を天井114及び壁面113に向けて配置されるように、ロボット1の支柱32bに対して、モータなどの駆動によりボールねじを回転させてボールねじに螺合したブラケットに固定された全方位カメラ411を高さ調整可能(昇降可能)に配置する全方位カメラ高さ調整部413とを備えるように構成されている。
The robot-attached
また、図20Aにおいて、制御部50には、前記走行距離検出部20により検出された走行距離データ及び前記方向角検出部30により検出された走行方向データが所定時間間隔で入力されて、前記ロボット1の現在位置を制御部50で演算し、前記位置ずれ情報算出部40により算出された天井114及び壁面113までの目標地点に対する位置ズレ情報が制御部50に入力され、その位置ズレ情報結果に従って制御部50により駆動装置10を制御して前記ロボット1の移動経路を制御することによって、前記ロボット1が正常軌道(すなわち基本経路)から逸脱せずに目標地点まで正確に走行できるよう制御する中央処理装置CPUである。
In FIG. 20A, the
以下、前記のように構成されたロボット1の位置決め装置及び方法、及びその制御装置及び方法の作用、効果について述べる。図21は、第3実施形態による移動ロボット位置決め方法の制御フローチャートである。
Hereinafter, the operation and effect of the positioning apparatus and method for the
図20Bに示されるように、全方位カメラ処理部412は、変換抽出部412aと、変換抽出記憶部412fと、第1相互相関マッチング部412bと、回転角ズレ量変換部412cと、第2相互相関マッチング部412dと、位置ズレ量変換部412eとで構成されている。
As shown in FIG. 20B, the omnidirectional
前記変換抽出部412aは、画像入力部の一例として機能する全方位カメラ411により入力した画像から天井114及び壁面113の全景周辺部画像と天井114及び壁面113の全景中央部画像を変換及び抽出する(ステップS2101)。
The
前記変換抽出記憶部412fは、予め指定位置にて、天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を前記変換抽出部412aから入力して、変換及び抽出及び記憶する(ステップS2102)。
The conversion /
前記第1相互相関マッチング部412bは、現時点(位置決め動作を行う時点)で入力した天井及び壁面全景周辺部画像と、前記変換抽出記憶部412fに予め記憶した指定位置の天井及び壁面全景周辺部画像とで相互相関マッチングを行う(ステップS2103)。
The first
前記回転角ズレ量変換部412cは、前記第1相互相関マッチング部412bにより前記マッチングにて得られた横方向位置関係(ズレ量)を回転角ズレ量に変換する(ステップS2104)。
The rotation angle deviation
前記第2相互相関マッチング部412dは、現時点で入力した天井及び壁面全景中央部画像と、前記変換抽出記憶部412fに予め記憶した指定位置の天井及び壁面全景中央部画像とで相互相関マッチングを行う(ステップS2105)。
The second
前記位置ズレ量変換部412eは、前記第2相互相関マッチング部412dによる前記マッチングにて得られた縦横方向位置関係を位置ズレ量に変換する(ステップS2106)。
The positional deviation
このような構成の全方位カメラ処理部412により、位置姿勢既知の基準となる天井及び壁面全景画像と、入力した天井及び壁面全景画像とでマッチングを行い、位置姿勢ズレ検出(前記回転角ズレ量変換部で得られた回転角ズレ量と前記位置ズレ量変換部で得られた位置ズレ量の検出)を行い、自己位置を認識して、回転角ズレ量と位置ズレ量がそれぞれ許容範囲内となるように補正すべく制御部50で駆動装置10を駆動制御することにより、前記ロボット制御装置で前記ロボット1を自律移動させるように制御している。以下に、これを詳しく説明する。なお、ここでいう、前記ロボット1の自律移動とは、前記ロボット1と人102などの移動体との距離が許容範囲内となるように一定の距離をあけて、かつ、ロボット1からの人102などの移動体への方向が許容範囲内となるように人102などの移動体が移動する経路に沿って、人102などの移動体にロボット1が追随して移動することを意味する。
The omnidirectional
まず、全方位画像入力部の一例として機能する全方位カメラ411と、前記全方位画像入力部として機能する全方位カメラ411を天井114及び壁面113に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記画像入力部として機能する全方位カメラ411により入力した画像から天井114及び壁面113の全景周辺部画像と天井114及び壁面113の全景中央部画像を変換及び抽出する変換及び抽出部412aとを用いて、予め指定位置にて、基準となる天井114及び壁面113の全景中央部画像と天井114及び壁面113の全景周辺部画像を入力し変換及び抽出するとともに記憶する。図25Bの601は第3実施形態によるあらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面の全景中央部画像と天井及び壁面の全景周辺部画像である(図26参照)。第3実施形態では、全方位画像入力部として機能する全方位カメラ411にはPAL型レンズ又は魚眼レンズを用いている(図22参照)。
First, an
ここで、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景周辺部画像を変換及び抽出する変換及び抽出部412aを使用する手順の1つの実例を、図23の上半部及び式403にて示す。前記手順で変換及び抽出した画像の1つの実例が401である。
Here, an
次に、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景中央部画像を変換及び抽出する変換及び抽出部412aを使用する手順の1つの実例を、図23の下半部及び式404にて示す。
Next, an
また、式405の内容を図24に示す。図24でX及びY及びZは全方位カメラ411にて入力した対象物の位置座標、x及びyは変換した対象物の位置座標である。通常は天井114は一定の高さであるため、Zの値は、天井114上で一定値と仮定し、計算を簡略化している。Zの値を算出するには、対象物高さ検出部(例えば、上向きの超音波センサ)422による検出結果と、カメラ高さ検出部414による検出結果を用いる。これを図24の式(4)に示す。この変換により全方位画像入力部の周辺歪みが除去され、以下に記す相互相関マッチング演算が可能となる。
The contents of the
前記変換は、極座標状画像を格子状画像に変換するため、導出している。式(4)の項を入れることで、半球状/同心円状の歪み変化を算入できる。前記手順で抽出した画像の1つの実例が402(図23)である。 The conversion is derived to convert a polar coordinate image into a lattice image. By adding the term of formula (4), hemispherical / concentric circular strain change can be included. One example of the image extracted by the above procedure is 402 (FIG. 23).
前記手順にて算出した、あらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面全景中央部画像の1つの実例が図25C及び図26の612である。また、あらかじめ指定位置入力し変換及び抽出及び記憶した、基準となる天井及び壁面全景周辺部画像の1つの実例が図25Bの611である。
One example of the reference image of the center of the ceiling and wall surface, which is calculated in the above-described procedure and is converted, extracted, and stored in advance by inputting a designated position, is 612 in FIGS. 25C and 26. In addition,
現時点で、全方位カメラ411と、前記全方位カメラ411を天井及び壁面に向けて高さ調整可能に配置する全方位カメラ高さ調整部413と、前記全方位カメラ411により入力した画像から天井及び壁面全景周辺部画像と天井及び壁面全景中央部画像を変換及び抽出する変換抽出部412aとを用いて、予め指定位置にて、基準となる天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を入力し変換及び抽出する。図25A及び図26の602及び621及び622は、1つの実例による、現時点で入力(入力画像を602で示す。)し変換及び抽出及び記憶した、天井及び壁面全景中央部画像(622)と天井及び壁面全景周辺部画像(621)である。
At this time, an
あらかじめ指定位置にて、天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像を入力し変換及び抽出及び記憶した際の手順と同様に、現時点の天井及び壁面全景中央部画像と天井及び壁面全景周辺部画像も、図23の処理手順で変換及び抽出する。 Similar to the procedure for inputting, converting, extracting, and storing the central image of the ceiling and wall surface and the peripheral image of the ceiling and wall surface at the specified position in advance, the central image of the current ceiling and wall surface, and the ceiling and wall surface. The panoramic view peripheral image is also converted and extracted by the processing procedure of FIG.
図25Cの651に、現時点で入力した天井及び壁面全景周辺部画像と、あらかじめ記憶した指定位置の天井及び壁面全景周辺部画像とで、1つの実例による相互相関マッチングを行う状況を示す。基準となる天井及び壁面全景周辺部画像611と、変換及び抽出及び記憶した天井及び壁面全景周辺部画像621との間の横方向ズレ量631が、姿勢(角度)ズレ量を示す。横方向ズレ量をロボット1の回転角度(姿勢)に換算できる。
651 in FIG. 25C shows a situation where cross-correlation matching is performed using one example with the ceiling and wall surface whole view peripheral part image input at the present time and the ceiling and wall whole surface peripheral part peripheral image of the specified position stored in advance. A
図25Cの画像652に、現時点で入力した天井及び壁面全景中央部画像と、あらかじめ記憶した指定位置の天井及び壁面全景中央部画像とで、1つの実例による相互相関マッチングを行う状況を示す。基準となる天井及び壁面全景中央部画像612と、変換及び抽出及び記憶した、天井及び壁面全景中央部画像622との間のXY横方向ズレ量632及び633(Y方向ズレ量632及びX方向ズレ量633)が、位置ズレ量を示す。
An
前記2つの位置ズレ量から、位置姿勢ズレ検出を行い自己位置認識することができる。また、天井及び壁面全景周辺部画像及び、天井及び壁面全景中央部画像には、所謂ランドマークは使われていない。 From the two positional deviation amounts, the position and orientation deviation can be detected to recognize the self position. In addition, so-called landmarks are not used in the ceiling and wall surface full view peripheral image and the ceiling and wall full view central image.
前記それぞれの実施形態において、天井を基準にしているのは、通常は天井には凹凸が少なく一定高さであると仮定しやすく、基準点として取り扱いやすいからである。これに対して、壁面などは、移動体が存在したり、家具などか配置されていても、移動されたり、新たに家具が配置されたりすることがあるため、基準点として取り扱いにくいと考えられる。 The reason why the ceiling is used as a reference in each of the above embodiments is that it is usually easy to assume that the ceiling has a small height and a constant height, and is easy to handle as a reference point. On the other hand, it is considered that the wall surface is difficult to handle as a reference point because it may be moved or newly furnished even if a moving object exists or furniture is arranged. .
なお、前記種々の全方位カメラ画像において、中心に映っている黒い円は、カメラ本体である。 In the various omnidirectional camera images, the black circle shown at the center is the camera body.
なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。 It is to be noted that, by appropriately combining any of the various embodiments, the effects possessed by them can be produced.
本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。 Although the present invention has been fully described in connection with preferred embodiments with reference to the accompanying drawings, various variations and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as being included therein, so long as they do not depart from the scope of the present invention according to the appended claims.
本発明は、自律移動ロボットが自律移動で移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置及び方法に関する。ここでいう、前記ロボットの自律移動とは、前記ロボットと人などの移動体との距離が許容範囲内となるように一定の距離をあけて、かつ、ロボットからの人などの移動体への方向が許容範囲内となるように人などの移動体が移動する経路に沿って、人などの移動体にロボットが追随して移動することを意味する。本発明は、特に誘導路として床面に部分的に磁気テープや反射テープ等を敷設せずに、例えば、自律移動ロボットにアレーアンテナ、人に送信機等を設け、ロボット前方に存在する人の方向角を時系列に検出し、人の移動に合わせてロボットも移動させ、基本経路を人が歩いて倣い経路教示して、移動可能範囲を認識しつつ移動可能な経路を生成するロボット制御装置に関する。本発明の1つの態様のロボット制御装置及び方法では、移動経路範囲を人の後追いとロボット自律移動にて教示させることができる。さらに、本発明の別の態様のロボット制御装置及び方法では、移動体を特定し継続して移動体の(距離及び方向)検知を行うこともできる。また、本発明のさらに別の態様のロボット制御装置及び方法では、位置姿勢既知の基準となる天井及び壁面全景画像と、入力した天井及び壁面全景画像とでマッチングを行い位置姿勢ズレ検出を行い自己位置認識することもできる。 The present invention relates to a robot control apparatus and method for generating a movable path while an autonomous mobile robot recognizes a movable range by autonomous movement. Here, the autonomous movement of the robot means that a certain distance is provided so that the distance between the robot and a moving body such as a person is within an allowable range, and the robot is moved to a moving body such as a person. This means that the robot moves following the moving body such as a person along the path along which the moving body such as a person moves so that the direction is within the allowable range. The present invention does not particularly lay a magnetic tape or a reflective tape partially on the floor surface as a guide path. For example, an autonomous mobile robot is provided with an array antenna, a person is provided with a transmitter, and the like. A robot control device that detects a direction angle in time series, moves a robot in accordance with the movement of a person, teaches a basic path by walking and follows a basic path, and generates a movable path while recognizing a movable range About. In the robot control apparatus and method according to one aspect of the present invention, the movement path range can be taught by the follow-up of the person and the robot autonomous movement. Furthermore, in the robot control apparatus and method according to another aspect of the present invention, it is also possible to identify the moving body and continue to detect the moving body (distance and direction). In the robot control apparatus and method according to still another aspect of the present invention, matching is performed between the ceiling and wall whole view image serving as a reference for which the position and orientation are known and the input ceiling and wall whole view image, and the position and posture deviation detection is performed. The position can also be recognized.
1…ロボット、10…駆動装置、11…左側モータ駆動部、12…右側モータ駆動部、20…走行距離検出部、21…左側エンコーダ、22…右側エンコーダ、30…方向角検出部、31…人移動検知部、31a,31b…ステレオカメラ、32…ロボット移動量検出部、32a…全方位光学系、32b…支柱、33…ロボット基本経路教示データ変換部、34…ロボット基本経路教示データ蓄積部、35…移動可能範囲算出部、36…障害物検出部、37…移動経路生成部、60…システム、50…制御部、51…記憶部、52…入出力部、100…後側駆動輪、101…前側補助走行輪、102…人、103…障害物、104…基本経路、104a…基本経路に対して幅方向に移動可能な範囲、105…走行床面、106…移動経路、106a…幅方向の成分、107a…経路、107b…赤ん坊のいる場所、107c…近道、107d…経路、111…左側走行モータ、113…壁面、114…天井、121…右側走行モータ、201…対応点、301…画像中央部分の対応点、302…全方位カメラ画像、302a…人の足元(床に近い)領域、302b…画像の四隅の領域、311…フロー対応点、312…対応点、313…対応点、401…対応点群、402…人領域、404…人の方向角α、411…全方位カメラ、412…全方位カメラ処理部、412a…変換抽出部、412b…第1相互相関マッチング部、412c…回転角ズレ量変換部、412d…第2相互相関マッチング部、412e…位置ズレ量変換部、412f…変換抽出記憶部、413…全方位カメラ高さ調整部、414…カメラ高さ検出部、501…頭を抽出した領域、502…人領域パノラマ展開画像、503…縦方向の特定濃淡値射像、504…横方向の特定濃淡値射像、601…基準となる天井及び壁面の全景中央部画像と天井及び壁面の全景周辺部画像、902…距離画像、903…人領域として検出した画像、1200…移動体検出装置、1201…フロー算出対応点位置算出配置部、1201a…対応点位置算出配置変更部、1202…時系列画像取得部、1203…移動量算出部、1204…移動体移動判断部、1205…移動体領域抽出部、1206a…距離画像算出部、1206b…距離画像特定範囲移動部、1206c…移動体領域判定部、1206d…移動体位置特定部、1206e…距離算出部。
DESCRIPTION OF
Claims (3)
前記ロボットに搭載され、かつ、経路教示時、前記人移動検知部で検知された前記人の移動に合わせて前記ロボットを移動させる駆動装置と、
前記駆動装置で移動させられた前記ロボットの移動量を検知するロボット移動量検知部と、
前記ロボット移動量検知部で検知した前記移動量をあらわす移動量データを蓄積し経路教示データに変換する第1経路教示データ変換部と、
前記ロボットに搭載され、かつ、前記ロボットの周囲の障害物や前記ロボットが移動する空間の天井又は壁位置を検出する周囲物体検出部と、
前記第1経路教示データ変換部で変換された前記経路教示データに沿って前記駆動装置の駆動により前記ロボットが自律移動するとき、前記周囲物体検出部にて検出した前記障害物の位置より、前記経路教示データに対する前記ロボットのロボット移動可能範囲を算出するロボット移動可能範囲算出部と、
前記経路教示データと前記ロボット移動可能範囲算出部で算出された前記移動可能範囲とより、前記ロボットの自律移動用移動経路を生成する移動経路生成部とを備えて、
前記人移動検知部は、
予め、前記ロボットの周囲の、前記人の動きに合わせて検出する対応点の位置を算出及び配置する対応点位置算出配置部と、
時系列に複数の画像を取得する時系列複数画像取得部と、
前記時系列複数画像取得部により取得された前記時系列の複数の画像間にて、前記対応点位置算出配置部により配置された対応点を検出し、検出された対応点の複数の画像間での移動量を算出する移動量算出部と、
前記移動量算出部により算出した前記移動量より、前記人の移動に合致する対応点であるか否かを判断する移動体移動判断部と、
前記移動体移動判断部で得られた対応点群より、前記人が存在している範囲である移動体領域を抽出する移動体領域抽出部と、
前記ロボットの周囲のある範囲である前記ロボットの周囲の距離画像特定範囲の距離画像を算出する距離画像算出部と、
前記移動体領域抽出部で抽出した前記移動体領域の範囲に合わせるように、前記距離画像算出部で算出された前記距離画像特定範囲を移動させる距離画像特定範囲移動部と、
前記距離画像特定範囲移動部による前記移動後の距離画像の移動体領域を判定する移動体領域判定部と、
前記移動体領域判定部により得られた前記距離画像の移動体領域より前記人の位置を特定する移動体位置特定部と、
前記移動体位置特定部により前記距離画像上で特定された前記人の位置より、前記ロボットから前記人への距離を算出する距離算出部と、
予め前記人の動きに合わせて検出する対応点の位置を、前記人の位置に合わせて、その都度、変更する対応点位置算出配置変更部とを備えるように構成して、
前記移動経路生成部で生成された前記移動経路に従って、前記人移動検知部により前記人を特定しかつ継続して前記人と前記ロボットとの距離及び方向検知を行うことにより、前記ロボットを自律移動させるように制御する、ロボット制御装置。 Mounted on a movable robot, and, after detection knowledge the human as a moving body existing in front of the robot, and a human movement detection section for detecting a movement of the person,
A driving device that is mounted on the robot and moves the robot in accordance with the movement of the person detected by the human movement detection unit during route teaching;
A robot movement amount detection unit for detecting a movement amount of the robot moved by the driving device;
A first route teaching data conversion unit that accumulates movement amount data representing the movement amount detected by the robot movement amount detection unit and converts the movement amount data into route teaching data;
It is mounted on the robot, and a peripheral object detection unit around the obstacles and the robot before Symbol robot detects the ceiling or wall position of the space to be moved,
When the robot autonomously moves by driving the driving device along the route teaching data converted by the first route teaching data conversion unit, the position of the obstacle detected by the surrounding object detection unit is A robot movable range calculator that calculates a robot movable range of the robot with respect to route teaching data;
A movement path generation unit that generates a movement path for autonomous movement of the robot based on the path teaching data and the movement range calculated by the robot movement range calculation unit;
The human movement detector is
A corresponding point position calculating and arranging unit for calculating and arranging the position of corresponding points to be detected according to the movement of the person around the robot in advance;
A time-series multiple image acquisition unit that acquires a plurality of images in time series;
Corresponding points arranged by the corresponding point position calculating and arranging unit are detected between the time-series images acquired by the time-series plural image acquiring unit, and between the detected images of the corresponding points are detected. A movement amount calculation unit for calculating the movement amount of
A moving body movement determination unit that determines whether the movement amount calculated by the movement amount calculation unit is a corresponding point that matches the movement of the person;
From the corresponding point group obtained by the mobile body movement determination unit, a mobile body region extraction unit that extracts a mobile body region that is a range where the person exists,
A distance image calculation unit that calculates a distance image of a distance image specific range around the robot that is a certain range around the robot;
A distance image specifying range moving unit that moves the distance image specifying range calculated by the distance image calculating unit so as to match the range of the moving object region extracted by the moving object region extracting unit;
A moving object region determination unit that determines a moving object region of the distance image after the movement by the distance image specific range moving unit;
A moving body position specifying unit that specifies the position of the person from the moving body area of the distance image obtained by the moving body area determination unit;
A distance calculating unit that calculates a distance from the robot to the person based on the position of the person specified on the distance image by the moving body position specifying unit;
The position of the corresponding point to be detected according to the movement of the person in advance is configured to include a corresponding point position calculation arrangement changing unit that changes each time according to the position of the person,
According to the movement route generated by the movement route generation unit, the person movement detection unit identifies the person and continuously detects the distance and direction between the person and the robot, thereby autonomously moving the robot. A robot controller that controls
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005349159A JP4464912B2 (en) | 2004-12-03 | 2005-12-02 | Robot control apparatus and autonomous mobile robot |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004350925 | 2004-12-03 | ||
JP2005349159A JP4464912B2 (en) | 2004-12-03 | 2005-12-02 | Robot control apparatus and autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006185438A JP2006185438A (en) | 2006-07-13 |
JP4464912B2 true JP4464912B2 (en) | 2010-05-19 |
Family
ID=36738468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005349159A Expired - Fee Related JP4464912B2 (en) | 2004-12-03 | 2005-12-02 | Robot control apparatus and autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4464912B2 (en) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5069439B2 (en) * | 2006-09-21 | 2012-11-07 | パナソニック株式会社 | Self-position recognition system |
US8068935B2 (en) * | 2006-10-18 | 2011-11-29 | Yutaka Kanayama | Human-guided mapping method for mobile robot |
JP4697127B2 (en) * | 2006-11-27 | 2011-06-08 | パナソニック電工株式会社 | Self-position recognition method |
JP4968684B2 (en) * | 2007-12-10 | 2012-07-04 | 本田技研工業株式会社 | Target route setting support system |
JP5222686B2 (en) * | 2008-10-14 | 2013-06-26 | 株式会社日立メディコ | Mobile X-ray equipment |
JP5396983B2 (en) * | 2009-04-14 | 2014-01-22 | 株式会社安川電機 | Moving body and teaching method of moving body |
FR2953119B1 (en) * | 2009-12-01 | 2012-07-27 | Gen Electric | MOBILE BASE AND X-RAY APPARATUS MOUNTED ON SUCH A MOBILE BASE |
JP5568385B2 (en) * | 2010-06-15 | 2014-08-06 | 株式会社Ihiエアロスペース | Driving route planning method for unmanned vehicles |
EP3104194B1 (en) | 2012-08-27 | 2019-02-06 | Aktiebolaget Electrolux | Robot positioning system |
CN105101854A (en) | 2013-04-15 | 2015-11-25 | 伊莱克斯公司 | Robotic vacuum cleaner |
US10219665B2 (en) | 2013-04-15 | 2019-03-05 | Aktiebolaget Electrolux | Robotic vacuum cleaner with protruding sidebrush |
JP6187967B2 (en) * | 2013-09-04 | 2017-08-30 | みこらった株式会社 | Defense device and defense system |
CN105813528B (en) | 2013-12-19 | 2019-05-07 | 伊莱克斯公司 | The barrier sensing of robotic cleaning device is creeped |
US10433697B2 (en) | 2013-12-19 | 2019-10-08 | Aktiebolaget Electrolux | Adaptive speed control of rotating side brush |
EP3084539B1 (en) | 2013-12-19 | 2019-02-20 | Aktiebolaget Electrolux | Prioritizing cleaning areas |
KR102137857B1 (en) | 2013-12-19 | 2020-07-24 | 에이비 엘렉트로룩스 | Robotic cleaning device and method for landmark recognition |
KR102130190B1 (en) | 2013-12-19 | 2020-07-03 | 에이비 엘렉트로룩스 | Robotic cleaning device |
JP6455737B2 (en) * | 2013-12-19 | 2019-01-23 | アクチエボラゲット エレクトロルックス | Method, robot cleaner, computer program and computer program product |
CN105792721B (en) | 2013-12-19 | 2020-07-21 | 伊莱克斯公司 | Robotic vacuum cleaner with side brush moving in spiral pattern |
CN105848545B (en) | 2013-12-20 | 2019-02-19 | 伊莱克斯公司 | dust container |
WO2015145543A1 (en) * | 2014-03-24 | 2015-10-01 | 株式会社日立製作所 | Object detection apparatus, object detection method, and mobile robot |
KR102325130B1 (en) | 2014-07-10 | 2021-11-12 | 에이비 엘렉트로룩스 | Method for detecting a measurement error in a robotic cleaning device |
WO2016037635A1 (en) | 2014-09-08 | 2016-03-17 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10729297B2 (en) | 2014-09-08 | 2020-08-04 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
CN106998980B (en) | 2014-12-10 | 2021-12-17 | 伊莱克斯公司 | Floor type detection using laser sensors |
US10874271B2 (en) | 2014-12-12 | 2020-12-29 | Aktiebolaget Electrolux | Side brush and robotic cleaner |
CN107003669B (en) | 2014-12-16 | 2023-01-31 | 伊莱克斯公司 | Experience-based road sign for robotic cleaning devices |
US10678251B2 (en) | 2014-12-16 | 2020-06-09 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
WO2016172002A1 (en) | 2015-04-22 | 2016-10-27 | Massachusetts Institute Of Technology | Foot touch position following apparatus, method of controlling movement thereof, computer-executable program, and non-transitory computer-readable information recording medium storing the same |
CN105072402B (en) * | 2015-08-11 | 2017-11-28 | 余路 | A kind of method of robot tour monitoring |
JP6468127B2 (en) * | 2015-08-26 | 2019-02-13 | トヨタ自動車株式会社 | Omnidirectional moving body, control method and program thereof |
JP6736831B2 (en) | 2015-09-03 | 2020-08-05 | アクチエボラゲット エレクトロルックス | Robot cleaning device system, method for controlling cleaning device, computer program and computer program product |
CN108603935A (en) | 2016-03-15 | 2018-09-28 | 伊莱克斯公司 | The method that robotic cleaning device and robotic cleaning device carry out cliff detection |
US10792817B2 (en) | 2016-04-12 | 2020-10-06 | Optim Corporation | System, method, and program for adjusting altitude of omnidirectional camera robot |
EP3454707B1 (en) | 2016-05-11 | 2020-07-08 | Aktiebolaget Electrolux | Robotic cleaning device |
US11474533B2 (en) | 2017-06-02 | 2022-10-18 | Aktiebolaget Electrolux | Method of detecting a difference in level of a surface in front of a robotic cleaning device |
JP6989210B2 (en) | 2017-09-26 | 2022-01-05 | アクチエボラゲット エレクトロルックス | Controlling the movement of robot cleaning devices |
WO2019176278A1 (en) * | 2018-03-12 | 2019-09-19 | ソニー株式会社 | Information processing device, information processing method, program, and mobile body |
CN109202853A (en) * | 2018-11-12 | 2019-01-15 | 国网四川省电力公司电力科学研究院 | A kind of power construction safety supervision robot |
JP2020126517A (en) * | 2019-02-06 | 2020-08-20 | 住友重機械エンバイロメント株式会社 | Moving body, patrol check system and patrol check method |
JP7253440B2 (en) * | 2019-05-09 | 2023-04-06 | 東芝テック株式会社 | Tracking device and information processing program |
JP7188279B2 (en) * | 2019-05-29 | 2022-12-13 | トヨタ自動車株式会社 | Machine learning methods and mobile robots |
KR102179238B1 (en) * | 2020-05-25 | 2020-11-16 | 센서기술 주식회사 | Human following cruise and autonomous method for a vehicle |
US20230341862A1 (en) * | 2020-06-15 | 2023-10-26 | Doog Inc. | Autonomous Movement Device, Autonomous Movement Method, And Program |
WO2022044429A1 (en) * | 2020-08-27 | 2022-03-03 | 本田技研工業株式会社 | Model parameter learning method |
JP7593840B2 (en) | 2021-03-16 | 2024-12-03 | 本田技研工業株式会社 | Control device, control method, and program |
JP2022185811A (en) * | 2021-06-03 | 2022-12-15 | オムロン株式会社 | AUTONOMOUS DRIVING SYSTEM, AUTONOMOUS DRIVING METHOD, AND AUTONOMOUS DRIVING PROGRAM |
WO2022264493A1 (en) * | 2021-06-15 | 2022-12-22 | パナソニックIpマネジメント株式会社 | Information-generating method, information-generating device, and program |
CN113515131B (en) * | 2021-08-27 | 2022-12-27 | 苏州大学 | Mobile robot obstacle avoidance method and system based on condition variation automatic encoder |
WO2024236908A1 (en) * | 2023-05-15 | 2024-11-21 | ソニーグループ株式会社 | Information processing method, information processing device, information processing program, and information processing system |
-
2005
- 2005-12-02 JP JP2005349159A patent/JP4464912B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006185438A (en) | 2006-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4464912B2 (en) | Robot control apparatus and autonomous mobile robot | |
US20100222925A1 (en) | Robot control apparatus | |
KR101366860B1 (en) | Mobile robot and controlling method of the same | |
US10265858B2 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
KR101618030B1 (en) | Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same | |
US9950429B2 (en) | Robot cleaning system and method of controlling robot cleaner | |
US11537135B2 (en) | Moving robot and controlling method for the moving robot | |
KR20190007285A (en) | Moving Robot and controlling method | |
JP4815208B2 (en) | Human tracking apparatus and method, recording medium on which program for performing the method is recorded, and mobile electronic device including the apparatus | |
US10229501B2 (en) | Mobile robot and method for controlling the same | |
KR101542498B1 (en) | Robot cleaner and method for detecting position thereof | |
JP4264380B2 (en) | Self-position identification method and apparatus | |
US20100042319A1 (en) | Automatic ultrasonic and computer-vision navigation device and method using the same | |
JP2008084135A (en) | Movement control method, mobile robot and movement control program | |
JP2009169845A (en) | Autonomous mobile robot and map updating method | |
JP2008200770A (en) | Robot, and control method thereof | |
KR20150144730A (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
KR102314537B1 (en) | Moving Robot and controlling method | |
JP2007199965A (en) | Autonomous mobile device | |
US20220063096A1 (en) | Mobile robot and driving method thereof | |
JP2018173707A (en) | Human estimation system and estimation program | |
WO2016039158A1 (en) | Mobile body control device and mobile body | |
JPWO2013065312A1 (en) | Remote control system | |
KR20100098999A (en) | Robot cleaner and method for detecting position thereof | |
JP3271900B2 (en) | Automatic tracking lighting system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20061208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100126 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100219 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140226 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |