JPH01197808A - Guidance system for unmanned vehicle - Google Patents
Guidance system for unmanned vehicleInfo
- Publication number
- JPH01197808A JPH01197808A JP63022372A JP2237288A JPH01197808A JP H01197808 A JPH01197808 A JP H01197808A JP 63022372 A JP63022372 A JP 63022372A JP 2237288 A JP2237288 A JP 2237288A JP H01197808 A JPH01197808 A JP H01197808A
- Authority
- JP
- Japan
- Prior art keywords
- unmanned vehicle
- mark
- unmanned
- information
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は無人走行車の誘導装置に関し、より詳しくは、
画像情報に基づいて無人走行車が所望する進路に沿って
走行するように該無人走行車を誘導する装置に関する。[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a guidance device for an unmanned vehicle, and more specifically,
The present invention relates to a device that guides an unmanned vehicle to travel along a desired course based on image information.
上記無人走行車(以下、単に無人車という)の誘導方式
としては、走行経過に電磁誘導線や光学テープ等の誘導
線を床面に敷設し、無人車に設置した誘導検出手段が上
記誘導線の位置を検出し該誘導線に追従して走行するよ
うに無人車の操舵を制御する方式、いわゆる無人車の固
定経路誘導方式が現在、多く実用化されている。The guidance method of the above-mentioned unmanned vehicle (hereinafter simply referred to as unmanned vehicle) is to lay a guidance wire such as an electromagnetic induction wire or optical tape on the floor during the course of the vehicle, and to detect the guidance by detecting the guidance installed on the unmanned vehicle. Many fixed-route guidance systems for unmanned vehicles, which detect the position of unmanned vehicles and control the steering of the unmanned vehicles so that they follow the guide line, are currently in practical use.
しかし、上記固定経路誘導方式は、走行コースが恒久的
に設定されているため、該走行コースの変更の自由度が
無いという欠点がある。さらに、電磁誘導線を用いた方
法においては、該誘導線の埋設工事に多大の時間と手間
を要するという問題点を有し、光学テープを用いた方法
においては、人の往来等により該テープが汚れたり、破
損したりすることにより誘導ミスが発生するという問題
点を有していた。However, the fixed route guidance method has a disadvantage in that there is no flexibility in changing the driving course because the driving course is permanently set. Furthermore, the method using electromagnetic induction wires has the problem of requiring a great deal of time and effort to bury the guide wires, and the method using optical tape has the problem that the tape may be damaged due to foot traffic, etc. There is a problem in that guidance errors occur due to dirt or damage.
そこで、上記問題点を解決するために、上記固定経路誘
導方式以外の新しい誘導方式が現在数種考えられている
。その新しい誘導方式の一つに、画像情報に基づいて無
人車を誘導するものがある。近年の画像処理技術および
マイクロコンピュータの性能の急速な向上、および該マ
イクロコンピュータやメモリやA−D/D−A変換器な
どの部品の価格の大幅な低下により、無人車に小型で安
価な画像処理システムを搭載することが可能となり、次
世代の誘導方法として注目されている。Therefore, in order to solve the above problems, several new guidance methods other than the fixed route guidance method are currently being considered. One of the new guidance methods is one that guides unmanned vehicles based on image information. Rapid improvements in the performance of image processing technology and microcomputers in recent years, as well as significant reductions in the prices of components such as microcomputers, memory, and A-D/D-A converters, have led to the use of small and inexpensive images in unmanned vehicles. It has become possible to incorporate a processing system and is attracting attention as a next-generation guidance method.
上記画像情報に基づいて無人車を誘導する方法(以下、
単に画像誘導方法という)として、例えば実開昭60−
144106 号公報に記載される技術、すなわち走行
路の真上でかつ走行路に沿って撮像装置を配置し、該撮
像装置により無人車の視覚認識を行い、無人車の走行状
態量を検知し、無線の通信装置を介してその検出結果を
無人車の操舵及び走行装置に伝達するようにして無人車
を誘導する技術が知られている。A method for guiding an unmanned vehicle based on the above image information (hereinafter,
For example, as an image guidance method (simply referred to as an image guidance method),
The technology described in Publication No. 144106, that is, an imaging device is placed directly above and along the driving path, the imaging device performs visual recognition of the unmanned vehicle, and detects the amount of driving state of the unmanned vehicle. 2. Description of the Related Art There is a known technique for guiding an unmanned vehicle by transmitting the detection result to the steering and traveling device of the unmanned vehicle via a wireless communication device.
ところが、上記従来例の技術では、無人車の自由度があ
る程度の制限を受けることになっていた。すなわち、安
価になったと言っても依然ある程度高価な撮像装置(そ
れに付属する演算装置や通信装置を含め)を無人車導入
の建屋内金域に設定することは経済的に困難であること
から、当然上記のように走行路に沿って配置せざるを得
ないことになる。したがって、走行路や建屋内のレイア
ウト変更時には、新たな走行路上に上記撮像装置を設置
し直さなければならない、という問題が生じることにな
る。さらに、上記従来例の基本的な問題点は、無人車が
自らの「目」で見て自分の位置を知るのではなくて、地
上側の他者の「目」により見て判断された内容を教わる
ことにより自分の位置を知ることにある。However, in the conventional technology described above, the degree of freedom of the unmanned vehicle is limited to some extent. In other words, even though the price has become cheaper, it is still economically difficult to install an expensive imaging device (including its attached computing device and communication device) in the interior of a building where unmanned vehicles are installed. Naturally, they must be placed along the travel path as described above. Therefore, when changing the layout of a driving route or a building, a problem arises in that the imaging device has to be reinstalled on the new driving path. Furthermore, the basic problem with the above conventional example is that the unmanned vehicle does not know its own position by seeing it with its own eyes, but rather with the eyes of others on the ground. The purpose is to know one's own position by being taught.
これからのよりインテリジェント化された無人車におい
て、自分の「目」で見て判断することが必然的に要求さ
れることになる。すなわち、地上側からただ革に「左行
」 「直進」「停止」等の指令を受は取って走行するの
ではなく、自らの現在位装置が建屋全体あるいは予定走
行経路におけるどの位置にあり、自らの目的地と該現在
位置とを照し合わせることにより自らを誘導することに
より、上記インテリジェント化により近づくこととなり
、各無人車が独自性を有すようになる。In the future, more intelligent driverless cars will inevitably be required to see and make decisions with their own eyes. In other words, rather than simply receiving commands such as ``left,'' ``go straight,'' and ``stop'' from the ground side, the robot determines where its current position is in the entire building or on the planned travel route. By guiding itself by comparing its destination with its current position, it will become more intelligent, and each unmanned vehicle will have its own uniqueness.
そこで、各無人車に撮像装置を持たせて無人車が自ら「
見る」ようにした技術が次段階の誘導方法として開発さ
れている。例えば、予め記憶手段に無人車の位置情報に
基づいて。Therefore, by equipping each unmanned vehicle with an imaging device, the unmanned vehicle can
A technology that allows humans to "see" is being developed as a next-level guidance method. For example, based on the position information of the unmanned vehicle in the storage means in advance.
構成物の配置、形状に関するデータを予想パターンとし
て入力しておき、走行中の無人車上の撮像装置から送ら
れてくる実画像と上記予想パターンとを比較して、その
差が減少するように無人車を誘導するという技術が知ら
れている。Data regarding the arrangement and shape of components is input as a predicted pattern, and the actual image sent from an imaging device on a moving unmanned vehicle is compared with the predicted pattern to reduce the difference. Technology for guiding unmanned vehicles is known.
ところが、上記のような画像誘導方法において、上記予
想パターンを記憶するための容量が多大になるとか、該
予想パターンと実画像との比較、処理等に時間がかかる
とか、構成物のレイアウト変更や無1人車の進路変更の
度毎に上記予想パターンを入力し直す必要があるという
問題点が指摘されている。However, in the image guidance method described above, the storage capacity for storing the predicted pattern is large, the comparison and processing of the predicted pattern with the actual image takes time, and it is difficult to change the layout of the composition. It has been pointed out that there is a problem in that it is necessary to re-input the above predicted pattern every time a driverless vehicle changes course.
さて、上記のような従来技術−の流れにおいて、本願の
目的とするところは、より自由度の高い画像誘導装置を
提案することにより、無人車のインテリジェント化を押
し進めることにある。Now, in the flow of the prior art as described above, the purpose of the present application is to promote the intelligentization of unmanned vehicles by proposing an image guidance device with a higher degree of freedom.
この発明は無人走行車が導入される建屋内天井の所定位
置に各々が識別可能なマークを配置し、
無人走行車には、
(i)上記天井を撮像する手段と、
(11)撮像した画像情報を解析する手段と、(iii
)夫々のマークの建屋内座標を記憶する手段と、
(iv )上記解析した画像情報と記憶手段内のマーク
の建屋内座標を入力して無人走行車の現在位置及び方位
を演算する手段と、
(v)該演算手段の出力に基づいて無人走行車の走行制
御する手段とを備えたものである。This invention places distinguishable marks at predetermined positions on the ceiling of a building into which unmanned vehicles are introduced, and the unmanned vehicles include (i) means for capturing an image of the ceiling; and (11) captured images. means for analyzing the information; and (iii
) means for storing the intra-building coordinates of each mark; (iv) means for calculating the current position and orientation of the unmanned vehicle by inputting the analyzed image information and the intra-building coordinates of the marks in the storage means; (v) means for controlling the running of the unmanned vehicle based on the output of the calculation means.
第1図には本発明に係る画像誘導方式により運行してい
る無人車(1)の建屋(2)内での概略を模式的に示し
ている。本発明に係る無人車(1)は公知の技術により
走行、操舵等が可能であり、機台上には撮像手段である
CCDカメラ(3)が搭載されている。さaに、天井面
(4)には所定位置に各々が識別可能なマーク(5)が
配置貼付されている。FIG. 1 schematically shows an outline of an unmanned vehicle (1) operating in a building (2) using the image guidance system according to the present invention. The unmanned vehicle (1) according to the present invention is capable of running, steering, etc. using known techniques, and is equipped with a CCD camera (3) as an imaging means on the machine base. Furthermore, distinguishable marks (5) are arranged and pasted at predetermined positions on the ceiling surface (4).
無人車く1)は上記CCDカメラ(3) (以下、単に
カメラと称す)により天井(4)を撮像し、マーク(5
)を検出し識別することにより、自らの現在位置と進行
方向を認識している。The unmanned vehicle 1) takes an image of the ceiling (4) with the CCD camera (3) (hereinafter simply referred to as the camera), and marks the mark (5).
), it recognizes its current position and direction of travel.
第2図の模式図に従えば、上記カメラ(3)はレンズ(
6)及びスクリーン(7)とより成り、該スクリーン(
7)は多くのCCD!子列により構成されている。上記
レンズ(6)中心とスクリーン(7)中心とは鉛直線方
向において同一位置にあり、該スクリーン(7)上の中
心を原点としてスクリーン(7)内に座標系(X、 y
)が設定されている。X軸は無人車(1)の縦中心線と
一致し、y軸と無人車(1)の横中心線(S)とは距離
(L)を有している。さらに、各マーク(5)にはそれ
ぞれ天井面内での工場座標系(X、 Y)が設定されて
いる。なお、上記レンズ(6)とスクリーン(7)間は
距離(D)の隔たりがあり、 ゛レンズ(6)と
天井面(4)間は距離(H)の隔たりがあるものとする
。次に、以上のような構成により無人車の現在位置及び
進行方向を測定する考え方を示すことにする。なお、上
記マーク(5)および該マークの画像処理等の説明は後
述することとする。According to the schematic diagram in Figure 2, the camera (3) has a lens (
6) and a screen (7), the screen (
7) Many CCDs! Consists of child columns. The center of the lens (6) and the center of the screen (7) are at the same position in the vertical direction, and a coordinate system (X, y
) is set. The X-axis coincides with the vertical center line of the unmanned vehicle (1), and there is a distance (L) between the y-axis and the horizontal center line (S) of the unmanned vehicle (1). Furthermore, a factory coordinate system (X, Y) within the ceiling plane is set for each mark (5). It is assumed that there is a distance (D) between the lens (6) and the screen (7), and a distance (H) between the lens (6) and the ceiling surface (4). Next, we will explain the concept of measuring the current position and traveling direction of an unmanned vehicle using the above configuration. The mark (5) and the image processing of the mark will be described later.
A>2マーク認識による無人車の現在位置及び進行方向
の認識についての考え方。A>2 Concepts for recognizing the current position and direction of movement of an unmanned vehicle using mark recognition.
基本的な考え方は、スクリーン(7)上の座標(X、
y)をまず、該座標(x、 y)をそのまま天井面に平
行移動したカメラ座標(Xo。The basic idea is that the coordinates (X,
y), first, the camera coordinates (Xo) are obtained by directly translating the coordinates (x, y) to the ceiling surface.
yo)に変換し、さらに該カメラ座標(Xo。yo) and further converts the camera coordinates (Xo.
y’)と天井面の工場座標(X、 Y)とを比較するこ
とにより、現在位置及び進行方向の認識を行う。以下、
より詳細に説明するけれども、その前にこの考え方の前
提条件を列記しておく。(i)カメラ(3)は天井面(
4)に垂直に向けられている。(ii )マーク(5)
は多種類作成し、カメラ(3)の視野長の半分程度の距
離間隔で設置して常にカメラ(3)のスクリーン(7)
内に少なくとも2個のマークが撮像されることとする。y') and the factory coordinates (X, Y) on the ceiling surface, the current position and direction of travel are recognized. below,
I will explain this in more detail, but first I will list the prerequisites for this idea. (i) Camera (3) is mounted on the ceiling (
4) is oriented vertically. (ii) Mark (5)
Create many types of screens and install them at intervals of about half the field of view of the camera (3) so that the screen (7) of the camera (3) is always visible.
It is assumed that at least two marks are imaged within the area.
(iii)3個以上のマークを撮像した場合には任意の
2個を採用し他は無視する。(iv)カメラ(3)と天
井面(4)との距離は既知で一定とする。バラツキがあ
る場合は各マークの床面からの高さも分つているものと
する。(iii) If three or more marks are imaged, any two marks are adopted and the others are ignored. (iv) It is assumed that the distance between the camera (3) and the ceiling surface (4) is known and constant. If there is variation, it is assumed that the height of each mark from the floor is also different.
さて、今スクリーン上のマークA’ 、 B’の座標を
それぞれ、(xa、 ya>、 (xb、 yb)
とし、光学系の歪補正係数Ex、εyとすると、前記カ
メラ座標(X’ 、 y’ ) におけるマークA、
Bの座標(xa、 ya)、 (xb、 yb)
は、と表せる。Now, let the coordinates of marks A' and B' on the screen be (xa, ya>, (xb, yb), respectively)
and the distortion correction coefficients Ex and εy of the optical system, the mark A at the camera coordinates (X', y'),
Coordinates of B (xa, ya), (xb, yb)
can be expressed as.
一方、マークA、Bの工場座標系における座標は、
?−りA(Xa、Yb) 、 ?−9B(Xb、Yb
) −(IIEであることが予め分っている。On the other hand, the coordinates of marks A and B in the factory coordinate system are ? -riA (Xa, Yb), ? -9B (Xb, Yb
) - (It is known in advance that it is IIE.
前記カメラ座標(x′、yo)の原点Pの工場座標をp
(XO,yo) とすると、座標変換の関係式は、
であり、該(III)式に上記(13式、(II)式の
座標値を代入すると1、P (xo、 yo)及びθが
求められる。これに、カメラ中心と無人車機体中心との
距離(L)を考慮すれば工場座標系における無人車の位
置座標及び無人車の中心からカメラの取付は中心の方向
が工場座標系のX軸から左回転に何度傾いているかが求
められる。The factory coordinates of the origin P of the camera coordinates (x', yo) are p
(XO, yo), the relational expression for coordinate transformation is as follows, and by substituting the coordinate values of equations (13 and (II) above) into equation (III), 1, P (xo, yo) and θ are In addition, considering the distance (L) between the center of the camera and the center of the unmanned vehicle body, the position coordinates of the unmanned vehicle in the factory coordinate system and the direction from the center of the unmanned vehicle to the mounting of the camera are determined based on the direction of the center in the factory coordinate system. The angle of rotation to the left from the X axis is determined.
B)1マーク認識による無人車の現在位置及び進行方向
の認識についての考え方。B) Concept of recognition of the current position and direction of movement of an unmanned vehicle using one mark recognition.
1つのマークにより該マークがどのマークであるかとい
う情報の認識と、該マークがどの方向にあるのかという
情報の認識がなされるのなら(詳細は後述する)、17
−りを認識するだけで無人車の現在位置及び進行方向は
解明される。If one mark can be used to recognize the information about which mark it is and the information about the direction in which the mark is located (details will be described later), then 17
-The current location and direction of travel of the unmanned vehicle can be determined just by recognizing the location.
すなわち、上記〔■」式は座標情報が1組であるために
1式のみとなるけれども、上記方向の情報によりθの値
が既知となり、上記P (xo、 yo) が求められ
る。後の処理は上記A)の場合と同様である。That is, although the above [■] equation is only one equation because there is one set of coordinate information, the value of θ is known from the above information on the direction, and the above P (xo, yo) can be found. The subsequent processing is the same as in case A) above.
C)無人車の制御構造(第4図のブロック図参照) 次に、本願に係る無人車(1)の制御構造を説明する。C) Control structure of unmanned vehicle (see block diagram in Figure 4) Next, the control structure of the unmanned vehicle (1) according to the present application will be explained.
すなわち、この制御構造は以下の各ブロックから構成さ
れている。That is, this control structure is composed of the following blocks.
a)CCDカメラ〈3)
このカメラ(3)は天井面(4)に対
で垂直に向けられ、レンズを通って入力される画像は複
数の画素により構成されるスクリーン上に画像情報とし
て映した出される。a) CCD camera <3) This camera (3) is oriented perpendicularly to the ceiling surface (4), and the image input through the lens is projected as image information on a screen composed of multiple pixels. Served.
b)ビジョンコントローラ(10)
上記CCDカメラ(3)で撮像した天
井面の画像データから目的のマーク(5)のみを抽出し
、CCDスクリーン上でのマークの中心座標とマークの
コードを読み出してメインコントローラ(11)に定期
的に報告する。b) Vision controller (10) Extracts only the target mark (5) from the image data of the ceiling surface captured by the above CCD camera (3), reads the center coordinates of the mark and the code of the mark on the CCD screen, and controls the main Periodically reports to the controller (11).
C)メインコントローラ(11)
以下説明する演算部(12)、座標テーブル(13)、
走行制御部(14)、マツプデータ(15)、および移
載制御部(16)により構成されている。C) Main controller (11) A calculation unit (12), coordinate table (13), which will be explained below.
It is composed of a travel control section (14), map data (15), and a transfer control section (16).
d)演算11B(12)
ビジョンコントローラ(10)より得タマーク(5)に
ついてのローカル座標値、マークコードとマーク座標テ
ーブル(13)から得た各マークの工場座標系における
座標値とから前記A)、B)で記載の座標変換等を施す
ことによって、無人車(1)の工場座標系における位置
座標及び方位を計算し、これを定期的に走行制御部
(14)に報告する。d) Calculation 11B (12) From the local coordinate values for the mark (5) obtained from the vision controller (10), the mark code and the coordinate values of each mark in the factory coordinate system obtained from the mark coordinate table (13), calculate the above A). , B) to calculate the position coordinates and orientation of the unmanned vehicle (1) in the factory coordinate system, and periodically report these to the travel control unit (14).
e)座標テーブル(13) 各マーク(5)毎の工場座標系におけ る座標が入力されている。e) Coordinate table (13) In the factory coordinate system for each mark (5) The coordinates are entered.
f)走行制御部(14)
通信コントローラ(17)より指示される目的地とメモ
リーのマツプデータ(15)により走行経路の決定をし
、走行及び操舵駆動系であるサーボドライバー(18)
に走行データの指示をする。f) Travel control unit (14) Determines the travel route based on the destination and memory map data (15) instructed by the communication controller (17), and servo driver (18) which is the travel and steering drive system.
Instructs driving data.
演算部(12)から報告される無人車の位置、方位のデ
ータとマツプデータ(15)からの目的地の情報を比較
して許容以上にズレが生じている場合は走行データの修
正をして走行、操舵駆動系であるサーボドライバ−(1
8)に指示をする。Compare the position and direction data of the unmanned vehicle reported from the calculation unit (12) with the destination information from the map data (15), and if there is a discrepancy beyond tolerance, correct the driving data and drive. , servo driver (1) which is the steering drive system
8) Give instructions.
演算部(12)から報告される無人車
(1)の位置、方位のデータ以外に、走行・、操舵駆動
系のモータ(M)からのエンコーダ出力(19)等を利
用して自己の位置、方位の計算をし、ビジョンによる観
測間隔を補間する。In addition to data on the position and direction of the unmanned vehicle (1) reported from the calculation unit (12), the encoder output (19) from the motor (M) of the driving/steering drive system is used to calculate its own position, Calculate the direction and interpolate the observation interval based on vision.
通1zコントローラ(17)に対し、無人車(1)の位
置、方位及び状態のデータを定期的に報告する。Data on the position, direction, and status of the unmanned vehicle (1) are periodically reported to the controller (17).
g)通信コントローラ(17)
地上コントローラ(20)から地上側通信コントローラ
(21)及び通信ユニット(22)を介して通られてく
る目的地、発進、停止移載指示等を通信ユニフ) (2
3)を介して受けてメインコントローラ(11)にその
都度、報告する。g) Communication controller (17) The communication unit receives destination, start, stop, transfer instructions, etc. from the ground controller (20) via the ground side communication controller (21) and communication unit (22).
3) and reports each time to the main controller (11).
メインコントローラ(11)からの現地点、次ストップ
位置、状態コード等の情報を地上コントローラ(20)
からの呼びかけに応じて報告する。Information such as the current point, next stop position, status code, etc. from the main controller (11) is sent to the ground controller (20).
Report in response to a call from.
h)地上コントローラ(20)
ホス)CPU(24) や搬送要求設定盤等からの搬送
要求を受は付けて最も効率的と考えられる無人車にその
搬送要求を割付ける。h) Ground controller (20) Accepts transport requests from CPU (24), transport request setting board, etc., and assigns the transport request to the unmanned vehicle considered to be the most efficient.
無人車(1)から報告されて(る次ス
トップ等のデータから衝突防止の管理を行い必要に応じ
て、無人車(1)に対して停発進の指示をする。Collision prevention is managed based on data such as the next stop reported by the unmanned vehicle (1), and instructions to stop and start are given to the unmanned vehicle (1) as necessary.
無人車(1)から報告されてくる各種
状態のデータをグラフィクディスプレイ(25)にアニ
メーション表示してシステムの状態をリアルタイムモニ
タリングできるようにする。Various status data reported from the unmanned vehicle (1) is displayed in animation on the graphic display (25) to enable real-time monitoring of the system status.
オフラインモード時にCAD機能を利
用して、マツプ定義やマーク座標定義を行い無人車(1
)にダウンロードするデータ作成機能を持つ。In offline mode, use the CAD function to define maps and mark coordinates to create an unmanned vehicle (1
) has a data creation function to download to.
l)移載ロボット制御部(26)
本実施例においては、無人車〈1)上
に移載口ボッ) (27)を搭載したものを示している
けれども、該移載ロボット
(27)は本願の主旨から外れるので詳細な説明は省略
する。l) Transfer robot control unit (26) Although this embodiment shows a transfer port (27) mounted on an unmanned vehicle (1), the transfer robot (27) is A detailed explanation will be omitted since it deviates from the main purpose.
C)マークについて
次に前記マークについて詳述する。なお、以下詳述する
マークは前記A)項の2マーク認識による無人車の現在
位置及び進行方向の認識に係るものである。C) Marks Next, the marks will be explained in detail. Note that the marks described in detail below are related to the recognition of the current position and traveling direction of the unmanned vehicle by the two-mark recognition described in item A) above.
第5図にマーク(5)の−例を図示している。このマー
ク(5)は円形をしており、その外周より、全周を黒部
より成る第1黒シート帯(30)、該第1黒シート帯(
30)の内側の白部より成る第1白シート帯(31)、
該第1白シート帯(31)の内側のコードシート帯(3
2)、該コードシート帯(32)の内側の黒部より成る
第2黒シート帯(33)、該第黒シート帯(33)の内
側の白部より成る第2白ンート帯(34)、該第2白シ
ート帯(34)の内側の黒部より成る中心点シーh部(
35)とにより構成されている。上記黒部の各黒シート
帯(30) (33) 及び中心点シート部(35)は
黒色等の光の反射の少ない色のシートを使用し、各自シ
ート帯(31)(34)には白色等の光の反射の多い色
で、かつ乱反射やキズやシミの無いシートを使用する。An example of mark (5) is shown in FIG. This mark (5) has a circular shape, and from its outer periphery, a first black sheet band (30) consisting of a black part all around the circumference, a first black sheet band (
a first white sheet band (31) consisting of the inner white part of 30);
The cord sheet band (3) inside the first white sheet band (31)
2), a second black sheet band (33) consisting of the black part inside the cord sheet band (32); a second white sheet band (34) consisting of the white part inside the second black sheet band (33); Center point seam h portion (
35). Each of the black sheet bands (30) (33) in the black area and the center point sheet part (35) are made of a sheet with a color that reflects less light, such as black, and the respective sheet bands (31) (34) are made of white, etc. Use a sheet that has a color that reflects a lot of light and is free from diffuse reflection, scratches, and stains.
天井面の色は黒系統でも白系統でもよいけれども、この
実施例にふいて一応黒系統であるとする。上記コードシ
ート帯(32)は半径方向にnビット(図では7ビツト
であり、以下7ピツトにおける実施例を説明する。)に
分割され、1ビツトがさらに3等分にそれぞれ分割され
ている。3等分に分割されたものを以下、小区域と称す
ことにする。Although the color of the ceiling surface may be either black or white, it is assumed that it is black for this embodiment. The code sheet band (32) is divided in the radial direction into n bits (7 bits in the figure, and an embodiment with 7 pits will be described below), and each bit is further divided into three equal parts. Hereinafter, the area divided into three equal parts will be referred to as a small area.
E)マーク信号弁別の動作 次に上記マーク(5)の弁別の動作を説明する。E) Operation of mark signal discrimination Next, the operation of distinguishing the mark (5) will be explained.
カメラ(3)で撮像された天井面の画像はビジョンコン
トローラ(10)に送り込まれ該コントローラ(10)
で第12図で示されるようにしてマーク(5)の中心位
置座標とコード内容が読み出される。The image of the ceiling surface captured by the camera (3) is sent to the vision controller (10), and the controller (10)
Then, as shown in FIG. 12, the center position coordinates and code contents of the mark (5) are read out.
(第1ステツプ) カメラ(3)で撮像された面情報は
漢方向の走査により1本の信号さして上記コントローラ
(10)内に入力する。例示として第5図における走査
線(Scl〜5c5)に対応する信号をそれぞれ信号線
(Sgl〜5g5)として第6図に示す。(First step) The surface information captured by the camera (3) is input into the controller (10) as a single signal by scanning in the Chinese direction. As an example, signals corresponding to the scanning lines (Scl to 5c5) in FIG. 5 are shown as signal lines (Sgl to 5g5) in FIG. 6, respectively.
(第2ステツプ) 上記信号は照明器具等からの明るさ
過多が外乱信号として判別され(詳細は省略)、かつ設
定されるしきい値との比較による2値化がなされる。(Second Step) Excessive brightness from a lighting fixture or the like is determined as a disturbance signal for the signal (details are omitted), and the signal is binarized by comparison with a set threshold value.
(第3ステツプ) 一方、上記コントローラ(10)内
には予め第7.8図に示されているような水平テンブレ
ー) (36)及び垂直テンブレー) (37)が入力
されている。該テンブレー) (36)(37) は
同一の構造であり、上記マーク(5)の第2白シ−ト部
(34) と中心黒シート部(35)に対応させたも
のである。すなわち、両側に任意の個数の黒検出画素域
(以下、単に黒画素域という) (38) (39)
を有し、その内側にそれぞれ第2白シ−ト部(31)の
幅(Ha)と同一の幅(Fa)を有す白画素域(40)
(41) が形成され、さらにその内側の中央部に
は中心黒シート部(35)の直径と同一の幅(Fb)を
有す黒画素域(42)が形成されている。(Third Step) On the other hand, the horizontal tension (36) and vertical tension (37) as shown in FIG. 7.8 are previously input into the controller (10). The templates (36) and (37) have the same structure and correspond to the second white sheet portion (34) and the central black sheet portion (35) of the mark (5). That is, an arbitrary number of black detection pixel areas (hereinafter simply referred to as black pixel areas) on both sides (38) (39)
white pixel areas (40) each having the same width (Fa) as the width (Ha) of the second white sheet portion (31).
(41) is formed, and a black pixel area (42) having the same width (Fb) as the diameter of the central black sheet portion (35) is formed at the center inside thereof.
上記水平テンブレー) (36)と各画像信号とを比較
し、マツチングした所の水平座標を検出する。The above horizontal template (36) is compared with each image signal, and the horizontal coordinates of the matched locations are detected.
(第4ステツプ) 上記水平テンプレート(36)によ
るマツチング検出と同時に垂直テンプレート (37)
によるマツチング検出を行いマツチングした所の垂直座
標を検出する。(Fourth step) At the same time as matching detection using the horizontal template (36), the vertical template (37)
Matching detection is performed using , and the vertical coordinates of the matched location are detected.
(第5ステツプ) 上記第3及び第4ステツプで検出し
た水平及び垂直座標の交点を求めることにより、マーク
(5)のカメラ(3)内での中心位置座標(Sn)が検
出される。(Fifth step) By finding the intersection of the horizontal and vertical coordinates detected in the third and fourth steps, the center position coordinates (Sn) of the mark (5) within the camera (3) are detected.
(第6〜9ステツプ) 上記のようにして、マーク(5
)の中心位置座標が検出されると次に該中心位置(Sn
>から半径(Ra)の距離で時計針方向にスキャンニ
ングをする。(6th to 9th steps) As above, mark (5th to 9th steps)
) is detected, then the center position (Sn
Scanning is performed in the clockwise direction at a distance of radius (Ra) from >.
該半径(Ra)によるスキャンニングは丁度前記コード
シート帯(32)上をスキャンすることになっている。The scanning using the radius (Ra) is to scan exactly on the code sheet band (32).
スキャンニングの開始地点はどこからでもよく、1ビツ
ト分の小区域が3コ以上連続した所をスタートビット(
St)と認識し、以下コードシート帯(32)上の情報
を読み取っていく。第9.10図にその読み取りの状態
を示している。The scanning start point can be anywhere, and the start bit (
St), and then reads the information on the code sheet band (32). Figure 9.10 shows the reading state.
この実施例の場合、3つの小区域が黒(b)・白(w)
・黒(b)の場合は「0」、黒(b) ・白(W
) ・白(W)の場合は「1」に対応している。した
がって、実施例においては、rololoo」というコ
ードが読み取られ、該コードに対応するマークだという
認識が無人車においてなされる。6ビツトの場合は2’
=64種類、10ビツトでは2”=1024種類、識別
可能である。In this example, the three subareas are black (b) and white (w).
- "0" for black (b), "0" for black (b) - white (W
) - White (W) corresponds to "1". Therefore, in the embodiment, the code "rololoo" is read, and the unmanned vehicle recognizes that the mark corresponds to the code. 2' for 6 bits
= 64 types, and in 10 bits, 2'' = 1024 types can be identified.
上記したように、マーク(5)は円形でアリ、しかも該
マークのコードも同心円の円周上に位置している。した
がって、無人車の傾きに関係なくどの方向か、らも常に
マークの中心位置及びコード内容が正確に読み取られる
。な$、上記コードのうち最後のコードが「1」の場合
内(W>の小区域が5つ連続し、どこまでがスタートビ
ットか認識できないおそれがあるので、3つ以上の小区
域が連続し、それから始めて黒(b)の小区域が出てき
た時点が第1のビットの開始だと認識するようにしてい
る。As described above, the mark (5) is circular and the code of the mark is also located on the circumference of the concentric circle. Therefore, regardless of the tilt of the unmanned vehicle, the center position of the mark and the code content can always be accurately read from any direction. If the last code among the above codes is "1" (there are five consecutive small areas with W>, there is a possibility that it may not be possible to recognize where the start bit is, so if three or more small areas are consecutive) , and then the point at which the black (b) small area appears is recognized as the start of the first bit.
Flkの実施例のマークについて
次に、前記B)項の1マーク認識による無人車の現在位
置及び進行方向の認識に係るマークについて説明する。Regarding the mark of the Flk embodiment, next, the mark related to the recognition of the current position and traveling direction of the unmanned vehicle by the one-mark recognition in item B) will be explained.
第11図にそのマークを示している。なお、前記D)、
E)項と共通する所は同一符号を付し説明は省略する。The mark is shown in FIG. In addition, the above D),
The same reference numerals are given to the same parts as in section E), and the explanation is omitted.
このマーク (5)には第1白シート帯(31)に方向
認識のための黒II (43)が付しである。該黒部〈
43)は全てのマークに同方向、同位置に付されている
。例えば、マーク中心位置(Sn)から真北方向に該黒
部(43)が付しである。This mark (5) has a black II mark (43) attached to the first white sheet band (31) for direction recognition. Kurobe
43) is attached to all marks in the same direction and at the same position. For example, the black part (43) is attached due north from the mark center position (Sn).
上記マーク(5)の信号弁別は、前記コ−ドシート帯(
32)上のスキャンニングと共に、第1白シート帯(3
1)もスキャンニングして上記黒部(43)位置を検出
する。The signal discrimination of the mark (5) is performed by the code sheet band (
32) Along with the above scanning, the first white sheet band (3
1) is also scanned to detect the position of the black part (43).
該黒部(43)のカメラ画像内での方向を検出すること
により、相対的に無人車の工場座標系における方向を認
識することができる。なお、この実施例の場合、スキャ
ンニングの開始地点は任意の特定地点とし、該特定地点
く開始地点)から、黒部(43)までの距離によりマー
ク(5)の方向を検出する。なお、上記スタートビット
(St)を上記黒部(43)の代用として用いること
も可能である。By detecting the direction of the black part (43) in the camera image, it is possible to relatively recognize the direction of the unmanned vehicle in the factory coordinate system. In this embodiment, the starting point of scanning is an arbitrary specific point, and the direction of the mark (5) is detected based on the distance from the specific point (starting point) to the black part (43). Note that it is also possible to use the start bit (St) as a substitute for the black part (43).
G)無人車の誘導について
上記D)項又(よF)項記載のマーク(5)をカメラ(
3)で検出し、ビジョンコントローラ(10)で各マー
ク(5)の中心位置座標(Sn)とコード内容を読み取
り、該読み取った情報により、演算部(12)において
前記A)項又はB)項の処理により無人車(1)の工場
座標系における現在位置及び進行方向が認識される。該
演算部(12)で認識された情報に基づいて走行制御部
(14)で走行データの指示をサーボドライバー(18
)に伝える。該制御部(14)では、通信コントローラ
(17)から指示される目的地と、工場内の走行径路を
記憶しているマツプデータ(15)と上記演算部(12
)からの情報とにより無人車の走行を誘導する。G) Regarding the guidance of unmanned vehicles, place the mark (5) described in item D) or item (YF) above on the camera (
3), the vision controller (10) reads the center position coordinates (Sn) and code contents of each mark (5), and based on the read information, the calculation unit (12) calculates the above item A) or B). Through this process, the current position and traveling direction of the unmanned vehicle (1) in the factory coordinate system are recognized. Based on the information recognized by the calculation unit (12), the travel control unit (14) instructs the travel data to the servo driver (18).
). The control unit (14) uses the map data (15) that stores the destination instructed by the communication controller (17) and the travel route within the factory, and the calculation unit (12).
) will guide the driving of the unmanned vehicle.
H)レイアウト変更について
上記マツプデータ(15)内に記憶されている走行経路
が工場内の全ての経路であるならば、通信コントローラ
(I7)からの目的地の指示を変更するだけで、無人車
の走行は変更される。また、工場内のレイアウトを変更
して、走行経路でなかった部分を新たに走行経路とする
場合あるいはその逆の場合には、マツプデータ(15)
の記憶内容を一部変更するだけでよい。もちろん、天井
面のマーク(5)及び無人車上のカメラ (3)はその
ますである。H) Layout changes If the travel routes stored in the above map data (15) are all routes within the factory, you can change the layout of unmanned vehicles by simply changing the destination instructions from the communication controller (I7). The run will be changed. In addition, if you change the layout in the factory and make a new driving route from a part that was not a driving route, or vice versa, please use the map data (15).
All you need to do is change some of the memory contents. Of course, the mark (5) on the ceiling and the camera (3) on the unmanned vehicle are the squares.
すなわち、無人車が自らの現在位置を工場内金ての場所
で工場内座標として認識することが可能となっているの
で、走行経路変更時には少なくとも無人車に与える座標
のデータのみを変更すればよく、他のハード的な変更は
いっさい必要としない。In other words, since the unmanned vehicle can recognize its current location as the factory coordinates at any location within the factory, when changing the driving route, at least the coordinate data given to the unmanned vehicle only needs to be changed. , no other hard changes are required.
以上の説明から明らかなように、本発明によれば、複雑
な画像処理を必要とせずに無人車を誘導するものであっ
て、無人車が自らの現在位置を常に認識しながら走行し
ているので、レイアウト変更時にも即座に対応できる自
由度を有し、よりインテリジェント化されたものとなる
。As is clear from the above description, according to the present invention, an unmanned vehicle is guided without the need for complex image processing, and the unmanned vehicle is constantly aware of its current position while driving. Therefore, it has the flexibility to respond immediately when changing the layout, making it more intelligent.
第1図は無人■の建屋内での運行状態を慨略的に示す模
式図、第2図は無人車の位置認識のための考え方を説明
するための模式図、第3図は同じく側面図、第4図は無
人車の制御構造を示すブロック図、第5図はマークを示
す正面図、第6図は該マークの走査状態を説明するため
の模式図、第7図は水平テンプレートを示す模式図、第
8図は垂直テンプレートを示す模式図、第9図はマーク
のコード情報読み取りのためのスキャンニングを説明す
るための模式図、第10図はコード情報の解析を説明す
るための模式図、第11図はマークの他の実施例を示す
正面図、第12図はマーク信号弁別のためのフロチャー
ト図である。
(1) 無人走行車
(2) 建屋
(3) カメラ(撮像手段)
(4) 天井面
(5) マーク
(10) ビジョンコントローラ(解析手段)(12
) 演算部(演算手段)
(13) 座標テーブル(記憶手段)(14) 走
行制御部
(15) マノブデータ
(32) コードシート帯(円形コード)ト
第6図Figure 1 is a schematic diagram that schematically shows the operation status of an unmanned vehicle inside a building, Figure 2 is a schematic diagram to explain the concept for position recognition of an unmanned vehicle, and Figure 3 is a side view as well. , FIG. 4 is a block diagram showing the control structure of the unmanned vehicle, FIG. 5 is a front view showing the mark, FIG. 6 is a schematic diagram for explaining the scanning state of the mark, and FIG. 7 is a horizontal template. Schematic diagram: Fig. 8 is a schematic diagram showing a vertical template; Fig. 9 is a schematic diagram illustrating scanning for reading mark code information; Fig. 10 is a schematic diagram illustrating analysis of code information. 11 is a front view showing another embodiment of the mark, and FIG. 12 is a flow chart for mark signal discrimination. (1) Unmanned vehicle (2) Building (3) Camera (imaging means) (4) Ceiling surface (5) Mark (10) Vision controller (analysis means) (12
) Calculation unit (calculation means) (13) Coordinate table (storage means) (14) Travel control unit (15) Manob data (32) Code sheet band (circular code) Fig. 6
Claims (1)
が識別可能なマークを配置し、 無人走行車には上記天井を撮像する手段と、撮像した画
像情報を解析する手段と、上記 夫々のマークの建屋内座標を記憶する手段と、上記解析
した画像情報と記憶手段内のマークの建屋内座標を入力
して無人走行車の現在位置及び方位を演算する手段と、
該演算手段の出力に基づいて無人走行車の走行を制御す
る手段とを備えたことを特徴とする無人走行車の誘導装
置。[Claims] Distinguishable marks are arranged at predetermined positions on the ceiling of a building into which unmanned vehicles are installed, and the unmanned vehicles are equipped with means for photographing the ceiling and for analyzing information on the photographed images. means for storing the intra-building coordinates of each mark; and means for calculating the current position and orientation of the unmanned vehicle by inputting the analyzed image information and the intra-building coordinates of the marks in the storage means;
A guidance device for an unmanned vehicle, comprising: means for controlling the traveling of the unmanned vehicle based on the output of the calculation means.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63022372A JPH01197808A (en) | 1988-02-02 | 1988-02-02 | Guidance system for unmanned vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63022372A JPH01197808A (en) | 1988-02-02 | 1988-02-02 | Guidance system for unmanned vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH01197808A true JPH01197808A (en) | 1989-08-09 |
Family
ID=12080804
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP63022372A Pending JPH01197808A (en) | 1988-02-02 | 1988-02-02 | Guidance system for unmanned vehicle |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH01197808A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03219309A (en) * | 1990-01-25 | 1991-09-26 | Daifuku Co Ltd | Device for instructing control information for moving vehicle |
| JP2001166827A (en) * | 1999-12-10 | 2001-06-22 | Kansai Electric Power Co Inc:The | Guide system for mobile object |
| JP2005242409A (en) * | 2004-02-24 | 2005-09-08 | Matsushita Electric Works Ltd | Autonomous mobile robot system |
| JP2007141108A (en) * | 2005-11-21 | 2007-06-07 | Matsushita Electric Works Ltd | Autonomous moving device |
| JP2009522563A (en) * | 2006-01-05 | 2009-06-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Mobile device tracking |
| JP2009544966A (en) * | 2006-07-27 | 2009-12-17 | 韓國電子通信研究院 | Position calculation system and method using linkage between artificial sign and odometry |
| CN102650883A (en) * | 2011-02-24 | 2012-08-29 | 鸿富锦精密工业(深圳)有限公司 | System and method for controlling unmanned aerial vehicle |
| CN106502246A (en) * | 2016-10-11 | 2017-03-15 | 浙江大学 | A kind of intelligent vehicle automated induction systems based on grader |
| JP2019086478A (en) * | 2017-11-10 | 2019-06-06 | 株式会社Subaru | Position measurement system for mobile |
| JP2023128707A (en) * | 2022-03-04 | 2023-09-14 | 株式会社リコー | Work support device, work support system, and work support method |
-
1988
- 1988-02-02 JP JP63022372A patent/JPH01197808A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03219309A (en) * | 1990-01-25 | 1991-09-26 | Daifuku Co Ltd | Device for instructing control information for moving vehicle |
| JP2001166827A (en) * | 1999-12-10 | 2001-06-22 | Kansai Electric Power Co Inc:The | Guide system for mobile object |
| JP2005242409A (en) * | 2004-02-24 | 2005-09-08 | Matsushita Electric Works Ltd | Autonomous mobile robot system |
| JP2007141108A (en) * | 2005-11-21 | 2007-06-07 | Matsushita Electric Works Ltd | Autonomous moving device |
| JP2009522563A (en) * | 2006-01-05 | 2009-06-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Mobile device tracking |
| JP2009544966A (en) * | 2006-07-27 | 2009-12-17 | 韓國電子通信研究院 | Position calculation system and method using linkage between artificial sign and odometry |
| CN102650883A (en) * | 2011-02-24 | 2012-08-29 | 鸿富锦精密工业(深圳)有限公司 | System and method for controlling unmanned aerial vehicle |
| CN106502246A (en) * | 2016-10-11 | 2017-03-15 | 浙江大学 | A kind of intelligent vehicle automated induction systems based on grader |
| JP2019086478A (en) * | 2017-11-10 | 2019-06-06 | 株式会社Subaru | Position measurement system for mobile |
| JP2023128707A (en) * | 2022-03-04 | 2023-09-14 | 株式会社リコー | Work support device, work support system, and work support method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8244403B2 (en) | Visual navigation system and method based on structured light | |
| US4566032A (en) | Visually guided vehicle | |
| JPH02143309A (en) | Operation method and apparatus | |
| JPH10177414A (en) | Running state recognition device by ceiling image | |
| US20060293810A1 (en) | Mobile robot and a method for calculating position and posture thereof | |
| TWI893640B (en) | Control device for mobile robot and control method for mobile robot | |
| CN105651286A (en) | Visual navigation method and system of mobile robot as well as warehouse system | |
| JP2009544966A (en) | Position calculation system and method using linkage between artificial sign and odometry | |
| JPH02244306A (en) | Visual navigation system and method | |
| JPH11272328A (en) | Color mark, moving robot and method for guiding moving robot | |
| JPS6345610A (en) | Utilization of delay absolute position data for guidance and operation for moving vehicle controller | |
| JPH01197808A (en) | Guidance system for unmanned vehicle | |
| JP2014021624A (en) | Autonomous traveling device and autonomous traveling system | |
| JPH01243104A (en) | Mark identifying device in image pickup means | |
| JP3271900B2 (en) | Automatic tracking lighting system | |
| JPH04188014A (en) | Apparatus for detecting distance between vehicles | |
| JP4377347B2 (en) | Mobile robot | |
| JP4377346B2 (en) | Mobile robot | |
| JPH01197809A (en) | Guidance mark for unmanned vehicle | |
| JPH0820253B2 (en) | Position detection method in mobile robot | |
| JPS6159507A (en) | Guiding device of selfcontrol running truck | |
| Takeda et al. | Automated vehicle guidance using spotmark | |
| JPH07134617A (en) | Guidance method and device for autonomous mobile robot | |
| JPH064127A (en) | Own-position measuring instrument for indoor moving body | |
| JP2660744B2 (en) | Mobile vehicle stop position detection device |