JPS60179882A - Recognizing method of substance - Google Patents
Recognizing method of substanceInfo
- Publication number
- JPS60179882A JPS60179882A JP59031043A JP3104384A JPS60179882A JP S60179882 A JPS60179882 A JP S60179882A JP 59031043 A JP59031043 A JP 59031043A JP 3104384 A JP3104384 A JP 3104384A JP S60179882 A JPS60179882 A JP S60179882A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- detected
- scanning
- outline
- scanning position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 17
- 239000000126 substance Substances 0.000 title abstract 3
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 235000008612 Gnetum gnemon Nutrition 0.000 description 1
- 240000000018 Gnetum gnemon Species 0.000 description 1
- 241000255947 Papilionidae Species 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
本発明はテレビ画像中の輪郭線から物体を認識する物体
認識方法に関する。DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an object recognition method for recognizing an object from a contour line in a television image.
従来のこの樵の物体認識方法は、物体を構成する各面の
線点(エツジ)に着目するもので、画像中の明るさの急
変している点を線点として抽出し、その線点を連結する
ことKより線画に変換(線画化)するものである。The conventional object recognition method used by this woodcutter focuses on the line points (edges) on each surface that make up the object. Points where the brightness changes suddenly in the image are extracted as line points, and the line points are By connecting K, it is converted into a line drawing (line drawing).
例えば、上記方法による円形物体の認識手順の一例を第
1図(a)〜(イ)をζ照しながら説明すると、テレビ
カメラで撮影した原画像(第1図(a))を、まず走食
線に沿って微分処理し、明暗度が急変する1つの輪郭候
補点を抽出する(第1図(b))。次に1この点の近傍
の%画素について同様の微分処理を行ない、そのうちの
最大の微分値をもつ画素を上述の輪郭候補点に連続した
点とみがし、この操作を繰り返すことにより連続した輪
郭点(1lli!郭4I+l候補)を得(第1図(Cυ
、更にこの輪郭点が閉じると(鴎1図(dす、1つの物
体とみなすようにしている◎
しかし、かかる従来の輪郭線抽出方法においては、輪郭
候補点の追跡を阻害する侠因として、(1) 金属光沢
によるブルー電ング(−A2図(a) 参照)
(2)物体の厘なり(第2図(1))参照)(31’4
B体表面のさび、汚れ等による不鮮明な画像
(4)′It気的ノイズによる画像の乱れ等が挙げられ
、その結果、本来存在すべき物体を見逃すといった問題
がある。また、これらの問題を解決するためには認識用
のアルゴリズムが複雑になり、リアルタイム処理がほと
んど不可能である。For example, to explain an example of the procedure for recognizing a circular object using the above method with reference to FIGS. Differential processing is performed along the eclipse line to extract one contour candidate point where the brightness suddenly changes (FIG. 1(b)). Next, 1% pixels in the vicinity of this point are subjected to similar differentiation processing, and the pixel with the largest differential value is identified as a point continuous to the contour candidate point mentioned above.By repeating this operation, continuous contours are created. Obtain the point (1lli! Guo 4I + l candidate) (Fig. 1 (Cυ
, Furthermore, when this contour point closes, it is considered as one object. However, in such conventional contour line extraction methods, the following factors hinder the tracking of contour candidate points: (1) Blue light due to metallic luster (see Figure-A2 (a)) (2) Object shape (see Figure 2 (1))) (31'4
B: Unclear image due to rust, dirt, etc. on the surface of the body (4)' Image disturbance due to atmospheric noise, etc., and as a result, there is a problem that objects that should be present may be missed. Furthermore, in order to solve these problems, recognition algorithms become complex, making real-time processing almost impossible.
本発明は上記実情に鑑みてなされたもので、所望の物体
の輪郭線を極めて高速に認識することができる物体認識
方法を提供することを目的とする。The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide an object recognition method that can recognize the outline of a desired object at extremely high speed.
この発明によれば、検出対象物体の輪郭線は既知であり
、その輪郭線を特定できる数箇所の輪郭部分の位置関係
も既知であることに着目し、各画素群が検出対象物体の
輪郭線に対応する位置繭係にある少なくとも3つ以上の
画素群を1組として指定するだめのフィルタ手段を用い
て、前記検出対象物体が存在する所定視野の入力画像を
走査するとともに、前記1組の画素群内でそれぞれ明暗
度が急変する輪郭候補点の有無を検出し、1組の各画素
群内でそれぞれ同時に輪郭候補点を検出したとき検出対
象物体の輪郭線が存在すると認識するようにしている。According to this invention, the outline of the object to be detected is known, and the positional relationships of several outline parts that can identify the outline are also known, and each pixel group is aligned with the outline of the object to be detected. The input image of a predetermined field of view in which the object to be detected is present is scanned using a filter means for specifying as one set at least three or more pixel groups in the position corresponding to The presence or absence of contour candidate points whose brightness suddenly changes is detected within each pixel group, and when contour candidate points are detected at the same time in each pixel group, it is recognized that the contour of the object to be detected exists. There is.
以下、本発明を添付図面を参照して詳細に説明する。Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
第3図は本発明による物体認識方法を実施するための装
置の一例を示す概略構成図で、検出対象物体1をITV
カメラ2が撮影している場合に関して示している。工T
Vカメラ2は、前記物体1を所定の視野で撮影し、その
入力画像の明暗信号を含むビデオ・コンポジット信号を
同ル」分離回路3およびA/D変換器4に出力する。同
期分離回路3は入力するビデオ・コンポジット信号から
同期信号を分離し、この同期信号に基づいてランダム・
アクセス・メモリ・アレイ(RAMアレイ〕5のアドレ
スを札定し、A/Di換器4は入力するビデオ・コンポ
ジット信号の明暗信号を明暗状態が16階真の画像デー
タに変換し、これを前記指定したアドレス位置に書き込
む。このようにしてRAMアレイ5には、第4図に示す
原画像の明暗度を示す一画面分の画像データが保存され
る。なお、RAMアレイ5のXおよびYアドレスを指定
することに 。FIG. 3 is a schematic configuration diagram showing an example of an apparatus for implementing the object recognition method according to the present invention, in which the object to be detected 1 is
The case where the camera 2 is photographing is shown. Engineering T
The V camera 2 photographs the object 1 in a predetermined field of view and outputs a video composite signal containing brightness signals of the input image to the analog separation circuit 3 and the A/D converter 4. The synchronization separation circuit 3 separates the synchronization signal from the input video composite signal, and generates a random signal based on this synchronization signal.
The address of the access memory array (RAM array) 5 is determined, and the A/Di converter 4 converts the brightness signal of the input video composite signal into true image data with a brightness state of 16 levels, and converts this into the above-mentioned image data. Write to the specified address position.In this way, one screen worth of image data indicating the brightness of the original image shown in FIG. 4 is stored in the RAM array 5.The X and Y addresses of the RAM array 5 In specifying.
より任意の画像データを抽出することができる。More arbitrary image data can be extracted.
−力、メモリ6には、本発明方法を実施するための主プ
ログラム等が記憶されており、中央処理装置(CPU)
7は、その主プログラム内容に基づきRAMアレイ5中
の画像データの画1象処理を実行する・
次に、このa pr、r7の画像処理手順を説明するA
ilに、本怜明に係る物体認識方法を原理的に説明する
。- The main program, etc. for carrying out the method of the present invention is stored in the memory 6, and the central processing unit (CPU)
7 executes image processing of the image data in the RAM array 5 based on the main program contents.Next, the image processing procedure of this a pr, r7 will be explained.
il, the principle of the object recognition method according to Reimei Moto will be explained.
本発明方法は、設定された3つ以上のある範囲内に同時
に輪4としての特徴があるか否かによって所望の輪郭部
の仔燕を調べるものである。すなわち、第5図に示ずよ
うに基準位置Pかもその中心位置が距離L1だけ離間し
たΔL1の範囲A□、基準位置Pからその中心位置が距
離L2だけ離間したΔL2の範囲A2、・・・・・・基
準位置Pからその中心位置が距離Lnだけ離[d1シた
Δ1.nの範囲Anを1組として指定するた灼の検出対
象物体の輪、flS線に対応しブこフィルタを設定し、
上記基準位置Pを走置位置として入力画面を走食し、各
範囲A1゜A2 、・= A n内にそれぞれ同時に明
暗度が盾、変する輪郭融補点が存在する点(フィルり特
徴点)の・汀無を調べるO例えば不英施例における検出
対象物体1に対しては、第6図に示づ−ように!1−3
σ)それぞれある範囲AI’ t A21 A3を付足
するフィルタ(以下、L−フィルタという)を設定し、
こσ)L−フィルタのフィルタ位置(熱丸で示した位置
)を移動させながら範囲”l I A2 P A3内に
お(・て同時に輪vし次補点が存在するフィルり喘徴点
σ〕有無を調べる0なお、L−フィルりの間隔り、、L
、。The method of the present invention examines the swallowtails of a desired outline depending on whether or not there are features of the ring 4 within a set range of three or more at the same time. That is, as shown in FIG. 5, a range A□ of ΔL1 in which the center position of the reference position P is separated by a distance L1, a range A2 of ΔL2 in which the center position is separated by a distance L2 from the reference position P, . . . ...The center position is separated from the reference position P by a distance Ln [d1 distance Δ1. Set a Buko filter corresponding to the ring and flS line of the object to be detected in the burn, specifying the range An of n as one set,
The input screen is scanned using the above reference position P as the travel position, and points where there are contour melting complement points whose brightness changes at the same time within each range A1゜A2, .=A n (fill feature points) For example, for the detection target object 1 in the non-conventional example, as shown in Fig. 6! 1-3
σ) Set a filter (hereinafter referred to as L-filter) that adds a certain range AI' t A21 A3, respectively,
σ) While moving the filter position of the L-filter (the position indicated by the hot circle), find the filling symptom point σ within the range ``l I A2 P A3 (・ and at the same time the ring v and the complement point σ ] Check for presence 0 In addition, L-Fill interval, ,L
,.
・・・・・・Lnは、検出対象物体の幾何学的形状によ
って定ま9、テレビカメラの拡大率で一義的(決定され
る。このため、フィルタ構造の決定に際し、学習等の煩
雑な手続は不要である。ぼた、ΔL1゜ΔL2.・・・
・・・ΔLnはノイズ、ボケ成分、光学系の歪等により
決定される。...Ln is determined by the geometrical shape of the object to be detected9, and is uniquely determined by the magnification of the television camera. Therefore, when determining the filter structure, complicated procedures such as learning are not necessary. is unnecessary. Buta, ΔL1゜ΔL2...
...ΔLn is determined by noise, blur components, distortion of the optical system, etc.
次に、上記内容tt実行する0PU7の処理手順を第7
図に示すフローチャートに従いながら具体的に説明する
。まず、上述したL−フィル、りのフィルタ位置(走畳
位置〕を第4図に示すように開始点P8Tに移動し、こ
の走査位置がフィルタ特徴点であるか否かを調べる。Next, the processing procedure of 0PU7 to execute the above contents tt is explained in the seventh section.
A detailed explanation will be given according to the flowchart shown in the figure. First, the filter position (scanning position) of the L-fill described above is moved to the starting point P8T as shown in FIG. 4, and it is checked whether this scanning position is a filter feature point.
走査位置がフィルタ特徴点でない場合には、走査位置を
右方向(X方向)K数画素分移動する。If the scanning position is not a filter feature point, the scanning position is moved in the right direction (X direction) by K number of pixels.
この移動室は、L−フィルタのチェック範囲ΔL。This moving chamber is within the L-filter check range ΔL.
ΔL2.ΔL、により定まる。ΔL2. It is determined by ΔL.
そして、走査位置が走査範囲の最右端か否かを判断し、
最右端でない場合には、その現在位置がフィルタ特徴点
であるか否かを判断し、フィルタ特徴点でない場合には
上記処理を繰り返す。Then, determine whether the scanning position is at the rightmost end of the scanning range,
If it is not the rightmost end, it is determined whether the current position is a filter feature point, and if it is not a filter feature point, the above process is repeated.
このようにして、フィルタ特徴点がないまま走査位置が
走査範囲の最右端にくると、その走査位置が走査範囲の
最下端か否かを判断する。In this way, when the scanning position reaches the rightmost end of the scanning range without any filter feature points, it is determined whether the scanning position is at the bottom end of the scanning range.
走査位置が走査範囲の最下端(すなわち、第4図の位置
pED)の場合には、この画面には「検出対象物体がな
い」と判断して画像処理が終了する。If the scanning position is at the lowest end of the scanning range (ie, position pED in FIG. 4), it is determined that there is "no object to be detected" on this screen, and image processing ends.
一方、走査位置が走査範囲の最下端夕ない場合には、走
査位置を走査範囲の最左端に戻し、かつある距離(ΔY
)だけ下方向(Y方向)に移動する(第4図参照)。そ
して、その走査位置より再び走査を実行し、フィルタ特
徴点の有無を調べる・以上のようにしてL−フィルタで
画面を走査し、フィルタ特徴点が検出されると、その走
査位置において「検出対象物体1を検出」と判断する0
なお、このL−フィルタでは第6図に示すように検出対
放物体1のほぼ中央部の区間lを倶断するときにフィル
タ特徴点が現われるため、検出対象物体1の正確な位置
を特定することができない。On the other hand, if the scanning position is not at the bottom end of the scanning range, the scanning position is returned to the leftmost end of the scanning range and a certain distance (ΔY
) in the downward direction (Y direction) (see Figure 4). Scanning is then performed again from that scanning position to check for the presence or absence of filter feature points.When the screen is scanned with the L-filter as described above and a filter feature point is detected, the "detection target" is detected at that scanning position. "Object 1 detected" 0
In addition, in this L-filter, as shown in FIG. 6, the filter feature point appears when cutting off the section l at the approximate center of the detection parabolic object 1, so the exact position of the detection target object 1 can be specified. I can't.
したがって、この場合には、L−フィルタを上下方向(
副走査方向)に移動してフィルタ特徴点が存在する範囲
を調べるようにすれば、検出対象物体1の正確な位置を
特定することができる。また、フィルタ特徴点の副走査
方向への追跡長がある基準長以上となる場合のみ検出対
象物体1が存在するという判断を加えるようにすれば、
より正解率の高い物体認識ができる。Therefore, in this case, the L-filter should be moved in the vertical direction (
By moving in the sub-scanning direction) and examining the range in which the filter feature points exist, the accurate position of the detection target object 1 can be specified. Furthermore, if the detection target object 1 is determined to exist only when the tracking length of the filter feature point in the sub-scanning direction is equal to or greater than a certain reference length,
Object recognition with a higher accuracy rate is possible.
また、L−フィルタは、ある範囲A、、A、・・・An
が同じ走査線上に並ぶ上記実施例に限らず、第8図から
第11図に示すように柚々の方向に、かつ個々の範囲に
おける数画素はフィルタ位置(黒丸で示す位置)に向っ
て並ぶように設定することができる。Also, the L-filter has a certain range A, ,A,...An
The pixels are not limited to the above embodiment in which the pixels are lined up on the same scanning line, but as shown in FIGS. It can be set as follows.
また、L−フィルタには方向性が存在するため、例えば
検出対象物体に応じて設定されたL−フィルタにより画
面を走査し、「検出対象物体がない」と判断した場合に
はそのL−フィルタを所定角だけ旋回させてなるL−フ
ィルタによって再び走査し、これを「検出対象物体を検
出」と判断するまで繰り返し実行し、検出対象物体が検
出されたとぎのL−フィルタの旋回角によりその検出対
象物体がどの方向に存在するかを類推することもできる
0
以上説ψ]したように本発明によれば、輪郭線全部の追
跡は行なわず、L−フィルタにより輪郭線を特定できる
数個所における画素群を抜粋し、各画素群内でそれぞれ
同時に輪郭候補点を検出したときに検出対象物体の輪郭
線が存在すると認識するようにしたため、輪郭線の認識
アルゴリズムが簡単となり、処理時間を短縮することが
できる。In addition, since the L-filter has directionality, for example, if the screen is scanned with an L-filter set according to the object to be detected, and it is determined that there is no object to be detected, then the L-filter The object is rotated by a predetermined angle and scanned again by the L-filter, and this is repeated until it is determined that the object to be detected has been detected. It is also possible to infer in which direction the object to be detected exists.0 As described above, according to the present invention, the entire contour is not tracked, but only a few points where the contour can be identified by the L-filter are tracked. The contour line of the object to be detected is recognized when the pixel groups are extracted and contour candidate points are simultaneously detected within each pixel group, which simplifies the contour line recognition algorithm and reduces processing time. can do.
また、雑音に対する感受性が低いため対象物体を見い出
す正〕怖率が高くなる。In addition, since the sensitivity to noise is low, the probability of finding the target object is high.
第1図(a)〜(d)は従来の輪郭線抽出方法による物
体認識の手j臓を説明するために用いた図、第2図(a
lおよび(b)はそれぞれ従来の輪郭線の追跡を阻害す
る要因の一例を示す図、第3図は本発明による物体認識
方法を実施するだめの装置の一例を示す概略構成図、第
4図は第3図のRAMアレイに保存される画像データの
明暗度を示す図、第5図および第6図はそれぞれ本発明
に係るし一フィルタを説明するために用いた図、第7図
は・中央処理装置の処理手順の一例を示すフローチャー
ト、第8図から第11図はそれぞれ他のL−フィルタの
実施例を示す図である。
1・・・検出対象物体、2・・・I ’T Vカメラ、
3・・・同期分離回路、4・・・A / D変換器、5
・・・RAMアレイ、6・・・メモリ、7・・・中央処
理装置(’OP U )。
第1図
((1) (b)
(() (d)
第2図
(a) (b)
第3図
第4図
第5図
策6図
第7図Figures 1 (a) to (d) are diagrams used to explain the basics of object recognition using the conventional contour extraction method, and Figure 2 (a)
1 and (b) are diagrams each showing an example of a factor that inhibits conventional contour tracing, FIG. 3 is a schematic configuration diagram showing an example of a device for carrying out the object recognition method according to the present invention, and FIG. is a diagram showing the brightness of image data stored in the RAM array in FIG. 3, FIGS. 5 and 6 are diagrams used to explain the filter according to the present invention, and FIG. A flowchart showing an example of the processing procedure of the central processing unit, and FIGS. 8 to 11 are diagrams showing other embodiments of the L-filter, respectively. 1... Detection target object, 2... I'TV camera,
3... Synchronization separation circuit, 4... A/D converter, 5
...RAM array, 6...Memory, 7...Central processing unit ('OP U). Figure 1 ((1) (b) (() (d) Figure 2 (a) (b) Figure 3 Figure 4 Figure 5 Measures 6 Figure 7
Claims (1)
ある少なくとも3つ以上の画素群を1組として指定する
ためのフィルタ手段を用いて、前記検出対象物体が存在
する所定視野の入力画像を走査するとともに、前記1組
の画素群内でそれぞれ明暗度が急変する輪郭候補点の有
無を検出し、1組の各画素群内でそれぞれ同時に輪郭候
補点を検出したとき検出対象物体の輪郭線が存在すると
認識する物体認識方法。An input image of a predetermined field of view in which the detection target object exists, using a filter means for specifying as one set at least three or more pixel groups in which each pixel group has a positional relationship corresponding to the outline of the detection target object. At the same time, it detects the presence or absence of outline candidate points whose brightness changes suddenly within each pixel group, and when the outline candidate points are simultaneously detected within each pixel group of the set, the outline of the object to be detected is detected. An object recognition method that recognizes the existence of lines.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59031043A JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Recognizing method of substance |
DE19853505793 DE3505793A1 (en) | 1984-02-21 | 1985-02-20 | OBJECT IDENTIFICATION PROCEDURE |
SE8500799A SE8500799L (en) | 1984-02-21 | 1985-02-20 | SET TO IDENTIFY FORMAL |
US07/271,405 US4876729A (en) | 1984-02-21 | 1988-11-14 | Method of identifying objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59031043A JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Recognizing method of substance |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS60179882A true JPS60179882A (en) | 1985-09-13 |
JPH03665B2 JPH03665B2 (en) | 1991-01-08 |
Family
ID=12320451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP59031043A Granted JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Recognizing method of substance |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60179882A (en) |
-
1984
- 1984-02-21 JP JP59031043A patent/JPS60179882A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPH03665B2 (en) | 1991-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4136957A (en) | Recognition device for recognizing the shape and the position of an object | |
US5231678A (en) | Configuration recognition system calculating a three-dimensional distance to an object by detecting cross points projected on the object | |
JPS60179881A (en) | Recognizing method of approximately circular outline | |
JPH07220026A (en) | Method and device for picture processing | |
JPS62254282A (en) | Method and apparatus for separating overlapped pattern | |
JPS60179882A (en) | Recognizing method of substance | |
JPH0664614B2 (en) | Hierarchical structured template matching method | |
JPH03666B2 (en) | ||
JPH0354385B2 (en) | ||
JPH03664B2 (en) | ||
JPS634379A (en) | Pattern matching device | |
JP2671611B2 (en) | Tracking type inter-vehicle distance sensor | |
JPH0514892A (en) | Image monitor device | |
JPS628722B2 (en) | ||
KR910009929B1 (en) | Method for extracting document region for document recognition | |
JPH08194825A (en) | Contour information extraction device | |
JPS6365347A (en) | Singular point detecting method by image processing | |
JPS58158761A (en) | Pattern position detecting method | |
JPH05113315A (en) | Center position detection method for circular image data | |
JPH0139153B2 (en) | ||
JP2563163B2 (en) | Figure instruction method | |
JPH06160058A (en) | Rotation angle detection method for target pattern | |
JPH03176779A (en) | Image processing control system | |
JPH0351027B2 (en) | ||
JPH09128542A (en) | Image recognition search device |