JP2738252B2 - Edge detection device of strip material by image - Google Patents
Edge detection device of strip material by imageInfo
- Publication number
- JP2738252B2 JP2738252B2 JP5009591A JP959193A JP2738252B2 JP 2738252 B2 JP2738252 B2 JP 2738252B2 JP 5009591 A JP5009591 A JP 5009591A JP 959193 A JP959193 A JP 959193A JP 2738252 B2 JP2738252 B2 JP 2738252B2
- Authority
- JP
- Japan
- Prior art keywords
- edge position
- pixel data
- edge
- data
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Controlling Sheets Or Webs (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【0001】本発明は、走行する帯状材の端部(エッ
ジ)を撮像し、この画像よりエッジを検出する画像によ
る帯状材のエッジ検出装置に関する。[0001] The present invention relates to an apparatus for detecting an edge of a strip by taking an image of an end (edge) of the running strip and detecting an edge from the image.
【0002】[0002]
【従来の技術】鋼板やストリップを取り扱うプロセス、
例えば酸洗い、亜鉛メッキなどにおいて、コイルを巻き
取ったり耳を揃えて送り出したり、搬送中の蛇行防止の
ためなどに鋼板やストリップ(帯状材)の端部(エッ
ジ)を検出し、帯状材が正常に巻き取り、巻き出し、搬
送されるように制御が行われてる。このような制御は帯
状材を取り扱う、製紙工業、印刷製本工業、繊維工業、
プラスチック・フィルム工業などでも広く行われてい
る。この場合、帯状材のエッジを精度よく検出すること
が必要となる。2. Description of the Related Art Processes for handling steel sheets and strips,
For example, in pickling, galvanizing, etc., the ends of steel plates or strips (strips) are detected to take up the coil, send out the ears in a line, or prevent meandering during transport, and the strip Control is performed so that winding, unwinding, and conveyance are performed normally. Such controls deal with strips, paper industry, printing and binding industry, textile industry,
It is widely used in the plastic and film industries. In this case, it is necessary to accurately detect the edge of the strip.
【0003】このエッジ検出方法としてテレビカメラで
走行する帯状材のエッジ部を撮像し、エッジ部における
明暗の境目を一定のしきい値によりエッジであるか否か
判断していた。As an edge detection method, an edge portion of a running strip is imaged by a television camera, and it is determined whether a boundary between light and dark at the edge portion is an edge based on a certain threshold value.
【0004】[0004]
【発明が解決しようとする課題】このようにテレビカメ
ラでエッジ部を撮像し、その画像データからエッジを検
出する場合、次に示す条件が生じると、エッジを検出で
きないことが多かった。 映像のピントがボケている。 映像の入力レベルが低い。 照明が不均一となっている。 被写体(帯状材)がよごれている。 映像のコントラストが悪い。 エッジと思われるような濃度差を示す場所が2つ以上
ある。 エッジ部濃度変化の方向の明から暗または暗から明が
時によって反転する。As described above, when an edge portion is imaged by a television camera and an edge is detected from the image data, the edge cannot be often detected under the following conditions. The image is out of focus. Video input level is low. Lighting is uneven. The subject (strip) is dirty. The image contrast is poor. There are two or more locations that show a density difference that may be considered an edge. Light-to-dark or dark-to-bright in the direction of the edge density change is sometimes inverted.
【0005】本発明は、上述のような悪条件の下でも多
種のデータ処理を行うことにより、精度よくエッジを検
出する画像による帯状材のエッジ検出装置を提供するこ
とを目的とする。An object of the present invention is to provide an apparatus for detecting an edge of a band-shaped material by using an image for detecting edges with high accuracy by performing various types of data processing even under the above-mentioned bad conditions.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するた
め、テレビカメラから出力されるアナログ信号をディジ
タル信号に変換するA/D変換器と、この変換したデー
タを画面表示する際、連続した所定数の水平走査線上の
画素につき水平方向同一位置にある画素のデータを平均
して一次元画素データ列を得る一次元画素列生成手段
と、この一次元画素データ列の注目画素の前画素k個、
後画素k個をとり、それぞれに所定の係数を乗じ、その
前画素群、後画素群の和を求めた後、両和の差を新たな
注目画素とした差値画素データ列を求め、kの値に応じ
て第1差値画素データ列〜第n差値画素データ列とし、
各差値画素データ列の各構成画素の水平走査線上の位置
と、既に算出したエッジ位置との差に応じた重み付けを
各構成画素に行って得た修正画素データ列を第1修正画
素データ列〜第n修正画素データ列として生成する画素
データ列生成手段と、この各修正画素データ列の最大値
を有する画素位置をその修正画素データ列のエッジ位置
候補とし、このエッジ位置候補に基づき所定の判断基準
で1つのエッジ位置を選択するエッジ位置選択手段とを
備えたものである。In order to achieve the above object, an A / D converter for converting an analog signal output from a television camera into a digital signal, and a method for displaying the converted data on a screen, A one-dimensional pixel array generating means for averaging the data of the pixels at the same position in the horizontal direction for the pixels on the number of horizontal scanning lines to obtain a one-dimensional pixel data array; and k pixels preceding the pixel of interest in the one-dimensional pixel data array ,
Taking k rear pixels, multiplying each by a predetermined coefficient, obtaining the sum of the previous pixel group and the rear pixel group, then obtaining a difference value pixel data sequence using the difference between the two as a new pixel of interest, The first difference pixel data sequence to the nth difference pixel data sequence according to the value of
A corrected pixel data sequence obtained by weighting each constituent pixel according to the difference between the position of each constituent pixel of each difference pixel data sequence on the horizontal scanning line and the already calculated edge position is a first corrected pixel data sequence Pixel data string generating means for generating the corrected pixel data string as the n-th corrected pixel data string, and a pixel position having the maximum value of each corrected pixel data string as an edge position candidate of the corrected pixel data string. Edge position selecting means for selecting one edge position based on a judgment criterion.
【0007】また、前記所定の判断基準として、各修正
画素データ列の最大値と次に大きな値との関係を調べ、
両者の差が大きい修正画素データ列のエッジ位置候補を
選択するようにしたものである。In addition, as the predetermined criterion, the relationship between the maximum value of each corrected pixel data string and the next largest value is examined.
An edge position candidate of a corrected pixel data string having a large difference between the two is selected.
【0008】また、前記所定の判断基準として、各修正
画像データ列を曲線で表し、エッジ位置候補近傍の曲線
と所定レベルのしきい値と交差する2つの交点の中心位
置を新たなエッジ位置候補として選択するようにしたも
のである。As the predetermined criterion, each corrected image data string is represented by a curve, and the center position of two intersections that intersects a curve near the edge position candidate with a predetermined level threshold value is set as a new edge position candidate. Is selected.
【0009】また、前記新たなエッジ位置候補と既に算
出したエッジ位置との距離の近さを考慮してエッジ位置
候補を選択するようにしたものである。In addition, the edge position candidate is selected in consideration of the short distance between the new edge position candidate and the already calculated edge position.
【0010】また、前記所定の判断基準として、各修正
画素データ列の最大値の内最も大きな値を有する修正画
素データ列のエッジ位置候補を選択するようにしたもの
である。Further, as the predetermined criterion, an edge position candidate of the corrected pixel data string having the largest value among the maximum values of each corrected pixel data string is selected.
【0011】また、前記所定の判断基準として、各修正
画素データ列ごとに計算精度と雑音を考慮して信頼度の
高低を評価し、その修正画素データ列のエッジ位置候補
を選択するに当たり、その信頼度の高低を考慮するよう
にしたものである。As the predetermined criterion, the degree of reliability is evaluated in consideration of calculation accuracy and noise for each corrected pixel data sequence, and when selecting an edge position candidate of the corrected pixel data sequence, The level of reliability is taken into consideration.
【0012】また、前記所定の判断基準として、各修正
画素データ列のエッジ位置候補につき、そのエッジ位置
候補の濃度の変化の方向が明から暗か、暗から明であっ
たかを調べこの濃度の変化の方向が既に算出したエッジ
位置の濃度方向の変化と同じである場合その同じである
エッジ位置候補を信頼度が高いとして選択するようにし
たものである。Further, as the predetermined criterion, for each edge position candidate of each corrected pixel data string, it is checked whether the direction of the density change of the edge position candidate is from light to dark or from dark to light. Is the same as the change in the density direction of the edge position already calculated, the same edge position candidate is selected as having high reliability.
【0013】[0013]
【作用】A/D変換器でテレビカメラから出力されるア
ナログ信号をディジタル信号に変換する一次元画素列生
成手段は、この変換したディジタルを画面表示する際、
連続した所定数、例えば64本の水平走査線上の画素につ
き、水平方向同一位置にある画素のデータを垂直方向に
平均して一次元画素データ列を得る。つまり64本の走査
線上の画素を例にとれば水平走査線上の各画素が64個の
画素の平均値からなる一次元画素データ列を作る。これ
によりノイズの影響を少なくすることができる。画素デ
ータ列生成手段は、この一次元画素データ列の注目画素
( 任意の画素) の前に並んだk個と後に並んだk個をと
り、各k個の画素のそれぞれに所定の係数を乗じ、前側
の画素群の和と後側の画素群の和を求め、この両和の差
を注目画素の新たなデータとした差値画素データ列を求
める。この差値画素データ列は水平走査線上の画素の濃
度変化を強調したものである。この差値画素データ列に
ついて各構成画素の水平走査線上の位置と、既に算出し
たエッジ位置との差をとり、差に応じた重み付けを各構
成画素に行って修正画素データ列を作成する。エッジ位
置は通常大きくは変化しないものであり、大きく変化し
た場合、ノイズによることが多いのでこれをデータから
除く処理である。このようにして得たkの値によって異
なる各修正画素データ列について、それぞれの修正画素
データ列ごとに最大値を有する画素位置をその修正画素
データ列のエッジ位置候補とする。このエッジ位置候補
に基づき所定の判断基準により、エッジ位置選択手段で
1つのエッジ位置候補を正しいエッジ位置として選択す
る。A one-dimensional pixel array generating means for converting an analog signal output from a television camera into a digital signal by an A / D converter, when displaying the converted digital on a screen,
For a predetermined number of continuous pixels, for example, 64 pixels on a horizontal scanning line, data of pixels at the same position in the horizontal direction is averaged in the vertical direction to obtain a one-dimensional pixel data string. In other words, taking pixels on 64 scanning lines as an example, each pixel on a horizontal scanning line creates a one-dimensional pixel data string composed of an average value of 64 pixels. Thereby, the influence of noise can be reduced. The pixel data string generating means is configured to output the pixel of interest of the one-dimensional pixel data string.
(Arbitrary pixel) Take the k pixels arranged before and after, and multiply each of the k pixels by a predetermined coefficient, and calculate the sum of the front pixel group and the sum of the rear pixel group. Then, a difference value pixel data string is determined using the difference between the two sums as new data of the target pixel. This difference value pixel data sequence emphasizes the density change of the pixels on the horizontal scanning line. A difference between the position of each constituent pixel on the horizontal scanning line and the already calculated edge position is obtained for the difference pixel data string, and weighting according to the difference is performed on each constituent pixel to create a corrected pixel data string. Usually, the edge position does not largely change. If the edge position greatly changes, it is often caused by noise. With respect to each of the corrected pixel data strings that differ depending on the value of k obtained in this way, the pixel position having the maximum value for each of the corrected pixel data strings is set as an edge position candidate of the corrected pixel data string. Based on this edge position candidate, one edge position candidate is selected as a correct edge position by the edge position selection means according to a predetermined criterion.
【0014】所定の判断基準として、各修正画素データ
列について、その最大値と次に大きな値との関係を調
べ、両者の差が大きい修正画素データ列のエッジ位置候
補を選択する。エッジ位置候補は最大値を示す画素の位
置であることが多いがこの最大値に近い別の値がある場
合それはノイズによって発生した可能性が高い。故に最
大値と次に大きな値との差が大きい程ノイズの少ないデ
ータであるので、ノイズの少ないデータによって決めた
エッジ位置候補を正しいエッジ位置候補として選択す
る。ここでノイズとは電気的なもの、照明むらやゴミ、
キズ、さらに検査対象の表面状態の変動、エッジの形状
変化などである。As a predetermined criterion, the relationship between the maximum value and the next largest value is checked for each corrected pixel data string, and an edge position candidate of the corrected pixel data string having a large difference between the two is selected. The edge position candidate is often the position of the pixel indicating the maximum value, but if there is another value close to this maximum value, it is highly likely that it has been caused by noise. Therefore, as the difference between the maximum value and the next largest value is larger, the data has less noise. Therefore, an edge position candidate determined by data having less noise is selected as a correct edge position candidate. The noise here is electrical, uneven lighting or dust,
These include flaws, changes in the surface state of the inspection target, and changes in the shape of the edge.
【0015】所定の判断基準として、各修正画像データ
列を曲線で表した場合、ノイズ等の外乱がある場合で
も、エッジ位置候補はエッジ位置候補近傍を表す曲線と
所定のレベルのしきい値と交差する2つの交点の中心位
置に近くなる。故にエッジ位置候補を選択するに当た
り、この中心点を新たなエッジ位置候補として選択す
る。As a predetermined criterion, when each corrected image data string is represented by a curve, even if there is disturbance such as noise, the edge position candidate is determined by a curve representing the vicinity of the edge position candidate and a threshold of a predetermined level. It becomes closer to the center of the two intersections that intersect. Therefore, when selecting an edge position candidate, this center point is selected as a new edge position candidate.
【0016】また、この新たなエッジ位置候補が既に算
出したエッジ位置に近いか否かを考慮してエッジ位置候
補を選択することにより、さらに信頼性の高い選択をす
ることができる。Further, by selecting an edge position candidate in consideration of whether or not this new edge position candidate is close to the already calculated edge position, a more reliable selection can be made.
【0017】所定の判断基準として、各修正画素データ
列の最大値の内、最も大きな値を有する修正画素データ
列のエッジ位置候補を選択する。これはエッジ位置は最
も濃淡の差の大きな位置であるので、各修正画素データ
列の最大値を比較し、最も大きな値の修正画素データ列
のエッジ位置候補を正しいエッジ位置とする。As a predetermined criterion, a candidate edge position of the corrected pixel data string having the largest value among the maximum values of the corrected pixel data strings is selected. Since the edge position is the position having the largest difference in shading, the maximum value of each corrected pixel data string is compared, and the edge position candidate of the corrected pixel data string having the largest value is determined as the correct edge position.
【0018】差値画素データ列について、kの値が小さ
い程、つまりk=1のときが画素の濃淡の差を最も強調
して表しており、kが大きくなるほど強調の程度は小さ
くなると説明したが、これはそのまま修正画素データ列
にもあてはまる。一方ノイズの影響はkが小さい程大き
く、kが大きい程小さくなる。このように計算精度から
はk=1の修正画素データ列より定めたエッジ位置候補
がよいが、ノイズを考慮するとその精度は低下する。こ
のノイズは照明などテレビカメラの撮映環境に大きく依
存するほか、エッジの形状変化やゴミ、キズによる。そ
こで計算精度とノイズを考慮して各修正画素データ列の
エッジ位置候補の信頼性の高低を判断しエッジ位置候補
を選択する。Regarding the difference pixel data string, it is described that the smaller the value of k, that is, when k = 1, the most emphasized is the difference in shading of pixels, and it has been described that the greater k, the smaller the degree of emphasis. However, this also applies to the corrected pixel data string as it is. On the other hand, the influence of noise is larger as k is smaller, and is smaller as k is larger. As described above, from the calculation accuracy, the edge position candidate determined from the corrected pixel data string of k = 1 is good, but the accuracy is reduced when noise is considered. This noise depends largely on the shooting environment of the TV camera, such as lighting, as well as changes in the shape of the edges, dust, and scratches. Therefore, in consideration of calculation accuracy and noise, the level of reliability of the edge position candidate of each corrected pixel data string is determined, and the edge position candidate is selected.
【0019】エッジ位置検出は走行している帯状材をテ
レビカメラで撮像し、そのデータを所定の間隔でサンプ
リングしながら行う。このため、前に検出したエッジ位
置と今回算出しているエッジ位置について一次元画素デ
ータ列と対応して濃度差の変化の方向、つまり明から暗
かまたは暗から明が変わる可能性は少ない。そこでこの
濃度差の変化の方向が変わらない修正画素データ列のエ
ッジ位置候補を信頼性が高いとして選択する。The edge position is detected by photographing the running strip with a television camera and sampling the data at predetermined intervals. For this reason, there is little possibility that the direction of the change in the density difference, that is, from bright to dark or from dark to bright, will correspond to the one-dimensional pixel data string between the previously detected edge position and the currently calculated edge position. Therefore, an edge position candidate of the corrected pixel data string in which the direction of the change of the density difference does not change is selected as having high reliability.
【0020】[0020]
【実施例】以下、本発明の実施例を図面を参照して説明
する。図1は本発明の実施例を実現する画像処理装置の
ブロック図である。テレビカメラ1と、このテレビカメ
ラ1からの入力データをアナログからディジタルに変換
するA/D変換器2と、この変換したデータを格納する
入力バッファ3と、バス4と、全体を制御するCPU5
と、画像データを処理する画像処理プロセッサ6と、C
PU5の動作を定めるプログラムを格納するプログラム
メモリ7と、画像処理プロセッサ6が濃淡処理したデー
タを格納する濃淡データメモリ8と、出力データを一旦
格納する出力バッファ9と、この出力データのディジタ
ルデータをアナログデータに変換するD/A変換器10
と、出力データを表示するCRT11から構成される。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus for realizing an embodiment of the present invention. A television camera 1, an A / D converter 2 for converting input data from the television camera 1 from analog to digital, an input buffer 3 for storing the converted data, a bus 4, and a CPU 5 for controlling the whole
An image processor 6 for processing image data;
A program memory 7 for storing a program for determining the operation of the PU 5, a grayscale data memory 8 for storing data subjected to grayscale processing by the image processor 6, an output buffer 9 for temporarily storing output data, and digital data of the output data. D / A converter 10 for converting to analog data
And a CRT 11 for displaying output data.
【0021】図2〜図5は本実施例の処理の流れを示す
図である。以下、これらの図に従って説明する。図2に
おいてITV(工業用テレビカメラ)1より撮像された
走行する帯状材のエッジ部はA/D変換器2によりアナ
ログデータよりディジタルデータに変換される。FIG. 2 to FIG. 5 are diagrams showing the flow of the processing of this embodiment. Hereinafter, description will be made with reference to these figures. In FIG. 2, an edge portion of a running strip taken by an ITV (industrial television camera) 1 is converted from analog data into digital data by an A / D converter 2.
【0022】図6は画像データより以降の解析に用いる
データのサンプリング方法を示し、(a)に示すように
1画面走査のうち上下方向に中央部に近い64本の走査線
上のデータを採用する。このデータを処理して1つのエ
ッジを検出するのに例えば1/6秒かかる場合、次のデ
ータ採用は(a)に示す画面のデータを採用後1/6秒
後に(b)に示すように1画面走査の中央の64本の走査
線上のデータを採用する。なお64本は一例であり異なっ
た本数としてもよい。各走査線ごとのデータは、例えば
8ビットのバイナリー信号に変換される。FIG. 6 shows a method of sampling data used for analysis after image data. As shown in FIG. 6A, data on 64 scanning lines near the center in the vertical direction in one screen scan is employed. . If it takes, for example, 1/6 second to detect one edge by processing this data, the next data is adopted as shown in (b) 1/6 second after the screen data shown in (a) is adopted. Data on the center 64 scanning lines of one screen scan is adopted. Note that 64 is an example, and a different number may be used. Data for each scanning line is converted into, for example, an 8-bit binary signal.
【0023】図2の積算ステージ20において、この64本
のデータを平均化する。これは走査線上同一位置の画素
を64回加算してゆくもので1ライン分のデータを1ライ
ンメモリに記憶しておき、次に入力された1ラインのデ
ータと加算し、これを次々と63ラインのデータが加算さ
れる。このように加算することにより、データが平均化
されランダムノイズが低減した1次元のデータ列が得ら
れる。In the integrating stage 20 shown in FIG. 2, these 64 data are averaged. In this method, pixels at the same position on a scanning line are added 64 times. One line of data is stored in a one-line memory, and is added to the next input one-line data. Line data is added. By performing the addition in this manner, a one-dimensional data string in which data is averaged and random noise is reduced is obtained.
【0024】図2のレベル算出ステージ21はデータの最
大振幅を取り出す処理である。エッジ位置は隣接する画
素間で濃淡の差が大きいところである。故に各画素の差
が問題となるので、最大振幅としてデータの最大値と、
最小値間をとり、この最大振幅の間でのデータの変動を
調べるようにする。The level calculation stage 21 in FIG. 2 is a process for extracting the maximum amplitude of data. The edge position is where the difference in shading between adjacent pixels is large. Therefore, since the difference between each pixel becomes a problem, the maximum value of the data as the maximum amplitude,
The minimum value is taken, and the variation of data between the maximum amplitudes is examined.
【0025】図7は1次元データ列のレベル(最大振
幅)算出を示す図で、横軸は走査線上の 画素の位置、
縦軸は画素の濃度を示すグレイレベルを示す。最大値と
最小値の差を最大振幅とし、各データより最小値を差し
引くことによりオフセットを除去する。FIG. 7 is a diagram showing the calculation of the level (maximum amplitude) of a one-dimensional data string. The horizontal axis represents the position of a pixel on a scanning line,
The vertical axis indicates the gray level indicating the density of the pixel. The difference between the maximum value and the minimum value is defined as the maximum amplitude, and the offset is removed by subtracting the minimum value from each data.
【0026】このようにして得られた最大振幅が小さい
場合、相対的にノイズが大きくなる。このため最大振幅
の大きさにより更にノイズを除去するため横方向にも平
均化処理を行う。これは対象とする画素(注目画素)と
その近傍の画素とを加算することにより対象データを平
均化しS/N比を改善するものである。When the maximum amplitude thus obtained is small, noise becomes relatively large. Therefore, averaging is also performed in the horizontal direction to further remove noise depending on the magnitude of the maximum amplitude. This is to add the target pixel (target pixel) and its neighboring pixels to average the target data and improve the S / N ratio.
【0027】この平均化処理を行う条件とその処理の一
例を示す。 条件1:最大振幅≧データの最大値/4 無処理 条件2:データの最大値/4>最大振幅≧データの最大
値/(8√2) スムージング3を(1)式により行う。 条件3:データの最大値/(8√2)>最大振幅≧デー
タの最大値/32 スムージング5を(2)式により行う。 条件4:最大振幅<データの最大値/32 エッジ検出不可能なのでエラーとする。The conditions for performing the averaging process and an example of the process will be described. Condition 1: maximum amplitude ≧ maximum value of data / 4 no processing Condition 2: maximum value of data / 4> maximum amplitude ≧ maximum value of data / (8√2) Smoothing 3 is performed by equation (1). Condition 3: maximum value of data / (8√2)> maximum amplitude ≧ maximum value of data / 32 Smoothing 5 is performed by equation (2). Condition 4: Maximum amplitude <maximum value of data / 32 Since an edge cannot be detected, an error occurs.
【0028】スムージング処理は図8に示すような並ん
だデータについて中心のD0について(1)式,(2)
式によって行う。 (D−1)+D0+(D+1) …(1) (D−2)+(D−1)+D0+(D+1)+(D+2) …(2)In the smoothing process, the following equation (1) and (2) are used for D0 at the center of the data arranged as shown in FIG.
This is done by an expression. (D-1) + D0 + (D + 1) (1) (D-2) + (D-1) + D0 + (D + 1) + (D + 2) (2)
【0029】(1)式,(2)式によってスムージング
3、スムージング5を行ったデータは再度図7で説明し
たレベルの算出を行う。The data on which the smoothing 3 and the smoothing 5 have been performed by the equations (1) and (2) are used to calculate the level described with reference to FIG. 7 again.
【0030】次に図3に移り、レベル算出ステージ21に
おいて得られたデータをデータ伸長ステージ22で伸長処
理を行う。この伸長処理はコンピュータの能力に合わせ
てデータを処理するもので、例えばコンピュータに16ビ
ットの処理能力がある場合、レベル算出ステージ21にお
いて得られたデータが14ビットの場合、このデータを16
ビットに伸長する処理である。Next, referring to FIG. 3, the data obtained in the level calculation stage 21 is expanded in a data expansion stage 22. This decompression process processes data in accordance with the capability of the computer. For example, if the computer has a processing capability of 16 bits, if the data obtained in the level calculation stage 21 is 14 bits, this data is
This is the process of expanding to bits.
【0031】図3において、この伸長したデータを微分
フィルタステージ23で微分処理し、隣接する画素との差
を演算する。この微分フィルタとして複数のフィルタを
設ける。本実施例では5種類の場合を示すが、この数に
限定する必要はない。In FIG. 3, the expanded data is differentiated by a differentiation filter stage 23 to calculate a difference between adjacent pixels. A plurality of filters are provided as the differential filters. In this embodiment, five types are shown, but it is not necessary to limit to this number.
【0032】範囲3の積和演算処理を(3)式に示し、
範囲5の積和演算処理を(4)式に示す。 ED3(*)=D(−1)−D(1) …(3) ED5(*)=(5D(−2)+3D(−1)−3D(1)−5D(2))/8 …(4) ここでレベル算出したデータは次のように並んでいるも
のとする。D(−2),D(−1),D(*),D
(1),D(2)Equation (3) shows the product-sum operation in the range 3.
Equation (4) shows the product-sum operation in the range 5. ED3 (*) = D (-1) -D (1) (3) ED5 (*) = (5D (-2) + 3D (-1) -3D (1) -5D (2)) / 8 ( 4) Here, it is assumed that the data whose levels have been calculated are arranged as follows. D (-2), D (-1), D (*), D
(1), D (2)
【0033】範囲9の積和演算処理を(5)式に示す。 ED9(*)=(13D(−4)+10D(−3)+6D(−2)+3D(−1) −3D(1)−6D(2)−10D(3)−13D(4))/32 …(5)The product-sum operation in the range 9 is shown in equation (5). ED9 (*) = (13D (-4) + 10D (-3) + 6D (-2) + 3D (-1) -3D (1) -6D (2) -10D (3) -13D (4)) / 32 ... (5)
【0034】範囲17の積和演算処理を(6)式に示す。 ED17(*)=(6D(−8)+6D(−7)+5D(−6)+5D(−5) +4D(−4)+3D(−3)+2D(−2)+D(−1) −D(1)−2D(2)−3D(3)−4D(4)−5D(5) −5D(6)−6D(7)−6D(8))/32 …(6)The product-sum operation in the range 17 is shown in equation (6). ED17 (*) = (6D (-8) + 6D (-7) + 5D (-6) + 5D (-5) + 4D (-4) + 3D (-3) + 2D (-2) + D (-1) -D (1 ) -2D (2) -3D (3) -4D (4) -5D (5) -5D (6) -6D (7) -6D (8)) / 32 ... (6)
【0035】範囲17Rはデータを16で割り、これに
(1)式,(2)式で示したと同じ要領でスムージング
15を実施し更に広範囲のデータも含んだ処理とし、その
データに範囲17の積和演算処理を実施したものである。
これをED17Rとする。In the range 17R, the data is divided by 16, and the data is smoothed in the same manner as shown by the equations (1) and (2).
This is a process in which step 15 is performed to further include a wide range of data, and the product-sum operation process in the range 17 is performed on the data.
This is ED17R.
【0036】この微分フィルタ処理は基本的にはデータ
の変化量を抽出する処理である。変化量を単に「変化率
が大きい」として捕らえてはノイズによる変化の方が本
来のエッジよりも大きく認識されることもあるため、単
純なハイパスフィルタに代え対象とされる画素とその近
傍の画素間での積和演算処理によるバンドバスフィルタ
を用いる。この演算を幾種類かの画素範囲間で行い、そ
れぞれの演算範囲の特徴を抽出するようにしたものであ
る。This differential filter process is basically a process for extracting the amount of change in data. If the amount of change is simply regarded as “large change rate”, the change due to noise may be recognized as being larger than the original edge, so that the target pixel and its neighboring pixels are replaced with a simple high-pass filter. A band pass filter based on a product-sum operation between the two is used. This calculation is performed between several types of pixel ranges, and the feature of each calculation range is extracted.
【0037】図9〜図11は範囲3〜17Rまでの積和演算
処理のデータを示す。図9〜図11において最上段はレベ
ル算出ステージ21でレベルを算出した後データ伸長ステ
ージ22でデータ伸長したものを示す。Aは範囲3、Bは
範囲5、Cは範囲9、Dは範囲17、Eは範囲17Rを示
す。図9の場合、左から明できたデータがエッジで暗に
なった場合を示し、図10は左から暗できたデータがエッ
ジで明に変化した場合を示す。図11はAとBでは最大値
が2つ出たため、AとBではエッジの判定ができずC以
降でした場合を示す。図9と図10ではいずれもA以降で
エッジが判定された例である。9 to 11 show data of the product-sum operation processing in the range 3 to 17R. In FIGS. 9 to 11, the uppermost row shows a level calculated in the level calculation stage 21 and then data expanded in the data expansion stage 22. A indicates range 3, B indicates range 5, C indicates range 9, D indicates range 17, and E indicates range 17R. FIG. 9 shows a case where data that can be lightened from the left is darkened at the edge, and FIG. 10 shows a case where data that has been darkened from the left is lightened at the edge. FIG. 11 shows a case in which A and B have two maximum values, so that an edge cannot be determined in A and B and the edge is C or later. 9 and 10 show examples in which an edge is determined after A.
【0038】図3の位置の重み付けステージ24は範囲3
〜範囲17改の処理をした各データにエッジからの距離に
応じた重み付けを行う処理である。ここで用いるエッジ
の位置は図6で説明した前回の測定で得たエッジ位置で
ある。この前回に得たエッジ位置からのずれの少なさに
応じたテンプレートを作成し、このテンプレートデータ
と生データの積を作成し、前回のエッジに近い部分の
「エッジらしさ」を強調するものである。この処理は前
回検出したエッジ位置から今回検出しようとしているエ
ッジの位置は通常あまり変化しないという前提に基づく
ものである。なお、前回のエッジ位置を前前回のエッジ
位置、または前数回のエッジ位置を平均した値としても
よい。The position weighting stage 24 in FIG.
This is a process of weighting each data subjected to the processing of the range 17 to 17 according to the distance from the edge. The edge positions used here are the edge positions obtained in the previous measurement described with reference to FIG. A template corresponding to the small deviation from the edge position obtained last time is created, a product of the template data and the raw data is created, and the "edge-likeness" of a portion close to the previous edge is emphasized. . This processing is based on the premise that the position of the edge to be detected this time from the previously detected edge position usually does not change much. Note that the previous edge position may be set to a value obtained by averaging previous and previous edge positions or an average of several previous edge positions.
【0039】図12は位置のテンプレートを作成する時の
重み付け曲線の一例を示した図である。(a)は曲線と
してSINカーブを用い、(b)は折れ線を用いた例で
ある。横軸は画素を示し、0〜1000としている。これは
微分フィルタステージ23で得られる画素はほぼ500 あ
り、曲線の最上点をTOPとし、このTOPの位置をエ
ッジの位置としてエッジが左,右の端にきたときも対応
できるようにしている。つまりTOPとなる画素の位置
を前回の処理で得られたエッジ位置とし、この位置に対
して、各画素をこのSINカーブ又は折れ線に従って重
み付けする。故にTOPの位置の画素は最大の重み付け
がなされ、これから離れるに従い重みの値はSINカー
ブ又は折れ線に従って変化してゆく。この重み付け曲線
は、検出するエッジ部の状况によりSINカーブまたは
折れ線とするが、他の曲線にしてもよい。ここまでのデ
ータは後段の判断処理で利用するのでメモリ等に保管し
てテンプレートとして用いる。この保管データをwda
tとする。FIG. 12 is a diagram showing an example of a weighting curve when a position template is created. (A) is an example using a SIN curve as a curve, and (b) is an example using a polygonal line. The horizontal axis indicates pixels, which are 0 to 1000. This means that there are almost 500 pixels obtained in the differential filter stage 23, the top point of the curve is TOP, and the position of this TOP is the position of the edge so that it is possible to cope with the case where the edge comes to the left or right end. That is, the position of the pixel serving as TOP is set as the edge position obtained in the previous processing, and each pixel is weighted to this position according to the SIN curve or the polygonal line. Therefore, the pixel at the position of the TOP is given the maximum weight, and as the distance from the pixel increases, the value of the weight changes according to the SIN curve or the polygonal line. The weighting curve may be a SIN curve or a polygonal line depending on the state of the edge to be detected, but may be another curve. The data up to this point is used in a determination process at a later stage, and is stored in a memory or the like and used as a template. This stored data is wda
Let it be t.
【0040】重み付け処理を行う理由は上述したように
前回の検出でエッジとされた位置の近傍に次のエッジが
くるのが通常であり、急変することは少ないという事実
に基づく。急変する場合として板継ぎ、切欠きマークを
入れたときなどがある。逆にエッジから離れた位置にエ
ッジらしい変化点が発見されたときは、キズ、照明むら
などのノイズによる可能性が高いためこれを打ち消そう
とする処理である。The reason why the weighting process is performed is based on the fact that the next edge is usually in the vicinity of the position determined as the edge in the previous detection, and there is little sudden change as described above. A sudden change may occur when a splice or a notch mark is made. Conversely, when a change point like an edge is found at a position distant from the edge, there is a high possibility that the change point is caused by noise such as a flaw or uneven illumination, so this processing is to cancel this.
【0041】次に図4の候補点算出ステージ25について
説明する。位置の重み付けステージ24で範囲3〜17Rの
5領域のデータが得られるが、各範囲kについては、さ
らに正領域と負領域があるので計10領域について各領域
でのエッジ位置候補を検出する。このエッジ位置候補を
検出するに当たり、位置の重み付けステージ24で得られ
た10領域についてレベルの算出、データ伸長を行う。こ
れらはレベル算出ステージ21、データ伸長ステージ22で
行った処理と同じである。Next, the candidate point calculation stage 25 of FIG. 4 will be described. In the position weighting stage 24, data of five regions ranging from 3 to 17R can be obtained. Since each range k has a positive region and a negative region, edge position candidates in each region are detected for a total of ten regions. In detecting these edge position candidates, level calculation and data expansion are performed for the ten regions obtained in the position weighting stage 24. These are the same as the processes performed in the level calculation stage 21 and the data decompression stage 22.
【0042】次に各領域ごとのエッジ位置候補の検出に
ついて説明する。検出方法として、得点法を用い複数の
候補点から1つのエッジ位置を確定する。すなわち、複
数の観点から、各候補を評価し、総合的に得点の高いも
のを真のエッジとして確定する。各領域においてエッジ
位置候補はレベル算出、データ伸長した値の最大値とな
るデータの位置である。しかしエッジの形状のバラつき
や照明の変化などによりノイズがある場合、この最大値
に近い値がエッジ部以外にも発生し、エッジ位置の判定
が難しくなる。そこで最大値となるデータの位置をエッ
ジ位置候補とするが、その確からしさを表すため最大値
に近い別の値がない場合はエッジ位置候補としての信頼
性が高いとして大きな得点を与え、最大値に近い別の値
がある場合は信頼性が低いとして小さな得点を与えるこ
とにする。これによって10領域より出されたエッジ位置
候補の内、得点の高いエッジ位置候補が最も確かなエッ
ジ位置であると判断できるようにする。Next, detection of a candidate edge position for each area will be described. As a detection method, one edge position is determined from a plurality of candidate points using a scoring method. That is, each candidate is evaluated from a plurality of viewpoints, and the one with the highest overall score is determined as a true edge. In each area, the edge position candidate is the position of the data at which the maximum value of the level calculation and data expansion is obtained. However, when there is noise due to variations in the shape of the edge or a change in illumination, a value close to the maximum value is generated in an area other than the edge portion, and it is difficult to determine the edge position. Therefore, the position of the data having the maximum value is determined as the edge position candidate.If there is no other value close to the maximum value to indicate the probability, a large score is given assuming that the edge position candidate has high reliability, and the maximum value If there is another value close to, we will give a small score as unreliable. As a result, among the edge position candidates output from the ten regions, the edge position candidate with a high score can be determined to be the most reliable edge position.
【0043】この得点を与える方法の一例を次に説明す
る。図13は各領域のエッジ位置候補に対する得点計算方
法を説明する図である。(a)は最大値に近い別の値が
ない場合を示し、(b)は最大値に近い別の値がある場
合を示す。aはデータの最大値である。これを初期値と
する。cは基準値(例えば最大値/2)である。これを
もとに各データが基準値を越えているか比較してゆく。
最大値以外に基準値を越えるデータがない場合は、所定
の得点を付ける。(b)に示すようにaとcの間にaの
次に大きなbという点がある場合は、bの高さに反比例
した得点(前記所定の得点より小さな値)を付ける。な
お、負のデータについてはその絶対値で大きさを判断し
て得点を付ける。このようにして、10の領域についてそ
れぞれエッジ位置候補とその得点が得られる。この得点
を得点と表示する。An example of a method for giving this score will be described below. FIG. 13 is a diagram illustrating a method of calculating a score for a candidate edge position in each region. (A) shows the case where there is no other value close to the maximum value, and (b) shows the case where there is another value close to the maximum value. a is the maximum value of the data. This is set as an initial value. c is a reference value (for example, maximum value / 2). Based on this, it is compared whether each data exceeds the reference value.
If there is no data exceeding the reference value other than the maximum value, a predetermined score is given. As shown in (b), when there is a point b next to a between c and a, a score inversely proportional to the height of b (a value smaller than the predetermined score) is attached. In addition, negative data is scored by judging the magnitude based on its absolute value. In this manner, edge position candidates and their scores are obtained for each of the ten regions. This score is indicated as the score.
【0044】次に図4の得点算出ステージ26について説
明する。本得点算出ステージ26は次に示す得点, ,
を算出する。その1つとして位置の重み付けステージ
24で得られた範囲3〜範囲17Rのデータを曲線で表した
場合エッジとなる最大値を生ずる点がエッジ候補となる
が、ノイズ等の外乱がある場合、最大値の位置がエッジ
とならない場合もある。図14はこのような一例を示すも
ので(a)は図2のレベル算出ステージ21で得られたデ
ータを示し、(b)は位置の重み付けステージ24で得ら
れたデータを示す。(a)のAで示すところは外乱によ
って生じたものであるが、このように急激な変化のある
ところは(b)に示すように最大値となる。Next, the score calculation stage 26 of FIG. 4 will be described. This score calculation stage 26 has the following scores,,
Is calculated. One of them is position weighting stage
When the data of range 3 to range 17R obtained in 24 is represented by a curve, a point that generates the maximum value that is an edge is an edge candidate, but when there is disturbance such as noise, the position of the maximum value is not an edge There is also. FIG. 14 shows an example of such a case, in which (a) shows the data obtained in the level calculation stage 21 of FIG. 2 and (b) shows the data obtained in the position weighting stage 24. The portion indicated by A in (a) is caused by disturbance, and the portion where such a rapid change occurs has a maximum value as shown in (b).
【0045】このため、単に最大値をエッジ位置候補に
できない場合が生じる。これは、板のエッジの形状は一
定でないこと、照明光の照らし方などでも最大値の位置
は変化するからである。このため、図14(b)に示す曲
線について所定のレベルのしきい値と交差する2点を求
め、この2点の中心位置を新たなエッジ位置候補とす
る。図15はこの状況を説明する図である。所定のレベル
として、経験的に次の, のいずれか大きい方の値を
用いるとよい結果が得られる。 7/8×初期値 (初期値+検索値)/2 ここで初期値とはデータの最大値で図13の場合のaの
値、検索値とは図13の場合のbの値である。For this reason, there may be cases where the maximum value cannot be simply used as an edge position candidate. This is because the shape of the edge of the plate is not constant, and the position of the maximum value changes depending on how the illumination light is illuminated. For this reason, two points that intersect the threshold value of the predetermined level are obtained for the curve shown in FIG. 14B, and the center position of the two points is set as a new edge position candidate. FIG. 15 is a diagram illustrating this situation. As the predetermined level, a good result can be obtained by empirically using the larger value of the following. 7/8 × initial value (initial value + search value) / 2 Here, the initial value is the maximum value of the data and is the value of a in FIG. 13, and the search value is the value of b in FIG.
【0046】またこのようにして求めた新しいエッジ位
置候補について、前回に算出したエッジ位置(又は前数
回に算出したエッジ位置の平均)との距離を算出し、こ
の距離が小さければ真のエッジ位置となる確度が高いと
判断する。For the new edge position candidate obtained in this way, the distance from the previously calculated edge position (or the average of the edge positions calculated several times before) is calculated. It is determined that the accuracy of the position is high.
【0047】上述のエッジ位置候補の経験的な信頼度評
価を得点によって行う方法として新しいエッジ位置候補
およびこの新しいエッジ位置候補と前回に算出したエッ
ジ位置との差を考慮した得点の算出方法の一例を説明
する。図15は最大値を生じる曲線から新しいエッジ位置
候補を算出する説明図である。データの最大値を初期値
aとし、検索値をbとする。ここで検索値とは図13の
(a)ではcの値、(b)ではbの値である。aとbよ
り次のようにしてエッジ位置dを求め、得点を計算す
る。図15においてd′が最大値の位置、dが新しいエッ
ジ位置候補である。As an example of a method for performing the above-described empirical reliability evaluation of the edge position candidates by using a score, an example of a new edge position candidate and a method of calculating a score in consideration of the difference between the new edge position candidate and the previously calculated edge position Will be described. FIG. 15 is an explanatory diagram for calculating a new edge position candidate from a curve that produces a maximum value. The maximum value of the data is an initial value a, and the search value is b. Here, the search value is the value of c in FIG. 13A and the value of b in FIG. The edge position d is obtained from a and b as follows, and the score is calculated. In FIG. 15, d 'is the position of the maximum value, and d is a new edge position candidate.
【0048】(1)7/8×初期値と(初期値+検索
値)/2のうち大きい方をエッジ位置を求める値とす
る。 (2)この値とエッジを表す曲線との交点をc,c1と
し、(c+c1)/2をエッジ位置とする。 (3)このエッジ位置と前回処理で得られたエッジ位置
との差の絶対値を取りこれをギャップデータGとする。
ただしG>100 のときはG=100 とする。 (4)得点を次の式で求める。 得点=(100 −G)/10 この処理は負のデータについても行う。なお、得点≧
0とする。(1) The larger one of 7/8 × initial value and (initial value + retrieval value) / 2 is set as the value for obtaining the edge position. (2) The intersection of this value and the curve representing the edge is c, c1, and (c + c1) / 2 is the edge position. (3) The absolute value of the difference between this edge position and the edge position obtained in the previous processing is taken and used as gap data G.
However, when G> 100, G = 100. (4) The score is calculated by the following equation. Score = (100−G) / 10 This process is also performed for negative data. In addition, score ≧
Set to 0.
【0049】次に図3の位置の重み付けステージ24でメ
モリに格納されていたデータのwdatを呼び出し、各
領域の最大値を求めこの最大値に応じた得点を求め、こ
れを得点とする。Next, the wdat of the data stored in the memory is called in the position weighting stage 24 of FIG. 3, the maximum value of each area is obtained, and a score corresponding to the maximum value is obtained, and this is set as the score.
【0050】次に積和演算によって得られた範囲3〜範
囲17Rについて、各範囲ごとのエッジ位置候補の信頼性
の高低に対する得点を設ける。積和演算は(3)式〜
(6)式に示すように範囲kの値が小さい程隣接画素と
の濃淡の差を強調している。故に範囲3で求めたエッジ
位置候補が一番確からしいと思われる。しかし、ノイズ
の影響は範囲3が最も大きく範囲17Rが最も少ない。こ
の両者を考慮して、範囲3〜範囲17Rに得点をつける。
これを得点とする。この得点の一例を図9〜図11を
用いて示す。これによればA(範囲3)は4、B(範囲
5)は6、C(範囲9)は4、D(範囲17)は2、E
(範囲17R)は0であり、範囲5が濃淡の差の強調度、
ノイズの影響を考慮して最大の得点となっている。しか
しこの得点も被写体やその撮影状况などによって変わる
場合もあり、状况に応じて定める必要がある。Next, for the range 3 to range 17R obtained by the product-sum operation, a score is provided for the degree of reliability of the edge position candidate for each range. The product-sum operation is from equation (3)
As shown in the equation (6), the smaller the value of the range k, the more the difference in density between adjacent pixels is emphasized. Therefore, it seems that the edge position candidate obtained in the range 3 is most likely. However, the influence of noise is largest in range 3 and smallest in range 17R. Taking these both into consideration, a score is given in the range 3 to the range 17R.
Score this. An example of this score is shown with reference to FIGS. According to this, A (range 3) is 4, B (range 5) is 6, C (range 9) is 4, D (range 17) is 2, E
(Range 17R) is 0, and Range 5 is the degree of emphasis of shading difference,
The maximum score is given in consideration of the influence of noise. However, this score may also vary depending on the subject, the shooting situation, and the like, and must be determined according to the situation.
【0051】次に前回の処理で得られた濃度差の変化の
方向と今回の濃度差の変化の方向が一致しているか否か
により信頼度の高低があるので得点を与える。図9と図
10に示すように濃淡差の変化の方向が明から暗、または
暗から明であるかについて、前回の処理の濃淡差の変化
の方向と今回の処理の濃淡差の変化の方向を調べ、一致
していた場合と不一致の場合で得点に差を付けて得る。
この得点を得点とする。前回の処理と今回の処理で濃
淡差の変化の方向が一致しているのが正常であるのでこ
の得点を高くし、不一致の場合は異常として得点を低
く、例えば0にする。Next, a score is given because the degree of reliability is high or low depending on whether or not the direction of change of the density difference obtained in the previous processing matches the direction of change of the current density difference. FIG. 9 and FIG.
As shown in FIG. 10, as to whether the direction of the change in the gray level is from light to dark or from dark to light, the direction of the change in the gray level in the previous processing and the direction of the change in the gray level in the current processing are checked. The difference between the score for the match and the score for the match is obtained.
This score is taken as the score. Since it is normal that the direction of the change in the shading difference is the same in the previous processing and the current processing, this score is increased, and when they do not match, the score is determined as abnormal and the score is set to 0, for example.
【0052】図5において判断ステージ27は、候補点算
出ステージ25で各領域より出された10のエッジ位置候補
の得点、位置の重み付けステージ24でメモリに格納し
たwdatより得られた得点、ボーナス算出ステージ
26で得られた得点、、を考慮して1つのエッジ位
置を決定する。これらの得点はそれぞれ性質の異なるも
のであるが、得点の値を決めるにあたり、他の得点の値
との整合性を考慮してその値を決めることにより、得点
〜を加算した総合得点を計算し、この総合得点の一
番大きな領域におけるエッジ位置候補を今回処理のエッ
ジ位置とすることができる。こうして得られた,今回の
処理のエッジ位置を真のエッジ位置としてもよいが、今
回処理エッジ位置と前回処理のエッジ位置の平均位置を
真のエッジ位置として決定してもよい。このように平均
をとった方がエッジ位置のバラツキが少なくなる。In FIG. 5, the judgment stage 27 includes a score of ten edge position candidates output from each area in the candidate point calculation stage 25, a score obtained from wdat stored in the memory in the position weighting stage 24, and a bonus calculation. stage
One edge position is determined in consideration of the score obtained in 26. These scores have different properties, but in determining the value of the score, determine the value in consideration of consistency with other score values, and calculate the total score by adding the score ~. The edge position candidate in the region having the largest total score can be set as the edge position of the current processing. The thus obtained edge position of the current processing may be used as the true edge position, or the average position of the current processing edge position and the previous processing edge position may be determined as the true edge position. The averaging reduces the variation in edge position.
【0053】[0053]
【発明の効果】以上の説明から明らかなように、本発明
は、複数の走査線上のデータを積算して平均一次元デー
タとし、これを複数の微分フィルタによって、各微分フ
ィルタごとにエッジ候補を求め、各エッジ候補の算出方
法やノイズを考慮して得点付けをし、この得点によって
エッジを決定するので、精度良くエッジを決定すること
ができる。As is apparent from the above description, the present invention integrates data on a plurality of scanning lines to obtain average one-dimensional data, and converts the average one-dimensional data into a plurality of differential filters to determine an edge candidate for each differential filter. Then, a score is given in consideration of the calculation method of each edge candidate and noise, and the edge is determined based on the score. Therefore, the edge can be determined with high accuracy.
【図1】本発明を実現するハードウェアのブロック図で
ある。FIG. 1 is a block diagram of hardware for realizing the present invention.
【図2】テレビカメラでの画像入力よりレベル算出ステ
ージまでの処理を示す図である。FIG. 2 is a diagram showing a process from an image input by a television camera to a level calculation stage.
【図3】データ伸長ステージより位置の重み付けステー
ジまでの処理を示す図である。FIG. 3 is a diagram showing processing from a data decompression stage to a position weighting stage.
【図4】候補点算出ステージと得点算出ステージの処理
を示す図である。FIG. 4 is a diagram showing processing in a candidate point calculation stage and a score calculation stage.
【図5】判断ステージの処理を示す図である。FIG. 5 is a diagram illustrating processing in a determination stage.
【図6】データを採取する走査線を示す図である。FIG. 6 is a diagram showing scan lines for collecting data.
【図7】データのレベルを算出する説明図である。FIG. 7 is an explanatory diagram for calculating a data level.
【図8】画素の並びを説明する図である。FIG. 8 is a diagram illustrating an arrangement of pixels.
【図9】入力データと積和演算の例を示す図である。FIG. 9 is a diagram illustrating an example of input data and a product-sum operation.
【図10】入力データと積和演算の別の例を示す図であ
る。FIG. 10 is a diagram illustrating another example of input data and a product-sum operation.
【図11】入力データと積和演算の更に別の例を示す図で
ある。FIG. 11 is a diagram illustrating still another example of the input data and the product-sum operation.
【図12】位置の重み付けを説明する図である。FIG. 12 is a diagram illustrating position weighting.
【図13】エッジ位置候補を絞り込む処理を説明する図で
ある。FIG. 13 is a diagram illustrating a process of narrowing down edge position candidates.
【図14】最大値の位置とエッジ位置候補が異なる例を示
す図である。FIG. 14 is a diagram illustrating an example in which a position of a maximum value and an edge position candidate are different.
【図15】最大値を生じる曲線から新しいエッジ位置候補
を算出する方法を説明する図である。FIG. 15 is a diagram illustrating a method of calculating a new edge position candidate from a curve that produces a maximum value.
Claims (7)
号をディジタル信号に変換するA/D変換器と、この変
換したデータを画面表示する際、連続した所定数の水平
走査線上の画素につき水平方向同一位置にある画素のデ
ータを平均して一次元画素データ列を得る一次元画素列
生成手段と、この一次元画素データ列の注目画素の前画
素k個、後画素k個をとり、それぞれに所定の係数を乗
じ、その前画素群、後画素群の和を求めた後、両和の差
を新たな注目画素とした差値画素データ列を求め、kの
値に応じて第1差値画素データ列〜第n差値画素データ
列とし、各差値画素データ列の各構成画素の水平走査線
上の位置と、既に算出したエッジ位置との差に応じた重
み付けを各構成画素に行って得た修正画素データ列を第
1修正画素データ列〜第n修正画素データ列として生成
する画素データ列生成手段と、この各修正画素データ列
の最大値を有する画素位置をその修正画素データ列のエ
ッジ位置候補とし、このエッジ位置候補に基づき所定の
判断基準で1つのエッジ位置を選択するエッジ位置選択
手段とを備えたことを特徴とする画像による帯状材のエ
ッジ検出装置。An A / D converter for converting an analog signal output from a television camera into a digital signal, and for displaying the converted data on a screen, the same number of pixels on a predetermined number of continuous horizontal scanning lines in the horizontal direction are used. A one-dimensional pixel row generating means for averaging the data of the pixels at the position to obtain a one-dimensional pixel data row; and taking k pixels before and k pixels after the target pixel of the one-dimensional pixel data row, and , A sum of the preceding pixel group and the succeeding pixel group is obtained, and a difference pixel data sequence in which the difference between the two pixels is set as a new pixel of interest is obtained. The first difference pixel pixel is determined according to the value of k. From the data sequence to the n-th difference value pixel data sequence, weighting is performed on each component pixel according to the difference between the position on the horizontal scanning line of each component pixel of each difference pixel data sequence and the already calculated edge position. The corrected pixel data sequence to the first corrected pixel data sequence Pixel data string generating means for generating the corrected pixel data string as the n-th corrected pixel data string, and a pixel position having the maximum value of each corrected pixel data string as an edge position candidate of the corrected pixel data string. And an edge position selecting means for selecting one edge position based on a criterion.
データ列の最大値と次に大きな値との関係を調べ、両者
の差が大きい修正画素データ列のエッジ位置候補を選択
するようにしたことを特徴とする請求項1記載の画像に
よる帯状材のエッジ検出装置。2. As the predetermined criterion, the relationship between the maximum value of each corrected pixel data string and the next largest value is checked, and an edge position candidate of the corrected pixel data string having a large difference between the two is selected. 2. An apparatus for detecting an edge of a band-shaped material based on an image according to claim 1.
データ列を曲線で表し、エッジ位置候補近傍の曲線と所
定のレベルのしきい値と交差する2つの交点の中心位置
を新たなエッジ位置候補として選択するようにしたこと
を特徴とする請求項1記載の画像による帯状材のエッジ
検出装置。3. As the predetermined criterion, each corrected image data sequence is represented by a curve, and a center position of two intersections that intersects a curve near an edge position candidate with a predetermined level threshold value is set as a new edge position. 2. The apparatus according to claim 1, wherein the edge is selected as a candidate.
たエッジ位置との距離の近さを考慮してエッジ位置候補
を選択するようにしたことを特徴とする請求項3記載の
画像による帯状材のエッジ検出装置。4. The strip-shaped material according to claim 3, wherein an edge position candidate is selected in consideration of a short distance between the new edge position candidate and an already calculated edge position. Edge detection device.
データ列の最大値の内最も大きな値を有する修正画素デ
ータ列のエッジ位置候補を選択するようにしたことを特
徴とする請求項1記載の画像による帯状材のエッジ検出
装置。5. An edge position candidate of a corrected pixel data string having the largest value among the maximum values of each corrected pixel data string as the predetermined judgment criterion. For detecting the edge of a strip by using the image of FIG.
データ列ごとに計算精度と雑音を考慮して信頼度の高低
を評価し、その修正画素データ列のエッジ位置候補を選
択するに当たり、その信頼度の高低を考慮するようにし
たことを特徴とする請求項1記載の画像による帯状材の
エッジ検出装置。6. As the predetermined criterion, the degree of reliability is evaluated in consideration of calculation accuracy and noise for each corrected pixel data string, and when selecting an edge position candidate of the corrected pixel data string, 2. The apparatus according to claim 1, wherein the degree of reliability is considered.
データ列のエッジ位置候補につき、そのエッジ位置候補
の濃度差の変化の方向が明から暗か、暗から明であった
かを調べこの濃度差の変化の方向が既に算出したエッジ
位置の濃度差方向の変化と同じである場合その同じであ
るエッジ位置候補を信頼度が高いとして選択するように
したことを特徴とする請求項1記載の画像による帯状材
のエッジ検出装置。7. As the predetermined criterion, for each of the edge position candidates of each of the corrected pixel data strings, it is checked whether the direction of the density difference of the edge position candidates is from bright to dark or dark to bright. 2. The image according to claim 1, wherein when the change direction of the edge position is the same as the change in the density difference direction of the edge position already calculated, the same edge position candidate is selected as having high reliability. Edge detection device for strips.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5009591A JP2738252B2 (en) | 1993-01-25 | 1993-01-25 | Edge detection device of strip material by image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5009591A JP2738252B2 (en) | 1993-01-25 | 1993-01-25 | Edge detection device of strip material by image |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06219639A JPH06219639A (en) | 1994-08-09 |
JP2738252B2 true JP2738252B2 (en) | 1998-04-08 |
Family
ID=11724576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5009591A Expired - Fee Related JP2738252B2 (en) | 1993-01-25 | 1993-01-25 | Edge detection device of strip material by image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2738252B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101726061B1 (en) * | 2015-07-28 | 2017-04-12 | 주식회사 포스코 | Apparatus for measuring strip position, apparatus for controlling strip deviation and method for calculating strip deviation |
JP7249559B2 (en) * | 2019-03-29 | 2023-03-31 | パナソニックIpマネジメント株式会社 | Edge detection sensor |
-
1993
- 1993-01-25 JP JP5009591A patent/JP2738252B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06219639A (en) | 1994-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20090101356A (en) | Fault detection device and fault detection method | |
JPH0467275A (en) | Recognizing method and recognizing device | |
CN109462999B (en) | Visual inspection method based on learning through data balance and visual inspection device using same | |
CN116883408B (en) | Integrating instrument shell defect detection method based on artificial intelligence | |
JP4870016B2 (en) | Crack detection method | |
CN115272336A (en) | Metal part defect accurate detection method based on gradient vector | |
CN110399873A (en) | ID Card Image acquisition methods, device, electronic equipment and storage medium | |
CN115535525A (en) | Conveyor belt longitudinal tear detection system and method based on image matching | |
JP2005172559A (en) | Line defect detection method and apparatus for panel | |
JPH08189904A (en) | Surface defect detector | |
JP2021064215A (en) | Surface property inspection device and surface property inspection method | |
JP2738252B2 (en) | Edge detection device of strip material by image | |
CN110348307A (en) | A kind of the routed edges recognition methods and system of vibrative mechanism climbing robot | |
JP3890844B2 (en) | Appearance inspection method | |
JP2000003436A (en) | Device and method for recognizing isar picture | |
JP3127598B2 (en) | Method for extracting density-varying constituent pixels in image and method for determining density-fluctuation block | |
JPH0718811B2 (en) | Defect inspection method | |
JP2009043111A (en) | Image processing method | |
JP4403036B2 (en) | Soot detection method and apparatus | |
JP3078685B2 (en) | Location recognition method | |
JP2001092966A (en) | Method and device for processing image | |
JP2021190515A (en) | Workpiece left-over determination system | |
CN119323563B (en) | Method for detecting heating quality of sleeve insulating tube | |
JP3509581B2 (en) | Appearance inspection method | |
JPH0915165A (en) | Equipment for feature point extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |