[go: up one dir, main page]

JPH10136258A - Outline extraction device/method - Google Patents

Outline extraction device/method

Info

Publication number
JPH10136258A
JPH10136258A JP30116096A JP30116096A JPH10136258A JP H10136258 A JPH10136258 A JP H10136258A JP 30116096 A JP30116096 A JP 30116096A JP 30116096 A JP30116096 A JP 30116096A JP H10136258 A JPH10136258 A JP H10136258A
Authority
JP
Japan
Prior art keywords
edge
contour
image
outputting
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30116096A
Other languages
Japanese (ja)
Inventor
Tomoo Mitsunaga
知生 光永
Migaku Yokoyama
琢 横山
Takushi Totsuka
卓志 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP30116096A priority Critical patent/JPH10136258A/en
Publication of JPH10136258A publication Critical patent/JPH10136258A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To uniformly detect the intensity of an edge without depending on the side of a color difference by normalizing the intensity of the edge by means of the section area of the edge. SOLUTION: A gradient vector calculation part 7 receives outline candidate area information S3 in an edge intensity calculation circuit 21 and receives an edge position (e) and an edge direction (d) in an integrating route calculation circuit 22. The edge intensity calculation circuit 21 generates an edge intensity picture Ii based on outline candidate area information S3 as an edge intensity picture generation means. The integrating route calculation circuit 22 calculates an integrating route P based on the edge intensity picture Ii, the edge position (e) and the edge direction (d) as an integrating route calculation means. A normalized coefficient calculation circuit 23 calculates a normalized coefficient S based on the edge intensity picture Ii and the integrating route P. A normalization circuit 24 normalizes the edge intensity picture Ii by dividing the edge intensity picture Ii by the normalized coefficient S. Thus, the edge intensity picture Ii is normalized and it is transmitted to an outline route probe part as an edge intensity picture Io.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術 発明が解決しようとする課題(図18) 課題を解決するための手段 発明の実施の形態(図1〜図17) (1)全体構成(図1) (2)本発明の基本原理(図2及び図3) (3)第1実施例(図4〜図9) (3−1)グラデイエントベクトル算出部の基本構成
(図4) (3−2)積分経路算出回路の構成(図5〜図7) (3−3)規格化係数算出回路の構成(図8) (3−4)第1実施例の動作及び効果(図9) (4)第2実施例(図10及び図11) (5)第3実施例(図12〜図14) (6)第4実施例(図15及び図16) (7)他の実施例(図17) 発明の効果
[Table of Contents] The present invention will be described in the following order. BACKGROUND OF THE INVENTION Problems to be Solved by the Invention (FIG. 18) Means for Solving the Problems Embodiments of the Invention (FIGS. 1 to 17) (1) Overall Configuration (FIG. 1) (2) Basic principle of the present invention (FIGS. 2 and 3) (3) First embodiment (FIGS. 4 to 9) (3-1) Basic configuration of gradient vector calculating section (FIG. 4) (3-2) Integration path Configuration of calculation circuit (FIGS. 5 to 7) (3-3) Configuration of normalization coefficient calculation circuit (FIG. 8) (3-4) Operation and effect of first embodiment (FIG. 9) (4) Second implementation Example (FIGS. 10 and 11) (5) Third Embodiment (FIGS. 12 to 14) (6) Fourth Embodiment (FIGS. 15 and 16) (7) Other Embodiments (FIG. 17) Effects of the Invention

【0002】[0002]

【発明の属する技術分野】本発明は輪郭抽出装置及び輪
郭抽出方法に関し、例えばテレビジヨンや映画等の映像
制作における特殊効果処理において、画像中から対象物
の輪郭を抽出する輪郭抽出装置及び輪郭抽出方法に適用
して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a contour extracting apparatus and a contour extracting method, and more particularly to a contour extracting apparatus and a contour extracting apparatus for extracting a contour of an object from an image in a special effect processing in producing a video such as a television or a movie. It is suitable for application to a method.

【0003】[0003]

【従来の技術】従来、この種の特殊効果処理において
は、画像から任意の部分画像を抽出する際の精度が重要
となる。この抽出作業においては、エツジ検出、領域検
出及び既知物体との対応付け等の処理が必要であり、特
に画像中の背景や対象物体が複雑である場合には、対象
物体の輪郭を構成するエツジを精度良く検出して追跡す
る必要がある。
2. Description of the Related Art Conventionally, in this kind of special effect processing, accuracy in extracting an arbitrary partial image from an image is important. In this extraction work, processing such as edge detection, area detection, and association with a known object is necessary. Particularly, when the background in the image or the target object is complicated, the edge forming the outline of the target object is required. Need to be detected and tracked with high accuracy.

【0004】ここでエツジ検出とは、濃淡画像内で画素
値が急激に変化している部分を検出する処理(色変化を
検出する処理)である。通常、このような画素値の急激
な変化は、対象物の輪郭で発生するため、エツジ検出の
結果に基づいて画像中から対象物の輪郭を抽出すること
ができる。この輪郭抽出は、物体の認識、物体の追尾及
び画像合成等において使用される基本的かつ重要な技術
である。従つてエツジ検出は、画像中から対象物に関す
る情報を得るための最も基本的な技術であると言える。
Here, the edge detection is a process of detecting a portion where a pixel value changes rapidly in a grayscale image (a process of detecting a color change). Usually, such a sharp change in the pixel value occurs at the contour of the object, so that the contour of the object can be extracted from the image based on the result of edge detection. This contour extraction is a basic and important technique used in object recognition, object tracking, image synthesis, and the like. Therefore, it can be said that edge detection is the most basic technique for obtaining information on an object from an image.

【0005】このエツジ検出には、画像の1次微分を用
いる方法、画像の2次微分を用いる方法、その他様々な
方法が提案されている(「画像解析ハンドブツク」(高
木幹雄、下田陽夫、東京大学出版会、1991)。
For this edge detection, a method using a first derivative of an image, a method using a second derivative of an image, and various other methods have been proposed (“Image Analysis Handbook” (Mikio Takagi, Hiroo Shimoda, Tokyo, Japan)). University Press, 1991).

【0006】画像の1次微分を用いるエツジ検出方法
は、色変化の大きさ(画素値の変化の度合い、以下、こ
れをエツジ強度と呼ぶ)を微分演算によつて算出し、微
分値の大きさをエツジ強度とする方法であり、最も基本
的な方法として多用されている。ここで画像Iの1次微
分値は次式
An edge detection method using the first derivative of an image calculates a magnitude of a color change (a degree of a change in a pixel value, hereinafter, referred to as an edge intensity) by a differential operation, and calculates a magnitude of the differential value. This is a method of making edge strength, and is often used as the most basic method. Where the first derivative of the image I is

【数1】 によつて定義されるグラデイエントGを計算することに
よつて算出することができる。ここでu、vはそれぞれ
x、y方向の単位ベクトル、dI(x、y)/dx、d
I(x、y)/dyはそれぞれx、y方向の画像Iの偏
微分を表す。またグラデイエントとは、対象画素(x、
y)における画像の勾配を表す。
(Equation 1) Can be calculated by calculating the gradient G defined by Here, u and v are unit vectors in x and y directions, respectively, dI (x, y) / dx, d
I (x, y) / dy represents partial differentiation of the image I in the x and y directions, respectively. The gradient is defined as a target pixel (x,
represents the gradient of the image in y).

【0007】(1)式で示されるようにグラデイエント
Gはベクトルである。エツジ強度gはグラデイエントベ
クトルの大きさを用い、画素毎にエツジ強度を表す画像
をエツジ強度画像g(x、y)と言う。このエツジ強度
画像g(x、y)は、次式
As shown by the equation (1), the gradient G is a vector. The edge intensity g uses the magnitude of the gradient vector, and an image representing the edge intensity for each pixel is referred to as an edge intensity image g (x, y). This edge intensity image g (x, y) is expressed by the following equation.

【数2】 によつて表すことができる。通常、画像は離散データの
配列として与えられるので、実際のグラデイエントの計
算には、局所差分オペレータなどを用いて近似的に求め
る方法が用いられる。
(Equation 2) Can be represented by Usually, since an image is given as an array of discrete data, a method of approximately obtaining a gradient using a local difference operator or the like is used for actual gradient calculation.

【0008】ここでこのエツジ強度画像gを算出した
後、輪郭位置に相当する画素を検出し、エツジ強度画像
gから2値化画像を生成する処理(以下、これをエツジ
点検出処理と呼ぶ)を行う場合がある。通常、エツジ点
検出処理には、しきい値処理による2値化が用いられ
る。すなわちエツジ点画像Eは、明らかにエツジ点であ
ると判断されるため、十分なエツジ強度を設定した固定
のしきい値Tによつて、次式
After calculating the edge intensity image g, a pixel corresponding to the contour position is detected, and a process of generating a binarized image from the edge intensity image g (hereinafter referred to as edge point detection process). May be performed. Normally, binarization by threshold processing is used for edge point detection processing. That is, since the edge point image E is clearly judged to be an edge point, the following equation is obtained by a fixed threshold value T in which a sufficient edge intensity is set.

【数3】 ように表される。(Equation 3) Is represented as

【0009】ところでエツジ点検出におけるしきい値
は、検出したエツジ点について、輪郭として途切れが無
いこと、及び輪郭でないノイズ点を含まないことの2つ
条件を満たす必要がある。しかしながらこの2つの条件
はしきい値の大きさに関して相反する条件となるため、
上述のような固定のしきい値では対応することができ
ず、エツジ強度が不安定になつたり、ノイズの原因とな
る問題があつた。
By the way, the threshold value for edge point detection needs to satisfy two conditions that the detected edge point has no break as a contour and does not include a noise point that is not a contour. However, these two conditions are inconsistent with respect to the magnitude of the threshold value,
The fixed threshold value as described above cannot cope with the problem, and there is a problem that the edge intensity becomes unstable or causes noise.

【0010】このような問題を解決するための1つの方
法として、しきい値を可変とし、領域毎に適当な値を求
める方法が提案されている。この可変しきい値によるエ
ツジ点検出では、周囲の値の統計的な性質に基づいてし
きい値を設定する。
As one method for solving such a problem, a method has been proposed in which a threshold value is variable and an appropriate value is obtained for each area. In the edge point detection using the variable threshold value, the threshold value is set based on the statistical properties of surrounding values.

【0011】例えば、文献「Foreground/background Se
gmentation of Color Images by Integration of Multi
ple Cues」(Huang et al., Proceedings of ICIP 199
5, Vol.I, pp.246-249, 1995 )で用いられているしき
い値設定方法は、エツジ強度の平均値と標準偏差を算出
し、標準偏差の3倍をノイズレベルの上限とするもので
ある。この方法によれば、エツジ強度が平均値から標準
偏差の3倍だけ越えて大きく検出されたときにエツジ点
を検出する。周囲の値から予測できるのはランダムノイ
ズレベルの大きさや、ベースレベルの変動などであるの
で、この方法はノイズ除去に有効な方法である。
For example, the document "Foreground / background Se
gmentation of Color Images by Integration of Multi
ple Cues "(Huang et al., Proceedings of ICIP 199
5, Vol.I, pp.246-249, 1995), the threshold setting method calculates the average value and standard deviation of edge strength and sets the upper limit of the noise level to three times the standard deviation. Things. According to this method, the edge point is detected when the edge intensity is detected to be larger than the average by three times the standard deviation. Since what can be predicted from the surrounding values is the magnitude of the random noise level, the fluctuation of the base level, and the like, this method is an effective method for removing noise.

【0012】[0012]

【発明が解決しようとする課題】ところが従来の1次微
分によるエツジ検出には以下に述べるような問題があつ
た。すなわち従来のエツジ検出方法は、輪郭位置におい
て色変化が大きいという性質を利用したものである。し
かしながら輪郭における色変化の大きさは輪郭の両側の
物体の色の色差に依存する。
However, the conventional edge detection using the first derivative has the following problems. That is, the conventional edge detection method utilizes the property that the color change is large at the contour position. However, the magnitude of the color change in the contour depends on the color difference between the colors of the objects on both sides of the contour.

【0013】ここで色差の変化のエツジ強度への影響を
図18を用いて説明する。図18(A)はエツジが存在
する画像の一例の特徴を示したものである。図18
(B)は2つの線分l0とl1における画像の断面を示
す。図18(C)は2つの線分l0とl1におけるグラ
デイエントの断面を示す。また図18(D)は図18
(A)から求めたグラデイエント強度画像の特徴を示し
たものである。
Here, the effect of the change in the color difference on the edge intensity will be described with reference to FIG. FIG. 18A shows a feature of an example of an image in which an edge exists. FIG.
(B) shows a cross section of an image at two line segments l0 and l1. FIG. 18C shows a cross section of the gradient along two line segments l0 and l1. FIG. 18D is the same as FIG.
FIG. 4 shows characteristics of the gradient intensity image obtained from FIG.

【0014】図18(A)に示す画像においてその中央
にエツジが存在し、エツジの左側の領域は色Fを有し、
エツジの右側の領域は上下にそれぞれ色B0、B1を有
する2つの領域が存在するものとする。図18(B)で
は、この画像の色変化を分かりやすく説明するため、色
Fの領域から色B0の領域への変化を線分l0での断面
で表し、色Fの領域から色B1の領域への変化を線分l
1で表す。
An edge is present at the center of the image shown in FIG. 18A, and a left area of the edge has a color F.
It is assumed that the area on the right side of the edge has two areas having colors B0 and B1 respectively above and below. In FIG. 18B, the change from the color F area to the color B0 area is represented by a cross-section along the line l0, and the color F area is changed to the color B1 area in order to easily explain the color change of the image. To the line segment l
Represented by 1.

【0015】ここで2つの線分における色はエツジの左
側の領域では色Fで同じであるが、エツジの右側の領域
では異なる色B0とB1を有するので、図18(B)に
示すように、エツジ位置における勾配は等しくない。さ
らに、グラデイエント強度は色変化の勾配の大きさを示
すので、図18(C)に示すように、エツジ位置におい
てグラデイエント強度の大きさに違いが生じる。従つて
図18(D)に示すように、得られるグラデイエント強
度画像は連続したエツジであるにも関わらず、途中で強
度値が変化するようなものが得られる。
Here, the colors in the two line segments are the same as the color F in the left region of the edge, but have different colors B0 and B1 in the right region of the edge, so as shown in FIG. , The slopes at the edge positions are not equal. Further, since the gradient intensity indicates the magnitude of the gradient of the color change, there is a difference in the magnitude of the gradient intensity at the edge position, as shown in FIG. Accordingly, as shown in FIG. 18 (D), the obtained gradient intensity image is one in which the intensity value changes in the middle of the image, although it is a continuous edge.

【0016】このように従来のエツジ検出では、ある物
体に沿つて連続してエツジが存在するにも関わらず、色
差の大小に依存してエツジ強度にばらつきが生ずるた
め、エツジ強度を均一に検出することができず、画像中
から対象物の輪郭を安定して抽出することができないお
それがあつた。
As described above, in the conventional edge detection, although the edge exists continuously along a certain object, the edge intensity varies depending on the magnitude of the color difference, so that the edge intensity is detected uniformly. And the contour of the object cannot be stably extracted from the image.

【0017】また可変しきい値によるエツジ点検出処理
では、ランダムノイズやベースレベルの変動に注目した
方法であるため、上述した色差によるエツジ強度自体の
変動により、本来検出すべきエツジ強度がノイズレベル
に近づいてしまつた場合にはエツジ点を検出することが
できず、エツジ点が途切れるおそれがあつた。特に輪郭
の形状を抽出する場合には、エツジ点に途切れがあつて
はいけないので、エツジ点検出処理後にエツジ点連結処
理を行う必要が生じ、この結果、エツジ検出処理が煩雑
になる問題があつた。
In the edge point detection processing using the variable threshold value, the method focuses on random noise and fluctuations in the base level. Therefore, the fluctuations in the edge intensity itself due to the above-described color difference cause the edge intensity to be detected to be the noise level. When the camera approaches, the edge point cannot be detected, and the edge point may be interrupted. In particular, when extracting the shape of the contour, the edge points must not be interrupted, so it is necessary to perform edge point connection processing after edge point detection processing, and as a result, the edge detection processing becomes complicated. Was.

【0018】本発明は以上の点を考慮してなされたもの
で、画像中から対象物の輪郭を安定して抽出することの
できる輪郭抽出装置及び輪郭抽出方法を提案しようとす
るものである。
The present invention has been made in view of the above points, and has as its object to propose a contour extraction device and a contour extraction method capable of stably extracting a contour of an object from an image.

【0019】[0019]

【課題を解決するための手段】かかる課題を解決するた
め本発明において、所定の入力手段によつて入力される
エツジの位置及びエツジの方向に基づいて決定された対
象物の輪郭についての輪郭候補領域においてグラデイエ
ントベクトルを算出してエツジ強度画像を生成し、エツ
ジ強度画像、エツジの位置及びエツジの方向に基づい
て、エツジを横切る積分経路を算出し、エツジ強度画像
を積分経路上において積分した値を規格化係数として出
力し、エツジ強度画像及び規格化係数に基づいてエツジ
強度画像を規格化する。本発明によれば、エツジの断面
積でエツジ強度が規格化されるので、入力画像における
色差の大小に依存せずにエツジ強度を均一に検出するこ
とができる。
According to the present invention, there is provided a contour candidate for an outline of an object determined based on the position and direction of an edge inputted by a predetermined input means. An edge intensity image is generated by calculating a gradient vector in the region, an integration path crossing the edge is calculated based on the edge intensity image, the edge position and the edge direction, and the edge intensity image is integrated on the integration path. The value is output as a normalization coefficient, and the edge intensity image is normalized based on the edge intensity image and the normalization coefficient. According to the present invention, since the edge intensity is standardized by the cross-sectional area of the edge, it is possible to uniformly detect the edge intensity without depending on the magnitude of the color difference in the input image.

【0020】また本発明においては、エツジの位置及び
エツジの方向の情報として入力されたエツジに沿つた複
数の線分に基づいて対象物の輪郭についての輪郭候補領
域を決定すると共に、各線分の近傍領域を指定するマス
ク画像を生成し、各マスク画像及び各線分をそれぞれエ
ツジの位置及びエツジの方向として出力し、輪郭候補領
域においてグラデイエントベクトルを算出してエツジ強
度画像を生成し、エツジ強度画像、対応するマスク画像
及び線分に基づいて、当該対応するマスク画像及び線分
毎に、各線分を横切る積分経路を算出し、各マスク画像
を対応する各積分経路上において積分した値を規格化係
数として出力し、対応する各マスク画像及び各規格化係
数に基づいて各マスク画像を規格化し、対応する規格化
された各マスク画像及び各マスク画像を用いて、規格化
されたエツジ強度画像を生成する。また本発明によれ
ば、折れ線の各線分によつて対象物の輪郭が分割される
と共に各領域毎にエツジの断面積でエツジ強度が規格化
されるので、対象物の輪郭の形状が複雑で輪郭の方向が
大きく変化する場合でも、入力画像における色差の大小
に依存せずにエツジ強度を均一に検出することができ
る。
In the present invention, a contour candidate area for a contour of an object is determined based on a plurality of line segments along the edge inputted as information on the position of the edge and the direction of the edge. Generates a mask image specifying a neighboring area, outputs each mask image and each line segment as an edge position and an edge direction, calculates a gradient vector in a contour candidate area, generates an edge intensity image, and generates an edge intensity. Based on the image, the corresponding mask image and the line segment, for each of the corresponding mask image and line segment, an integration path crossing each line segment is calculated, and the value obtained by integrating each mask image on each corresponding integration path is defined as a standard. Are output as standardized coefficients, each mask image is standardized based on the corresponding mask image and each standardized coefficient, and the corresponding standardized mask image is output. And using each mask image to generate a edge strength image is normalized. Further, according to the present invention, the contour of the object is divided by each segment of the polygonal line, and the edge strength is standardized by the cross-sectional area of the edge for each region, so that the shape of the contour of the object is complicated. Even when the direction of the contour changes significantly, the edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image.

【0021】[0021]

【発明の実施の形態】以下、図面について本発明の一実
施例を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0022】(1)全体構成 図1において、1は全体として本発明を適用したキー信
号生成装置を示し、連続した複数の画像中に存在する対
象物のソフトキーを生成する。キー信号生成装置1は、
輪郭抽出部2及びキー算出部3により構成されており、
輪郭抽出部2において算出した対象物の輪郭曲線と、対
象物の輪郭のグラデイエントベクトルとに基づいて、キ
ー算出部3において対象物のソフトキーを生成する。
(1) Overall Configuration In FIG. 1, reference numeral 1 denotes a key signal generating apparatus to which the present invention is applied as a whole, and generates soft keys of objects existing in a plurality of continuous images. The key signal generation device 1
It is composed of a contour extraction unit 2 and a key calculation unit 3,
Based on the contour curve of the object calculated by the contour extraction unit 2 and the gradient vector of the outline of the object, the key calculation unit 3 generates soft keys of the object.

【0023】キー信号生成装置1は、入力手段としてマ
ウス4を用いてオペレータによつて入力された、輪郭の
おおまかな形状を示す線分情報、折れ線情報、曲線情
報、又は太い筆でなぞつたようなマスク画像情報S1
を、輪郭抽出部2の推定輪郭算出部5で受ける。推定輪
郭算出部5は、輪郭候補領域決定手段として、線分情
報、折れ線情報、曲線情報又はマスク画像情報S1に基
づいて対象物の輪郭の推定形状(以下、これを推定輪郭
と呼ぶ)に応じた推定輪郭情報S2を得、当該推定輪郭
情報S2を輪郭候補領域決定部6に送出する。
The key signal generating apparatus 1 is a line signal, polygonal line information, curve information, or a thick stroke drawn by an operator using a mouse 4 as an input means. Mask image information S1
Is received by the estimated contour calculation unit 5 of the contour extraction unit 2. The estimated contour calculation unit 5 serves as an outline candidate area determination unit in accordance with an estimated shape of the outline of the target object (hereinafter, referred to as an estimated outline) based on line segment information, broken line information, curve information, or mask image information S1. The estimated contour information S2 is obtained, and the estimated contour information S2 is sent to the contour candidate area determination unit 6.

【0024】輪郭候補領域決定部6は、輪郭候補領域決
定手段として、推定輪郭情報S2に基づいて、輪郭が存
在すると考えられる領域(以下、これを輪郭候補領域と
呼ぶ)を算出すると共にエツジの位置及びエツジの方向
を算出し、当該輪郭候補領域に応じた輪郭候補領域情報
S3と、エツジの位置情報としてエツジ位置e及びエツ
ジの方向情報としてエツジ方向dをグラデイエントベク
トル算出部7に送出する。
The contour candidate area determination section 6 calculates a region where a contour is considered to exist (hereinafter, referred to as a contour candidate area) based on the estimated contour information S2, as a contour candidate area determining means, and also executes edge detection. The position and the direction of the edge are calculated, and the contour candidate area information S3 corresponding to the contour candidate area, the edge position e as the edge position information, and the edge direction d as the edge direction information are sent to the gradient vector calculation unit 7. .

【0025】グラデイエントベクトル算出部7は、輪郭
候補領域情報S3に基づいて輪郭候補領域におけるグラ
デイエント強度値を算出することにより輪郭のグラデイ
エントベクトル(以下、これをエツジ強度画像と呼ぶ)
Iiを生成する。グラデイエントベクトル算出部7は、
当該エツジ強度画像Iiと、エツジ位置e及びエツジ方
向dとに基づいてエツジ強度画像Iiを規格化すること
により当該規格化されたエツジ強度画像Ioを輪郭経路
探査部8及びキー算出部3に送出し、又は規格化された
エツジ強度画像Iiを所定のしきい値を用いてしきい値
処理を行うことにより得たエツジ点2値画像Ieを輪郭
経路探査部8及びキー算出部3に送出する。
The gradient vector calculator 7 calculates a gradient intensity value in the contour candidate area based on the contour candidate area information S3, thereby forming a gradient vector of the contour (hereinafter, this is referred to as an edge intensity image).
Generate Ii. The gradient vector calculation unit 7
By standardizing the edge intensity image Ii based on the edge intensity image Ii, the edge position e, and the edge direction d, the standardized edge intensity image Io is transmitted to the contour path searching unit 8 and the key calculating unit 3. Alternatively, the edge point binary image Ie obtained by subjecting the standardized edge intensity image Ii to threshold processing using a predetermined threshold value is sent to the contour path searching unit 8 and the key calculating unit 3. .

【0026】輪郭経路探査部8は、輪郭経路探査手段と
して、エツジ強度画像Io又はエツジ点2値画像Ieに
基づいて、輪郭の中心を通過する画素のリスト(以下、
これを輪郭座標リスト)を生成し、当該輪郭座標リスト
に応じた輪郭座標リスト情報S4を曲線生成部9に送出
する。曲線生成部9は、曲線生成手段として、輪郭座標
リスト情報S4に基づいて得られる輪郭を曲線近似する
ことにより輪郭曲線を生成し、当該輪郭曲線に応じた輪
郭曲線情報S5をキー算出部3に送出する。
The contour path searching section 8 serves as a contour path searching means, based on the edge intensity image Io or the edge point binary image Ie, a list of pixels passing through the center of the outline (hereinafter, referred to as a list).
This is used to generate a contour coordinate list, and contour coordinate list information S4 corresponding to the contour coordinate list is sent to the curve generating unit 9. The curve generation unit 9 generates a contour curve by performing curve approximation on a contour obtained based on the contour coordinate list information S4 as a curve generation unit, and outputs the contour curve information S5 corresponding to the contour curve to the key calculation unit 3. Send out.

【0027】ここでこのキー信号生成装置1において
は、線分情報、折れ線情報、曲線情報又はマスク画像情
報S1より推定輪郭情報S2を得る方法とは別に、1つ
前のフレームである画像i−1の輪郭曲線情報S5を用
い、動きベクトル推定処理によつて画像i−1の輪郭曲
線が現画像iにおいてどこに移動したかを推定すること
により、現画像iにおける推定輪郭情報S2を得ること
ができるようになされている。
Here, in the key signal generation device 1, apart from the method of obtaining the estimated contour information S2 from the line segment information, broken line information, curve information or mask image information S1, the image i- which is the immediately preceding frame is obtained. The estimated contour information S2 in the current image i can be obtained by estimating where the contour curve of the image i-1 has moved in the current image i by the motion vector estimation processing using the one contour curve information S5. It has been made possible.

【0028】すなわち動きベクトル推定部10は、輪郭
推定手段として、1つ前の画像i−1について、輪郭候
補領域決定部6、グラデイエントベクトル算出部7、輪
郭経路探査部8、曲線生成部9を介して得られる輪郭曲
線情報S5を用いて、当該輪郭曲線情報S5に応じた輪
郭曲線が現画像iにおいてどこに移動したかを推定し、
この結果を推定輪郭情報S2として輪郭候補領域決定部
6に送出する。この場合、輪郭候補領域決定部6から曲
線生成部9までの処理は、上述と同様の方法で行われ
る。従つて推定輪郭情報S2を得る方法として動きベク
トル推定部10が選択された場合、曲線生成部9は、輪
郭曲線情報S5を遅延回路11を介して動きベクトル推
定部10にフイードバツクするようになされている。
That is, the motion vector estimating section 10 serves as a contour estimating means, for the previous image i-1, a contour candidate area determining section 6, a gradient vector calculating section 7, a contour path searching section 8, and a curve generating section 9. Is used to estimate where the contour curve corresponding to the contour curve information S5 has moved in the current image i.
The result is sent to the contour candidate area determination unit 6 as estimated contour information S2. In this case, the processes from the contour candidate area determination unit 6 to the curve generation unit 9 are performed in the same manner as described above. Accordingly, when the motion vector estimating unit 10 is selected as a method for obtaining the estimated contour information S2, the curve generating unit 9 feeds back the contour curve information S5 to the motion vector estimating unit 10 via the delay circuit 11. I have.

【0029】キー算出部3は、規格化されたエツジ強度
画像Io及び輪郭曲線情報S5を両端曲線算出部12で
受ける。両端曲線算出部12は、エツジ強度画像Io及
び輪郭曲線情報S5に基づいて、輪郭の両端を表す2本
の曲線(以下、これを両端曲線と呼ぶ)間の幅を算出
し、当該両端曲線間の幅に応じた両端曲線情報S6をソ
フトキー生成部13に送出する。ソフトキー生成部13
は、両端曲線情報S6に基づいて、2本の両端曲線間に
高さが「0」から「1」まで滑らかに変化する曲面を生
成し、この曲面の高さをソフトキーの値として画像に書
き込む処理を行つてソフトキーを算出し出力する。
The key calculating section 3 receives the standardized edge intensity image Io and the contour curve information S5 at the both end curve calculating section 12. The both-ends curve calculation unit 12 calculates the width between two curves representing both ends of the outline (hereinafter, referred to as both-ends curves) based on the edge intensity image Io and the outline curve information S5, and calculates the width between the both-ends curves. Is sent to the soft key generation unit 13 in accordance with the width of both ends. Soft key generator 13
Generates a curved surface whose height smoothly changes from "0" to "1" between two end curves based on both end curve information S6, and uses the height of this curved surface as a soft key value in an image. The writing process is performed to calculate and output the soft keys.

【0030】かくしてこのキー信号生成装置1は、画像
中に存在する対象物のソフトキーを生成することができ
るようになされている。
Thus, the key signal generating apparatus 1 can generate a soft key of an object existing in an image.

【0031】(2)本発明の基本原理 本発明は、グラデイエント強度の色差による変動の影響
を無くすために、色差の大きさを算出し、算出した色差
の大きさを「1」にするような規格化処理を行う。この
規格化処理の理論的な背景を以下に説明する。
(2) Basic Principle of the Present Invention The present invention calculates the magnitude of the color difference and sets the calculated magnitude of the color difference to "1" in order to eliminate the influence of the variation of the gradient intensity due to the color difference. Perform normalization processing. The theoretical background of this normalization processing will be described below.

【0032】まず色差に影響されていないグラデイエン
トG*とは、輪郭のあらゆるところで理想的に色差が一
定である画像から得られるグラデイエント、すなわち輪
郭を挟んだ両側の領域における色の組み合わせが輪郭の
どの場所においても変わらない画像I*から得られるグ
ラデイエントとする。ここでその色差の大きさを「1」
としても一般性は失われない。
First, the gradient G * not affected by the color difference is a gradient obtained from an image in which the color difference is ideally constant everywhere in the outline, that is, the combination of colors in the regions on both sides of the outline is determined by the outline of the outline. It is assumed that the gradient is obtained from the image I * which does not change even at the place. Here, the magnitude of the color difference is “1”.
Generality is not lost.

【0033】画像I*と色差をもつ画像Iとの関係は次
The relationship between the image I * and the image I having a color difference is given by the following equation.

【数4】 によつて表すことができる。ここでCは、画像Iがもつ
輪郭の色差を表す。色差Cは輪郭を挟む両側の領域の色
の差であるので、輪郭を境界として画像Iの一方の領域
におけるある画素p(a)の色I(p(a))と、他方
の領域におけるある画素p(b)の色I(p(b))と
によつて色差Cを表すことができる。すなわち色差C
は、次式
(Equation 4) Can be represented by Here, C represents the color difference of the outline of the image I. Since the color difference C is a color difference between the regions on both sides of the contour, the color I (p (a)) of a certain pixel p (a) in one region of the image I and a certain color in the other region are bordered by the contour. The color difference C can be represented by the color I (p (b)) of the pixel p (b). That is, the color difference C
Is

【数5】 によつて表すことができる。(Equation 5) Can be represented by

【0034】ここでp(a)とp(b)は輪郭に跨がる
画素であつてはならない。従つて次式
Here, p (a) and p (b) must not be pixels spanning the contour. Therefore,

【数6】 に示すような条件式を導くことができる。(5)式にお
ける色差Cは、定積分を用いれば、次式
(Equation 6) The following conditional expression can be derived. The color difference C in the equation (5) can be calculated by the following equation by using definite integration.

【数7】 のように表すことができる。(Equation 7) Can be expressed as

【0035】ここで∫(P)は、画像上の経路Pにおけ
る積分を表し、P:p(t)は画素p(a)から画素p
(b)までの適当な経路である。従つて(4)式及び
(7)式から、求めたいグラデイエントG*についての
式に直すと、次式
Here, ∫ (P) represents the integral in the path P on the image, and P: p (t) is the pixel p (a) to the pixel p (a).
This is an appropriate route to (b). Therefore, when the equations (4) and (7) are converted to the equation for the gradient G * to be obtained, the following equation is obtained.

【数8】 のように表すことができる。従つて画像Iのグラデイエ
ントGを算出すると共に経路Pを決定し、(8)式を計
算することにより、色差に影響されないグラデイエント
G*を得ることができる。
(Equation 8) Can be expressed as Accordingly, by calculating the gradient G of the image I and determining the path P and calculating the equation (8), it is possible to obtain the gradient G * which is not affected by the color difference.

【0036】また輪郭におけるグラデイエントベクトル
の向きが、エツジの形成方向に対して垂直であることを
利用し、エツジを垂直に横切るように経路Pを設定する
ことにより、(8)式を次式
Further, utilizing the fact that the direction of the gradient vector in the contour is perpendicular to the edge forming direction, and setting a path P so as to vertically cross the edge, the following equation (8) is obtained.

【数9】 のように簡略化することができる。すなわちこの(9)
式は、エツジを横切る方向に見たグラデイエント強度g
の断面積を「1」にするように規格化することに他なら
ない。
(Equation 9) Can be simplified as follows. That is, this (9)
The formula is the gradient intensity g as seen across the edge.
Is standardized so that the cross-sectional area of “1” is “1”.

【0037】ここで規格化処理の計算方法の概略を図2
を用いて説明する。図2(A)は中心にエツジがある画
像を模式的に表したものであり、図中、破線はエツジを
表す。またエツジを境界として左側の領域は色Fをも
ち、右側の領域は色Bをもつているものとする。また図
2(B)はこの画像の線分Pで断面をとつた場合の色変
化を表したものである。
Here, an outline of the calculation method of the normalization processing is shown in FIG.
This will be described with reference to FIG. FIG. 2A schematically illustrates an image having an edge at the center, and a broken line in the figure indicates the edge. Further, it is assumed that a left area has a color F and a right area has a color B with an edge as a boundary. FIG. 2B shows a color change when a cross section is taken along a line segment P of this image.

【0038】まず最初の操作としてエツジを垂直に横切
る経路Pを設定する。次に経路P上のグラデイエント強
度を求める。求めたグラデイエント強度の様子を図2
(C)に示す。グラデイエント強度はエツジにおいて値
を有し、エツジ以外のところでは値をもたない。そこで
(6)式の条件を満たすように、エツジのすそ野の両側
においてグラデイエント強度が「0」となる点を検出
し、この点をそれぞれp(a)、p(b)とする。次に
p(a)、p(b)で囲まれるグラデイエント強度がな
す面積S(後述の規格化係数に相当)を求める。この面
積Sは(9)式の右辺の分母の計算結果である。最後
に、別途求めた全画素のグラデイエント強度を、(9)
式に従つて面積Sで除算することにより、規格化された
グラデイエント強度g*を得ることができる。
First, as a first operation, a path P that vertically crosses an edge is set. Next, the gradient intensity on the path P is determined. Fig. 2 shows the obtained gradient intensity.
It is shown in (C). The gradient intensity has a value at the edge, and has no value except at the edge. Therefore, points where the gradient intensity is "0" are detected on both sides of the base of the edge so as to satisfy the condition of the expression (6), and these points are defined as p (a) and p (b), respectively. Next, an area S (corresponding to a standardization coefficient described later) formed by the gradient intensity surrounded by p (a) and p (b) is obtained. This area S is a calculation result of the denominator on the right side of the equation (9). Finally, the gradient intensities of all pixels obtained separately are calculated using (9)
By dividing by the area S according to the formula, a standardized gradient intensity g * can be obtained.

【0039】この結果得られる画像を模式的に示したも
のを図2(D)に示す。実際は、値が滑らかに変化する
画像であるが、グラデイエント強度がなす領域(面積
S)以外の領域を空白で示す。グラデイエントgとグラ
デイエントg*との違いを示すために図2(E)に経路
P上のグラデイエントg*を示す。エツジを横切つた面
積が「1」になるようにグラデイエント強度が変化して
いる。
FIG. 2D schematically shows an image obtained as a result. Actually, an image whose value changes smoothly, but a region other than a region (area S) where the gradient intensity is formed is shown by a blank. In order to show the difference between the gradient g and the gradient g *, the gradient g * on the route P is shown in FIG. The gradient intensity changes so that the area across the edge becomes “1”.

【0040】また本発明は、エツジ途切れがないエツジ
点検出を実現するために、規格化されたグラデイエント
を用いて、エツジ位置におけるグラデイエント強度のピ
ーク値が必ずしきい値を越えるように、しきい値を設定
する。これを図3を用いて説明する。
Further, the present invention uses a standardized gradient to realize edge point detection without edge discontinuity, so that the peak value of the gradient intensity at the edge position always exceeds the threshold value. Set the value. This will be described with reference to FIG.

【0041】図3(A)は中心にエツジがある画像を模
式的に表したものであり、図中、破線はエツジを表す。
エツジを境界として左側の領域は色F、右側の領域は色
Bをもつものとする。上述したグラデイエントの規格化
計算によつて得られる経路P上の規格化されたグラデイ
エント強度g*を図3(B)に示す。エツジを横切る方
向のグラデイエント強度g*の断面積Sは「1」であ
る。本発明のしきい値の設定方法は、面積がSであり、
底面の2つの頂点がp(a)、p(b)であるような矩
形を設定し、その矩形の高さTをしきい値とする(図3
(C))。
FIG. 3A schematically shows an image having an edge at the center. In the figure, a broken line indicates an edge.
It is assumed that a left area has a color F and a right area has a color B with an edge as a boundary. FIG. 3B shows the normalized gradient intensity g * on the path P obtained by the above-described gradient normalization calculation. The cross-sectional area S of the gradient strength g * in the direction crossing the edge is “1”. According to the threshold value setting method of the present invention, the area is S,
A rectangle whose two vertices on the bottom surface are p (a) and p (b) is set, and the height T of the rectangle is set as a threshold (FIG. 3).
(C)).

【0042】一般にエツジにおけるグラデイエント強度
の断面は、撮像時のフイルタ、物体のぶれ等の影響によ
り肩がなだらかに下降する山状の形状を示す。従つて本
発明によるしきい値を設定することにより、エツジにお
けるグラデイエント強度のピーク値は必ずしきい値Tよ
りも大きくなるので、エツジ点を検出することができ、
これによりエツジ点の途切れを回避することができる。
このようにして得られるエツジ点2値画像を図3(D)
に模式的に示す。
In general, the cross section of the gradient intensity in the edge shows a mountain-like shape in which the shoulder is gradually lowered due to the influence of a filter or blurring of an object at the time of imaging. Therefore, by setting the threshold value according to the present invention, the peak value of the gradient intensity in the edge is always larger than the threshold value T, so that the edge point can be detected.
As a result, interruption of the edge point can be avoided.
The edge point binary image obtained in this way is shown in FIG.
Is shown schematically in FIG.

【0043】(3)第1実施例 (3−1)グラデイエントベクトル算出部の基本構成 本発明の第1実施例によるグラデイエントベクトル算出
部6の基本構成を図4に示す。このグラデイエントベク
トル算出部6は、色差の大きさを「1」にするような規
格化処理を行うことにより、規格化したエツジ強度画像
Ioを出力するようになされている。
(3) First Embodiment (3-1) Basic Configuration of Gradient Vector Calculator FIG. 4 shows the basic configuration of the gradient vector calculator 6 according to the first embodiment of the present invention. The gradient vector calculation unit 6 outputs a normalized edge intensity image Io by performing a normalization process for setting the magnitude of the color difference to “1”.

【0044】グラデイエントベクトル算出部6は、輪郭
候補領域情報S3をエツジ強度算出回路21で受けると
共に、エツジ位置e及びエツジ方向dを積分経路算出回
路22で受ける。エツジ強度算出回路21は、エツジ強
度画像生成手段として、輪郭候補領域情報S3に基づい
てエツジ強度画像Iiを生成し、当該エツジ強度画像I
iを積分経路算出回路22、規格化係数算出回路23及
び規格化回路24に送出する。
The gradient vector calculation section 6 receives the contour candidate area information S 3 by the edge strength calculation circuit 21, and receives the edge position e and the edge direction d by the integration path calculation circuit 22. The edge intensity calculation circuit 21 generates an edge intensity image Ii based on the contour candidate area information S3 as an edge intensity image generating means, and outputs the edge intensity image Ii.
i is sent to the integration path calculation circuit 22, the normalization coefficient calculation circuit 23, and the normalization circuit 24.

【0045】積分経路算出回路22は、積分経路算出手
段として、エツジ強度画像Ii、エツジ位置e及びエツ
ジ方向dに基づいて、後述するような端点p0及びp1
で区切られる積分経路Pを算出し、当該積分経路Pを規
格化係数算出回路23に送出する。ここでエツジ位置e
及びエツジ方向dは画像空間(x、y)上のベクトルと
して与えられる。
The integration path calculation circuit 22 serves as integration path calculation means based on the edge intensity image Ii, the edge position e, and the edge direction d, as will be described later.
Is calculated, and the integration path P is sent to the normalization coefficient calculation circuit 23. Where edge position e
And the edge direction d are given as a vector in the image space (x, y).

【0046】この積分経路Pは、上述したように、理論
上、エツジを横切る任意形状の曲線セグメントを用いる
ことができ、また後続の積分値算出処理において、積分
経路の方向を示すベクトルと、積分経路上のグラデイエ
ントベクトルとの内積((9)式の右辺の分母に相当)
を計算することにより、積分経路算出回路22の出力を
曲線とすることができる。しかしながら上述したよう
に、エツジを垂直に横切る経路を用いた方が計算を簡略
化することができるので、ここでは線分による積分経路
を用いる場合について説明する。
As described above, this integration path P can theoretically use a curve segment having an arbitrary shape that crosses the edge. In the subsequent integration value calculation processing, a vector indicating the direction of the integration path and an integration path are used. Dot product with the gradient vector on the path (corresponding to the denominator on the right side of equation (9))
, The output of the integration path calculation circuit 22 can be made a curve. However, as described above, the calculation can be simplified by using a path that vertically crosses the edge. Therefore, a case in which an integration path using a line segment is used will be described here.

【0047】規格化係数算出回路23は、規格化係数算
出手段として、エツジ強度画像Ii及び積分経路Pに基
づいて、後述する規格化係数算出処理により規格化係数
Sを算出し、当該規格化係数Sを規格化回路24に送出
する。規格化回路24は、規格化手段として、エツジ強
度画像Iiを規格化係数Sで除算((9)式に相当)す
ることによりエツジ強度画像Iiを規格化し、規格化さ
れたエツジ強度画像Ioとして輪郭経路探査部8に送出
する。
The normalization coefficient calculating circuit 23 calculates a normalization coefficient S by a normalization coefficient calculation process described later based on the edge intensity image Ii and the integration path P, as a normalization coefficient calculation means. S is sent to the normalization circuit 24. The normalizing circuit 24 normalizes the edge intensity image Ii by dividing the edge intensity image Ii by the standardization coefficient S (corresponding to the equation (9)) as a standardizing means, and as a standardized edge intensity image Io. It is sent to the contour route search unit 8.

【0048】(3−2)積分経路算出回路の構成 ここで積分経路算出回路22の構成を図5に示し、積分
経路算出処理の処理手順を図6に示す。積分経路算出回
路22は、ステツプSP1より積分経路算出処理を開始
し、ステツプSP2において、エツジ強度画像Iiを横
断直線算出手段としての横断直線算出回路22A及び積
分経路端点算出手段としての積分経路端点算出回路22
Bにおいて受けると共に、ステツプSP3及びステツプ
SP4において、それぞれエツジ位置e及びエツジ方向
dを横断直線算出回路22Aで受ける。
(3-2) Configuration of Integration Path Calculation Circuit The configuration of the integration path calculation circuit 22 is shown in FIG. 5, and the procedure of the integration path calculation processing is shown in FIG. The integration path calculation circuit 22 starts the integration path calculation process from step SP1, and in step SP2, calculates the edge intensity image Ii as a traversing line calculation circuit 22A as a traversing line calculation means and an integration path end point calculation as an integration path end point calculation means. Circuit 22
B, and in step SP3 and step SP4, the edge position e and the edge direction d are received by the transverse straight line calculation circuit 22A.

【0049】次いで積分経路算出回路22は、ステツプ
SP5において、エツジ位置e及びエツジ方向dに基づ
いて、エツジを垂直に横切る横断直線cを横断直線算出
回路22Aにおいて算出する。ここでdnはエツジ方向
dに垂直なベクトルを表し、kはスカラを表す。
Next, in step SP5, the integration path calculation circuit 22 calculates a cross line c perpendicular to the edge based on the edge position e and the edge direction d in the cross line calculation circuit 22A. Here, dn represents a vector perpendicular to the edge direction d, and k represents a scalar.

【0050】続いて積分経路算出回路22は、ステツプ
SP6において、横断直線c上でエツジ強度が最大とな
るエツジ強度最大点pmax を積分経路端点算出回路22
Bにおいて算出した後、ステツプSP7において、横断
直線c上のエツジ強度最大点pmax を始点とする一方の
側の半直線上において、エツジ強度がエツジ強度最大点
pmax におけるエツジ強度より小さく、かつ所定のしき
い値以下となる点p0を積分経路端点算出回路22Bに
おいて検出する。ここでステツプSP7において、「WH
ILE A{B}」とは、「条件Aが満足される間は処理B
を実行せよ」という意味を表し、hは、「1」より小さ
い正のスカラである。
Subsequently, in step SP6, the integration path calculation circuit 22 determines the edge strength maximum point pmax at which the edge strength is the maximum on the traversing line c, by using the integration path end point calculation circuit 22.
After the calculation at B, in step SP7, the edge intensity is smaller than the edge intensity at the edge intensity maximum point pmax on one side of the half-line starting from the edge intensity maximum point pmax on the transverse line c, and The point p0 at which the value is equal to or smaller than the threshold value is detected by the integration path end point calculation circuit 22B. Here, in step SP7, "WH
"ILE A {B}" means "process B while condition A is satisfied.
H "is a positive scalar smaller than" 1 ".

【0051】次いで積分経路算出回路22は、ステツプ
SP8において、横断直線c上のエツジ強度最大点pma
x を始点とするステツプSP7における半直線とは正反
対側の半直線上において、エツジ強度がエツジ強度最大
点pmax におけるエツジ強度より小さく、かつ所定のし
きい値以下となる点p1を積分経路端点算出回路22B
において検出する。その後、積分経路算出回路22は、
ステツプSP9において、点p0及び点p1を積分経路
Pとして積分経路端点算出回路22Bから規格化係数算
出回路23に送出し、ステツプSP10において積分経
路算出処理を終了する。従つて積分経路Pは、点p0及
び点p1の積分区間で区切られる横断直線c上の線分と
して算出される。
Next, at step SP8, the integration path calculation circuit 22 determines the maximum edge intensity point pma on the transverse line c.
A point p1 at which the edge intensity is smaller than the edge intensity at the edge intensity maximum point pmax and equal to or less than a predetermined threshold value on the half line on the opposite side of the half line at step SP7 starting from x is calculated as an integral path end point. Circuit 22B
Is detected at After that, the integration path calculation circuit 22
At step SP9, the points p0 and p1 are sent out from the integration path end point calculation circuit 22B to the normalization coefficient calculation circuit 23 as the integration path P, and the integration path calculation processing ends at step SP10. Accordingly, the integration path P is calculated as a line segment on the crossing line c divided by the integration section of the points p0 and p1.

【0052】ここで上述のステツプSP7及びステツプ
SP8において、積分経路端点算出回路22Bが横断直
線c上の点のエツジ強度を算出する場合、この横断直線
cにおけるある点の位置が必ずしも画像の画素格子上に
あるとは限らないので、本発明においては、積分経路端
点算出回路22Bは、画素格子上にない位置のエツジ強
度を得るために、現画像と実数座標を入力とし、当該実
数座標上の画像値を出力する画像補間手段(図示ぜす)
を有している。
Here, in the above-mentioned steps SP7 and SP8, when the integration path end point calculating circuit 22B calculates the edge strength of a point on the transverse line c, the position of a point on the transverse line c is not necessarily the pixel grid of the image. In the present invention, the integration path end point calculation circuit 22B receives the current image and the real number coordinates in order to obtain the edge intensity at a position not on the pixel grid. Image interpolation means for outputting image values (shown)
have.

【0053】この画像補間手段における画像補間処理を
図7に示すフローチヤートを用いて説明する。画像補間
手段は、ステツプSP1より画像補間処理を開始し、ス
テツプSP2及びステツプSP3において、それぞれエ
ツジ強度画像Ii及び実数座標(xf、yf)を受け
る。
The image interpolation processing in the image interpolation means will be described with reference to a flowchart shown in FIG. The image interpolation means starts the image interpolation processing from step SP1, and receives the edge intensity image Ii and the real number coordinates (xf, yf) at step SP2 and step SP3, respectively.

【0054】続いて画像補間手段は、ステツプSP4に
おいて、補間フイルタの重み関数を定義する。ここで補
間フイルタの重み関数としては、「画像理解のためのデ
イジタル画像処理(I)」(鳥脇純一郎、昭晃堂)及び
「画像解析ハンドブツク」(高木幹雄、下田陽夫、東京
大学出版会、1991)に記載されているものを利用でき
る。例えば次式
Subsequently, in step SP4, the image interpolation means defines a weight function of the interpolation filter. Here, as the weighting function of the interpolation filter, "Digital image processing for image understanding (I)" (Junichiro Toriwaki, Shokodo) and "Image analysis handbook" (Mikio Takagi, Hiroo Shimoda, University of Tokyo Press, 1991) ) Can be used. For example,

【数10】 で示されるような関数がある。ここでx**yは、xの
y乗を表す。
(Equation 10) There is a function as shown in Here, x ** y represents x to the power of y.

【0055】次いで画像補間手段は、ステツプSP5に
おいて、エツジ強度画像Iiと重み関数の畳み込みを計
算することにより関数Ic(x、y)を生成した後、ス
テツプSP6において関数Ic(xf、yf)を実数座
標上の画素値として出力し、ステツプSP7において画
像補間処理を終了する。
Next, the image interpolation means generates a function Ic (x, y) by calculating convolution of the edge intensity image Ii and the weight function in step SP5, and then generates the function Ic (xf, yf) in step SP6. The pixel value is output as a pixel value on the real number coordinates, and the image interpolation processing ends in step SP7.

【0056】(3−3)規格化係数算出回路の構成 規格化係数算出回路23における規格化係数算出処理を
図8に示すフローチヤートを用いて説明する。規格化係
数算出回路23は、ステツプSP1より規格化係数算出
処理を開始し、ステツプSP2及びステツプSP3にお
いて、それぞれエツジ強度画像Ii及び積分経路Pを受
ける。ここで上述のように積分経路Pは、端点p0及び
p1として表すことができる線分である。
(3-3) Configuration of Normalization Coefficient Calculation Circuit The normalization coefficient calculation processing in the normalization coefficient calculation circuit 23 will be described with reference to a flowchart shown in FIG. The normalization coefficient calculation circuit 23 starts the normalization coefficient calculation processing from step SP1, and receives the edge intensity image Ii and the integration path P at step SP2 and step SP3, respectively. Here, as described above, the integration path P is a line segment that can be represented as the end points p0 and p1.

【0057】続いて規格化係数算出回路23は、ステツ
プSP4において、積分経路Pの端点p0から端点p1
までの任意の複数の点におけるエツジ強度値を求め、こ
れら各点におけるエツジ強度値の総和Sを算出する。こ
こでエツジ強度値算出位置(すなわち端点p0から端点
p1までの各点の位置)の間隔sを細かくすることによ
り、エツジ強度値の総和Sの精度を向上させることがで
きる。この場合、上述の画像補間手段を用いて各点にお
けるエツジ強度値を算出すれば、端点p0から端点p1
までの点のうち、画素格子上にない点におけるエツジ強
度値を精度良く算出することができる。次いで規格化係
数算出回路23は、ステツプSP5において、エツジ強
度値の総和Sを規格化係数Sとして規格化回路24に送
出し、ステツプSP6において規格化係数算出処理を終
了する。
Subsequently, in step SP4, the normalization coefficient calculation circuit 23 changes the end point p0 to the end point p1 of the integration path P.
The edge intensity values at arbitrary plural points up to are calculated, and the sum S of the edge intensity values at each of these points is calculated. Here, the accuracy of the sum S of the edge intensity values can be improved by reducing the interval s between the edge intensity value calculation positions (that is, the positions of the points from the end point p0 to the end point p1). In this case, if the edge intensity value at each point is calculated using the above-described image interpolation means, the end point p0 to the end point p1
Of these points, the edge intensity value at a point not on the pixel grid can be calculated with high accuracy. Next, in step SP5, the normalization coefficient calculation circuit 23 sends the sum S of the edge intensity values to the normalization circuit 24 as the normalization coefficient S, and ends the normalization coefficient calculation processing in step SP6.

【0058】(3−4)第1実施例の動作及び効果 以上の構成において、グラデイエントベクトル算出部7
は、図9に示すエツジ強度画像Iiの規格化処理をステ
ツプSP1より開始し、ステツプSP2、ステツプSP
3及びステツプSP4において、それぞれエツジ強度画
像Ii、エツジ位置e及びエツジ方向dを得た後、ステ
ツプSP5において、エツジ強度画像Ii、エツジ位置
e及びエツジ方向dに基づいて積分経路Pを求める。
(3-4) Operation and Effect of First Embodiment In the above configuration, the gradient vector calculation unit 7
Starts the normalization processing of the edge intensity image Ii shown in FIG. 9 from step SP1, and proceeds to step SP2 and step SP2.
After obtaining the edge intensity image Ii, the edge position e, and the edge direction d in Step 3 and Step SP4, respectively, the integration path P is obtained based on the edge intensity image Ii, the edge position e, and the edge direction d in Step SP5.

【0059】続いてグラデイエントベクトル算出部7
は、ステツプSP6において、エツジ強度画像Ii及び
積分経路情報Pに基づいて規格化係数Sを算出した後、
ステツプSP7において、エツジ強度画像Iiを規格化
係数Sで除算((9)式を演算)することにより、規格
化されたエツジ強度画像Ioを算出し、ステツプSP8
において当該エツジ強度画像Ioを輪郭経路探査部8に
送出し、ステツプSP9においてエツジ強度画像Iiの
規格化処理を終了する。
Subsequently, the gradient vector calculating section 7
Calculates the normalization coefficient S based on the edge intensity image Ii and the integration path information P in step SP6.
In step SP7, the standardized edge intensity image Io is calculated by dividing the edge intensity image Ii by the normalization coefficient S (calculating the equation (9)), and the process proceeds to step SP8.
In step SP9, the edge intensity image Io is sent to the contour path searching unit 8, and in step SP9, the edge intensity image Ii is normalized.

【0060】従つてこのグラデイエントベクトル算出部
7は、エツジの断面積でエツジ強度を規格化するので、
入力画像における色差の大小に依存せずにエツジ強度を
均一に検出することができる。またこのグラデイエント
ベクトル算出部7は、エツジを垂直に横切るようにして
エツジの断面積を算出しているので、簡易な方法でエツ
ジ強度画像Iiを規格化することができる。
Accordingly, the gradient vector calculation unit 7 normalizes the edge strength by the cross-sectional area of the edge.
The edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image. Further, since the gradient vector calculation unit 7 calculates the cross-sectional area of the edge so as to cross the edge vertically, the edge intensity image Ii can be standardized by a simple method.

【0061】さらにこのグラデイエントベクトル算出部
7は、積分経路Pを形成する端点p0及びp1を算出す
る際、及び積分経路Pの端点p0から端点p1までの任
意の複数の点におけるエツジ強度値を算出する際、実数
座標上の画像値を算出し、当該実数座標上の画素値に基
づいて各点におけるエツジ強度値を算出したので、規格
化係数Sを精度良く検出することができる。これにより
エツジ強度画像Iiを精度良く規格化することができ
る。
Further, the gradient vector calculator 7 calculates edge points p0 and p1 forming the integration path P, and calculates edge intensity values at a plurality of arbitrary points from the end point p0 to the end point p1 of the integration path P. In the calculation, the image value on the real number coordinates is calculated, and the edge intensity value at each point is calculated based on the pixel value on the real number coordinates. Therefore, the normalization coefficient S can be detected with high accuracy. Thus, the edge intensity image Ii can be accurately standardized.

【0062】以上の構成によれば、エツジを垂直方向に
横切る積分経路Pを算出し、当該積分経路P上の任意の
複数の点におけるエツジ強度値の総和Sを規格化係数S
として算出し、エツジ強度画像Iiを規格化係数Sで除
算してエツジ強度画像Iiを規格化したことにより、エ
ツジの断面積でエツジ強度を規格化することができるの
で、元画像における色差の大小に依存せずにエツジ強度
を均一に検出することができる。かくして画像中から対
象物の輪郭を安定して抽出することのできる輪郭抽出装
置及び輪郭抽出方法を実現することができる。
According to the above configuration, the integration path P crossing the edge in the vertical direction is calculated, and the sum S of the edge intensity values at a plurality of arbitrary points on the integration path P is determined by the standardization coefficient S
By dividing the edge intensity image Ii by the normalization coefficient S to normalize the edge intensity image Ii, the edge intensity can be normalized by the cross-sectional area of the edge. Edge intensity can be detected uniformly without depending on the edge intensity. Thus, a contour extracting apparatus and a contour extracting method capable of stably extracting the contour of an object from an image can be realized.

【0063】(4)第2実施例 本発明の第2実施例によるグラデイエントベクトル算出
部30の構成を図4との対応部分に同一符号を付した図
10に示す。しきい値算出回路31は、しきい値算出手
段として、規格化係数Sを規格化係数算出回路22から
受け、当該規格化係数Sを積分経路Pの長さ(積分区間
(点p0及び点p1間))で除算することにより得られ
る値をしきい値Tとしてエツジ点検出回路32に送出す
る。
(4) Second Embodiment FIG. 10 shows the configuration of the gradient vector calculation unit 30 according to a second embodiment of the present invention, in which parts corresponding to those in FIG. The threshold value calculation circuit 31 receives the normalization coefficient S from the normalization coefficient calculation circuit 22 as the threshold value calculation means, and transmits the normalization coefficient S to the length of the integration path P (integration section (points p0 and p1 The value obtained by the division in the period is sent to the edge point detection circuit 32 as the threshold value T.

【0064】エツジ点検出回路32は、エツジ点検出手
段として、規格化されたエツジ強度画像Ioを規格化回
路24から受け、しきい値Tを用いて、エツジ強度画像
Io中の各位置でエツジ強度に対してしきい値処理を行
うことによりエツジ点ビツトマツプを算出し、当該エツ
ジ点ビツトマツプをエツジ点2値画像Ieとして輪郭経
路探査部8に送出する。
The edge point detecting circuit 32 receives the standardized edge intensity image Io from the normalizing circuit 24 as edge point detecting means, and uses the threshold value T at each position in the edge intensity image Io. The edge point bit map is calculated by performing threshold processing on the intensity, and the edge point bit map is sent to the contour path searching unit 8 as the edge point binary image Ie.

【0065】以上の構成において、このグラデイエント
ベクトル算出部30は、図11に示すエツジ点2値画像
算出処理をステツプSP1より開始し、ステツプSP2
及びステツプSP3において、積分経路P及び規格化係
数Sを受けた後、ステツプSP4において、規格化係数
Sを積分経路Pの長さ(積分区間)で除算することによ
りしきい値Tを算出する。
In the above configuration, the gradient vector calculation unit 30 starts the edge point binary image calculation processing shown in FIG. 11 from step SP1, and proceeds to step SP2.
After receiving the integration path P and the normalization coefficient S in step SP3, the threshold value T is calculated by dividing the normalization coefficient S by the length (integration section) of the integration path P in step SP4.

【0066】次いでグラデイエントベクトル算出部30
は、ステツプSP5において、規格化されたエツジ強度
画像Ioを受け、ステツプSP6において、しきい値T
を用いて、規格化されたエツジ強度画像Io中の各位置
でエツジ強度に対してしきい値処理を行うことによりエ
ツジ点2値画像Ieを算出し、ステツプSP7において
当該エツジ点2値画像Ieを出力し、ステツプSP8に
おいてエツジ点2値画像算出処理を終了する。ここでス
テツプSP6において、「For eachA{B}」とは、
「あらゆるAのそれぞれについて処理Bを実行せよ」と
いう意味を表している。
Next, the gradient vector calculation unit 30
Receives the standardized edge intensity image Io at step SP5, and receives the threshold value T at step SP6.
Is used to calculate the edge point binary image Ie by performing threshold processing on the edge intensity at each position in the standardized edge intensity image Io, and at step SP7, the edge point binary image Ie Is output, and the edge point binary image calculation processing is terminated in step SP8. Here, in step SP6, "For each A {B}"
This means "execute process B for each of all A".

【0067】ここでこのグラデイエントベクトル算出部
30は、面積がS(規格化係数)であり、底辺の2つの
頂点がp0及びp1である矩形形状を設定し、この矩形
形状の高さをしきい値Tとして用いているので、エツジ
におけるグラデイエント強度のピーク値を必ずしきい値
Tよりも大きくすることができる。従つてエツジ点を必
ず検出することができるので、エツジ点の途切れを確実
に回避することができる。
Here, the gradient vector calculating section 30 sets a rectangular shape whose area is S (normalization coefficient) and whose bottom two vertices are p0 and p1, and determines the height of this rectangular shape. Since the threshold value T is used, the peak value of the gradient intensity at the edge can always be made larger than the threshold value T. Therefore, the edge point can be always detected, so that interruption of the edge point can be reliably avoided.

【0068】以上の構成によれば、規格化係数Sを積分
経路Pの長さで除算することにより得られる値をしきい
値Tとして用いて、規格化されたエツジ強度画像Io中
の各位置でエツジ強度に対してしきい値処理を行うよう
にしたことにより、エツジにおけるグラデイエント強度
のピーク値を必ずしきい値Tよりも大きくすることがで
きるので、エツジ点を必ず検出することができる。これ
によりエツジ点の途切れのないエツジ点2値画像Ieを
得ることができ、かくして画像中から対象物の輪郭を安
定して抽出することのできる輪郭抽出装置及び輪郭抽出
方法を実現することができる。
According to the above configuration, each position in the standardized edge intensity image Io is determined using the value obtained by dividing the standardization coefficient S by the length of the integration path P as the threshold value T. Since the threshold value processing is performed on the edge intensity in (1), the peak value of the gradient intensity in the edge can always be made larger than the threshold value T, so that the edge point can always be detected. As a result, an edge point binary image Ie without edge points can be obtained, and thus a contour extraction device and a contour extraction method capable of stably extracting a contour of an object from an image can be realized. .

【0069】(5)第3実施例 本発明の第3実施例によるグラデイエントベクトル算出
部40の構成を図1及び図4との対応部分に同一符号を
付して示す図12に示す。このグラデイエントベクトル
算出部40は、エツジ位置e及びエツジ方向dの情報を
与えるためにエツジに沿つて連続した折れ線を入力手段
4から入力することによつて複雑な形状をもつ対象物の
輪郭抽出に対応し得るようになされている。
(5) Third Embodiment FIG. 12 shows the configuration of the gradient vector calculating section 40 according to a third embodiment of the present invention, in which the same reference numerals are given to the portions corresponding to FIGS. The gradient vector calculation unit 40 inputs a continuous polygonal line along the edge from the input means 4 to provide information on the edge position e and the edge direction d, thereby extracting the contour of an object having a complicated shape. It is made to be able to correspond to.

【0070】輪郭候補領域決定部6は、推定輪郭算出部
5から供給される折れ線でなる推定輪郭情報S2に基づ
いて、折れ線Lの各線分を線分lj と定義すると共に、
線分の近傍領域として線分lj の近傍画素を指定するマ
スク画像Imj を各線分lj毎に生成し、それぞれ対応
する線分lj とマスク画像Imj とを対として、当該対
の数(n個)だけ設けられたグラデイエントベクトル算
出部7にそれぞれ線分lj 及びマスク画像Imj の対を
送出すると共に、各マスク画像Imj を画像合成部41
に送出する。
The contour candidate area determination unit 6 defines each line segment of the polygonal line L as a line segment l j based on the estimated outline information S2 composed of a polygonal line supplied from the estimated outline calculation unit 5, and
The mask image Im j that specifies the neighboring pixels of the line segment l j as the region near the line segments generated for each segment l j, as a counter and a line segment l j and the mask image Im j respectively corresponding, in the pair The pairs of the line segment l j and the mask image Im j are respectively sent to the gradient vector calculation units 7 provided by the number (n), and each mask image Im j is transmitted to the image synthesis unit 41.
To send to.

【0071】従つてこの第3 実施例の場合、エツジ位置
eとしてマスク画像Imj がグラデイエントベクトル算
出部7に送出されると共に、エツジ方向dとして線分l
j がグラデイエントベクトル算出部7に送出される。ま
た輪郭候補領域決定部6は、推定輪郭情報S2に基づい
て輪郭候補領域を算出し、当該輪郭候補領域に応じた輪
郭候補領域情報S3を各グラデイエントベクトル算出部
7に送出する。
Accordingly, in the case of the third embodiment, the mask image Im j is sent to the gradient vector calculation section 7 as the edge position e, and the line segment l is set as the edge direction d.
j is sent to the gradient vector calculator 7. The contour candidate area determination unit 6 calculates a contour candidate area based on the estimated contour information S2, and sends contour candidate area information S3 corresponding to the contour candidate area to each gradient vector calculation unit 7.

【0072】この第3実施例の場合、各グラデイエント
ベクトル算出部7は、それぞれエツジ強度算出回路21
において、線分lj 及びマスク画像Imj に基づいて、
線分lj の数に応じたエツジ強度画像Iij を生成した
後、当該各エツジ強度画像Iij における線分lj の近
傍画素に対して上述の規格化処理を行うことにより、規
格化されたエツジ強度画像Isj を生成し、当該各画エ
ツジ強度像Isj を画像合成部41に送出する。
In the case of the third embodiment, each gradient vector calculation section 7 is provided with an edge strength calculation circuit 21.
In, based on the line segment l j and the mask image Im j ,
After generating the edge strength image Ii j corresponding to the number of line segments l j, by performing the normalization processing described above with respect to neighboring pixels of the line segment l j in the respective edge intensity image Ii j, normalized The edge intensity image Is j is generated, and the image edge intensity image Is j is transmitted to the image combining unit 41.

【0073】すなわち各グラデイエントベクトル算出部
7において、積分経路算出回路22は、エツジ強度画像
Iij 、対応するマスク画像Imj 及び線分lj に基づ
いて、各線分lj を横切る積分経路Pを算出する。規格
化係数算出回路23は、マスク画像Imj を対応する積
分経路Pにおいて積分した値を規格化係数として算出す
る。規格化回路24は、対応するマスク画像Imj と規
格化係数に基づいてエツジ強度画像Iij を規格化し、
当該規格化されたエツジ強度画像Isj を画像合成部4
1に送出する。
[0073] That is, in the graph Day entry vector calculation unit 7, the integral path calculating circuit 22, edge intensity image Ii j, based on the corresponding mask image Im j and the line segment l j, integral path crosses the line segment l j P Is calculated. Normalization coefficient calculation circuit 23 calculates the integrated value in the integration path P corresponding mask image Im j as normalization factor. Normalization circuit 24 normalizes the edge strength image Ii j based on the corresponding mask image Im j and the normalized coefficient,
Edge strength image Is j image synthesizing unit 4 which is the standardized
Send to 1.

【0074】画像合成部41は、各グラデイエントベク
トル算出部7から供給されるエツジ強度画像Isj と、
輪郭候補領域決定部6から供給される対応するびマスク
画像Imj とのの各対を用いて、エツジ強度規格化され
たエツジ強度画像Ioを生成する。ここで画像合成部4
1は、例えば一般にアルフア合成と呼ばれる画像合成方
法を用いて、画像Isj 及びマスク画像Imj の対を合
成することにより、規格化されたエツジ強度画像Ioを
生成する。このアルフア合成は、規格化されたエツジ強
度画像Isj と、その重みを示すマスク画像Imj の積
和計算によつて行うものである。
The image synthesizing section 41 includes an edge intensity image Is j supplied from each gradient vector calculating section 7 and
With each pair of the beauty mask image Im j corresponding supplied from the outline candidate area decision unit 6, and generates an edge intensity normalized edge intensity image Io. Here, the image synthesizing unit 4
1 generates a standardized edge intensity image Io by synthesizing a pair of an image Is j and a mask image Im j using, for example, an image synthesis method generally called Alpha synthesis. The alpha synthesis and edge intensity image Is j which is standardized, it shall be made by the product sum calculation of the mask image Im j indicating the weight.

【0075】ここで輪郭候補領域決定部6における領域
分割処理を図13に示すフローチヤートを用いて説明す
る。輪郭方向領域決定部6は、ステツプSP1より領域
分割処理を開始し、ステツプSP2において、連続した
折れ線Lでなる推定輪郭情報S2を受ける。ここで折れ
線Lとしては、輪郭の形状を近似するように、かつ輪郭
における色差が変化する位置に頂点をおくよう作成され
たものが入力されるものとし、折れ線Lの各頂点は、座
標p0、p1、……、pn−1で表されるものとする。
Here, the area dividing process in the contour candidate area determining section 6 will be described with reference to a flowchart shown in FIG. The outline direction area determination unit 6 starts the area division processing from step SP1, and receives the estimated outline information S2 consisting of continuous broken lines L in step SP2. Here, as the polygonal line L, what is created so as to approximate the shape of the outline and to place the vertex at a position where the color difference in the outline changes is input. Each vertex of the polygonal line L has coordinates p0, .., pn-1.

【0076】続いて輪郭候補領域決定部5は、ステツプ
SP3において、折れ線Lの各線分を線分lj と定義し
た後、ステツプSP4において、各線分lj 毎に、全画
素を「0」にクリアしたマスク画像Imj を生成する。
次いで輪郭候補領域決定部6は、ステツプSP5におい
て、元画像中の全画素(x、y)について最も近い線分
lkを算出し、当該線分lkからの距離d(lk、x、
y)が、予め設定したしきい値hより小さい場合にの
み、画像Imk の当該画素Imk (x、y)の値を
「1」に設定する。これにより、線分lkの近傍画素の
値が「1」で表されたマスク画像Imk を得ることがで
き、線分lj に対応したn個分のマスク画像Imj を得
ることができる。
[0076] The contour candidate area determination section 5 Subsequently, in step SP3, after defining a segment l j each line segment of polyline L, at step SP4, each line segment l j, all the pixels to "0" to produce a clear and mask image Im j.
Next, in step SP5, the contour candidate area determination unit 6 calculates the closest line segment lk for all the pixels (x, y) in the original image, and calculates the distance d (lk, x,
Only when y) is smaller than a preset threshold value h, the value of the pixel Im k (x, y) of the image Im k is set to “1”. As a result, it is possible to obtain a mask image Im k in which the value of the neighboring pixel of the line segment lk is represented by “1”, and obtain n mask images Im j corresponding to the line segment l j .

【0077】ここで線分lj からの距離d(lj 、x、
y)は、線分の両端点が既知であるので、容易に算出す
ることができる。次いで輪郭候補領域決定部6は、ステ
ツプSP6において、対応するマスク画像Imj 及び線
分lj の対(n個)をエツジ位置d及びエツジ方向eと
してそれぞれグラデイエントベクトル算出部7に送出
し、ステツプSP7において、領域分割処理を終了す
る。
[0077] The distance d (l j from where the line segment l j, x,
y) can be easily calculated because both end points of the line segment are known. Then outline candidate area decision unit 6, and sends at step SP6, the corresponding mask image Im pair of j and the line segment l j (n-number) respectively Gras Day entry vector calculator 7 as edge position d and edge direction e a, In step SP7, the area division processing ends.

【0078】以上の構成において、このグラデイエント
ベクトル算出部40は、図14に示す規格化処理をステ
ツプSP1より開始し、ステツプSP2において、折れ
線Lでなる推定輪郭情報S2を輪郭候補領域決定部6で
受けた後、ステツプSP3において、対応する線分lj
及びマスク画像Imj の対を算出する。
In the above configuration, the gradient vector calculating section 40 starts the normalizing process shown in FIG. 14 from step SP1, and in step SP2, converts the estimated contour information S2 consisting of the polygonal line L into the contour candidate area determining section 6. At step SP3, the corresponding line segment l j
And calculating a pair of mask image Im j.

【0079】続いてグラデイエントベクトル算出部40
は、ステツプSP4において、各グラデイエントベクト
ル算出部7でエツジ強度画像Iij を生成した後、ステ
ツプSP5において、エツジ強度画像Iij 、対応する
線分lj 及びマスク画像Imj に基づいて、規格化され
たエツジ強度画像Isj とマスク画像Imj との対を算
出する。
Subsequently, the gradient vector calculating section 40
, In step SP4, after generating an edge intensity image Ii j each Gras Day entry vector calculation unit 7, in step SP5, edge intensity image Ii j, based on the corresponding line segment l j and the mask image Im j, standard calculating a pair of the reduction has been edge intensity image is j and the mask image Im j.

【0080】次いでグラデイエントベクトル算出部40
は、ステツプSP6において、規格化された画像Isj
とマスク画像Imj との各対を用いて、規格化されたエ
ツジ強度画像Ioを生成した後、ステツプSP7におい
て、当該規格化されたエツジ強度画像Ioを出力し、ス
テツプSP8において規格化処理を終了する。
Next, the gradient vector calculation section 40
Is the standardized image Is j in step SP6
And using each pair of the mask image Im j, after generating the normalized edge intensity image Io, in step SP7, and outputs the normalized edge intensity image Io, the normalization process in step SP8 finish.

【0081】従つてこのグラデイエントベクトル算出部
40は、入力される折れ線Lの各線分lj によつて対象
物の輪郭候補領域を分割し、分割された各領域における
各線分lj の近傍画素に対して規格化処理を行つている
ので、対象物の輪郭の形状が複雑で輪郭の方向が大きく
変化する場合でも、入力画像における色差の大小に依存
せずにエツジ強度を均一に検出することができる。
Accordingly, the gradient vector calculating section 40 divides the contour candidate region of the object by each line segment l j of the polygonal line L to be inputted, and calculates the neighboring pixels of each line segment l j in each of the divided regions. Even if the shape of the contour of the object is complicated and the direction of the contour changes greatly, the edge intensity is detected uniformly without depending on the magnitude of the color difference in the input image. Can be.

【0082】以上の構成によれば、エツジ方向dの情報
としてエツジに沿つた折れ線Lの各線分lj を用いると
共に、エツジ位置eの情報として各線分lj の近傍画素
を指定するマスク画像Imj を生成し、対応する線分l
j 及びマスク画像Imj の各対に基づいて線分lj の近
傍画素に対して規格化処理を行うことにより規格化され
たエツジ強度画像Isj を生成し、対応するエツジ強度
画像Isj とマスク画像Imj との各対を用いて、規格
化されたエツジ強度画像Ioを生成することにより、対
象物の輪郭の形状が複雑で輪郭の方向が大きく変化する
場合でも、入力画像における色差の大小に依存せずにエ
ツジ強度を均一に検出することができる。かくして画像
中から対象物の輪郭を安定して抽出することのできる輪
郭抽出装置及び輪郭抽出方法を実現することができる。
[0082] According to the above configuration, the edge as the information of the edge orientation 'd' with use of each line segment l j of沿Tsuta polygonal line L, the mask image to specify the neighboring pixels of each line segment l j as information edge position e Im generate j and the corresponding line segment l
generates a normalized edge intensity images Is j by performing the normalization processing for neighboring pixels of the line segment l j based on each pair of j and the mask image Im j, the corresponding edge intensity images Is j with each pair of the mask image Im j, by generating a normalized edge strength image Io, complicated the shape of the contour of the object even when the direction of the contour is greatly changed, the color difference of the input image Edge intensity can be detected uniformly regardless of the magnitude. Thus, a contour extracting apparatus and a contour extracting method capable of stably extracting the contour of an object from an image can be realized.

【0083】(6)第4実施例 本発明の第4実施例によるグラデイエントベクトル算出
部50の構成を図1及び図4との対応部分に同一符号を
付して図15に示す。このグラデイエントベクトル算出
部50は、エツジ位置e及びエツジ方向dの情報を与え
るためにエツジに沿つて連続した曲線を入力手段4から
入力することによつて一段と複雑な形状をもつ対象物の
輪郭抽出に対応し得るようになされている。
(6) Fourth Embodiment FIG. 15 shows the configuration of a gradient vector calculation unit 50 according to a fourth embodiment of the present invention, where parts corresponding to those in FIG. 1 and FIG. The gradient vector calculation unit 50 inputs the continuous curve along the edge from the input means 4 to provide information on the edge position e and the edge direction d, thereby obtaining the contour of the object having a more complicated shape. It is designed to support extraction.

【0084】輪郭候補領域決定部51は、推定輪郭算出
部5から供給される曲線でなる推定輪郭情報S2を特徴
点抽出回路51A及び曲線分割回路51Bで受ける。特
徴点抽出回路51Aは、特徴点抽出手段として、曲線C
上の特徴点p0、p1、……、pn−1を抽出し、特徴
点p0、p1、……、pn−1に応じた特徴点情報CP
を曲線分割回路51Bに送出する。
The contour candidate area determination section 51 receives the estimated contour information S2, which is a curve supplied from the estimated contour calculation section 5, at the feature point extraction circuit 51A and the curve division circuit 51B. The feature point extraction circuit 51A includes a curve C
, Pn-1 are extracted, and feature point information CP corresponding to the feature points p0, p1,..., Pn-1 is extracted.
To the curve dividing circuit 51B.

【0085】ここで特徴点とは、曲線上で特異な特徴を
示す点であり、例えば曲線の形状が屈曲する屈曲点や曲
線の軌跡上で画像の色が変化する色変化点などである。
曲線分割回路51Bは、曲線変換手段として、曲線C
を、各特徴点p0、p1、……、pn−1を頂点とする
エツジに沿つて連続した折れ線Lに近似し、当該折れ線
Lを輪郭候補領域決定部6に送出する。
Here, the characteristic point is a point showing a unique characteristic on the curve, and is, for example, a bending point at which the shape of the curve is bent or a color change point at which the color of the image changes on the locus of the curve.
The curve dividing circuit 51B serves as a curve converting means,
Is approximated to a continuous broken line L along an edge having each feature point p0, p1,..., Pn-1 as a vertex, and the broken line L is sent to the contour candidate area determination unit 6.

【0086】以上の構成において、このグラデイエント
ベクトル算出部50は、図16に示す規格化処理をステ
ツプSP1より開始し、ステツプSP2において、曲線
Cでなる推定輪郭情報S2を輪郭候補領域決定部51の
特徴点抽出回路51A及び曲線分割回路51Bで受け
る。続いてグラデイエントベクトル算出部50は、ステ
ツプSP3において、曲線C上の特徴点p0、p2、…
…、pn−1を特徴点抽出回路51Aにおいて検出す
る。
In the above configuration, the gradient vector calculation section 50 starts the normalization processing shown in FIG. 16 from step SP1, and in step SP2, converts the estimated contour information S2 consisting of the curve C into the contour candidate area determination section 51. At the characteristic point extraction circuit 51A and the curve division circuit 51B. Subsequently, in step SP3, the gradient vector calculation unit 50 determines the characteristic points p0, p2,.
, Pn-1 are detected by the feature point extraction circuit 51A.

【0087】次いでグラデイエントベクトル算出部50
は、ステツプSP4において、曲線Cを、曲線分割回路
51Bにおいて、各特徴点p0、p1、……、pn−1
を頂点とする折れ線Lに近似し、ステツプSP5におい
て、当該折れ線Lを輪郭候補領域決定部6に送出する。
続いてグラデイエントベクトル算出部50は、ステツプ
SP6において、折れ線Lの各線分lj と、線分lj
近傍画素を指定するマスク画像Imj との各対を輪郭候
補領域決定部6で算出する。
Next, the gradient vector calculation unit 50
.., Pn−1 in the curve dividing circuit 51B in each of the characteristic points p0, p1,.
Is approximated to a polygonal line L having a vertex as a vertex, and the polygonal line L is sent to the contour candidate area determination unit 6 in step SP5.
Subsequently Gras Day entry vector calculating unit 50, calculates at step SP6, and each line segment l j fold line L, and each pair of the mask image Im j that specifies the neighboring pixels of the line segment l j contour candidate area decision unit 6 I do.

【0088】続いてグラデイエントベクトル算出部50
は、ステツプSP7において、エツジ強度画像Iij
各グラデイエントベクトル算出部7において生成した
後、ステツプSP8において、エツジ強度画像Iij
線分lj 及びマスク画像Imjに基づいて、規格化され
たエツジ強度画像Isj とマスク画像Imj との対を算
出する。次いでグラデイエントベクトル算出部50は、
ステツプSP9において、規格化されたエツジ強度画像
Isj とマスク画像Imj との各対を用いて、規格化さ
れたエツジ強度画像Ioを生成した後、ステツプSP9
において、当該規格化されたエツジ強度画像Ioを出力
し、ステツプSP10において規格化処理を終了する。
Subsequently, the gradient vector calculating section 50
, In step SP7, after generating each graphene Day entry vector calculating unit 7 the edge strength image Ii j, at step SP8, edge intensity image Ii j,
Based on the line segment l j and the mask image Im j , a pair of the normalized edge intensity image Is j and the mask image Im j is calculated. Next, the gradient vector calculation unit 50
In step SP9, using the pair of the normalized edge intensity image Is j and the mask image Im j, after generating the normalized edge intensity image Io, step SP9
In step S10, the standardized edge intensity image Io is output, and the normalization process ends in step SP10.

【0089】従つてこのグラデイエントベクトル算出部
50は、入力される曲線Cを、屈曲点や変色点でなる特
徴点p0、p1、……、pn−1を頂点とする折れ線L
に近似し、当該折れ線Lの各線分lj によつて対象物の
輪郭を分割し、各線分lj のの近傍画素に対して規格化
処理を行つているので、対象物の輪郭の形状が一段と複
雑で輪郭の方向が大きく変化する場合でも、入力画像に
おける色差の大小に依存せずにエツジ強度を均一に検出
することができる。
Accordingly, the gradient vector calculating section 50 converts the input curve C into a polygonal line L having vertices at characteristic points p0, p1,...
, The outline of the object is divided by each line segment l j of the polygonal line L, and the normalization process is performed on the pixels near each line segment l j , so that the shape of the outline of the object is Even in the case where the direction of the outline changes greatly due to the complexity, the edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image.

【0090】以上の構成によれば、エツジ方向dの情報
として、エツジに沿つた曲線Cの屈曲点及び又は色変化
点でなる特徴点p0、p1、……、pn−1を頂点とし
た折れ線Lの各線分lj を用いると共に、エツジ位置e
の情報として折れ線Lの各線分lj の近傍画素を指定す
るマスク画像Imj を生成し、対応する線分lj 及びマ
スク画像Imj の各対に基づいて線分lj の近傍画素に
対して規格化処理を行うことにより各対毎に規格化され
たエツジ強度画像Isj を生成し、対応するエツジ強度
画像Isj とマスク画像Imj との各対を用いて、規格
化されたエツジ強度画像Ioを生成することにより、対
象物の輪郭の形状が一段と複雑で輪郭の方向が大きく変
化する場合でも、入力画像における色差の大小に依存せ
ずにエツジ強度を均一に検出することができる。かくし
て画像中から対象物の輪郭を安定して抽出することので
きる輪郭抽出装置及び輪郭抽出方法を実現することがで
きる。
According to the above configuration, as information in the edge direction d, a polygonal line having the vertices of the characteristic points p0, p1,..., Pn-1 which are the inflection points and / or color change points of the curve C along the edge. Using each line segment l j of L, the edge position e
And the information generating mask image Im j that specifies the neighboring pixels each line segment l j fold line L, with respect to neighboring pixels of the corresponding line segment l j and the line segment l j based on each pair of the mask image Im j generates edge intensity image is j which is standardized for each pair by performing normalization process Te, with each pair of the corresponding edge intensity image is j and the mask image Im j, the normalized edge By generating the intensity image Io, even when the shape of the outline of the object is more complicated and the direction of the outline changes greatly, the edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image. . Thus, a contour extracting apparatus and a contour extracting method capable of stably extracting the contour of an object from an image can be realized.

【0091】また上述の構成によれば、曲線Cの特徴点
として屈曲点及び色変化点を抽出したので、輪郭を構成
する色の組み合わせ毎に領域を分割することがきる。こ
れにより各エツジ強度画像Ijの規格化処理を一段と精
度良く行うことができるので、入力画像における色差の
大小に依存せずにエツジ強度を一段と均一に検出するこ
とができる。
Further, according to the above configuration, since the inflection point and the color change point are extracted as the characteristic points of the curve C, the area can be divided for each combination of colors constituting the contour. As a result, the normalization processing of each edge intensity image Ij can be performed with higher accuracy, and the edge intensity can be detected more uniformly without depending on the magnitude of the color difference in the input image.

【0092】(7)他の実施例 なお上述の第1、第2、第3及び第4実施例において
は、オペレータが入力手段4を用いて線分、折れ線又は
曲線を入力した場合について述べたが、本発明はこれに
限らず、上述したように、現画像iと、既に輪郭曲線情
報S5として輪郭曲線が得られている1フレーム前の画
像i−1と、当該画像i−1の輪郭曲線情報S5とに基
づいて現画像iの推定輪郭情報S2を得るようにしても
よい(図1)。
(7) Other Embodiments In the first, second, third and fourth embodiments, the case where the operator inputs a line segment, a polygonal line, or a curve using the input means 4 has been described. However, the present invention is not limited to this. As described above, the current image i, the image i-1 one frame before the contour curve has already been obtained as the contour curve information S5, and the contour of the image i-1 The estimated contour information S2 of the current image i may be obtained based on the curve information S5 (FIG. 1).

【0093】この場合、画像毎にエツジ位置e及びエツ
ジ方向dを入力する手間を省けるので、簡易な方法で画
像中から対象物の輪郭を抽出することができる。特に動
画像から輪郭を抽出する際には、フレーム毎にエツジ位
置e及びエツジ方向dを入力する手間が省けるので、作
業効率を格段的に向上させることができる。
In this case, it is not necessary to input the edge position e and the edge direction d for each image, so that the outline of the object can be extracted from the image by a simple method. In particular, when contours are extracted from a moving image, the work for inputting the edge position e and the edge direction d for each frame can be omitted, so that the work efficiency can be significantly improved.

【0094】ここで動きベクトル検出として、例えば
「SNAKES : Active Contour modeles」(Kass M. 、Wit
ikin A.、Terzopoulos D.、Proc.1st ICCV 、pp259-268
、1987)に記載されている「SNAKES」と呼ばれる動的
輪郭モデルや、画像処理システム(特開平4-117079号)
に記載されているマツチングによる動きベクトル検出な
どがあり、これらを利用することができる。
Here, as the motion vector detection, for example, “SNAKES: Active Contour models” (Kass M., Wit
ikin A., Terzopoulos D., Proc. 1st ICCV, pp259-268
1987), an active contour model called "SNAKES", and an image processing system (Japanese Patent Laid-Open No. 4-117079).
And motion vector detection by matching, which can be used.

【0095】また上述の第1、第2、第3及び第4実施
例においては、エツジ位置e及びエツジ方向dを指定す
る線分、折れ線又は曲線を入力する入力手段としてマウ
スを用いた場合について述べたが、本発明はこれに限ら
ず、タブレツト等を用いて線分、折れ線又は曲線を入力
するようにしてもよい。
In the first, second, third and fourth embodiments described above, the case where a mouse is used as an input means for inputting a line segment, a polygonal line, or a curve for specifying the edge position e and the edge direction d is described. As described above, the present invention is not limited to this, and a line segment, a polygonal line, or a curve may be input using a tablet or the like.

【0096】さらに上述の第3及び第4実施例において
は、グラデイエントベクトル算出部7を複数用いた場合
について述べたが、本発明はこれに限らず、1つのグラ
デイエントベクトル算出部7で構成するようにしてもよ
い。この場合、グラデイエントベクトル算出部40及び
50の構成を簡略化することができる。
Further, in the third and fourth embodiments described above, a case where a plurality of gradient vector calculation units 7 are used has been described. However, the present invention is not limited to this, and a configuration in which one gradient vector calculation unit 7 is used You may make it. In this case, the configuration of the gradient vector calculation units 40 and 50 can be simplified.

【0097】さらに上述の第3及び第4実施例において
は、グラデイエントベクトル算出部7を用いた場合につ
いて述べたが、本発明はこれに限らず、第2実施例で述
べたグラデイエントベクトル算出部30を用いてもよ
い。この場合、エツジ点検出回路32は、各線分lj
近傍画素においてエツジ点を検出し、当該検出結果に応
じたエツジ点2値画像Ieを生成する。
In the third and fourth embodiments, the case where the gradient vector calculation section 7 is used has been described. However, the present invention is not limited to this, and the gradient vector calculation section 7 described in the second embodiment may be used. The unit 30 may be used. In this case, edge point detection circuit 32 detects the edge points in the vicinity of pixels of each line segment l j, it generates a edge point binary image Ie in accordance with the detection result.

【0098】さらに上述の第3及び第4実施例において
は、それぞれエツジ位置e及びエツジ方向dの情報とし
て折れ線及び曲線を入力手段4から入力した場合につい
て述べたが、本発明はこれに限らず、エツジ位置e及び
エツジ方向dの情報としてエツジに沿つた複数の線分を
入力手段4から入力するようにしてもよい。この場合、
線分でエツジ位置e及びエツジ方向dの両方の情報を与
えることができるので、作業効率を向上させることがで
きる。
Further, in the above third and fourth embodiments, a case has been described in which a polygonal line and a curve are input from the input means 4 as information on the edge position e and the edge direction d, respectively. However, the present invention is not limited to this. A plurality of line segments along the edge may be input from the input means 4 as information on the edge position e and the edge direction d. in this case,
Since information on both the edge position e and the edge direction d can be given by the line segment, the work efficiency can be improved.

【0099】さらに上述の第3実施例においては、線分
k からの距離d(lk、x、y)をその都度算出した
場合について述べたが、本発明はこれに限らず、図17
に示すような2乗距離テーブルを使用して、線分が通過
する画素と座標(x、y)間の距離を求め、その最小値
を距離dとしてもよい。これにより距離の計算を簡略化
することができる。ここで距離テーブルは、左上の位置
に座標(x、y)を合わせることにより、線分lj が通
過する位置に相当するテーブルの値が2乗距離になるよ
うに作成されている。またこの距離テーブルは、右下方
向への距離を求める際に作成されたものである。従つて
この距離テーブルを90°ずつ回転させたテーブルを新た
に3つ作成すれば、全方向における距離を容易に求める
ことができる。
[0099] In yet a third embodiment described above, the line segment l Distance from k d (lk, x, y ) has dealt with the case of calculating in each case, the present invention is not limited to this, FIG. 17
The distance between the pixel through which the line segment passes and the coordinates (x, y) may be obtained using a square distance table as shown in FIG. Thereby, the calculation of the distance can be simplified. Here the distance table, by matching the coordinates (x, y) at the upper left position, which is created as the value of the table corresponding to the position where the line segment l j passes becomes the square distance. This distance table is created when obtaining the distance in the lower right direction. Therefore, if three new tables are created by rotating this distance table by 90 °, distances in all directions can be easily obtained.

【0100】さらに上述の実施例においては、推定輪郭
算出回路5及び動きベクトル推定回路10を有するキー
信号生成装置1に本発明を適用した場合について述べた
が、本発明はこれに限らず、推定輪郭算出回路5又は動
きベクトル推定回路10を有するキー信号生成装置に本
発明を適用し得る。またキー信号生成装置1において、
推定輪郭算出回路5及び動きベクトル推定回路10を切
り換えるスイツチを設け、推定輪郭算出回路5と動きベ
クトル推定回路10を切り換えることができるようにし
てもよい。
Further, in the above-described embodiment, the case where the present invention is applied to the key signal generating device 1 having the estimated contour calculating circuit 5 and the motion vector estimating circuit 10 has been described. However, the present invention is not limited to this. The present invention can be applied to a key signal generation device having the contour calculation circuit 5 or the motion vector estimation circuit 10. In the key signal generation device 1,
A switch for switching between the estimated contour calculating circuit 5 and the motion vector estimating circuit 10 may be provided so that the estimated contour calculating circuit 5 and the motion vector estimating circuit 10 can be switched.

【0101】[0101]

【発明の効果】上述のように本発明によれば、所定の入
力手段によつて入力されたエツジの位置及びエツジの方
向に基づいて決定された対象物の輪郭についての輪郭候
補領域においてグラデイエントベクトルを算出してエツ
ジ強度画像を生成し、当該エツジ強度画像、エツジの位
置及びエツジの方向に基づいて、エツジを横切る積分経
路を算出し、エツジ強度画像を積分経路上において積分
した値を規格化係数として算出し、エツジ強度画像及び
規格化係数に基づいてエツジ強度画像を規格化すること
により、エツジの断面積でエツジ強度を規格化すること
ができるので、入力画像における色差の大小に依存せず
にエツジ強度を均一に検出することができる。かくして
画像中から対象物の輪郭を安定して抽出することのでき
る輪郭抽出装置及び輪郭抽出方法を実現することができ
る。
As described above, according to the present invention, the gradient in the contour candidate area for the contour of the object determined based on the position of the edge and the direction of the edge inputted by the predetermined input means. A vector is calculated to generate an edge intensity image, an integration path crossing the edge is calculated based on the edge intensity image, the edge position, and the edge direction, and a value obtained by integrating the edge intensity image on the integration path is standardized. The edge intensity can be normalized by the cross-sectional area of the edge by calculating the edge intensity image and normalizing the edge intensity image based on the edge intensity image and the normalization factor. The edge intensity can be detected uniformly without the need. Thus, a contour extracting apparatus and a contour extracting method capable of stably extracting the contour of an object from an image can be realized.

【0102】また本発明によれば、エツジの位置及びエ
ツジの方向の情報として入力されるエツジに沿つた複数
の線分に基づいて対象物の輪郭についての輪郭候補領域
を決定すると共に、各線分の近傍領域を指定するマスク
画像を生成し、各マスク画像及び各線分をそれぞれエツ
ジの位置及びエツジの方向として出力し、輪郭候補領域
においてグラデイエントベクトルを算出してエツジ強度
画像を生成し、エツジ強度画像、対応するマスク画像及
び線分に基づいて、当該対応するマスク画像及び線分毎
に、各線分を横切る積分経路を算出し、各マスク画像を
対応する各積分経路上において積分した値を規格化係数
として出力し、対応する各マスク画像及び各規格化係数
に基づいて各マスク画像を規格化し、対応する規格化さ
れたマスク画像及び各マスク画像を用いて、規格化され
たエツジ強度画像を生成することにより、各線分によつ
て対象物の輪郭を分割すると共に、各領域毎にエツジの
断面積でエツジ強度を規格化することができるので、対
象物の輪郭の形状が複雑で輪郭の方向が大きく変化する
場合でも、入力画像における色差の大小に依存せずにエ
ツジ強度を均一に検出することができる。かくして画像
中から対象物の輪郭を安定して抽出することのできる輪
郭抽出装置及び輪郭抽出方法を実現することができる。
According to the present invention, a contour candidate area for a contour of an object is determined based on a plurality of line segments along the edge, which are input as information on the position of the edge and the direction of the edge. , A mask image designating a neighboring area of the image is generated, each mask image and each line segment are output as an edge position and an edge direction, and a gradient vector is calculated in a contour candidate area to generate an edge intensity image. On the basis of the intensity image, the corresponding mask image and the line segment, for each of the corresponding mask image and line segment, an integration path crossing each line segment is calculated, and the value obtained by integrating each mask image on each corresponding integration path is Output as a normalization coefficient, standardize each mask image based on each corresponding mask image and each standardization coefficient, and output the corresponding standardized mask image and By generating a standardized edge intensity image using each mask image, the contour of the object is divided by each line segment, and the edge intensity is normalized by the cross-sectional area of the edge for each region. Therefore, even when the shape of the contour of the target object is complicated and the direction of the contour changes greatly, the edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image. Thus, a contour extracting apparatus and a contour extracting method capable of stably extracting the contour of an object from an image can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したキー信号生成装置の全体構成
を示すブロツク図である。
FIG. 1 is a block diagram showing an overall configuration of a key signal generation device to which the present invention is applied.

【図2】本発明の基本原理の説明に供する略線図であ
る。
FIG. 2 is a schematic diagram for explaining a basic principle of the present invention.

【図3】本発明の基本原理の説明に供する略線図であ
る。
FIG. 3 is a schematic diagram for explaining a basic principle of the present invention.

【図4】本発明の第1実施例によるグラデイエントベク
トル算出部の構成を示すブロツク図である。
FIG. 4 is a block diagram showing a configuration of a gradient vector calculator according to the first embodiment of the present invention.

【図5】積分経路算出回路の構成を示すブロツク図であ
る。
FIG. 5 is a block diagram showing a configuration of an integration path calculation circuit.

【図6】積分経路算出処理の処理手順の説明に供するフ
ローチヤートである。
FIG. 6 is a flowchart for explaining a processing procedure of an integration path calculating process;

【図7】画像補間処理の処理手順の説明に供するフロー
チヤートである。
FIG. 7 is a flowchart for explaining a processing procedure of an image interpolation process;

【図8】規格化係数算出処理の処理手順の説明に供する
フローチヤートである。
FIG. 8 is a flowchart for explaining a processing procedure of a normalization coefficient calculation process.

【図9】第1実施例における規格化処理の処理手順の説
明に供するフローチヤートである。
FIG. 9 is a flowchart for explaining a processing procedure of a normalization process in the first embodiment.

【図10】本発明の第2実施例によるグラデイエントベ
クトル算出部の構成を示すブロツク図である。
FIG. 10 is a block diagram showing a configuration of a gradient vector calculation unit according to a second embodiment of the present invention.

【図11】第2実施例における2値化画像算出処理の処
理手順の説明に供するフローチヤートである。
FIG. 11 is a flowchart for explaining a processing procedure of a binarized image calculation process in the second embodiment.

【図12】本発明の第3実施例によるグラデイエントベ
クトル算出部の構成を示すブロツク図である。
FIG. 12 is a block diagram showing a configuration of a gradient vector calculator according to a third embodiment of the present invention.

【図13】領域分割処理の処理手順の説明に供するフロ
ーチヤートである。
FIG. 13 is a flowchart for explaining a processing procedure of a region dividing process.

【図14】第3実施例における規格化処理の処理手順の
説明に供するフローチヤートである。
FIG. 14 is a flowchart for explaining a processing procedure of a normalization process in the third embodiment.

【図15】本発明の第4実施例によるグラデイエントベ
クトル算出部の構成を示すブロツク図である。
FIG. 15 is a block diagram showing a configuration of a gradient vector calculation unit according to a fourth embodiment of the present invention.

【図16】第4実施例における規格化処理の処理手順の
説明に供するフローチヤートである。
FIG. 16 is a flowchart for explaining a procedure of a normalization process in a fourth embodiment.

【図17】距離テーブルの一例を示す図表である。FIG. 17 is a chart showing an example of a distance table.

【図18】色差の変化によるエツジ強度への影響の説明
に供する略線図である。
FIG. 18 is a schematic diagram used to explain the effect on edge strength due to a change in color difference.

【符号の説明】[Explanation of symbols]

1……キー信号生成装置、2……輪郭抽出部、3……キ
ー算出部、4……入力手段、5……推定輪郭算出部、
6、51……輪郭候補領域決定部、7、30、40、5
0……グラデイエントベクトル算出部、8……輪郭経路
探査部、9……曲線生成部、10……動きベクトル推定
部、11……遅延回路、12……両端曲線算出部、13
……ソフトキー生成部、21……エツジ強度算出回路、
22……積分経路算出回路、22A……横断直線算出回
路、22B……積分経路端点算出回路、23……規格化
係数算出回路、24……規格化回路、31……しきい値
算出回路、32……エツジ点検出回路、41……画像合
成部。
1 ... key signal generation device, 2 ... contour extraction unit, 3 ... key calculation unit, 4 ... input means, 5 ... estimated contour calculation unit,
6, 51... Contour candidate area determination section, 7, 30, 40, 5
0 ... Gradient vector calculation unit, 8 ... Contour path search unit, 9 ... Curve generation unit, 10 ... Motion vector estimation unit, 11 ... Delay circuit, 12 ... End-end curve calculation unit, 13
... Soft key generator, 21... Edge strength calculation circuit,
22 integration path calculation circuit, 22A crossing straight line calculation circuit, 22B integration path end point calculation circuit, 23 standardization coefficient calculation circuit, 24 standardization circuit, 31 threshold calculation circuit 32: an edge point detecting circuit; 41: an image synthesizing unit.

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】入力画像中から対象物の輪郭をエツジとし
て抽出する輪郭抽出装置において、 所定の入力手段によつて入力された軌跡に応じた上記エ
ツジの位置及び上記エツジの方向に基づいて、上記対象
物の輪郭についての輪郭候補領域を決定して出力する輪
郭候補領域決定手段と、 上記輪郭候補領域においてグラデイエントベクトルを算
出し、当該算出結果に基づいてエツジ強度画像を生成し
て出力するエツジ強度画像生成手段と、 上記エツジ強度画像、上記エツジの位置及び上記エツジ
の方向に基づいて、上記エツジを横切る積分経路を算出
して出力する積分経路算出手段と、 上記エツジ強度画像を上記積分経路上において積分した
値を規格化係数として出力する規格化係数算出手段と、 上記エツジ強度画像及び上記規格化係数に基づいて上記
エツジ強度画像を規格化し、当該規格化されたエツジ強
度画像を出力する規格化手段とを具えることを特徴とす
る輪郭抽出装置。
1. A contour extracting apparatus for extracting a contour of a target object from an input image as an edge, wherein the edge is detected based on a position of the edge and a direction of the edge according to a trajectory input by a predetermined input means. Contour candidate area determining means for determining and outputting a contour candidate area for the contour of the object; calculating a gradient vector in the contour candidate area; generating and outputting an edge intensity image based on the calculation result Edge intensity image generation means; integration path calculation means for calculating and outputting an integration path crossing the edge based on the edge intensity image, the position of the edge, and the direction of the edge; and integrating the edge intensity image with the integration A normalization coefficient calculating means for outputting a value integrated on the path as a normalization coefficient; and There the edge intensity image and normalized, contour extraction apparatus characterized by comprising a normalization means for outputting an edge strength image is the standardized.
【請求項2】上記エツジ強度画像を上記積分経路上にお
いて積分した値を上記積分経路の積分区間で除算するこ
とにより得られる値を、しきい値として出力するしきい
値算出手段と、 上記規格化されたエツジ強度画像を上記しきい値を用い
てしきい値処理することによりエツジ点を検出し、当該
検出結果に応じたエツジ点2値画像を出力するエツジ点
検出手段とを具えることを特徴とする請求項1に記載の
輪郭抽出装置。
2. A threshold calculating means for outputting, as a threshold, a value obtained by dividing a value obtained by integrating the edge intensity image on the integration path by an integration section of the integration path; Edge point detection means for detecting an edge point by subjecting the converted edge intensity image to a threshold value using the threshold value, and outputting an edge point binary image according to the detection result. The contour extraction device according to claim 1, wherein:
【請求項3】上記積分経路算出手段は、 上記エツジ強度画像、上記エツジの位置及び上記エツジ
の方向に基づいて、上記エツジを垂直に横切るような横
断直線を算出して出力する横断直線算出手段と、 上記エツジ強度画像及び上記横断直線に基づいて、上記
エツジを境界として、エツジ強度の値が最初に所定のし
きい値以下となる上記横断直線上の2つの点を端点と
し、当該各端点で区切られる上記横断直線上の線分又は
上記2つの端点を上記積分経路として出力する積分経路
端点算出手段とを具えることを特徴とする請求項1に記
載の輪郭抽出装置。
3. A crossing straight line calculating means for calculating and outputting a crossing straight line perpendicular to the edge based on the edge intensity image, the position of the edge and the direction of the edge. Based on the edge intensity image and the traversing line, two points on the traversing line at which the edge intensity value is initially equal to or less than a predetermined threshold are defined as end points with the edge as the boundary, and the respective end points 2. The contour extraction device according to claim 1, further comprising: integration path end point calculation means for outputting a line segment or the two end points on the traversing straight line separated by the following as the integration path.
【請求項4】任意の実数座標における上記入力画像の値
を算出して出力する画像補間手段を具え、上記積分経路
端点算出手段は、上記画像補間手段の出力に基づいて上
記横断直線上の上記2つの端点を算出することを特徴と
する請求項3に記載の輪郭抽出装置。
4. An image interpolating means for calculating and outputting a value of the input image at arbitrary real number coordinates, wherein the integration path end point calculating means calculates the value of the input image on the crossing straight line based on an output of the image interpolating means. The contour extraction device according to claim 3, wherein two end points are calculated.
【請求項5】任意の実数座標における上記入力画像の値
を算出して出力する画像補間手段を具え、上記規格化係
数算出手段は、上記画像補間手段の出力に基づいて、上
記エツジ強度画像を上記積分経路上において積分した値
を規格化係数として出力することを特徴とする請求項1
に記載の輪郭抽出装置。
5. An image interpolation means for calculating and outputting a value of the input image at arbitrary real number coordinates, wherein the normalization coefficient calculating means converts the edge intensity image based on an output of the image interpolation means. 2. The method according to claim 1, wherein a value integrated on the integration path is output as a normalization coefficient.
4. The contour extraction device according to claim 1.
【請求項6】上記規格化されたエツジ強度画像に基づい
て、上記対象物の輪郭の中心を通過する輪郭経路を算出
し、当該輪郭経路を輪郭経路情報として出力する輪郭経
路探査手段と、 上記輪郭経路情報に基づいて上記輪郭経路を曲線近似す
ることにより輪郭曲線を生成する輪郭曲線生成手段と、 上記輪郭曲線に基づいて、現画像中における対象物の輪
郭についての推定輪郭を検出する輪郭推定手段と を具え、上記輪郭候補領域決定手段は、上記輪郭推定手
段によつて検出された上記推定輪郭に基づいて、上記現
画像中における対象物の輪郭についての輪郭候補領域を
決定することを特徴とする請求項1に記載の輪郭抽出装
置。
6. A contour path searching means for calculating a contour path passing through the center of the contour of the object based on the standardized edge intensity image, and outputting the contour path as contour path information; Contour curve generating means for generating a contour curve by approximating the contour path based on the contour path information; and contour estimation for detecting an estimated contour of the contour of the object in the current image based on the contour curve. Means for determining a contour candidate area for the contour of the object in the current image based on the estimated contour detected by the contour estimating means. 2. The contour extraction device according to claim 1, wherein:
【請求項7】入力画像中から対象物の輪郭をエツジとし
て抽出する輪郭抽出装置において、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つた複数の線分に応じた軌跡を入力する
入力手段と、 上記各線分に基づいて上記各線分の近傍領域を指定する
マスク画像を生成し、上記各マスク画像及び上記各線分
をそれぞれ上記エツジの位置及び上記エツジの方向とし
て出力する輪郭候補領域決定手段と、 上記輪郭候補領域においてグラデイエントベクトルを算
出し、当該算出結果に基づいてエツジ強度画像を生成し
て出力するエツジ強度画像生成手段と、 上記エツジ強度画像、対応する上記マスク画像及び上記
線分に基づいて、当該対応するマスク画像及び線分毎
に、上記各線分を横切る積分経路を算出して出力する積
分経路算出手段と、 上記各マスク画像を対応する上記各積分経路上において
積分した値を規格化係数として出力する規格化係数算出
手段と、 対応する上記各マスク画像及び上記各規格化係数に基づ
いて上記各マスク画像を規格化し、当該規格化された各
マスク画像を出力する規格化手段と、 対応する上記規格化された各マスク画像及び上記各マス
ク画像を用いて、規格化されたエツジ強度画像を生成し
て出力する画像合成手段とを具えることを特徴とする輪
郭抽出装置。
7. A contour extraction device for extracting a contour of a target object from an input image as an edge, wherein the information on the position of the edge and the direction of the edge is
Input means for inputting a trajectory corresponding to a plurality of line segments along the edge, and generating a mask image specifying a neighboring area of each line segment based on each line segment, and generating each mask image and each line segment A contour candidate area determining means for outputting the position of the edge and the direction of the edge, respectively; an edge intensity image for calculating a gradient vector in the contour candidate area, generating an edge intensity image based on the calculation result, and outputting the edge intensity image Generating means for calculating, based on the edge intensity image, the corresponding mask image and the line segment, an integrated path crossing each line segment for each of the corresponding mask image and line segment, and outputting the calculated integrated path; And a normalization coefficient calculating means for outputting a value obtained by integrating each of the mask images on the corresponding integration path as a normalization coefficient. Standardizing means for normalizing the respective mask images based on the respective mask images and the respective standardization coefficients and outputting the standardized mask images; and a corresponding standardized mask image and the respective standardized mask images. A contour extracting apparatus, comprising: image synthesizing means for generating and outputting a standardized edge intensity image using a mask image.
【請求項8】上記各マスク画像を対応する上記各積分経
路上において積分した値を上記各積分経路の積分区間で
除算することにより得られる値を、しきい値として出力
するしきい値算出手段と、 上記規格化されたエツジ強度画像を上記しきい値を用い
てしきい値処理することにより、上記各線分の近傍領域
においてエツジ点を検出し、当該検出結果に応じたエツ
ジ点2値画像を出力するエツジ点検出手段とを具えるこ
とを特徴とする請求項7に記載の輪郭抽出装置。
8. A threshold value calculating means for outputting, as a threshold value, a value obtained by dividing a value obtained by integrating each of the mask images on each of the corresponding integration paths by an integration section of each of the integration paths. And performing threshold processing on the standardized edge intensity image using the threshold value, thereby detecting an edge point in a region near each of the line segments, and detecting an edge point binary image corresponding to the detection result. The edge extraction device according to claim 7, further comprising edge point detection means for outputting the edge point.
【請求項9】上記積分経路算出手段は、 上記エツジ強度画像、上記各マスク画像及び上記各線分
に基づいて、それぞれ上記エツジを垂直に横切るような
横断直線を算出して出力する横断直線算出手段と、 上記エツジ強度画像及び上記各横断直線に基づいて、上
記エツジを境界として、エツジ強度の値が最初に所定の
しきい値以下となる上記各横断直線上の2つの点を端点
とし、当該各端点で区切られる上記各横断直線上の各線
分又は上記2つの端点を上記各積分経路として出力する
積分経路端点算出手段とを具えることを特徴とする請求
項7に記載の輪郭抽出装置。
9. A crossing straight line calculating means for calculating and outputting a crossing straight line perpendicular to the edge based on the edge intensity image, the mask images and the line segments, respectively. Based on the edge intensity image and the respective traversing lines, two points on the traversing line at which the edge intensity value is initially equal to or less than a predetermined threshold are defined as end points, with the edge as a boundary. 8. The contour extraction device according to claim 7, further comprising an integration path end point calculating means for outputting each line segment or each of the two end points on each of the transverse straight lines separated by each end point as each of the integration paths.
【請求項10】任意の実数座標における上記入力画像の
値を算出して出力する画像補間手段を具え、上記積分経
路端点算出手段は、上記画像補間手段の出力に基づいて
上記各横断直線上の上記2つの端点を算出することを特
徴とする請求項9に記載の輪郭抽出装置。
10. An image interpolating means for calculating and outputting a value of the input image at an arbitrary real number coordinate, wherein said integration path end point calculating means calculates the value of said input image based on an output of said image interpolating means. 10. The contour extraction device according to claim 9, wherein the two end points are calculated.
【請求項11】任意の実数座標における上記入力画像の
値を算出して出力する画像補間手段を具え、上記規格化
係数算出手段は、上記画像補間手段の出力に基づいて、
上記各マスク画像を対応する上記各積分経路上において
積分した値を規格化係数として出力することを特徴とす
る請求項7に記載の輪郭抽出装置。
11. An image interpolation means for calculating and outputting a value of the input image at an arbitrary real number coordinate, wherein the normalization coefficient calculating means calculates a value of the input image based on an output of the image interpolation means.
8. The contour extracting device according to claim 7, wherein a value obtained by integrating each of the mask images on the corresponding integration path is output as a normalization coefficient.
【請求項12】上記入力手段は、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つて連続した折れ線に応じた軌跡を入力
し、 上記輪郭候補領域決定手段は、 上記折れ線に基づいて上記折れ線の各線分の近傍領域を
指定するマスク画像を生成し、上記各マスク画像及び上
記各線分をそれぞれ上記エツジの位置及び上記エツジの
方向として出力することを特徴とする請求項7に記載の
輪郭抽出装置。
12. The input means includes information on the position of the edge and the direction of the edge.
A trajectory corresponding to a continuous polygonal line along the edge is input, and the contour candidate area determination means generates a mask image specifying a neighborhood area of each line of the polygonal line based on the polygonal line, and generates the mask image 8. The contour extracting apparatus according to claim 7, wherein each of the line segments is output as a position of the edge and a direction of the edge.
【請求項13】上記入力手段は、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つて連続した曲線に応じた軌跡を入力
し、 上記輪郭候補領域決定手段は、 上記曲線を折れ線に近似し、当該折れ線に基づいて上記
折れ線の各線分の近傍領域を指定するマスク画像を生成
し、上記各マスク画像及び上記各線分をそれぞれ上記エ
ツジの位置及び上記エツジの方向として出力することを
特徴とする請求項7に記載の輪郭抽出装置。
13. The information processing apparatus according to claim 11, wherein the input means includes information on a position of the edge and a direction of the edge.
A trajectory corresponding to a continuous curve along the edge is input, and the contour candidate area determining means approximates the curve to a polygonal line, and specifies a neighborhood area of each line of the polygonal line based on the polygonal line. 8. The contour extraction device according to claim 7, wherein the contour extraction device outputs the mask image and the line segments as the position of the edge and the direction of the edge, respectively.
【請求項14】上記輪郭候補領域決定手段は、 上記入力手段によつて入力される上記曲線上の屈曲点及
び又は色変化点を特徴点として抽出する特徴点抽出手段
と、 上記曲線を、上記特徴点抽出手段によつて抽出された上
記屈曲点及び又は上記色変化点を頂点する上記折れ線に
変換する曲線変換手段とを具えることを特徴とする請求
項13に記載の輪郭抽出装置。
14. A contour point candidate area determining means for extracting a bending point and / or a color change point on the curve inputted by the input means as a feature point; 14. The contour extraction device according to claim 13, further comprising a curve conversion unit that converts the inflection point and / or the color change point extracted by the feature point extraction unit into the polygonal line having the vertex.
【請求項15】上記規格化されたエツジ強度画像に基づ
いて上記対象物の輪郭の中心を通過する輪郭経路を算出
し、当該輪郭経路を輪郭経路情報として出力する輪郭経
路探査手段と、 上記輪郭経路情報に基づいて上記輪郭経路を曲線近似す
ることにより輪郭曲線を生成する輪郭曲線生成手段と、 上記輪郭曲線に基づいて、現画像中における対象物の輪
郭についての推定輪郭を検出する輪郭推定手段とを具
え、上記輪郭候補領域決定手段は、上記輪郭推定手段に
よつて検出された上記推定輪郭に基づいて、上記現画像
中における対象物の輪郭についての輪郭候補領域を決定
することを特徴とする請求項7に記載の輪郭抽出装置。
15. A contour path searching means for calculating a contour path passing through the center of the contour of the object based on the standardized edge intensity image, and outputting the contour path as contour path information; Contour curve generating means for generating a contour curve by approximating the contour path based on the path information; and contour estimating means for detecting an estimated contour of the contour of the object in the current image based on the contour curve. Wherein the contour candidate area determining means determines a contour candidate area for the contour of the object in the current image based on the estimated contour detected by the contour estimating means. The contour extraction device according to claim 7, wherein:
【請求項16】入力画像中から対象物の輪郭をエツジと
して抽出する輪郭抽出方法において、所定の入力手段に
よつて入力された軌跡に応じた上記エツジの位置及び上
記エツジの方向に基づいて、上記対象物の輪郭について
の輪郭候補領域を決定して出力する輪郭候補領域決定ス
テツプと、 上記輪郭候補領域においてグラデイエントベクトルを算
出し、当該算出結果に基づいてエツジ強度画像を生成し
て出力するエツジ強度画像生成ステツプと、 上記エツジ強度画像、上記エツジの位置及び上記エツジ
の方向に基づいて、上記エツジを横切る積分経路を算出
して出力する積分経路算出ステツプと、 上記エツジ強度画像を上記積分経路上において積分した
値を規格化係数として出力する規格化係数算出ステツプ
と、 上記エツジ強度画像及び上記規格化係数に基づいて上記
エツジ強度画像を規格化し、当該規格化されたエツジ強
度画像を出力する規格化ステツプとを具えることを特徴
とする輪郭抽出方法。
16. A contour extraction method for extracting a contour of a target object from an input image as an edge, wherein the edge is detected based on a position of the edge and a direction of the edge according to a trajectory inputted by a predetermined input means. A contour candidate area determining step of determining and outputting a contour candidate area for the contour of the object; calculating a gradient vector in the contour candidate area; generating and outputting an edge intensity image based on the calculation result; An edge intensity image generation step, an integration path calculation step for calculating and outputting an integration path crossing the edge based on the edge intensity image, the position of the edge, and the direction of the edge, and the integration of the edge intensity image. A normalization coefficient calculation step of outputting a value integrated on the path as a normalization coefficient; A contour extraction method comprising: normalizing the edge intensity image based on the standardization coefficient; and a normalization step for outputting the standardized edge intensity image.
【請求項17】上記エツジ強度画像を上記積分経路上に
おいて積分した値を上記積分経路の積分区間で除算する
ことにより得られる値を、しきい値として出力するしき
い値算出ステツプと、 上記規格化されたエツジ強度画像を上記しきい値を用い
てしきい値処理することによりエツジ点を検出し、当該
検出結果に応じたエツジ点2値画像を出力するエツジ点
検出ステツプとを具えることを特徴とする請求項16に
記載の輪郭抽出方法。
17. A threshold value calculating step of outputting a value obtained by dividing a value obtained by integrating the edge intensity image on the integration path by an integration section of the integration path as a threshold value, Edge point detection step for detecting edge points by subjecting the converted edge intensity image to a threshold value using the threshold value, and outputting an edge point binary image corresponding to the detection result. 17. The contour extraction method according to claim 16, wherein:
【請求項18】上記積分経路算出ステツプは、 上記エツジ強度画像、上記エツジの位置及び上記エツジ
の方向に基づいて、上記エツジを垂直に横切るような横
断直線を算出して出力する横断直線算出ステツプと、 上記エツジ強度画像及び上記横断直線に基づいて、上記
エツジを境界として、エツジ強度の値が最初に所定のし
きい値以下となる上記横断直線上の2つの点を端点と
し、当該各端点で区切られる上記横断直線上の線分又は
上記2つの端点を上記積分経路として出力する積分経路
端点算出ステツプとを具えることを特徴とする請求項1
6に記載の輪郭抽出方法。
18. The traversing line calculation step for calculating and outputting a traversing line perpendicular to the edge based on the edge intensity image, the position of the edge, and the direction of the edge. Based on the edge intensity image and the traversing line, two points on the traversing line at which the edge intensity value is initially equal to or less than a predetermined threshold are defined as end points with the edge as the boundary, and the respective end points 2. An integration path end point calculation step for outputting a line segment on the traversing straight line or the two end points delimited by the following as the integration path.
7. The contour extraction method according to 6.
【請求項19】上記積分経路端点算出ステツプは、 任意の実数座標における上記入力画像の値を算出し、当
該算出結果に基づいて上記横断直線上の上記2つの端点
を算出することを特徴とする請求項18に記載の輪郭抽
出方法。
19. The integration path end point calculation step calculates the value of the input image at arbitrary real number coordinates, and calculates the two end points on the transverse line based on the calculation result. The contour extraction method according to claim 18.
【請求項20】上記規格化係数算出ステツプは、 任意の実数座標における上記入力画像の値を算出し、当
該算出結果に基づいて、上記エツジ強度画像を上記積分
経路上において積分した値を規格化係数として出力する
ことを特徴とする請求項16に記載の輪郭抽出方法。
20. The normalization coefficient calculating step calculates a value of the input image at arbitrary real coordinates, and normalizes a value obtained by integrating the edge intensity image on the integration path based on the calculation result. 17. The contour extraction method according to claim 16, wherein the method is output as a coefficient.
【請求項21】上記規格化されたエツジ強度画像に基づ
いて、上記対象物の輪郭の中心を通過する輪郭経路を算
出し、当該輪郭経路を輪郭経路情報として出力する輪郭
経路探査ステツプと、 上記輪郭経路情報に基づいて上記輪郭経路を曲線近似す
ることにより輪郭曲線を生成する輪郭曲線生成ステツプ
と、 上記輪郭曲線に基づいて、現画像中における対象物の輪
郭についての推定輪郭を検出する輪郭推定ステツプとを
具え、上記輪郭候補領域決定ステツプは、上記輪郭推定
ステツプにおいて検出された上記推定輪郭に基づいて、
上記現画像中における対象物の輪郭についての輪郭候補
領域を決定することを特徴とする請求項16に記載の輪
郭抽出方法。
21. A contour path search step for calculating a contour path passing through the center of the contour of the object based on the standardized edge intensity image, and outputting the contour path as contour path information; A contour curve generation step for generating a contour curve by approximating the contour path based on the contour path information; and a contour estimation for detecting an estimated contour of an object in the current image based on the contour curve. The outline candidate area determination step is performed based on the estimated outline detected in the outline estimation step.
17. The contour extraction method according to claim 16, wherein a contour candidate area for a contour of the object in the current image is determined.
【請求項22】入力画像中から対象物の輪郭をエツジと
して抽出する輪郭抽出方法において、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つた複数の線分に応じた軌跡を入力する
入力ステツプと、 上記各線分に基づいて上記各線分の近傍領域を指定する
マスク画像を生成し、上記各マスク画像及び上記各線分
をそれぞれ上記エツジの位置及び上記エツジの方向とし
て出力する輪郭候補領域決定ステツプと、 上記輪郭候補領域においてグラデイエントベクトルを算
出し、当該算出結果に基づいてエツジ強度画像を生成し
て出力するエツジ強度画像生成ステツプと、 上記エツジ強度画像、対応する上記マスク画像及び上記
線分に基づいて、当該対応するマスク画像及び線分毎
に、上記各線分を横切る積分経路を算出して出力する積
分経路算出ステツプと、 上記各マスク画像を対応する上記各積分経路上において
積分した値を規格化係数として出力する規格化係数算出
ステツプと、 対応する上記各マスク画像及び上記各規格化係数に基づ
いて上記各マスク画像を規格化し、当該規格化された各
マスク画像を出力する規格化ステツプと、 対応する上記規格化された各マスク画像及び上記各マス
ク画像を用いて、規格化されたエツジ強度画像を生成し
て出力する画像合成ステツプとを具えることを特徴とす
る輪郭抽出方法。
22. A contour extracting method for extracting a contour of a target object from an input image as an edge, wherein information on the position of the edge and the direction of the edge is provided as:
An input step of inputting a trajectory corresponding to a plurality of line segments along the edge; and generating a mask image designating a neighborhood area of each line segment based on each line segment, and generating each mask image and each line segment. A contour candidate area determination step to be output as the edge position and the edge direction, respectively; an edge intensity image for calculating a gradient vector in the contour candidate area and generating and outputting an edge intensity image based on the calculation result A generation step and, based on the edge intensity image, the corresponding mask image and the line segment, an integration path calculation step of calculating and outputting an integration path crossing each line segment for each of the corresponding mask image and line segment. And a normalization coefficient calculation for outputting a value obtained by integrating the respective mask images on the corresponding integration paths as a normalization coefficient. A step of normalizing each of the mask images based on the corresponding mask images and the standardization coefficients, and outputting the standardized mask images; and a corresponding one of the standardized mask images. An edge synthesizing method, comprising: a mask image and an image synthesizing step of generating and outputting a standardized edge intensity image using the mask images.
【請求項23】上記各マスク画像を対応する上記各積分
経路上において積分した値を上記各積分経路の積分区間
で除算することにより得られる値を、しきい値として出
力するしきい値算出ステツプと、 上記規格化されたエツジ強度画像を上記しきい値を用い
てしきい値処理することにより、上記各線分の近傍領域
においてエツジ点を検出し、当該検出結果に応じたエツ
ジ点2値画像を出力するエツジ点検出ステツプとを具え
ることを特徴とする請求項22に記載の輪郭抽出方法。
23. A threshold value calculating step of outputting a value obtained by dividing a value obtained by integrating each of the mask images on each of the corresponding integration paths by an integration section of each of the integration paths as a threshold value. And performing threshold processing on the standardized edge intensity image using the threshold value, thereby detecting an edge point in a region near each of the line segments, and detecting an edge point binary image corresponding to the detection result. 23. The edge extraction method according to claim 22, further comprising an edge point detection step for outputting the edge point.
【請求項24】上記積分経路算出ステツプは、 上記エツジ強度画像、上記各マスク画像及び上記各線分
に基づいて、それぞれ上記エツジを垂直に横切るような
横断直線を算出して出力する横断直線算出ステツプと、 上記エツジ強度画像及び上記各横断直線に基づいて、上
記エツジを境界として、エツジ強度の値が最初に所定の
しきい値以下となる上記各横断直線上の2つの点を端点
とし、当該各端点で区切られる上記各横断直線上の各線
分又は上記2つの端点を上記各積分経路として出力する
積分経路端点算出ステツプとを具えることを特徴とする
請求項22に記載の輪郭抽出方法。
24. A crossing straight line calculating step for calculating and outputting a crossing straight line which crosses the edge vertically based on the edge intensity image, the mask images and the line segments, respectively. Based on the edge intensity image and the respective traversing lines, two points on the traversing line at which the edge intensity value is initially equal to or less than a predetermined threshold are defined as end points, with the edge as a boundary. 23. The contour extraction method according to claim 22, further comprising: an integration path end point calculation step of outputting each line segment or each of the two end points on each of the transverse straight lines separated by each end point as each of the integration paths.
【請求項25】上記積分経路端点算出ステツプは、 任意の実数座標における上記入力画像の値を算出し、当
該算出結果に基づいて上記各横断直線上の上記2つの端
点を算出することを特徴とする請求項24に記載の輪郭
抽出方法。
25. The integration path end point calculation step calculates the value of the input image at arbitrary real number coordinates, and calculates the two end points on each of the transverse straight lines based on the calculation result. 25. The contour extraction method according to claim 24, wherein:
【請求項26】上記規格化係数算出ステツプは、 任意の実数座標における上記入力画像の値を算出し、当
該算出結果に基づいて、上記各マスク画像を対応する上
記各積分経路上において積分した値を規格化係数として
出力することを特徴とする請求項22に記載の輪郭抽出
方法。
26. The normalization coefficient calculation step calculates a value of the input image at an arbitrary real number coordinate, and integrates each mask image on the corresponding integration path based on the calculation result. 23. The contour extraction method according to claim 22, wherein is output as a normalization coefficient.
【請求項27】上記入力ステツプは、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つて連続した折れ線に応じた軌跡を入力
し、 上記輪郭候補領域決定手段は、 上記折れ線に基づいて上記折れ線の各線分の近傍領域を
指定するマスク画像を生成し、上記各マスク画像及び上
記各線分をそれぞれ上記エツジの位置及び上記エツジの
方向として出力することを特徴とする請求項22に記載
の輪郭抽出方法。
27. The input step includes information on the position of the edge and the direction of the edge.
A trajectory corresponding to a continuous polygonal line along the edge is input, and the contour candidate area determination means generates a mask image specifying a neighborhood area of each line of the polygonal line based on the polygonal line, and generates the mask image 23. The contour extracting method according to claim 22, wherein each of the line segments is output as a position of the edge and a direction of the edge.
【請求項28】上記入力ステツプは、 上記エツジの位置及び上記エツジの方向の情報として、
上記エツジに沿つて連続した曲線に応じた軌跡を入力
し、 上記輪郭候補領域決定ステツプは、 上記曲線を折れ線に近似し、当該折れ線に基づいて上記
折れ線の各線分の近傍領域を指定するマスク画像を生成
し、上記各マスク画像及び上記各線分をそれぞれ上記エ
ツジの位置及び上記エツジの方向として出力することを
特徴とする請求項22に記載の輪郭抽出方法。
28. The input step includes: information on the position of the edge and the direction of the edge;
A trajectory corresponding to a curve that is continuous along the edge is input, and the contour candidate area determination step approximates the curve to a polygonal line, and specifies a neighboring area of each of the polygonal lines based on the polygonal line. 23. The contour extraction method according to claim 22, further comprising: generating a mask image and outputting each of the mask images and the line segments as a position of the edge and a direction of the edge.
【請求項29】上記輪郭候補領域決定ステツプは、 上記入力ステツプにおいて入力された上記曲線上の屈曲
点及び又は色変化点を特徴点として抽出する特徴点抽出
ステツプと、 上記曲線を、上記特徴点抽出ステツプにおいて抽出され
た上記屈曲点及び又は上記色変化点を頂点する上記折れ
線に変換する曲線変換ステツプとを具えることを特徴と
する請求項28に記載の輪郭抽出方法。
29. The contour candidate area determining step includes: a feature point extracting step of extracting a bending point and / or a color change point on the curve input in the input step as a feature point; 29. The contour extraction method according to claim 28, further comprising a curve conversion step for converting the inflection point and / or the color change point extracted in the extraction step into the polygonal line having the vertex.
【請求項30】上記規格化されたエツジ強度画像に基づ
いて上記対象物の輪郭の中心を通過する輪郭経路を算出
し、当該輪郭経路を輪郭経路情報として出力する輪郭経
路探査ステツプと、 上記輪郭経路情報に基づいて上記輪郭経路を曲線近似す
ることにより輪郭曲線を生成する輪郭曲線生成ステツプ
と上記輪郭曲線に基づいて、現画像中における対象物の
輪郭についての推定輪郭を検出する輪郭推定ステツプと
を具え、上記輪郭候補領域決定ステツプは、上記輪郭推
定ステツプにおいて検出された上記推定輪郭に基づい
て、上記現画像中における対象物の輪郭についての輪郭
候補領域を決定することを特徴とする請求項22に記載
の輪郭抽出方法。
30. A contour path searching step for calculating a contour path passing through the center of the contour of the object based on the standardized edge intensity image, and outputting the contour path as contour path information; A contour curve generating step of generating a contour curve by approximating the contour path based on the path information; and a contour estimating step of detecting an estimated contour of the object in the current image based on the contour curve. Wherein the contour candidate area determining step determines a contour candidate area for the contour of the object in the current image based on the estimated contour detected in the contour estimating step. 23. The contour extraction method according to 22.
JP30116096A 1996-10-25 1996-10-25 Outline extraction device/method Pending JPH10136258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30116096A JPH10136258A (en) 1996-10-25 1996-10-25 Outline extraction device/method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30116096A JPH10136258A (en) 1996-10-25 1996-10-25 Outline extraction device/method

Publications (1)

Publication Number Publication Date
JPH10136258A true JPH10136258A (en) 1998-05-22

Family

ID=17893515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30116096A Pending JPH10136258A (en) 1996-10-25 1996-10-25 Outline extraction device/method

Country Status (1)

Country Link
JP (1) JPH10136258A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275634A (en) * 2004-03-24 2005-10-06 Hi Enterprise:Kk Power law type information processor, power law type information processing method, program, and recording medium
JP2010157163A (en) * 2008-12-31 2010-07-15 Morpho Inc Image processing method and image processor
JP2014235736A (en) * 2013-05-31 2014-12-15 富士通株式会社 Gray scale image processing method and device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275634A (en) * 2004-03-24 2005-10-06 Hi Enterprise:Kk Power law type information processor, power law type information processing method, program, and recording medium
JP2010157163A (en) * 2008-12-31 2010-07-15 Morpho Inc Image processing method and image processor
JP4727720B2 (en) * 2008-12-31 2011-07-20 株式会社モルフォ Image processing method and image processing apparatus
JP2014235736A (en) * 2013-05-31 2014-12-15 富士通株式会社 Gray scale image processing method and device

Similar Documents

Publication Publication Date Title
EP0720377B1 (en) Method for detecting motion vectors for use in a segmentation-based coding system
EP2265023B1 (en) Subject tracking device and subject tracking method
US6987866B2 (en) Multi-modal motion estimation for video sequences
US6965684B2 (en) Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US8509544B2 (en) Template matching apparatus and method thereof
US11062464B2 (en) Image processing apparatus, method, and storage medium to derive optical flow
JP3733161B2 (en) Image processing apparatus and method
JPH10164436A (en) Device and method for detecting contour and generating key signal
JP2000011133A (en) Device and method for detecting moving object
JP2005071344A (en) Image processing method, image processor and recording medium recording image processing program
US7403636B2 (en) Method and apparatus for processing an image
JP2001076161A (en) Method and device for image processing and storage medium
US7016531B1 (en) Process to extract regions of homogeneous color in a digital picture
JPH10149449A (en) Picture division method, picture identification method, picture division device and picture identification device
JPH10136258A (en) Outline extraction device/method
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
JPH08335268A (en) Area extracting method
KR100566629B1 (en) Moving object detection system and method
EP0959625A2 (en) Segmenting video images based on joint region and contour information
JP2754937B2 (en) Schematic image creation method and device
JP2000132692A (en) Method for extracting feature point of curve and recording medium recording the method
CN108280815B (en) Geometric correction method for monitoring scene structure
JPH07334648A (en) Method and device for processing image
JP3462960B2 (en) Image processing method
JP2001243479A (en) Method and device for image processing and recording medium having image processing program recorded thereon