JPH10336673A - Edge detection method and its device in video signal coding system - Google Patents
Edge detection method and its device in video signal coding systemInfo
- Publication number
- JPH10336673A JPH10336673A JP10430698A JP10430698A JPH10336673A JP H10336673 A JPH10336673 A JP H10336673A JP 10430698 A JP10430698 A JP 10430698A JP 10430698 A JP10430698 A JP 10430698A JP H10336673 A JPH10336673 A JP H10336673A
- Authority
- JP
- Japan
- Prior art keywords
- information
- boundary rectangle
- contour
- contour line
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/20—Contour coding, e.g. using detection of edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
- H04N5/145—Movement estimation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、映像信号で表現さ
れる物体の輪郭線を符号化する輪郭線符号化システムに
関し、特に、予め決められた境界四角形内で物体の輪郭
線と交差する映像物体平面(VOP)を取囲む該当境界四角
形の縁部を検出するための方法及びその装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a contour coding system for coding a contour of an object represented by a video signal, and more particularly to an image which intersects a contour of the object within a predetermined boundary rectangle. The present invention relates to a method and an apparatus for detecting an edge of a corresponding bounding rectangle surrounding an object plane (VOP).
【0002】[0002]
【従来の技術】通常、テレビ電話及び電子会議のような
ディジタルビデオシステムにおいて、映像フレーム信号
が「画素」と呼ばれる一連のディジタルデータからなっ
ているため、各映像フレーム信号を表現するのには大量
のディジタルデータが必要である。しかしながら、通常
の伝送チャネル上の利用可能な周波数帯域幅は制限され
ているので、そのチャネルを通じて大量のディジタルデ
ータを伝送するためには、特に、テレビ電話及び電子会
議のような低ビットレートの映像信号符号化システムの
場合、様々なデータ圧縮技法を用いて伝送すべきデータ
の量を圧縮するか減らさなければならない。2. Description of the Related Art Generally, in a digital video system such as a videophone or an electronic conference, a video frame signal is composed of a series of digital data called "pixels". Of digital data is required. However, the available frequency bandwidth on a regular transmission channel is limited, so transmitting large amounts of digital data over that channel is especially important for video transmission at low bit rates such as video telephony and teleconferencing. For signal coding systems, various data compression techniques must be used to compress or reduce the amount of data to be transmitted.
【0003】低ビットレートの映像信号符号化システム
において、映像信号を符号化する方法の1つに、所謂、
オブジェクト指向分析/合成符号化方法(Object-orien
tedanalysis-synthesis coding technique)がある。こ
のオブジェクト指向分析/合成符号化技法によれば、入
力映像は複数の物体(オブジェクト)に分けられ、各物
体の動き、輪郭線及び画素データを規定する3つの組よ
りなるパラメータが異なる符号化チャネルを通じて取り
扱われる。[0003] In a video signal encoding system of a low bit rate, one of the methods of encoding a video signal is a so-called video signal encoding method.
Object-oriented analysis / synthesis coding method (Object-orien
tedanalysis-synthesis coding technique). According to this object-oriented analysis / synthesis coding technique, an input video is divided into a plurality of objects (objects), and an encoding channel having three sets of parameters that define the motion, outline, and pixel data of each object is different. Is handled through.
【0004】このオブジェクト指向符号化方法の一例と
しては、いわゆるMPEG−4(Moving Picture Expert
s Group-4)があるが、この技法は内容ベース相互対話
を許容する視聴覚符号化の標準案を提供し、低ビットレ
ート通信、相互対話式マルチメディア(例えば、ゲー
ム、相互対話式TVなど)及び領域監視用の機構のよう
なアプリケーション分野で符号化の効率性及び/または
全般的なアクセス機能を向上させる(例えば、MPEG
−4 Video Verification Model Version 2.0,Intern
ational Organization for Standardization, ISO/IEC
JTC1/SC29/WG11/N1260, March, 1997 参
照)。As an example of this object-oriented encoding method, a so-called MPEG-4 (Moving Picture Expert) is used.
s Group-4), but this technique provides a standard for audiovisual coding that allows content-based interaction, low bit rate communication, interactive multimedia (eg, games, interactive TV, etc.). And to improve coding efficiency and / or general access capabilities in application areas such as mechanisms for area monitoring (eg, MPEG
-4 Video Verification Model Version 2.0, Intern
ational Organization for Standardization, ISO / IEC
JTC1 / SC29 / WG11 / N1260, March, 1997).
【0005】このMPEG−4によれば、入力映像フレ
ームは、ビットストリーム内でユーザがアクセスし得る
か、または操作し得るエンティティに対応する複数の映
像物体平面(VOP)に分割される。According to MPEG-4, an input video frame is divided into a plurality of video object planes (VOPs) corresponding to entities accessible or manipulated by a user in a bitstream.
【0006】VOPは物体として称され、各物体を取り
囲む、幅及び高さが16画素(マクロブロックの大きさ)
の最小倍数である境界四角形として表れ得る。従って、
エンコーダは入力ビデオ映像をVOP単位に、即ち、物
体単位に処理することになる。即ち、各々のVOPは予
め決められた境界四角形で表れ、その境界四角形のルミ
ナンスデータYとクロミナンスデータ(U,V)との間の
位相差は、図1に示すように、4:2:0フォーマットに
従って正確に定めるべきである。ルミナンスデータとク
ロミナンスデータは各々×及び○で表れる。詳述する
と、図2に示すように、最初、絶対座標系(フレーム)に
おいて、境界四角形10の左側上端の座標は物体30を
取囲む最小四角形20の左側上端の座標、例えば、(2n
+1、2m+1)より大きくなく、最も近い偶数の座標、例
えば、(2n、2m)に定められるべきである。ここで、n
及びmは、各々、正の整数である。その後、境界四角形
10の右側下端のコーナが、クロミナンスデータで表現
される四角形の幅及び高さが16画素の最小倍数になる
ように拡張される。従って、クロミナンスデータで表現
された四角形の左側上端の座標は、2で割ったルミナン
スデータの座標となる。A VOP is called an object, and surrounds each object and has a width and a height of 16 pixels (the size of a macroblock).
May be represented as a bounding rectangle that is the smallest multiple of. Therefore,
The encoder processes the input video image on a VOP basis, that is, on an object basis. That is, each VOP is represented by a predetermined boundary rectangle, and the phase difference between the luminance data Y and the chrominance data (U, V) of the boundary rectangle is 4: 2: 0 as shown in FIG. It should be determined exactly according to the format. Luminance data and chrominance data are represented by x and o, respectively. Specifically, as shown in FIG. 2, first, in the absolute coordinate system (frame), the coordinates of the upper left corner of the bounding rectangle 10 are the coordinates of the upper left corner of the minimum rectangle 20 surrounding the object 30, for example, (2n
+1, 2m + 1) and should be set to the nearest even coordinate, eg, (2n, 2m). Where n
And m are each a positive integer. Then, the corner at the lower right corner of the boundary rectangle 10 is expanded so that the width and height of the rectangle represented by the chrominance data are the minimum multiple of 16 pixels. Therefore, the coordinates of the upper left corner of the rectangle represented by the chrominance data are the coordinates of the luminance data divided by two.
【0007】MPEG−4に開示されているVOPは形
状情報と、ルミナンスデータ及びクロミナンスデータよ
りなる色情報とを有しており、形状情報は例えば2値マ
スクで表れ、ルミナンスデータと関連する。2値マスク
において、1つの2値、例えば「0」は、図3に示すよ
うに、VOP内の物体の外部に位置する画素を表すのに
用いられ、他の2値、例えば「1」は物体の内部に位置
する画素を表すのに用いられる。[0007] The VOP disclosed in MPEG-4 has shape information and color information composed of luminance data and chrominance data. The shape information is represented by, for example, a binary mask and is related to the luminance data. In the binary mask, one binary, eg, “0”, is used to represent a pixel located outside the object in the VOP, as shown in FIG. 3, and the other binary, eg, “1”, Used to represent pixels located inside the object.
【0008】一方、VOPエンコーダにおいて、最初V
OPに含まれた現輪郭線が動き推定される。詳述する
と、現輪郭線に最も類似な最適輪郭線が予め定められた
探索領域内に存在する予測輪郭線のうちで検出される。
最適輪郭線を検出した後、現輪郭線と最適輪郭線との間
の変位を表す動きベクトルと、その最適輪郭線のインデ
ックスデータとが求められる。その後、動きベクトルと
インデックスデータに基づいて予測現輪郭線が得られ、
また通常の輪郭線インタ符号化技法を用いて、動きベク
トル及びインデックスデータと共に現輪郭線と予測現輪
郭線に対するインタ符号化が行われる。On the other hand, in the VOP encoder,
The motion of the current contour included in the OP is estimated. More specifically, the optimum contour most similar to the current contour is detected from the predicted contours existing in the predetermined search area.
After detecting the optimal contour, a motion vector representing the displacement between the current contour and the optimal contour and index data of the optimal contour are obtained. After that, a predicted current contour is obtained based on the motion vector and the index data,
Also, using a normal contour inter-coding technique, inter-coding is performed on the current contour and the predicted current contour together with the motion vector and index data.
【0009】しかし、VOPエンコーダにおいて、現輪
郭線の一部分が境界四角形の外部に位置し、画面または
ビデオフレームの縁と交差する場合、VOP内で現輪郭
線と最適にマッチングされる最適輪郭線を求めにくい。
従って、そのような場合に画面の縁部が現輪郭線の部分
として扱われ、その部分と境界四角形内にある物体の輪
郭線を含む新たな輪郭線が最適輪郭線を求めるのに用い
られた。しかしながら、現輪郭線と交差する画面の縁部
を検出するための装置や方法はまだ知られていない。However, in the VOP encoder, if a part of the current contour is located outside the boundary rectangle and intersects the edge of the screen or video frame, the optimal contour that is optimally matched with the current contour in the VOP is determined. Hard to find.
Therefore, in such a case, the edge of the screen is treated as a part of the current contour, and a new contour including that part and the contour of the object within the bounding rectangle is used to determine the optimal contour. . However, an apparatus or method for detecting an edge of a screen that intersects a current contour is not yet known.
【0010】[0010]
【発明が解決しようとする課題】従って、本発明の主な
目的は、予め決められた境界四角形内で、物体の輪郭線
と交差するVOPを取囲む該当境界四角形の縁部を検出
するための方法及びその装置を提供することにある。SUMMARY OF THE INVENTION Accordingly, a primary object of the present invention is to detect, within a predetermined bounding rectangle, the edge of the bounding rectangle surrounding the VOP that intersects the contour of the object. It is an object of the present invention to provide a method and an apparatus therefor.
【0011】[0011]
【課題を解決するための手段】上記の目的を達成するた
めに、本発明の好適な一実施例によれば、映像信号に表
現される物体の輪郭線と交差する映像物体平面(VOP)
を取囲む所定の境界四角形の縁部を検出する縁部検出方
法であって、前記VOPの輪郭線画素の位置を表す輪郭
線データと前記所定の境界四角形に関連する情報と有す
るVOPデータを受け取って、前記VOPデータの輪郭
線が前記所定の境界四角形の縁部と交差するか否かを検
出して、交差すると、前記輪郭線の交差する前記所定の
境界四角形の縁部上で交点を決定する第a段階と、前記
輪郭線データ、前記交点及び前記境界四角形の情報に基
づいて、前記交点の間で前記境界四角形のサイドに沿っ
て位置する複数の点の位置情報を順次求め、前記位置情
報に基づいて、前記交点に対応する前記所定の境界四角
形の該当サイドに沿って前記交点の間に位置する複数の
点よりなる部分に対応する、付加の輪郭線を求めて、該
当付加の輪郭線に対する付加輪郭線情報を生成する第c
段階と、前記輪郭線データと前記付加輪郭線情報とを組
合せて、前記所定の境界四角形内の閉輪郭線を生成する
第d段階とを含むことを特徴とする縁部検出方法が提供
される。According to a preferred embodiment of the present invention, there is provided a video object plane (VOP) which intersects a contour of an object represented in a video signal.
Edge detection method for detecting an edge of a predetermined boundary rectangle surrounding the predetermined boundary rectangle, the method including receiving VOP data having outline data representing the position of the outline pixel of the VOP and information relating to the predetermined boundary rectangle. Detecting whether or not the contour of the VOP data intersects the edge of the predetermined boundary rectangle, and determining the intersection, the intersection is determined on the edge of the predetermined boundary rectangle where the contour intersects. A, and based on the contour data, the intersection and the information of the boundary rectangle, sequentially obtain position information of a plurality of points located along the side of the boundary rectangle between the intersections, Based on the information, an additional contour line corresponding to a portion consisting of a plurality of points located between the intersection points along a corresponding side of the predetermined boundary rectangle corresponding to the intersection point is obtained, and the corresponding additional contour is obtained. Line to line C to generate additional contour information
An edge detection method, comprising: generating a closed outline within the predetermined boundary rectangle by combining the outline data and the additional outline information. .
【0012】本発明の他の実施例によれば、映像信号に
表現される物体の輪郭線と交差する映像物体平面(VO
P)を取囲む所定の境界四角形の縁部を検出する縁部検
出装置であって、前記VOPの輪郭線画素の位置を表す
輪郭線データと前記所定の境界四角形に関連する情報と
有するVOPデータを受け取って、前記VOPデータの
輪郭線が前記所定の境界四角形の縁部と交差するか否か
を検出して、交差すると、前記輪郭線の交差する前記所
定の境界四角形の縁部上で交点を決定する輪郭線検出手
段と、前記輪郭線データ、前記交点、前記境界四角形情
報に基づいて、前記交点の間で前記所定の境界四角形の
サイドに沿って位置する複数の点の位置情報を順次求
め、前記位置情報に基づいて、前記交点に対応する前記
所定の境界四角形の該当サイドに沿って前記交点の間に
位置する複数の点よりなる部分に対応する、付加輪郭線
を求めて該当付加輪郭線に対する付加輪郭線情報を生成
する付加輪郭線情報発生手段と、前記輪郭線データと前
記付加輪郭線情報とを組合せて、前記所定の境界四角形
内の閉輪郭線を生成する閉輪郭線発生手段とを含むこと
を特徴とする縁部検出装置が提供される。According to another embodiment of the present invention, a video object plane (VO) which intersects with the contour of the object represented in the video signal.
An edge detection device for detecting an edge of a predetermined boundary rectangle surrounding P), wherein the VOP data includes contour data indicating a position of a contour pixel of the VOP and information relating to the predetermined boundary rectangle. To detect whether or not the contour line of the VOP data intersects with the edge of the predetermined boundary rectangle, and when it intersects, detects an intersection on the edge of the predetermined boundary rectangle where the contour line intersects Based on the contour data, the intersection, and the boundary rectangle information, sequentially determine the position information of a plurality of points located along the side of the predetermined boundary rectangle between the intersections. Obtaining, based on the position information, obtaining an additional contour line corresponding to a portion consisting of a plurality of points located between the intersections along a corresponding side of the predetermined boundary rectangle corresponding to the intersection. Contour Additional contour line information generating means for generating additional contour line information for a line; closed contour line generating means for generating a closed contour line within the predetermined boundary rectangle by combining the contour line data and the additional contour line information An edge detection device is provided, comprising:
【0013】[0013]
【発明の実施の形態】以下、本発明の好適実施例につい
て図面を参照しながらより詳しく説明する。Preferred embodiments of the present invention will be described below in detail with reference to the drawings.
【0014】図4は、本発明によって映像信号に表現さ
れるVOPを符号化する装置900の概略的なブロック
図である。VOPは現VOPとして、輪郭線検出部10
0に入力され、またラインL50を通じて動き推定部3
00に分割マスクの形態で入力される。現VOPは、そ
の輪郭線画素の位置を表す輪郭線データと、現VOPを
取囲む予め定められた境界四角形の位置及びその大きさ
情報とを有する。分割マスクにおける各画素は、該当画
素の属する領域を識別するためのラベルを有する。例え
ば、背景に位置する画素は「0」のラベルを有し、現VO
P内の各画素はゼロでない値の1つによりラベルを付さ
れる。FIG. 4 is a schematic block diagram of an apparatus 900 for encoding a VOP expressed in a video signal according to the present invention. The VOP is the current VOP, and the contour detection unit 10
0 and the motion estimation unit 3
00 is input in the form of a division mask. The current VOP has outline data indicating the position of the outline pixel, and the position and size information of a predetermined boundary rectangle surrounding the current VOP. Each pixel in the division mask has a label for identifying a region to which the pixel belongs. For example, a pixel located in the background has a label of “0” and the current VO
Each pixel in P is labeled with one of the non-zero values.
【0015】輪郭線検出部100は現VOPから輪郭線
を検出すると共に、検出した輪郭線にインデックスを付
けた後、輪郭線データ及び該当輪郭線に対するインデッ
クスデータよりなる輪郭線情報を出力する。その後、輪
郭線情報はラインL10を通じてインタ符号化部200
及び動き推定部300に供給される。動き推定部300
はラインL10上の輪郭線情報及びフレームメモリ70
0からラインL30を通じて供給される以前に再構成さ
れた輪郭線映像信号に基づいて、現VOP内にある輪郭
線と最も類似な輪郭線を検出する。ここで、以前に再構
成された輪郭線映像信号は分割マスク形態に入力され、
分割マスクに含まれる各画素は該当画素の属する領域を
表すラベルを有する。動き推定部300は、最も類似な
輪郭線のインデックスデータと、現VOP内にある輪郭
線と最も類似な輪郭線との間の変位を表す動き情報とを
ラインL20及びL40に各々出力する。動き推定部3
00に対しては、以下図5、図6A及び図6Bを参照して
詳細に説明する。The contour detection unit 100 detects a contour from the current VOP, assigns an index to the detected contour, and outputs contour data including contour data and index data for the contour. After that, the contour information is transferred to the inter-encoding unit 200 through the line L10.
And the motion estimation unit 300. Motion estimation unit 300
Is the outline information on the line L10 and the frame memory 70
Based on the previously reconstructed contour video signal supplied from 0 through line L30, the contour most similar to the contour in the current VOP is detected. Here, the previously reconstructed contour image signal is input in a divided mask form,
Each pixel included in the division mask has a label indicating a region to which the pixel belongs. The motion estimating unit 300 outputs the index data of the most similar contour and the motion information indicating the displacement between the contour in the current VOP and the most similar contour to the lines L20 and L40, respectively. Motion estimation unit 3
00 will be described in detail below with reference to FIGS. 5, 6A and 6B.
【0016】図5は動き推定部300の詳細なブロック
図であって、交点検出部310、始点/終点決定部31
2、サイド選択部314、位置情報生成部316、閉輪
郭線生成部320、制御部330、及び最適輪郭線決定
部350から構成されている。FIG. 5 is a detailed block diagram of the motion estimator 300. The intersection detector 310 and the start point / end point determiner 31 are provided.
2, a side selection unit 314, a position information generation unit 316, a closed outline generation unit 320, a control unit 330, and an optimum outline determination unit 350.
【0017】交点検出部310はラインL10上の輪郭
線情報とラインL50上の現VOPに基づいて、現VO
Pから検出された輪郭線が現VOPを取囲む境界四角形
の縁部と交差するか否かを検出して検出信号を生成す
る。例えば、図6Aに示すように輪郭線115と予め定
められた境界四角形との間に交点(例えば、A、B)が存在
する場合、交点検出部310はハイレベルの検出信号を
生成し、そうでない場合には、ローレベルの検出信号を
生成して、スイッチ332と始点/終点決定部312に
供給する。The intersection detection unit 310 determines the current VO based on the outline information on the line L10 and the current VOP on the line L50.
A detection signal is generated by detecting whether or not the contour detected from P intersects the edge of the bounding rectangle surrounding the current VOP. For example, as shown in FIG. 6A, when an intersection (for example, A, B) exists between the contour 115 and a predetermined boundary rectangle, the intersection detection unit 310 generates a high-level detection signal, and If not, a low-level detection signal is generated and supplied to the switch 332 and the start / end point determination unit 312.
【0018】スイッチ332は交点検出部310から受
け取ったハイまたはローレベルの検出信号に応じて、ラ
インL50上の現VOPをラインL11を通じて始点/
終点決定部312、サイド選択部314及び位置情報生
成部316に供給するか、またはラインL12を介して
最適輪郭線決定部350に選択的に供給する。詳述する
と、ローレベルの検出信号が入力されると、現VOPは
ラインL12を通じて最適輪郭線決定部350に供給さ
れ、ハイレベルの検出信号が入力されると、現VOPは
ラインL11を通じて始点/終点検出部312、サイド
選択部314及び位置情報生成部316に伝達される。
始点/終点検出部312は図6Bに示したように、交点
検出部310からの検出信号に応じて、スイッチ332
からラインL11を通じて供給される現VOP上にある
交点A、Bが始点と終点として各々割当てられる。本発
明の実施例によれば、境界四角形の内部から外部に向か
って反時計方向に最初現れる交点Aを始点として取決
め、最後に現れる交点Bを終点として取り決める。その
後、始点/終点検出部312はこれらの始点及び終点の
位置情報をサイド選択部314と位置情報生成部316
に各々供給する。The switch 332 starts the current VOP on the line L50 through the line L11 in response to the high or low level detection signal received from the intersection detection unit 310.
It is supplied to the end point determining unit 312, the side selecting unit 314, and the position information generating unit 316, or is selectively supplied to the optimal contour determining unit 350 via the line L12. More specifically, when a low-level detection signal is input, the current VOP is supplied to the optimum contour determining unit 350 through a line L12, and when a high-level detection signal is input, the current VOP starts at a line L11. The information is transmitted to the end point detection unit 312, the side selection unit 314, and the position information generation unit 316.
As shown in FIG. 6B, the start / end point detection unit 312 responds to the detection signal from the intersection point detection unit 310 by using the switch 332.
, The intersections A and B on the current VOP supplied through the line L11 are respectively assigned as a start point and an end point. According to the embodiment of the present invention, the intersection A that first appears counterclockwise from the inside to the outside of the boundary rectangle is determined as a start point, and the intersection B that appears last is determined as an end point. After that, the start point / end point detection unit 312 compares the position information of the start point and the end point with the side selection unit 314 and the position information generation unit 316.
Respectively.
【0019】その後、図6Bに示したように、サイド選
択部314は始点Aを表す位置情報を受け取る制御部3
30の制御下で、現VOPの境界四角形の4つのサイド
111〜114のうちで、いずれか1つ(例えば、上側
サイド111)を選択して、その上側サイド111を表
す情報を位置情報生成部316に供給する。この位置情
報生成部316は、スイッチ332からラインL11を
通じて供給された現VOPと、ラインL10上の輪郭線
情報及びサイド選択部314からのサイド情報に基づい
て、図6Bに示したように始点Aと境界四角形の上側サ
イド111上の座標(Xmin+1、Ymin)との間にある全
ての点の位置情報を生成し始める。上記から分かるよう
に、そのような位置情報は輪郭線情報と境界四角形の位
置及び大きさ情報とに基づいて容易に求め得る。その
後、位置情報は制御部330に供給され、またバッファ
318にも供給され一時的に格納される。Thereafter, as shown in FIG. 6B, the side selector 314 receives the position information indicating the starting point A from the controller 3.
Under the control of 30, one of the four sides 111 to 114 of the boundary rectangle of the current VOP is selected (for example, the upper side 111), and information representing the upper side 111 is transmitted to the position information generation unit. 316. As shown in FIG. 6B, the position information generation unit 316 determines the start point A based on the current VOP supplied from the switch 332 through the line L11, the outline information on the line L10, and the side information from the side selection unit 314. It starts to generate position information of all points between and the coordinates (Xmin + 1, Ymin) on the upper side 111 of the bounding rectangle. As can be seen from the above, such position information can be easily obtained based on the outline information and the position and size information of the bounding rectangle. Thereafter, the position information is supplied to the control unit 330 and is also supplied to the buffer 318 to be temporarily stored.
【0020】制御部330は位置情報生成部316から
の位置情報に基づいて、サイド選択部314の動作を制
御する。詳述すると、制御部330が位置情報生成部3
16から始点Aと座標(Xmin+1、Ymin)との間の全て
の位置情報を受け取ると、サイド選択部314が境界四
角形の上側サイド111から反時計方向につながるサイ
ド、即ち左側サイド112を選択するような制御信号を
発生する。The control section 330 controls the operation of the side selection section 314 based on the position information from the position information generation section 316. More specifically, the control unit 330 controls the position information generation unit 3
When all the position information between the start point A and the coordinates (Xmin + 1, Ymin) is received from 16, the side selection unit 314 selects the side connected counterclockwise from the upper side 111 of the bounding rectangle, that is, the left side 112. Control signal.
【0021】サイド選択部314は制御部330からの
制御信号に応じて、境界四角形の左側サイド112を選
択して、それに対応するサイド情報を位置情報生成部3
16に供給する。同様に、位置情報生成部316はサイ
ド情報に応じて、境界四角形の左側サイド112上にお
ける座標(Xmin、Ymin)と終点Bとの間にある全ての点
の位置情報を出力し始める。その位置情報は制御部33
0に供給され、バッファ318にも供給され一時的に格
納される。制御部330が始点Aと終点Bとの間にある
全ての点の位置情報を受け取ると、バッファ318の動
作を制御するための読取り制御信号を生成する。バッフ
ァ318は制御部330からの読取り制御信号に応じ
て、格納されている全ての位置情報を取出して閉輪郭線
生成部320に供給する。説明の便宜上、2つのサイド
111、112のみ上に位置する始点A及び終点Bに対
して説明したが、他のサイド上にある点に対してもサイ
ド選択及び位置情報生成プロセスが同様な方法にて行わ
れ得ることに注目されたい。The side selector 314 selects the left side 112 of the bounding rectangle in response to a control signal from the controller 330, and outputs side information corresponding to the same to the position information generator 3.
16. Similarly, the position information generation unit 316 starts outputting position information of all points between the coordinates (Xmin, Ymin) and the end point B on the left side 112 of the boundary rectangle according to the side information. The position information is stored in the control unit 33
0 and is also supplied to buffer 318 and stored temporarily. When the control unit 330 receives the position information of all points between the start point A and the end point B, it generates a read control signal for controlling the operation of the buffer 318. The buffer 318 extracts all the stored position information according to the read control signal from the control unit 330 and supplies it to the closed contour generation unit 320. For convenience of explanation, the start point A and the end point B, which are located only on the two sides 111 and 112, have been described. Note that this can be done.
【0022】閉輪郭線生成部320においては、バッフ
ァ318からの位置情報をラインL10を通じて入力さ
れた輪郭線情報と組合せて、図6Bに示すように境界四
角形内に新たな閉輪郭線115´を形成する。また、閉
輪郭線生成部320は新たな閉輪郭線115´に対する
輪郭線情報、その輪郭線115´のインデックスデータ
及びラインL50上の現VOPに含まれた境界四角形の
位置及び大きさ情報を含む新たなVOPをラインL60
を通じて最適輪郭線決定部350に出力する。この最適
輪郭線決定部350への入力は、ラインL60上にある
新たな閉輪郭線115´に対する輪郭線情報を有する新
たなVOP、ラインL12上の現VOP、またはライン
L30上の複数のVOPを有する以前に再構成された輪
郭線映像信号のうちのいずれか1つである。最適輪郭線
決定部350は現VOP内に含まれた輪郭線の予め定め
られた探索領域(例えば、8画素)内に存在する予測輪郭
線のうち、ラインL60上の閉輪郭線情報とラインL1
2上の現VOPに含まれた輪郭線情報のうちのいずれか
1つと最も類似な予測輪郭線を最適輪郭線として検出し
た後、現VOPの輪郭線と最適輪郭線との間の変位を表
す動きベクトルMVと、最適輪郭線のインデックスデー
タとを出力する。最適輪郭線決定部350は当技術分野
でよく知られている通常の最適輪郭線決定方法を用い
て、最適輪郭線及びMVを求めるので、それに対する説
明は省略する。本発明の好適な実施例によれば、最適輪
郭線のインデックスデータは予測輪郭線に対応する物体
画素のラベルと同一の値を有する。その後、MVと最適
輪郭線のインデックスデータは、図4に示したようにラ
インL40を通じてMUX800に、ラインL20を通
じて動き補償部400に各々供給される。The closed contour generation unit 320 combines the position information from the buffer 318 with the contour information input through the line L10 to form a new closed contour 115 ′ in the bounding rectangle as shown in FIG. 6B. Form. In addition, the closed contour generation unit 320 includes the contour information on the new closed contour 115 ′, the index data of the new contour 115 ′, and the position and size information of the boundary rectangle included in the current VOP on the line L50. Add a new VOP to line L60
Is output to the optimum contour determination unit 350 through. The input to the optimum contour determining unit 350 is a new VOP having contour information for a new closed contour 115 ′ on the line L60, a current VOP on the line L12, or a plurality of VOPs on the line L30. Any one of the previously reconstructed contour video signals. The optimum contour determining unit 350 selects the closed contour information on the line L60 and the line L1 out of the predicted contours existing in a predetermined search area (for example, 8 pixels) of the contour included in the current VOP.
2, after detecting a predicted contour line most similar to any one of the contour line information included in the current VOP as the optimal contour line, the displacement between the contour line of the current VOP and the optimal contour line is represented. The motion vector MV and the index data of the optimal contour are output. The optimal contour determining unit 350 determines the optimal contour and the MV using a normal optimal contour determining method well-known in the art, and a description thereof will be omitted. According to a preferred embodiment of the present invention, the index data of the optimal contour has the same value as the label of the object pixel corresponding to the predicted contour. Thereafter, the index data of the MV and the optimal contour are supplied to the MUX 800 via the line L40 and to the motion compensator 400 via the line L20 as shown in FIG.
【0023】図4を再び参照すると、動き補償部400
はラインL20上のMV及び最適輪郭線のインデックス
データに基づいて、最適輪郭線情報をフレームメモリ7
00からラインL30を通じて取出することによって予
測現輪郭線を生成する。予測現輪郭線とはMVだけシフ
トされた最適輪郭線をいう。動き補償部400は、予測
現輪郭線の輪郭線画素の位置データを表す予測現輪郭線
情報とそのインデックスをラインL55を通じてインタ
符号化部200及び輪郭線再構成部600に各々供給す
る。Referring back to FIG. 4, the motion compensator 400
Stores the optimal contour information on the frame memory 7 based on the MV on the line L20 and the index data of the optimal contour.
A predicted current contour is generated by extracting from 00 through line L30. The predicted current contour is an optimum contour shifted by MV. The motion compensating unit 400 supplies the predicted current contour information indicating the position data of the contour pixel of the predicted current contour and its index to the inter-coding unit 200 and the contour reconstruction unit 600 via the line L55.
【0024】インタ符号化部200は通常の頂点決定技
法を用いて、ラインL55上の予測現輪郭線情報及びそ
のインデックスデータと、ラインL10上の現VOPの
輪郭線とに基づいて第1及び第2頂点を決定する。その
後、インタ符号化部200は第1及び第2頂点の位置デ
ータを符号化して、符号化頂点データをMUX800及
びインタ復号化部500を各々供給する。MUX800
は符号化頂点データ、MV及び最適輪郭線のインデック
スデータを多重化して、符号化輪郭線データをその伝送
のために伝送器(図示せず)に送り出す。The inter-coding unit 200 uses a normal vertex determination technique, based on the predicted current contour information on the line L55 and its index data, and the first and second contours of the current VOP on the line L10. Determine two vertices. Thereafter, the inter encoder 200 encodes the position data of the first and second vertices, and supplies the encoded vertex data to the MUX 800 and the inter decoder 500, respectively. MUX800
Multiplexes the encoded vertex data, the MV and the index data of the optimal contour, and sends the encoded contour data to a transmitter (not shown) for transmission.
【0025】一方、インタ復号化部500は、受け取っ
た符号化頂点データを復号化された第1及び第2頂点デ
ータを表す復号化頂点データに復号化して輪郭線再構成
部600に供給する。この輪郭線再構成部600はイン
タ復号化部500からの復号化頂点データとラインL5
5を通じて入力された予測現輪郭線情報とを用いて、現
VOPを再構成する働きを果たす。再構成済みの現VO
Pはフレームメモリ700に、次のVOPのための再構
成済みの前輪郭線映像信号として格納される。On the other hand, the inter-decoding section 500 decodes the received encoded vertex data into decoded vertex data representing the decoded first and second vertex data and supplies the decoded vertex data to the contour reconstruction section 600. The contour reconstructing unit 600 stores the decoded vertex data from the inter decoding unit 500 and the line L5
5, and reconstructs the current VOP using the predicted current contour information input through step 5. Reconstructed current VO
P is stored in the frame memory 700 as a reconstructed front contour video signal for the next VOP.
【0026】上記において、本発明の好適な実施の形態
について説明したが、本発明の請求範囲を逸脱すること
なく、当業者は種々の改変をなし得るであろう。While the preferred embodiment of the present invention has been described above, those skilled in the art will be able to make various modifications without departing from the scope of the present invention.
【0027】[0027]
【発明の効果】従って、本発明によれば、物体の輪郭線
と交差するVOPを取囲む所定の境界四角形の縁部を検
出して閉輪郭線を形成することによって、最適の輪郭線
を検出することができる。Therefore, according to the present invention, an optimum contour is detected by detecting the edge of a predetermined boundary rectangle surrounding a VOP intersecting with the contour of the object and forming a closed contour. can do.
【図面の簡単な説明】[Brief description of the drawings]
【図1】4:2:0のフォーマットに表現されるルミナン
スデータ及びクロミナンスデータの位置を示す模式図で
ある。FIG. 1 is a schematic diagram showing positions of luminance data and chrominance data expressed in a 4: 2: 0 format.
【図2】境界四角形に表現されるVOPの模式図であ
る。FIG. 2 is a schematic diagram of a VOP expressed in a bounding rectangle.
【図3】2値マスク形態に表現されるルミナンス形状情
報を示す模式図である。FIG. 3 is a schematic diagram showing luminance shape information expressed in a binary mask form.
【図4】本発明によってVOPデータを符号化する装置
の概略的なブロック図である。FIG. 4 is a schematic block diagram of an apparatus for encoding VOP data according to the present invention;
【図5】図4中の動き推定部の詳細なブロック図であ
る。FIG. 5 is a detailed block diagram of a motion estimator in FIG. 4;
【図6】物体の輪郭線と交差するVOPを取囲む所定の
境界四角形の縁部を検出する過程を説明する模式図であ
る。FIG. 6 is a schematic diagram illustrating a process of detecting the edge of a predetermined boundary rectangle surrounding a VOP that intersects with the contour of an object.
10 境界四角形 20 最小四角形 30 物体 100 輪郭線検出部 111〜114 境界四角形の各サイド 115 輪郭線 115´ 閉輪郭線 200 インタ符号化部 300 動き推定部 310 交点検出部 312 始点/終点決定部 314 サイド選択部 316 位置情報生成部 318 バッファ 320 閉輪郭線生成部 330 制御部 332 スイッチ 350 最適輪郭線検出部 400 動き補償部 500 インタ復号化部 600 輪郭線再構成部 700 フレームメモリ 800 MUX DESCRIPTION OF SYMBOLS 10 Boundary rectangle 20 Minimum rectangle 30 Object 100 Contour detection part 111-114 Each side of boundary rectangle 115 Contour 115 'Closed contour 200 Inter coding part 300 Motion estimation part 310 Intersection detection part 312 Start / end point determination part 314 Side Selection unit 316 Position information generation unit 318 Buffer 320 Closed contour generation unit 330 Control unit 332 Switch 350 Optimal contour detection unit 400 Motion compensation unit 500 Inter decoding unit 600 Contour reconstruction unit 700 Frame memory 800 MUX
Claims (10)
交差する映像物体平面(VOP)を取囲む所定の境界四角
形の縁部を検出する縁部検出方法であって、 前記VOPの輪郭線画素の位置を表す輪郭線データと前
記所定の境界四角形に関連する情報と有するVOPデー
タを受け取って、前記VOPデータの輪郭線が前記所定
の境界四角形の縁部と交差するか否かを検出して、交差
すると、前記輪郭線の交差する前記所定の境界四角形の
縁部上で交点を決定する第a段階と、 前記輪郭線データ、前記交点及び前記境界四角形の情報
に基づいて、前記交点の間で前記境界四角形のサイドに
沿って位置する複数の点の位置情報を順次求め、前記位
置情報に基づいて、前記交点に対応する前記所定の境界
四角形の該当サイドに沿って前記交点の間に位置する複
数の点よりなる部分に対応する、付加の輪郭線を求め
て、該当付加の輪郭線に対する付加輪郭線情報を生成す
る第c段階と、 前記輪郭線データと前記付加輪郭線情報とを組合せて、
前記所定の境界四角形内の閉輪郭線を生成する第d段階
とを含むことを特徴とする縁部検出方法。1. An edge detection method for detecting an edge of a predetermined boundary rectangle surrounding a video object plane (VOP) intersecting an outline of an object represented in a video signal, wherein the edge of the VOP is detected. Receiving VOP data having outline data representing the position of a pixel and information relating to the predetermined boundary rectangle, and detecting whether or not the outline of the VOP data intersects the edge of the predetermined boundary rectangle. A, determining an intersection on the edge of the predetermined boundary rectangle where the outline intersects, and based on the outline data, the intersection and the information on the boundary rectangle, Between the intersections along the corresponding side of the predetermined boundary rectangle corresponding to the intersection, based on the position information, sequentially obtain the position information of a plurality of points located along the side of the boundary rectangle between the intersections Be located Step c of generating an additional contour line corresponding to a portion composed of a plurality of points and generating additional contour line information for the corresponding additional contour line; and combining the contour line data and the additional contour line information. ,
Generating a closed contour within the predetermined boundary rectangle. D.
とする請求項1に記載の縁部検出方法。2. The method according to claim 1, wherein the number of intersections is two.
境界四角形の位置及び大きさを表す情報であることを特
徴とする請求項2に記載の縁部検出方法。3. The edge detecting method according to claim 2, wherein the information of the boundary rectangle is information indicating a position and a size of the predetermined boundary rectangle.
ら外部に向かって反時計方向に最初に現れる交点を始点
として取決め、他の交点を終点として取り決める第b1
段階と、 前記始点の位置する前記境界四角形の4サイドのうちの
いずれか1つを選択して目標サイドとして選択する第b
2段階と、 前記終点が前記目標サイド上に位置する場合、前記輪郭
線データと前記境界四角形の位置及び大きさ情報とに基
づいて、前記始点と終点との間に位置する複数の点の位
置情報を生成する第b3段階と、 前記終点が前記目標サイド上に位置しない場合、前記輪
郭線データと前記境界四角形の位置及び大きさ情報とに
基づいて、前記始点と反時計方向に前記目標サイドの最
後の点の直前に位置する点との間に位置する複数の点の
位置情報を生成した後、前記境界四角形の4個のサイド
のうち反時計方向に次のサイドを選択して新たな目標サ
イドとして選択する第b4段階と、 前記終点が前記新たな目標サイド上に位置する場合、前
記輪郭線データと前記境界四角形の位置及び大きさ情報
とに基づいて、前記目標サイドにおいて前記新たな目標
サイドの始点になるべき前記最後の点と前記終点との間
に反時計方向に位置する複数の画素の位置情報を生成す
る第b5段階と前記終点が前記新たな目標サイド上に位
置しない場合、前記始点と終点との間に位置する全ての
点の位置情報が求められるまで、前記第b4段階及び第b
5段階を繰返して行う第b6段階とを備えることを特徴
とする請求項2に記載の縁部検出方法。4. The step (b) comprises, among the two intersections, an intersection which first appears counterclockwise from the inside to the outside of the predetermined boundary rectangle as a start point, and another intersection is determined as an end point. No. b1
And b. Selecting any one of the four sides of the boundary rectangle where the start point is located and selecting it as a target side
Two steps, and, when the end point is located on the target side, positions of a plurality of points located between the start point and the end point based on the outline data and the position and size information of the boundary rectangle. B3 step of generating information; and if the end point is not located on the target side, the start point and the target side are moved in a counterclockwise direction based on the contour data and the position and size information of the boundary rectangle. After generating position information of a plurality of points located between the point immediately before the last point of the boundary rectangle and selecting the next side in a counterclockwise direction among the four sides of the boundary rectangle, B4 step of selecting as the target side, and, if the end point is located on the new target side, the new point on the target side based on the outline data and the position and size information of the boundary rectangle. Step b5 of generating position information of a plurality of pixels located in a counterclockwise direction between the last point to be the start point of the target side and the end point, and the end point is not located on the new target side Step b4 and step b) until position information of all points located between the start point and the end point is obtained.
3. The edge detecting method according to claim 2, further comprising: b6 step of repeating 5 steps.
間に位置する各点の位置情報をバッファに順次に格納
し、全ての位置情報が前記バッファに格納されると共
に、該当位置情報を出力する段階を更に備えることを特
徴とする請求項3に記載の縁部検出方法。5. The step (b) sequentially stores position information of each point located between the start point and the end point in a buffer. All the position information is stored in the buffer, and the corresponding position information is stored in the buffer. The edge detection method according to claim 3, further comprising the step of:
交差する映像物体平面(VOP)を取囲む所定の境界四角
形の縁部を検出する縁部検出装置であって、前記VOP
の輪郭線画素の位置を表す輪郭線データと前記所定の境
界四角形に関連する情報と有するVOPデータを受け取
って、前記VOPデータの輪郭線が前記所定の境界四角
形の縁部と交差するか否かを検出して、交差すると、前
記輪郭線の交差する前記所定の境界四角形の縁部上で交
点を決定する輪郭線検出手段と、 前記輪郭線データ、前記交点、前記境界四角形情報に基
づいて、前記交点の間で前記所定の境界四角形のサイド
に沿って位置する複数の点の位置情報を順次求め、前記
位置情報に基づいて、前記交点に対応する前記所定の境
界四角形の該当サイドに沿って前記交点の間に位置する
複数の点よりなる部分に対応する、付加輪郭線を求めて
該当付加輪郭線に対する付加輪郭線情報を生成する付加
輪郭線情報発生手段と、 前記輪郭線データと前記付加輪郭線情報とを組合せて、
前記所定の境界四角形内の閉輪郭線を生成する閉輪郭線
発生手段とを含むことを特徴とする縁部検出装置。6. An edge detecting device for detecting an edge of a predetermined boundary rectangle surrounding a video object plane (VOP) intersecting with an outline of an object represented in a video signal, wherein the VOP comprises:
Receiving the VOP data having the contour line data indicating the position of the contour line pixel and the information related to the predetermined boundary rectangle, and determining whether or not the contour line of the VOP data intersects the edge of the predetermined boundary rectangle. When detecting and intersecting, the contour line detecting means for determining an intersection on the edge of the predetermined boundary rectangle where the contour intersects, the contour data, the intersection, based on the boundary rectangle information, The position information of a plurality of points located along the side of the predetermined boundary rectangle between the intersections is sequentially obtained, and based on the position information, along the corresponding side of the predetermined boundary rectangle corresponding to the intersection. An additional contour line information generating means for obtaining an additional contour line corresponding to a portion consisting of a plurality of points located between the intersections and generating additional contour line information for the corresponding additional contour line; Combined data and the said additional contour information,
A closed contour generating means for generating a closed contour within the predetermined boundary rectangle.
とする請求項6に記載の縁部検出装置。7. The edge detecting device according to claim 6, wherein the number of the intersections is two.
境界四角形の位置及び大きさを表す情報であることを特
徴とする請求項7に記載の縁部検出装置。8. The edge detection device according to claim 7, wherein the information of the boundary rectangle is information indicating a position and a size of the predetermined boundary rectangle.
ら外部に向かって反時計方向に最初に現れる交点を始点
として取決め、他の交点を終点として取り決める第1取
決め手段と、 前記始点の位置する前記境界四角形の4サイドのうちの
いずれか1つを選択して目標サイドとして選択する第2
取決め手段と、 前記終点が前記目標サイド上に位置する場合、前記輪郭
線データと前記境界四角形の位置及び大きさ情報とに基
づいて、前記始点と終点との間に位置する複数の点の位
置情報を生成する第1位置情報発生手段と、 前記終点が前記目標サイド上に位置しない場合、前記輪
郭線データと前記境界四角形の位置及び大きさ情報とに
基づいて、前記始点と反時計方向に前記目標サイドの最
後の点の直前に位置する点との間に位置する複数の点の
位置情報を生成した後、前記境界四角形の4個のサイド
のうち反時計方向に次のサイドを選択して新たな目標サ
イドとして選択する第2位置情報発生手段と、 前記終点が前記新たな目標サイド上に位置する場合、前
記輪郭線データと前記境界四角形の位置及び大きさ情報
とに基づいて、前記目標サイドにおいて前記新たな目標
サイドの始点になるべき前記最後の点と前記終点との間
に反時計方向に位置する複数の画素の位置情報を生成す
る第2位置情報発生手段と前記終点が前記新たな目標サ
イド上に位置しない場合、前記始点と終点との間に位置
する全ての点の位置情報が求められるまで、前記第2及
び第3位置情報発生手段の動作を繰返して行う反復手段
とを備えることを特徴とする請求項8に記載の縁部検出
装置。9. The additional contour line information generating means determines, as a starting point, an intersection which first appears in a counterclockwise direction from the inside of the predetermined boundary rectangle toward the outside of the two intersections, and determines another intersection. A first arranging unit that negotiates as an end point; and a second side that selects any one of the four sides of the boundary rectangle where the start point is located and selects it as a target side.
Arranging means, when the end point is located on the target side, positions of a plurality of points located between the start point and the end point based on the outline data and the position and size information of the boundary rectangle. First position information generating means for generating information; and when the end point is not located on the target side, based on the contour data and the position and size information of the boundary rectangle, the start point and the counterclockwise direction. After generating position information of a plurality of points located between the last point on the target side and a point located immediately before the last point, the next side is selected in a counterclockwise direction from the four sides of the boundary rectangle. A second position information generating means for selecting as a new target side, when the end point is located on the new target side, based on the outline data and the position and size information of the boundary rectangle, The second position information generating means for generating position information of a plurality of pixels located in a counterclockwise direction between the last point to be the start point of the new target side and the end point on the target side, and the end point is If not located on the new target side, repeating means for repeatedly performing the operation of the second and third position information generating means until the position information of all points located between the start point and the end point is obtained; The edge detecting device according to claim 8, comprising:
点と終点との間に位置する各点の位置情報をバッファに
順次に格納し、全ての位置情報が前記バッファに格納さ
れると共に、該当位置情報を出力する格納手段を更に備
えることを特徴とする請求項9に記載の縁部検出装置。10. The contour line information generating means sequentially stores position information of each point located between the start point and the end point in a buffer, and stores all position information in the buffer. The edge detection device according to claim 9, further comprising a storage unit that outputs position information.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970020212A KR19980084420A (en) | 1997-05-23 | 1997-05-23 | Contour Information Detection Device and Method |
KR1997-20212 | 1997-05-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10336673A true JPH10336673A (en) | 1998-12-18 |
Family
ID=19506827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10430698A Pending JPH10336673A (en) | 1997-05-23 | 1998-04-15 | Edge detection method and its device in video signal coding system |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPH10336673A (en) |
KR (1) | KR19980084420A (en) |
GB (1) | GB2325582A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653246B2 (en) | 2003-11-18 | 2010-01-26 | Fuji Xerox Co., Ltd. | System and method for making a correction to a plurality of images |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990008977A (en) * | 1997-07-05 | 1999-02-05 | 배순훈 | Contour Coding Method |
KR100457064B1 (en) * | 1997-11-13 | 2005-05-27 | 주식회사 대우일렉트로닉스 | Method for detecting in contour information |
JP3382173B2 (en) * | 1998-03-10 | 2003-03-04 | 株式会社ハイニックスセミコンダクター | Method and apparatus for setting VOP boundary rectangle for interlaced video signal |
WO2001089222A1 (en) * | 2000-05-18 | 2001-11-22 | Koninklijke Philips Electronics N.V. | Mpeg-4 binary shape transmission |
JP2005536940A (en) * | 2002-08-21 | 2005-12-02 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Encoding method and encoder for digital video signal |
RU2225035C1 (en) * | 2003-04-21 | 2004-02-27 | Общество с ограниченной ответственностью "Р.Т.С.-Сервис" | Method for encoding coordinates of video image moving on computer monitor screen, device for decoding visual object encoded by this method, and system designed for visualizing active video by means of this device |
KR100726333B1 (en) * | 2004-01-31 | 2007-06-11 | 학교법인 인하학원 | Automatic Extraction of Building Outlines Using Shadow-Grid from Lidar Data |
KR102633109B1 (en) * | 2020-01-09 | 2024-02-05 | 현대모비스 주식회사 | Data converting system for detecting wide angle image object and method thereof |
CN112950535B (en) * | 2021-01-22 | 2024-03-22 | 北京达佳互联信息技术有限公司 | Video processing method, device, electronic equipment and storage medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4782384A (en) * | 1984-04-27 | 1988-11-01 | Utah Scientific Advanced Development Center, Inc. | Area isolation apparatus for video signal control system |
-
1997
- 1997-05-23 KR KR1019970020212A patent/KR19980084420A/en not_active Ceased
-
1998
- 1998-04-08 GB GB9807621A patent/GB2325582A/en not_active Withdrawn
- 1998-04-15 JP JP10430698A patent/JPH10336673A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653246B2 (en) | 2003-11-18 | 2010-01-26 | Fuji Xerox Co., Ltd. | System and method for making a correction to a plurality of images |
US8280188B2 (en) | 2003-11-18 | 2012-10-02 | Fuji Xerox Co., Ltd. | System and method for making a correction to a plurality of images |
Also Published As
Publication number | Publication date |
---|---|
GB2325582A (en) | 1998-11-25 |
KR19980084420A (en) | 1998-12-05 |
GB9807621D0 (en) | 1998-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Region of interest extraction and virtual camera control based on panoramic video capturing | |
US6404814B1 (en) | Transcoding method and transcoder for transcoding a predictively-coded object-based picture signal to a predictively-coded block-based picture signal | |
Li et al. | Image sequence coding at very low bit rates: a review | |
Hötter | Object-oriented analysis-synthesis coding based on moving two-dimensional objects | |
Ebrahimi et al. | MPEG-4 natural video coding–An overview | |
JP3197420B2 (en) | Image coding device | |
US5973743A (en) | Mode coding method and apparatus for use in an interlaced shape coder | |
JP4786114B2 (en) | Method and apparatus for encoding video | |
US6879633B2 (en) | Method and apparatus for efficient video processing | |
Tekalp et al. | Two-dimensional mesh-based visual-object representation for interactive synthetic/natural digital video | |
US5822460A (en) | Method and apparatus for generating chrominance shape information of a video object plane in a video signal | |
Noimark et al. | Streaming scenes to MPEG-4 video-enabled devices | |
KR20010075163A (en) | Modified chroma keyed technique for simple shape coding for digital video | |
AU7789598A (en) | Method and apparatus for encoding a motion vector of a binary shape signal | |
US5978048A (en) | Method and apparatus for encoding a motion vector based on the number of valid reference motion vectors | |
JP2002125233A (en) | Image compression system for weighting video contents | |
JP3056120B2 (en) | Video signal shape information predictive coding method | |
JPH10336673A (en) | Edge detection method and its device in video signal coding system | |
JPH10208060A (en) | Method and device for encoding object outline video signal | |
Malassiotis et al. | Object-based coding of stereo image sequences using three-dimensional models | |
US6011588A (en) | Method and apparatus for coding a contour of an object employing temporal correlation thereof | |
JP2001045494A (en) | Image encoding device | |
CN1395800A (en) | Video decoding method and corresponding decoder | |
KR20020047031A (en) | Method and apparatus for efficient video processing | |
Gu et al. | Morphological moving object segmentation and tracking for content-based video coding |