JPH06225154A - Data compression coding method for color picture - Google Patents
Data compression coding method for color pictureInfo
- Publication number
- JPH06225154A JPH06225154A JP5008824A JP882493A JPH06225154A JP H06225154 A JPH06225154 A JP H06225154A JP 5008824 A JP5008824 A JP 5008824A JP 882493 A JP882493 A JP 882493A JP H06225154 A JPH06225154 A JP H06225154A
- Authority
- JP
- Japan
- Prior art keywords
- information
- space
- area
- coding
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Color Television Systems (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像を構造的に記述
し、特定領域の抽出や色修正等、様々な画像の処理、加
工を効率良く行うことのできる、カラー画像のデータ圧
縮符号化方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color image data compression coding capable of efficiently describing various images such as a structural description of an image and extraction of a specific region and color correction. It is about the method.
【0002】[0002]
【従来の技術】膨大な情報量を持った画像データの冗長
度を削減し、データ量を圧縮して、伝送・蓄積コストを
低減させる技術が、直交交換、ベクトル量子化等の高能
率符号化法として実現されている。これら符号化は、良
好な画質を保ったまま、いかにデータ量を削減するかが
目的であった。2. Description of the Related Art A technique for reducing the redundancy of image data having an enormous amount of information and compressing the amount of data to reduce the transmission / storage cost is a high efficiency coding such as orthogonal exchange and vector quantization. Has been realized as a law. The purpose of these encodings was to reduce the amount of data while maintaining good image quality.
【0003】このような高能率符号化に対し、近年、画
像のエッジ情報、領域情報等の構造情報を抽出し、これ
をその他の波形情報と別個に符号化する、構造抽出符号
化、あるいは領域分割符号化と呼ばれる手法が研究され
ている。In contrast to such high-efficiency coding, in recent years, structure information such as edge information and area information of an image is extracted and coded separately from other waveform information. A method called split coding has been studied.
【0004】このような符号化を行う上で要となる技術
は、色空間上でのクラスタリングによる領域分割法であ
る。従来の領域分割法は、図1に示す如く、画像平面内
の画素を色空間(例えばRGB色空間)に写像し、その
空間上でのクラスタ重心からの距離に応じて設定したク
ラスタ境界を用いたクラスタリングにより、各画素の分
類及び1、2、3等のラベル付けを行い、画像平面に逆
写像することにより領域分割画像を得て、領域分割を行
う方法である。An important technique for performing such encoding is a region division method by clustering on a color space. As shown in FIG. 1, the conventional area division method maps pixels in an image plane into a color space (for example, RGB color space) and uses a cluster boundary set according to a distance from a cluster centroid in the space. This is a method of classifying each pixel and labeling 1, 2, 3, etc. by the above clustering, obtaining an area-divided image by inverse mapping on the image plane, and performing area division.
【0005】[0005]
【発明が解決しようとする課題】この従来法は、同一領
域の画素が、色空間上で常に特定の場所に局在している
場合には旨く領域分割ができるが、実際の画像ではそう
でない場合も多い。従って、同一領域であるにもかかわ
らず、複数の領域に分割されたり、異なる領域が1つの
領域と見做されたり、単独で用いるには問題の多い手法
であった。According to this conventional method, when the pixels in the same area are always localized in a specific place on the color space, the area can be properly divided, but it is not so in the actual image. In many cases. Therefore, even though they are the same area, they are divided into a plurality of areas, different areas are regarded as one area, and there are many problems in using them independently.
【0006】本発明は、前記従来の問題点を解消するべ
くなされたもので、画像の色空間上での分布のモデルに
基づき、従来法とは全く異った観点から、新しいクラス
タリング手法の提案を行い、前述の問題点を解決すると
共に、この手法による特定領域の抽出や色修正等、様々
な画像の処理・加工を効率良く行うことのできる、カラ
ー画像のデータ圧縮符号化方法を提供することを目的と
する。The present invention has been made to solve the above-mentioned conventional problems, and proposes a new clustering method based on a model of distribution of an image in a color space, from a viewpoint completely different from the conventional method. In addition to solving the above-mentioned problems, a method for compressing and compressing data of a color image is provided, which enables efficient processing and processing of various images such as extraction of a specific area and color correction by this method. The purpose is to
【0007】[0007]
【課題を解決するための手段】本発明は、カラー画像の
領域分割に際して、物体の反射モデルから推定される色
空間上での分布の特徴を、「黒」から「物体色」を通り
「白」へ至る曲線としてモデル化し、該曲線を区別する
パラメータ空間上へ各画素を写像することにより、同一
領域の画素同士が特定の場所に局在するような分布を
得、その空間上でクラスタリングを行うことにより領域
分割を行い、得られた領域情報と明度情報を別個に符号
化することにより、前記目的を達成したものである。According to the present invention, when a color image is divided into regions, the characteristics of the distribution in the color space estimated from the reflection model of the object are changed from "black" to "object color" to "white". By modeling as a curve leading to, and mapping each pixel on a parameter space that distinguishes the curve, a distribution in which pixels in the same region are localized at a specific place is obtained, and clustering is performed on that space. The above-described object is achieved by performing region division by performing the above process and separately encoding the obtained region information and brightness information.
【0008】又、前記領域分割によって得られる領域分
割画像と原画像との色度誤差情報をも別個に符号化する
ようにしたものである。Further, the chromaticity error information between the area-divided image obtained by the area division and the original image is also encoded separately.
【0009】更に、前記色度誤差情報の符号化に際し
て、間引きを併用するようにしたものである。Furthermore, when encoding the chromaticity error information, thinning is also used.
【0010】[0010]
【作用】通常、画像は三次元的な拡がりを持った物体に
照明光を当て、反射光を適切なレンズ系に通し、二次元
平面にマッピングすることによって撮影が行われる。In general, an image is photographed by illuminating an object having a three-dimensional spread with illumination light, passing the reflected light through an appropriate lens system, and mapping the reflected light on a two-dimensional plane.
【0011】ある1つの物体は同一の分光反射率を持
ち、つまり、同一の色を持っていて、照明光と物体表面
の角度と視点の位置の関係により、様々なグラデーショ
ンが生じる。しかし、このグラデーションは、色空間上
である種の曲線に沿って変化する。何故ならば、影にな
り照明光が届かない部分は黒くなり、物体の表面に対し
て、照明光が入射したときの入射角で決まる出射角と物
体への視線が近い物体表面の領域では、多くの場合鏡面
反射状態となり、いわゆるキャッチライトの場所とな
る。この部分は、照明光がある反射率で全ての波長の光
が反射するので、照明光と同じ“白”となり、その中間
の部分は物体表面が拡散反射をし、視線角度に対し反射
率が分布を持つので、同一領域(同一物体)の画素は、
色空間(例えばL*u *v *空間)上では、図2のよう
に、黒→物体色→白という曲線上に集中して分布する傾
向があると考えられ、実際にもそのように分布している
ことが確認できる。ここで、L*は明度、u *v *平面
内でL*軸からの距離は彩度、回転角は色相を表わす。One object has the same spectral reflectance, that is, the same color, and various gradations occur depending on the relationship between the angle of the illumination light and the surface of the object and the position of the viewpoint. However, this gradation changes along a certain curve in the color space. The reason is that in the area of the object surface where the line of sight to the object is close to the exit angle determined by the incident angle when the illumination light is incident on the surface of the object, which is shaded and the area to which the illumination light does not reach become black. In many cases, it is a specular reflection state, which is a so-called catch light place. In this part, the illumination light reflects light of all wavelengths with a certain reflectance, so it becomes the same “white” as the illumination light, and in the middle part, the object surface is diffusely reflected and the reflectance is different with respect to the line-of-sight angle. Since it has a distribution, pixels in the same area (same object) are
In the color space (for example, L * u * v * space), it is considered that there is a tendency to concentrate on the curve of black → object color → white as shown in FIG. You can confirm that you are doing. Here, L * represents lightness, the distance from the L * axis in the u * v * plane represents saturation, and the rotation angle represents hue.
【0012】従って、画像全体で見ると、図2のような
楕円体を屈曲させたようなバナナ状の分布が、図3に示
す如く、領域の数(物体の数)だけ複数存在することに
なる。Therefore, when viewed from the entire image, there are a plurality of banana-shaped distributions such as a bent ellipsoid as shown in FIG. 2 corresponding to the number of regions (the number of objects) as shown in FIG. Become.
【0013】ところが従来法では、これらのことが全く
考慮されていないため、図4に破線で示す如く、同一領
域(物体)であるにもかかわらず、複数の領域に分割さ
れたり、図5に破線で示す如く、異なる領域(物体)が
1つの領域と見做されたりすることがあり、従来のクラ
スタリング手法は、領域分割法としては不完全なもので
あった。However, in the conventional method, since these matters are not taken into consideration at all, as shown by a broken line in FIG. 4, even though the same area (object) is divided into a plurality of areas, or in FIG. As shown by the broken line, different regions (objects) may be regarded as one region, and the conventional clustering method is incomplete as a region division method.
【0014】本発明では、前述した分布のモデルに基づ
き、各領域に対応した複数の屈曲楕円体状分布を分離す
るようにクラスタリングを行って、従来法の問題点を解
決している。In the present invention, the problem of the conventional method is solved by performing clustering so as to separate a plurality of bent ellipsoidal distributions corresponding to respective regions based on the above-described distribution model.
【0015】以下、本発明のクラスタリング手法につい
て詳細に説明する。The clustering method of the present invention will be described in detail below.
【0016】今、図6のように、色空間(例えばL*u
*v *空間)上の「黒」を表わす点Aと、「白」を表わ
す点Bを通る曲線群を考える。すると、任意の画素は、
色空間上で1点として表わされるが、それは必ず曲線群
の中の1つの曲線に属する。即ち、1つの画素に対して
1つの曲線が対応する。Now, as shown in FIG. 6, a color space (for example, L * u
Consider a group of curves passing through a point A representing "black" and a point B representing "white" on the * v * space). Then any pixel becomes
Although represented as one point in the color space, it always belongs to one curve in the curve group. That is, one curve corresponds to one pixel.
【0017】各々の曲線を区別するパラメータは2つで
十分であるので、各画素を二次元のパラメータ空間上の
1点にマッピングして表現できる。例えば、この曲線群
として、図7のように、点Aと点Bを通る半楕円の集合
を考え、明度軸上の原点の位置を L=L*−50 ………(1) に従い移動して、L*のとり得る範囲を0≦L*≦10
0に正規化する。Since two parameters for distinguishing each curve are sufficient, each pixel can be represented by mapping to one point on a two-dimensional parameter space. As an example of this curve group, consider a set of semi-ellipses passing through points A and B as shown in FIG. 7, and move the position of the origin on the lightness axis according to L = L * -50 ... (1) The range of L * is 0 ≦ L * ≦ 10
Normalize to 0.
【0018】ここで、1つの半楕円がL=0平面と交わ
る面は一意的に決まるので、半楕円曲線群は、この交点
の(u *、v *)座標値(μ、ν)によってパラメータ
化することができる。Here, since the plane where one semi-ellipse intersects the L = 0 plane is uniquely determined, the semi-elliptic curve group has parameters (u *, v *) coordinate values (μ, ν) of this intersection. Can be converted.
【0019】従って、各画素は、半楕円に沿った一種の
射影操作によって、L=0平面上にマッピングすること
ができる。Therefore, each pixel can be mapped on the L = 0 plane by a kind of projective operation along the semi-ellipse.
【0020】実際の画像の色空間上での分布が、例えば
図8のようになっているとき、このようなマッピングに
よって、(μ、ν)平面上では、図9のような分布にな
り、領域毎に局在した分布を得ることができる。このよ
うにして、特徴空間にマッピングしておいてから、通常
のクラスタリング手法を用いることによって、効率の良
い領域分割が行える。When the distribution of the actual image in the color space is as shown in FIG. 8, for example, such mapping results in the distribution shown in FIG. 9 on the (μ, ν) plane. It is possible to obtain a localized distribution for each region. In this way, efficient mapping can be performed by mapping the feature space and then using a normal clustering method.
【0021】本発明では、このように得られた領域分割
情報とその他の明度情報、及び色度誤差情報を、例えば
間引いて、別個に符号化することにより、付加価値の高
い、符号化が実現される。According to the present invention, the area division information, the other brightness information, and the chromaticity error information obtained in this way are separately thinned and separately coded to realize coding with high added value. To be done.
【0022】[0022]
【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。Embodiments of the present invention will now be described in detail with reference to the drawings.
【0023】本実施例を実施するための装置は、図10
に示す如く、色空間変換部10と、特徴空間への変換部
20と、領域分割部30と、符号化部40と、復号化部
50と、逆変換部60とを含んでいる。又、符号化部4
0は、領域情報符号化部42と、明度情報符号化部44
と、色度誤差情報符号化部46とを含み、復号化部50
は、領域情報復号化部52と、明度情報復号化部54
と、色度誤差情報復号化部56とを含んでいる。An apparatus for carrying out this embodiment is shown in FIG.
As shown in FIG. 3, the color space conversion unit 10, the feature space conversion unit 20, the region division unit 30, the encoding unit 40, the decoding unit 50, and the inverse conversion unit 60 are included. Also, the encoding unit 4
0 indicates the area information encoding unit 42 and the lightness information encoding unit 44.
And a chromaticity error information encoding unit 46, and a decoding unit 50.
Is an area information decoding unit 52 and a brightness information decoding unit 54.
And a chromaticity error information decoding unit 56.
【0024】前記色空間変換部10は、入力画像信号、
例えばRGB信号をL*u *v *信号に変換する。RG
BからXYZ座標系の3刺激値XYZ、同XYZからL
*u*v *への変換は確立されており、RGBからXY
Zへの変換は、次式によって定義される(宮原誠「系統
的画像符号化」(株)アイピーシーの134頁参照)。The color space conversion unit 10 receives the input image signal,
For example, an RGB signal is converted into an L * u * v * signal. RG
B to XYZ coordinate system tristimulus values XYZ, XYZ to L
Conversion to * u * v * has been established and RGB to XY
The conversion to Z is defined by the following equation (see Makoto Miyahara “Systematic Image Coding” IPC Co., Ltd., page 134).
【0025】[0025]
【数1】 [Equation 1]
【0026】又、XYZからL*u *v *への変換は、
次式で定義される(高木幹雄、下田陽久監修「画像解析
ハンドブック」東京大学出版会の107頁−108頁参
照)。The conversion from XYZ to L * u * v * is
It is defined by the following formula (see "Image Analysis Handbook" edited by Mikio Takagi and Yoshihisa Shimoda, pages 107-108 of the University of Tokyo Press).
【0027】[0027]
【数2】 [Equation 2]
【0028】ここで、(X0 、Y0 、Z0 )は、標準光
源下における完全拡散白色面についての(X、Y、Z)
の値であり、標準光源C(色温度6774K)の場合、
(X0 、Y0 、Z0 )=(98.072、100.0
0、118.225)である。Here, (X0, Y0, Z0) is (X, Y, Z) for a perfect diffuse white surface under a standard light source.
And the value of standard light source C (color temperature 6774K),
(X0, Y0, Z0) = (98.072, 100.0
0, 118.225).
【0029】本実施例では、色空間としてL*u *v *
表色系を用いているが、L*a *b*表色系等、他の色
空間でも「黒→物体色→白」を通るような適当な曲線群
を考えることにより、同等の効果が期待できる。In this embodiment, L * u * v * is used as the color space.
Although the color system is used, the equivalent effect can be obtained by considering an appropriate curve group that passes through “black → object color → white” in other color spaces such as the L * a * b * color system. Can be expected.
【0030】前記特徴空間への変換部20は、(L*、
u *、v *)を領域分割に適した特徴空間上の点(L、
μ、ν)に変換する。図11から、変換式は代数幾何学
的に求まり、以下のようになる。The conversion unit 20 to the feature space is (L *,
u *, v *) is a point (L,
μ, ν). From FIG. 11, the conversion formula is obtained by algebraic geometry, and is as follows.
【0031】[0031]
【数3】 [Equation 3]
【0032】前記領域分割部30は、全画像に対してサ
ンプリングを行って、各画素に対する(μ、ν)の値か
らトレーニングデータを作り、ISODATA(Itera
tiveSelf Organizing Data Analysis Techniques
)法により二次元のクラスタリングを行う(高木幹
雄、下田陽久監修「画像解析ハンドブック」東京大学出
版会の648頁−651頁参照)。The area dividing unit 30 samples all images, creates training data from the values of (μ, ν) for each pixel, and ISODATA (Itera
tiveSelf Organizing Data Analysis Techniques
) Method for two-dimensional clustering (see “Image Analysis Handbook” supervised by Mikio Takagi and Yohisa Shimoda, pages 648-651 of the University of Tokyo Press).
【0033】前記ISODATA法は、初期状態として
適当なクラスタを与え、そのメンバを組替えて少しずつ
「より良いクラスタ」を求めていくもので、非階層的ク
ラスタリング(再配置法)を代表する手法として、古く
から知られた手法である。In the ISODATA method, an appropriate cluster is given as an initial state, and its members are recombined to gradually obtain a "better cluster", which is a representative method of non-hierarchical clustering (relocation method). , Is a method that has been known since ancient times.
【0034】このISODATA法の手順を図12に示
す。The procedure of this ISODATA method is shown in FIG.
【0035】このISODATA法では、まずステップ
100で、再配置の収束条件、微小クラスタ、孤立デー
タの判定条件、分裂・融合の分岐条件等のパラメータを
設定する。In this ISODATA method, first in step 100, parameters such as relocation convergence conditions, minute clusters, isolated data determination conditions, and split / fusion branch conditions are set.
【0036】次いで、ステップ102で、初期クラスタ
の重心を決定する。例えば、初期クラスタの数を1とし
て全平均を用いることができる。Then, in step 102, the center of gravity of the initial cluster is determined. For example, the total average can be used with the number of initial clusters being 1.
【0037】次いで、ステップ104乃至108で、再
配置法を実施する。具体的には、まずステップ104
で、各データとクラスタ重心との距離を計算し、それぞ
れのデータを、距離が最小となるクラスタに配置する。
次いでステップ106に進み、再配置されたクラスタ内
で、各クラスタの重心を再計算して修正する。次いで、
ステップ108に進み、各データとクラスタ重心の距離
の平均が、再配置・重心の修正の結果、変化しなけれ
ば、収束したと見做し、それ以外はステップ104に戻
って繰返す。Then, in steps 104 to 108, the rearrangement method is performed. Specifically, first, step 104
Then, the distance between each piece of data and the center of gravity of the cluster is calculated, and each piece of data is arranged in the cluster having the smallest distance.
Then, in step 106, the center of gravity of each cluster is recalculated and corrected in the rearranged clusters. Then
In step 108, if the average of the distance between each data and the cluster centroid does not change as a result of the rearrangement / correction of the centroid, it is considered to have converged, and otherwise returns to step 104 to repeat.
【0038】再配置法終了後、ステップ110に進み、
データの数が著しく少ない微小クラスタと、他のクラス
タから著しく離れた孤立データを、以後のクラスタリン
グから除外する。After the rearrangement method is completed, the process proceeds to step 110,
Small clusters with a significantly small amount of data and isolated data that are significantly separated from other clusters are excluded from subsequent clustering.
【0039】次いでステップ112に進み、クラスタ重
心間の距離の最小値が、ある閾値以上あり、且つ、クラ
スタの分散の最大値が、ある閾値以下であるとき、クラ
スタリングは収束したとして、終了する。それ以外はス
テップ114及び/又は116に進む。Next, in step 112, when the minimum value of the distance between the cluster centroids is greater than or equal to a certain threshold value and the maximum value of the variance of the cluster is less than or equal to a certain threshold value, it is determined that the clustering has converged and the clustering ends. Otherwise, go to steps 114 and / or 116.
【0040】クラスタ重心間の距離の最小値が、ある閾
値以下である場合には、ステップ114に進んで、その
クラスタ対を統合し、新しいクラスタ重心を計算する。If the minimum distance between the cluster centroids is less than or equal to a threshold value, the process proceeds to step 114, the cluster pairs are integrated, and a new cluster centroid is calculated.
【0041】一方、クラスタの分散の最大値が、ある閾
値以上である場合には、ステップ116に進んで、クラ
スタ分散の最大値が閾値以下になるまでクラスタを分裂
させ、新しいクラスタ重心を計算する。On the other hand, if the maximum value of the variance of the cluster is equal to or more than a certain threshold value, the process proceeds to step 116, the cluster is divided until the maximum value of the cluster variance is equal to or less than the threshold value, and a new cluster centroid is calculated. .
【0042】ステップ114による統合又はステップ1
16による分裂が終了した後、再びステップ104に戻
って、処理を繰返す。Integration by step 114 or step 1
After the division by 16 is completed, the process returns to step 104 again to repeat the processing.
【0043】このようにして、図13に示すような、ク
ラスタ分割(クラスタ境界を破線で示す)と、クラスタ
代表点1、2、3(○印で示す)が得られる。In this way, cluster division (cluster boundaries are indicated by broken lines) and cluster representative points 1, 2, 3 (indicated by circles) as shown in FIG. 13 are obtained.
【0044】発明の作用の項で説明したように、この各
々の代表点1、2、3が、図14に示す如く、領域を代
表する半楕円1本に相当するので、このように分割を行
った後、各画素がどの半楕円に属するかを判断し、半楕
円を表わす代表点(クラスタ重心)(μ0 ,ν0 )を、
その画素の値とし、ラベル付けを行って、領域分割を終
了する。このように得られた画像を領域分割画像と呼
ぶ。As described in the section of the operation of the invention, each of the representative points 1, 2, and 3 corresponds to one semi-ellipse that represents the area as shown in FIG. After that, it is determined which half ellipse each pixel belongs to, and the representative point (cluster centroid) (μ 0 , ν 0 ) representing the half ellipse is
The value of that pixel is used as a label, and the region division is completed. The image thus obtained is called a region-divided image.
【0045】前記領域情報符号化部42は、色度空間上
で領域分割した情報の符号化を行う。(μ0 ,ν0 )は
クラスタリングを行ったときのクラスタ重心なので、と
り得る値の数は16〜32個程度で、1画素当り4〜5
ビットで表現することができる。従って、クラスタ代表
値(μ0 ,ν0 )のリスト(16〜32個程度)、及び
各画素に対するクラスタ代表値番号i (4〜5ビットで
表現される)によって、領域分割画像のラベル付けが行
われる(ラベリング画像と呼ぶ)。又、隣り合う画素は
同じ代表値にマッピングされ易いので、このことを利用
したランレングス符号化(坂内正夫「画像データベー
ス」昭晃堂、P.136〜P.140参照)、あるいは
領域境界画素のみを追跡するチェーン符号化(坂内正夫
「画像データベース」昭晃堂、P.91〜P.103参
照)等の可逆符号化を用いることにより、更に圧縮する
ことができる。The area information coding unit 42 codes the information divided into areas in the chromaticity space. Since (μ 0 , ν 0 ) is the cluster centroid when clustering is performed, the number of possible values is about 16 to 32, and 4 to 5 per pixel.
It can be expressed in bits. Therefore, the region-divided image is labeled by the list (about 16 to 32) of cluster representative values (μ 0 , ν 0 ) and the cluster representative value number i (represented by 4 to 5 bits) for each pixel. Performed (called a labeling image). Further, since adjacent pixels are easily mapped to the same representative value, run length coding using this (see Masao Sakauchi “Image Database” Shokoido, P.136-P.140), or only area boundary pixels Further compression can be achieved by using a lossless encoding such as a chain encoding for tracking (see Masao Sakauchi “Image Database” Shokoido, P.91-P.103).
【0046】前記明度情報符号化部44は、明度を表わ
すL信号の符号化を行う。RGB信号を特徴空間上の点
(L,μ,ν)にマッピングしたとき、Lは明度、
(μ,ν)は色度に相当する信号である。人間の視覚特
性は色度よりも明度の変化に対して敏感であり、明度情
報の劣化は検知され易い。特に画像のエッジ部にボケや
ガタつきがあれば大きな画質劣化として感じられること
になる。そのため、L信号の符号化にDCT(離散コサ
イン変換)等の直交変換符号化(宮原誠「系統的画像符
号化」(株)アイピーシー、P.9〜P.11、P.3
3〜P37参照)を行う場合、高周波成分へのビット配
分は色度よりも多くしておかなければならない。The lightness information encoding unit 44 encodes the L signal indicating the lightness. When RGB signals are mapped to points (L, μ, ν) on the feature space, L is the lightness,
(Μ, ν) is a signal corresponding to chromaticity. Human visual characteristics are more sensitive to changes in brightness than chromaticity, and deterioration of brightness information is easily detected. In particular, if there is blurring or rattling at the edge portion of the image, it will be felt as a great deterioration in image quality. Therefore, orthogonal transform coding such as DCT (discrete cosine transform) is used for coding the L signal (Makoto Miyahara "Systematic Image Coding" IPC, P.9 to P.11, P.3).
3 to P37), the bit allocation to the high frequency component must be larger than the chromaticity.
【0047】前記色度誤差情報符号化部46は、領域分
割画像と原画像の誤差情報を間引いて符号化する。領域
分割画像(μ0 ,ν0 )と原画像の(μ,ν)との誤差
を次式により計算する。The chromaticity error information encoding unit 46 thins out the error information between the area-divided image and the original image and encodes it. The error between the area-divided image (μ 0 , ν 0 ) and the original image (μ, ν) is calculated by the following formula.
【0048】 Δμ=μ−μ0 ………(9) Δν=ν−ν0 ………(10)Δμ = μ−μ 0 (9) Δν = ν−ν 0 (10)
【0049】明度に比べ色度の劣化は検知され難いた
め、誤差画像に対し、縦方向、横方向共に、例えば1/
2に間引き、間引き画像に対してDCT等の直交変換符
号化を行う。このとき、高周波成分へのビット配分は明
度より少なくてよい。Since the deterioration of chromaticity is harder to detect than the brightness, the error image is, for example, 1 / horizontal in both the vertical and horizontal directions.
2 is thinned, and orthogonal transform coding such as DCT is performed on the thinned image. At this time, the bit allocation to the high frequency component may be less than the brightness.
【0050】前記領域情報復号化部54は、領域情報符
号化データから、クラスタ代表値のリスト、及び各画素
に対するクラスタ代表値番号i を復元する。復元された
i からクラスタ代表値のリストを参照して各画素に対す
る(μ0 ,ν0 )を復元し、領域分割画像を得る。The area information decoding unit 54 restores the list of cluster representative values and the cluster representative value number i for each pixel from the area information encoded data. Restored
By referring to the list of cluster representative values from i, (μ 0 , ν 0 ) for each pixel is restored to obtain a region-divided image.
【0051】前記明度情報復号化部54は、明度情報符
号化データから、DCT等の直交変換復号化器により明
度に相当する信号Lを復元する。The lightness information decoding unit 54 restores the signal L corresponding to the lightness from the lightness information encoded data by an orthogonal transform decoder such as DCT.
【0052】前記色度誤差情報復号化部56は、色度誤
差情報符号化データから、直交変換復号化器により色度
誤差信号(Δμ,Δν)を復元、補間し、次式 μ=μ0 +Δμ ………(11) ν=ν0 +Δν ………(12) により、色度に相当する信号(μ,ν)を復元する。The chromaticity error information decoding unit 56 restores and interpolates the chromaticity error signal (Δμ, Δν) from the encoded chromaticity error information data by the orthogonal transform decoder, and the following formula μ = μ 0 + Δμ (11) ν = ν 0 + Δν (12) The signal (μ, ν) corresponding to chromaticity is restored.
【0053】又、前記逆変換部60は、復元された信号
がLμνなので、これをL*u *v*信号に逆変換す
る。この逆変換は次式で与えられる。Further, since the restored signal is Lμν, the inverse converter 60 inversely converts this to an L * u * v * signal. This inverse transformation is given by the following equation.
【0054】[0054]
【数4】 [Equation 4]
【0055】このL*u *v *を更にRGB信号に戻
す。L*u *v *をXYZに変換する式は以下のように
なる。This L * u * v * is further returned to an RGB signal. The formula for converting L * u * v * into XYZ is as follows.
【0056】[0056]
【数5】 [Equation 5]
【0057】又、XYZからRGBへの変換は、次式で
定義される。The conversion from XYZ to RGB is defined by the following equation.
【0058】[0058]
【数6】 [Equation 6]
【0059】以上のような逆変換により、最終的な復元
画像が得られる。A final restored image is obtained by the above inverse transformation.
【0060】[0060]
【発明の効果】以上説明した通り、本発明では、物体の
反射モデルから推定される色空間上での分布の特徴を
「黒」から「物体色」を通り「白」へ至る曲線としてモ
デル化し、曲線を区別するパラメータ空間上でクラスタ
リングを行っているため、同一領域の画素は、パラメー
タ空間上では特定の場所に局在し易くなり、その結果、
従来の領域分割法と比較して、より良い分割を得ること
が可能になり、このように得られた領域分割情報とその
他の明度情報、色度誤差情報を別個に符号化することに
より、効率の良い符号化を実現している。As described above, in the present invention, the characteristic of the distribution in the color space estimated from the reflection model of the object is modeled as a curve from "black" to "object color" to "white". , Since the clustering is performed on the parameter space that distinguishes the curves, the pixels in the same region tend to be localized at a specific place on the parameter space, and as a result,
It is possible to obtain a better division compared to the conventional area division method. By separately encoding the area division information and other lightness information and chromaticity error information obtained in this way, the efficiency can be improved. Has achieved good encoding.
【0061】又、本発明による符号化法は高能率である
ことに加え、画像を構造的に記述することを特徴とし、
画像データベースを構築したり、画像の処理・加工ある
いは伝送を行ったりする際、以下に示すような様々な付
加価値が生じる。Further, the encoding method according to the present invention is characterized by not only being highly efficient but also describing the image structurally,
When constructing an image database, processing / processing or transmitting an image, various added values as described below occur.
【0062】まず、第1に、符号化データに領域情報を
表わすデータが含まれているので、各領域の「ON(物
体部)」「OFF(背景部)」を指定するだけで、特定
領域の抽出が行え、商品のカタログやチラシ等を印刷す
る場合の背景部の消去を行う際に、復元画像に対してク
ラスタリング等の領域分割を改めて行う必要がなくな
る。First, since the encoded data includes data representing area information, it is only necessary to specify "ON (object part)" or "OFF (background part)" for each area. Can be extracted, and it becomes unnecessary to newly perform area division such as clustering on the restored image when the background portion is erased when a product catalog or leaflet is printed.
【0063】第2に、上に述べたように容易に特定領域
の抽出が行え、領域毎の色修正情報のみを符号化データ
に加えることにより、次回の復元時に色修正済の画像を
得ることができる。従って、色修正画像をもう一度利用
するために、わざわざ圧縮してデータベースに再保存す
る必要がなくなる。又、色修正前の画像が必要になった
ときも、色修正情報を用いずに復元することにより、い
つでもオリジナル画像の再生が行える。Secondly, as described above, the specific area can be easily extracted and only the color correction information for each area is added to the encoded data to obtain the color-corrected image at the next restoration. You can Therefore, it is not necessary to bother to compress and re-save the color-corrected image in the database in order to use it again. Further, even when an image before color correction becomes necessary, the original image can be reproduced at any time by restoring without using the color correction information.
【0064】第3に、通常、画像の回転・変倍で問題と
なるのは、エッジ部の劣化であるが、領域分割符号化で
は、符号化データに領域情報を表わすデータが含まれて
いるので、この情報のみを高精度に回転・変倍してやる
ことにより、高画質な回転・変倍が実現できる。Thirdly, usually, the problem of image rotation / magnification is the deterioration of the edge portion, but in the area division coding, the coded data includes data representing the area information. Therefore, by rotating and scaling only this information with high accuracy, high-quality rotation and scaling can be realized.
【0065】第4に、領域情報を表わすデータのみを復
元しても、大雑把な構造が把握できるので、この画像を
用い、高速な検索ができる。Fourthly, even if only the data representing the area information is restored, the rough structure can be grasped, so that high-speed retrieval can be performed using this image.
【0066】第5に、領域情報を表わすデータを先に伝
送し、その他の波形情報を順次伝送していくことによ
り、伝送の初期段階で、受信者が必要な画像か、そうで
ない画像かを判断できるため、途中で受信をやめること
ができ、伝送コストを削減することができる。Fifth, the data representing the area information is transmitted first, and the other waveform information is sequentially transmitted, so that at the initial stage of the transmission, whether the image required by the receiver or not is required. Since the determination can be made, the reception can be stopped in the middle of the transmission, and the transmission cost can be reduced.
【0067】以上述べたように、本発明による符号化
は、様々な優れた効果を有する。As described above, the encoding according to the present invention has various excellent effects.
【図1】従来のRGB色空間上でのクラスタリング手法
を説明する線図FIG. 1 is a diagram illustrating a conventional clustering method on an RGB color space.
【図2】本発明の原理を説明するための、L*u *v *
空間上における一物体の物体色の分布の一例を示す線図FIG. 2 shows L * u * v * for explaining the principle of the present invention.
Diagram showing an example of distribution of object color of one object in space
【図3】同じく、画像全体における複数の物体の物体色
の分布の例を示す線図FIG. 3 is a diagram similarly showing an example of distribution of object colors of a plurality of objects in the entire image.
【図4】従来のクラスタリング手法による分割結果の一
例をL*u *v *空間上に示した線図FIG. 4 is a diagram showing an example of a division result by a conventional clustering method in an L * u * v * space.
【図5】同じく他の例をL*u *v *空間上に示した線
図FIG. 5 is a diagram showing another example in the L * u * v * space.
【図6】本発明のクラスタリング手法を説明するため
の、L*u *v *空間上の「黒」を表わす点と、「白」
を表わす点を通る曲線群を示す線図FIG. 6 is a diagram showing points representing “black” and “white” on the L * u * v * space for explaining the clustering method of the present invention.
Diagram showing a group of curves passing through points
【図7】同じく、L*のとり得る範囲を正規化した状態
を示す線図FIG. 7 is a diagram showing a state in which the range of L * can be normalized.
【図8】実際の画像の色空間上での分布の例を示す線図FIG. 8 is a diagram showing an example of distribution of an actual image in a color space.
【図9】同じく、マッピングによって得られる(μ、
ν)平面上での分布を示す線図FIG. 9 is also obtained by mapping (μ,
ν) Diagram showing the distribution on the plane
【図10】本発明の実施例を実施するための装置の全体
構成を示すブロック線図FIG. 10 is a block diagram showing an overall configuration of an apparatus for carrying out an embodiment of the present invention.
【図11】前記実施例の特徴空間への変換部で用いられ
ている変換式を説明するための線図FIG. 11 is a diagram for explaining a conversion formula used in a conversion unit for converting into a feature space in the embodiment.
【図12】前記実施例の領域分割部で用いられている二
次元クラスタリング手法の一例を説明するための流れ図FIG. 12 is a flowchart for explaining an example of a two-dimensional clustering method used in the area dividing unit of the above-described embodiment.
【図13】前記実施例により得られるクラスタ分割とク
ラスタ代表点を示す線図FIG. 13 is a diagram showing cluster division and cluster representative points obtained in the above embodiment.
【図14】図13のクラスタ代表点を含むL*u *v *
空間上の領域を示す線図14 includes L * u * v * including cluster representative points in FIG.
Diagram showing the area in space
10…色空間変換部 20…特徴空間への変換部 30…領域分割部 40…符号化部 42…領域情報符号化部 44…明度情報符号化部 46…色度誤差情報符号化部 50…復号化部 52…領域情報復号化部 54…明度情報復号化部 56…色度誤差情報復号化部 60…逆変換部 10 ... Color space conversion unit 20 ... Feature space conversion unit 30 ... Region division unit 40 ... Encoding unit 42 ... Region information encoding unit 44 ... Lightness information encoding unit 46 ... Chromaticity error information encoding unit 50 ... Decoding Decoding unit 52 ... Region information decoding unit 54 ... Lightness information decoding unit 56 ... Chromaticity error information decoding unit 60 ... Inverse conversion unit
Claims (3)
での分布の特徴を、「黒」から「物体色」を通り「白」
へ至る曲線としてモデル化し、 該曲線を区別するパラメータ空間上へ各画素を写像する
ことにより、同一領域の画素同士が特定の場所に局在す
るような分布を得、 その空間上でクラスタリングを行うことにより領域分割
を行い、 得られた領域情報と明度情報を別個に符号化することを
特徴とするカラー画像のデータ圧縮符号化方法。1. A distribution characteristic in a color space estimated from a reflection model of an object has a characteristic of "white" passing from "black" to "object color".
By modeling each curve as a curve and mapping each pixel on the parameter space that distinguishes the curve, a distribution in which pixels in the same region are localized at a specific location is obtained, and clustering is performed on that space. A data compression coding method for a color image, characterized in that the area information is divided into areas and the obtained area information and lightness information are encoded separately.
得られる領域分割画像と原画像との色度誤差情報をも別
個に符号化することを特徴とするカラー画像のデータ圧
縮符号化方法。2. The data compression encoding method for a color image according to claim 1, wherein the chromaticity error information between the area-divided image obtained by the area division and the original image is also encoded separately.
号化に際して、間引きを併用することを特徴とするカラ
ー画像のデータ圧縮符号化方法。3. The data compression coding method for a color image according to claim 2, wherein thinning is also used when the chromaticity error information is coded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5008824A JPH06225154A (en) | 1993-01-22 | 1993-01-22 | Data compression coding method for color picture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5008824A JPH06225154A (en) | 1993-01-22 | 1993-01-22 | Data compression coding method for color picture |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06225154A true JPH06225154A (en) | 1994-08-12 |
Family
ID=11703554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5008824A Pending JPH06225154A (en) | 1993-01-22 | 1993-01-22 | Data compression coding method for color picture |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06225154A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563937A (en) * | 2020-07-14 | 2020-08-21 | 成都四方伟业软件股份有限公司 | Picture color extraction method and device |
CN118354011A (en) * | 2024-04-26 | 2024-07-16 | 芯粒微(深圳)科技有限公司 | Image transmission method and device and electronic equipment |
-
1993
- 1993-01-22 JP JP5008824A patent/JPH06225154A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563937A (en) * | 2020-07-14 | 2020-08-21 | 成都四方伟业软件股份有限公司 | Picture color extraction method and device |
CN111563937B (en) * | 2020-07-14 | 2020-10-30 | 成都四方伟业软件股份有限公司 | Picture color extraction method and device |
CN118354011A (en) * | 2024-04-26 | 2024-07-16 | 芯粒微(深圳)科技有限公司 | Image transmission method and device and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11348285B2 (en) | Mesh compression via point cloud representation | |
US6556711B2 (en) | Image processing apparatus and method | |
KR100451942B1 (en) | Method of isomorphic singular manifold projection still/video imagery compression | |
US10282866B2 (en) | Texture replacement in video sequences and images | |
US20070110303A1 (en) | Low-Bandwidth Image Streaming | |
JP4045913B2 (en) | Image coding apparatus, image coding method, and image processing apparatus | |
WO1997038533A1 (en) | System and method for a multiresolution transform of digital image information | |
US20040258301A1 (en) | Lossy JPEG compression/reconstruction using principal components transformation | |
US6757441B1 (en) | Image data encoding/decoding method and apparatus | |
CN110533117A (en) | Image comparison method, device, equipment and storage medium | |
JP3289787B2 (en) | How to segment a color image | |
JPH06225154A (en) | Data compression coding method for color picture | |
JPH10208062A (en) | Contour line encoder | |
JP2679769B2 (en) | Image signal encoding device | |
JPH0998295A (en) | Data compression method for color image | |
JP2002077657A (en) | Apparatus of image processing, method thereof and recording medium | |
US7127118B2 (en) | System and method for compressing image files while preserving visually significant aspects | |
KR100231925B1 (en) | Image encoding method using global based color correlation | |
JP3289792B2 (en) | Color correction method for specific area of color image | |
JP3346849B2 (en) | How to segment a color image | |
US20230306641A1 (en) | Mesh geometry coding | |
JPH07105969B2 (en) | Color image compression coding method | |
JPH08265753A (en) | Method and apparatus for compressing/decompressing standardized portrait picture | |
JPH08265585A (en) | Area division method for color picture | |
JPH08298589A (en) | Image processor of photograph/document mixed image |