JP2001069502A - Video image transmission terminal and video image reception terminal - Google Patents
Video image transmission terminal and video image reception terminalInfo
- Publication number
- JP2001069502A JP2001069502A JP23776599A JP23776599A JP2001069502A JP 2001069502 A JP2001069502 A JP 2001069502A JP 23776599 A JP23776599 A JP 23776599A JP 23776599 A JP23776599 A JP 23776599A JP 2001069502 A JP2001069502 A JP 2001069502A
- Authority
- JP
- Japan
- Prior art keywords
- video
- area
- data
- priority
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 49
- 238000012937 correction Methods 0.000 claims description 44
- 238000000605 extraction Methods 0.000 abstract description 29
- 230000002542 deteriorative effect Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 4
- 230000006866 deterioration Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 51
- 238000000034 method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 101000686227 Homo sapiens Ras-related protein R-Ras2 Proteins 0.000 description 1
- 102100025003 Ras-related protein R-Ras2 Human genes 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、MPEG4符号化
方式等によりオブジェクト映像を生成する際に、オブジ
ェクト映像の品質を劣化させることなくスケラビリティ
を実現する映像送信端末、及びこの映像送信端末から送
信されたオブジェクト映像符号化データを受信する映像
受信端末に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video transmitting terminal for realizing scalability without deteriorating the quality of an object video when generating an object video by an MPEG4 encoding method or the like, and transmitting from the video transmitting terminal. The present invention relates to a video receiving terminal that receives encoded object video data.
【0002】[0002]
【従来の技術】従来より、テレビ電話などでカメラで撮
影した映像、あるいはファイルから読み出した映像等
で、映像に映っている被写体あるいは注目している対象
物の輪郭について領域抽出して、その抽出した輪郭内の
映像を切り出して、オブジェクトとして符号化する技術
が普及してきている。このようなオブジェクト符号化技
術としては、MPEG4オブジェクト映像符号化方式が
著名な技術として標準化されている。2. Description of the Related Art Heretofore, an area has been extracted from an image captured by a camera using a videophone or the like or an image read from a file, and the contour of an object or an object of interest in the image has been extracted. A technique of cutting out a video within the contour described and encoding it as an object has become widespread. As such an object encoding technology, the MPEG4 object video encoding system has been standardized as a prominent technology.
【0003】図22は従来のテレビ電話システムにおけ
る映像送信端末の構成図、図23は映像受信端末の構成
図である。FIG. 22 is a configuration diagram of a video transmission terminal in a conventional videophone system, and FIG. 23 is a configuration diagram of a video reception terminal.
【0004】図22において、映像送信端末102では
映像ソース104から得た被写体を含んだ映像からデジ
タル映像106を生成する。映像ソース104は、例え
ばカメラで撮影した映像、あるいはファイルから読み出
した映像などである。デジタル映像106は領域抽出部
108に印加されて、被写体(例えば人物像)の領域に
ついて輸郭を抽出して領域抽出データ110を生成す
る。In FIG. 22, a video transmitting terminal 102 generates a digital video 106 from a video including a subject obtained from a video source 104. The video source 104 is, for example, a video captured by a camera or a video read from a file. The digital video 106 is applied to the region extracting unit 108, and extracts a transgression for a region of a subject (for example, a human image) to generate region extraction data 110.
【0005】また、領域抽出部112は、別な映像ソー
ス114からデジタル映像116を得て、別な被写体
(背景等)を抽出して領域抽出データ118を生成す
る。[0005] Further, an area extracting unit 112 obtains a digital image 116 from another image source 114, extracts another object (such as a background), and generates area extraction data 118.
【0006】一方、デジタル映像106と領域抽出デー
タ110はオブジェクト映像符号化部120に印加され
る。オブジェクト映像符号化部120では領域抽出デー
タ110が指定するデジタル映像106の領域につい
て、オブジェクト符号化を行い、符号化データ122を
生成する。同時に、オブジェクト映像符号化部124で
もデジタル映像116と領域抽出データ118により、
符号化データ126を生成する。On the other hand, the digital video 106 and the region extraction data 110 are applied to an object video encoding unit 120. The object video encoding unit 120 performs object encoding on the region of the digital video 106 specified by the region extraction data 110, and generates encoded data 122. At the same time, the object video encoding unit 124 also uses the digital video 116 and the region extraction data 118 to
The coded data 126 is generated.
【0007】制御部128からはシーン構成情報130
が出力されている。シーン構成情報130は、前記各オ
ブジェクトが時間軸上で、表示画面のどこの座標に位置
しているか等を示す情報である。The control unit 128 sends scene configuration information 130
Is output. The scene configuration information 130 is information indicating at which coordinates on the display screen each object is located on the time axis.
【0008】そして、符号化データ122、符号化デー
タ126、及びシーン構成情報130は、多重化部13
2で多重化されて、直列データ134として外部に出力
される。[0008] The coded data 122, the coded data 126, and the scene configuration information 130 are transmitted to the multiplexing unit 13.
2, and are output to the outside as serial data 134.
【0009】図23に示すように、直列データ134は
伝送路136を介して、映像受信端末138の分離部1
40に印加される。分離部140では符号化データ14
2、符号化データ144、及びシーン構成情報146が
分離される。[0009] As shown in FIG. 23, the serial data 134 is transmitted via a transmission line 136 to the separating unit 1 of the video receiving terminal 138.
40 is applied. In the separating unit 140, the encoded data 14
2. The encoded data 144 and the scene configuration information 146 are separated.
【0010】符号化データ142は、オブジェクト映像
復号化部148に印加され、オブジェクト映像復号化部
148で元のオブジェクト映像150が再現される。ま
た、符号化データ144はオブジェクト映像復号化部1
52に印加され、オブジェクト映像復号化部152でオ
ブジェクト映像154が再現される。[0010] The encoded data 142 is applied to an object video decoding unit 148, and the original object video 150 is reproduced by the object video decoding unit 148. The encoded data 144 is stored in the object video decoding unit 1.
52, and the object video decoding unit 152 reproduces the object video 154.
【0011】制御部156では、シーン構成情報146
を入力し、解読して、合成部158に印加されたオブジ
ェクト映像150とオブジェクト映像154を時間毎に
指定された座標に配置する。そして、合成部158は、
これらを合成映像データ160として出力し、合成映像
データ160はモニタ162に印加されて、モニタ16
2でオブジェクト映像150とオブジェクト映像154
が表示される。The control unit 156 has scene configuration information 146
Is input and decoded, and the object video 150 and the object video 154 applied to the synthesizing unit 158 are arranged at the designated coordinates every time. Then, the synthesizing unit 158
These are output as composite video data 160, and the composite video data 160 is applied to the monitor 162,
2, the object video 150 and the object video 154
Is displayed.
【0012】図24は従来のモニタ162に表示された
オブジェクト映像の表示図である。FIG. 24 is a display diagram of an object image displayed on a conventional monitor 162.
【0013】図24によるとオブジェクト映像150と
して人物像164、オブジェクト映像154として背景
166が割り当てられている。ここで、伝送路136で
雑音等が多くなり、伝送能力が低下することがある。伝
送能力が低下すると直列データ134のデータ容量を減
少させる必要がある。MPEG4オブジェクト符号化方
式では、符号化データを減少させる技術として、空間ス
ケラビリティと時間スケラビリティが用意されている。
スケラビリティ機能を実行するために図22ではオブジ
ェクト映像符号化部120にはスケラビリティ変換部1
68を、またオブジェクト映像符号化部124にはスケ
ラビリティ変換部170を有している。Referring to FIG. 24, a person image 164 is assigned as the object image 150, and a background 166 is assigned as the object image 154. Here, noise and the like may increase in the transmission path 136, and the transmission capability may decrease. When the transmission capacity decreases, the data capacity of the serial data 134 needs to be reduced. In the MPEG4 object encoding method, spatial scalability and temporal scalability are prepared as techniques for reducing encoded data.
In order to execute the scalability function, the scalability conversion unit 1 is included in the object video encoding unit 120 in FIG.
68, and the object video encoding unit 124 has a scalability conversion unit 170.
【0014】図25は従来の空間スケラビリティの例を
説明するための図である。最初オブジェクト映像符号化
部120で図25(a)に示すように人物像172が符
号化される。そして、符号化データ122のデータ量を
減少させなければならない事態になったら、スケラビリ
ティ変換部168で人物像172について、符号化デー
タを1/2に間引いて減少させ、図25(b)に示すよ
うに人物像174を生成する。そして、人物像174に
ついての符号化データ122を映像受信端末138に送
り、オブジェクト映像復号化部148で復号化する際
に、スケラビリティ再現部176で人物像174の符号
化データ122について1/2に縮小したデータについ
て、補間処理を行い図25(c)に示すように元の大き
さの人物像178となるオブジェクト映像150を生成
する。以下同様に背景オブジェクトについても必要があ
れば、スケラビリティ変換部170で縮小し、スケラビ
リティ再現部180で補間処理を行って、元のオブジェ
クト映像154を再現する。FIG. 25 is a diagram for explaining an example of conventional spatial scalability. First, the human image 172 is encoded by the object video encoding unit 120 as shown in FIG. Then, when it becomes necessary to reduce the data amount of the coded data 122, the scalability conversion unit 168 thins out the coded data of the human image 172 by halving it, and reduces the coded data as shown in FIG. As shown, a person image 174 is generated. Then, the coded data 122 of the human image 174 is sent to the video receiving terminal 138 and is decoded by the object video decoding unit 148. An interpolation process is performed on the reduced data to generate an object video 150 that becomes a human image 178 of the original size as shown in FIG. Similarly, if necessary, the background object is reduced by the scalability conversion unit 170, and the scalability reproduction unit 180 performs an interpolation process to reproduce the original object video 154.
【0015】図26は従来の時間スケラビリティの例を
説明するための図である。スケラビリティを行っていな
い場合、人物像はフレームa、b、c、d、e毎に動い
ていて、図26(a)、(b)、(c)、(d)、
(e)に示すように、人物像182、人物像184、人
物像186、人物像188及び人物像190として符号
化されている。しかし、スケラビリティ変換部168で
は人物像192、人物像194及び人物像196とし
て、フレーム間引きして符号化し、符号化データ122
を減少させる。そして、スケラビリティ再現部176で
は、フレームbでは人物像192、フレームdでは人物
像194を繰り返して使用し、時間的にオブジェクト映
像150を再現している。FIG. 26 is a diagram for explaining an example of conventional time scalability. When scalability is not performed, the human image moves for each of the frames a, b, c, d, and e, and FIG. 26 (a), (b), (c), (d),
As shown in (e), the images are encoded as a person image 182, a person image 184, a person image 186, a person image 188, and a person image 190. However, the scalability conversion unit 168 encodes the human image 192, the human image 194, and the human image 196 by thinning out the frames and encoding the encoded data 122.
Decrease. Then, the scalability reproduction unit 176 repeatedly uses the human image 192 in the frame b and the human image 194 in the frame d to reproduce the object video 150 temporally.
【0016】[0016]
【発明が解決しようとする課題】図25で説明した空間
スケラビリティでは、人物像172を人物像174に圧
縮する時点で、情報量が失われ、人物像178のように
元の大きさに拡大しても、人物像178は人物像172
と比較して解像度が落ちてしまう。In the spatial scalability described with reference to FIG. 25, when the human image 172 is compressed into the human image 174, the amount of information is lost, and the image is enlarged to the original size like the human image 178. However, the person image 178 is the person image 172
The resolution is reduced compared to.
【0017】また、図26で説明した時間スケラビリテ
ィでは人物像182から人物像190で動きが大きい場
合、フレームbで人物像184、フレームdで人物像1
88が失われ、前のフレームの人物像で置き換えると動
きがぎこちなくなる。In the time scalability described with reference to FIG. 26, when the movement from the person image 182 to the person image 190 is large, the person image 184 in the frame b and the person image 1 in the frame d
88 is lost and the movement becomes awkward if replaced with the person image of the previous frame.
【0018】本発明は、従来のこのような点に鑑み為さ
れたもので、映像の重要部分についてはその品質を劣化
させることなく、オブジェクト映像符号化した符号化デ
ータのスケラビリティを実現することが可能な映像送信
端末、及び映像送信端末を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and is intended to realize the scalability of encoded data obtained by object video encoding without deteriorating the quality of an important part of a video. It is an object to provide a video transmission terminal and a video transmission terminal capable of performing the following.
【0019】[0019]
【課題を解決するための手段】上記目的を達成するた
め、請求項1に記載の本発明に係る映像送信端末は、被
写体を含めた映像から被写体の領域を抽出する抽出手段
と、この抽出手段が抽出する領域について優先領域を設
定する設定手段と、この設定手段が設定する優先領域に
ついて映像からオブジェクト映像符号化を行う符号化手
段とを具備することを特徴とする。According to a first aspect of the present invention, there is provided a video transmitting terminal for extracting an area of a subject from a video including the subject, and the extracting means. Is characterized by comprising: setting means for setting a priority area for an area to be extracted; and coding means for performing object video coding from video for the priority area set by the setting means.
【0020】この請求項1の発明によれば、例えば人物
像等の被写体については顔部分等の重要部分を優先して
残すことで、符号化データのデータ量を圧縮した際に顔
部分等の重要部分の解像度を低下させることがない。従
って、空間スケラビリティのようにオブジェクト映像全
体で解像度が低下するというようなことがなく、例えば
優先度の低い顔から下の部分は要求される圧縮の程度に
よりカットすることで、状況に応じてスケラビリティが
実現する。また、時間スケラビリティのようにフレーム
単位で符号化データを削除する必要がないので、再現さ
れたオブジェクト映像の動きがぎこちなくなるというこ
とがない。According to the first aspect of the invention, for an object such as a human image, an important portion such as a face portion is preferentially left, so that when the data amount of the encoded data is compressed, the face portion or the like is reduced. It does not lower the resolution of important parts. Therefore, the resolution does not decrease in the entire object image as in the case of spatial scalability. For example, a portion below a low-priority face is cut according to the required degree of compression, so that it can be changed according to the situation. Scalability is achieved. Further, unlike the temporal scalability, it is not necessary to delete the encoded data in units of frames, so that the reproduced object video does not have awkward movement.
【0021】また、請求項2に記載の本発明に係る映像
送信端末は、被写体を含めた映像から被写体の領域を抽
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定するとともに優先領域情報を生成する
手段と、抽出手段が抽出する優先領域について映像から
オブジェクト映像符号化を行い符号化データを生成する
手段と、符号化データと優先領域情報とを送信する手段
とを具備することを特徴とする。According to a second aspect of the present invention, there is provided a video transmitting terminal for extracting an area of a subject from a video including the subject, and setting a priority area for the area extracted by the extracting means. Means for generating priority area information, means for performing object video encoding on the priority area extracted by the extraction means from the video to generate encoded data, and means for transmitting the encoded data and the priority area information It is characterized by the following.
【0022】また、請求項3に記載の本発明に係る映像
受信端末は、映像送信端末が送信する符号化データと優
先領域情報とを受信する受信手段と、この受信手段が受
信する符号化データを復号化してオブジェクト映像を再
現する再生手段と、この再生手段が再現するオブジェク
ト映像を表示する表示手段と、この表示手段がオブジェ
クト映像を表示する際に、優先領域情報を用いて指定さ
れた所定領域に他の映像を重畳する映像重畳手段とを具
備することを特徴とする。According to a third aspect of the present invention, there is provided a video receiving terminal for receiving coded data transmitted by the video transmitting terminal and priority area information, and coded data received by the receiving means. Reproduction means for decoding the object video by decoding the video, display means for displaying the object video reproduced by the reproduction means, and a predetermined means designated by using the priority area information when the display means displays the object video. Video superimposing means for superimposing another video on the area.
【0023】このような請求項2に記載の本発明に係る
映像送信端末、及び請求項3に記載の本発明に係る映像
受信端末によれば、映像受信端末において、優先度に応
じて映像の重要部分を残しながら優先度の低い部分を隠
蔽して、他の任意の映像を重ねて表示することができ
る。According to the video transmitting terminal according to the second aspect of the present invention and the video receiving terminal according to the third aspect of the present invention, the video receiving terminal transmits the video in accordance with the priority. A low priority part can be hidden while leaving an important part, and another arbitrary image can be superimposed and displayed.
【0024】また、請求項4に記載の本発明に係る映像
送信端末は、被写体を含めた映像から被写体の領域を抽
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定する設定手段と、この設定手段が設定
する優先領域から所定の優先領域を選択する選択手段
と、この選択手段が選択する所定の優先領域について映
像からオブジェクト映像符号化を行う符号化手段と、こ
の符号化手段が符号化する符号化データを送信する送信
手段と、この送信手段が送信する符号化データのレート
制御を行うために、選択手段を制御する制御手段とを具
備することを特徴とする。According to a fourth aspect of the present invention, there is provided a video transmitting terminal for extracting an area of a subject from a video including the subject, and setting a priority area for the area extracted by the extracting means. Means, selecting means for selecting a predetermined priority area from the priority areas set by the setting means, coding means for performing object video coding from video for the predetermined priority area selected by the selecting means, The transmitting means for transmitting the encoded data to be encoded by the means, and the control means for controlling the selecting means in order to control the rate of the encoded data transmitted by the transmitting means.
【0025】この請求項4の発明によれば、符号化デー
タのレート制御において、従来のようにオブジェクト映
像についての量子化精度あるいはフレームレートを変え
るような複雑な処理をせず、オブジェクト映像の形状の
みを変化させる単純な処理で済ますことができ、また映
像の重要部分についてはその品質を劣化させることがな
い。According to the fourth aspect of the present invention, in controlling the rate of the encoded data, complicated processing such as changing the quantization precision or the frame rate of the object video is not performed as in the related art. Only the simple processing of changing only the image can be performed, and the quality of the important part of the image is not deteriorated.
【0026】更に、請求項5に記載の本発明に係る映像
送信端末は、被写体を含めた映像から被写体の領域を抽
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定する設定手段と、この設定手段が設定
する優先領域から所定の優先領域を選択する選択手段
と、この選択手段が選択する所定の優先領域について映
像からオブジェクト映像符号化を行う符号化手段と、こ
の符号化手段が符号化する符号化データに誤り訂正符号
化を施す誤り訂正符号化手段と、この誤り訂正符号化手
段が誤り訂正符号化を施す符号化データを送信する送信
手段と、映像受信端末との間の伝送路の回線品質に関す
る情報を取得する取得手段と、この取得手段が取得する
回線品質に関する情報に基づいて選択手段及び誤り訂正
符号化手段を制御し、符号化データのデータ量と誤り訂
正符号化データのデータ量の組み合わせを設定する制御
手段とを具備することを特徴とする。Furthermore, the video transmitting terminal according to the present invention is characterized in that an extracting means for extracting an area of a subject from a video including a subject, and a setting for setting a priority area for the area extracted by the extracting means. Means, selecting means for selecting a predetermined priority area from the priority areas set by the setting means, coding means for performing object video coding from video for the predetermined priority area selected by the selecting means, Error correction coding means for performing error correction coding on the coded data to be coded by the means, transmission means for transmitting the coded data to which the error correction coding means performs the error correction coding, and a video receiving terminal. Acquiring means for acquiring information on the line quality of the transmission path between the control means, and controlling the selecting means and the error correction coding means based on the information on the line quality acquired by the acquiring means. Characterized by comprising a control means for setting a combination of data amount of the coded data and error correction coded data amount of the data.
【0027】この請求項5の発明によれば、伝送路の回
線品質に応じて符号化データのデータ量と誤り訂正符号
化データのデータ量の組み合わせを変えることができ、
このように符号化データのデータ量を変えた場合でも映
像の重要部分についてはその品質を劣化させることがな
い。According to the fifth aspect of the present invention, the combination of the data amount of the encoded data and the data amount of the error correction encoded data can be changed according to the line quality of the transmission path.
Thus, even when the data amount of the encoded data is changed, the quality of the important portion of the video is not deteriorated.
【0028】[0028]
【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。なお、以下の図におい
て、従来例を示す図を含めて同符号は同一部分または対
応部分を示す。Embodiments of the present invention will be described below in detail with reference to the drawings. In the following drawings, the same reference numerals indicate the same parts or corresponding parts including the figures showing the conventional example.
【0029】(第1の実施形態)図1は本発明の第1の
実施形態における映像送信端末の構成図、また図2はそ
の映像受信端末の構成図である。(First Embodiment) FIG. 1 is a block diagram of a video transmitting terminal according to a first embodiment of the present invention, and FIG. 2 is a block diagram of the video receiving terminal.
【0030】図1において、映像送信端末102は、映
像ソース104から得たデジタル映像106について、
領域抽出部108で被写体の領域抽出を行い、領域抽出
データ110を出力する。Referring to FIG. 1, a video transmitting terminal 102 receives a digital video 106 obtained from a video source 104
The region extraction unit 108 extracts a region of the subject, and outputs region extraction data 110.
【0031】被写体が人物像の場合、例えば公知例特開
平7−29014号の技術により被写体を抽出すること
が可能である。この公知例は映像ソース104から得た
デジタル映像106から被写体の動きを検出し、被写体
が十分に動いた場合、被写体の頬座標を検出し、頬座標
から被写体の特徴情報を抽出する方式である。図3は従
来の公知例による被写体の頬座標を検出した表示図であ
る。図3に示すように、人物像2の頬座標から人物像2
の顔の幅dを検出できるので、統計的に人物像2の大よ
その被写体サイズが計測できる。When the subject is a person image, the subject can be extracted by, for example, the technique disclosed in Japanese Patent Application Laid-Open No. Hei 7-29014. This known example is a method of detecting the movement of a subject from a digital video 106 obtained from a video source 104, detecting the cheek coordinates of the subject when the subject moves sufficiently, and extracting the feature information of the subject from the cheek coordinates. . FIG. 3 is a display diagram in which cheek coordinates of a subject are detected according to a conventionally known example. As shown in FIG.
, The size of the subject of the human image 2 can be statistically measured.
【0032】領域抽出データ110は優先度設定部4に
印加される。図4は、本実施形態における優先度設定部
4の処理を説明するための図である。図4のように、領
域抽出データ110即ち人物像6について、頭頂から
a、b、及びcの長さで人物像6をカットしてみる。即
ち、頭頂からaの長さで切った領域抽出データは顔の部
分のみをカバーしている。頭頂からbの長さで切った領
域抽出データは顔の部分及び上半身を少し含んでいる。
頭頂からcの長さで切った領域抽出データは顔の部分と
上半身の大部分を含んでいる。The area extraction data 110 is applied to the priority setting section 4. FIG. 4 is a diagram for explaining the processing of the priority setting unit 4 in the present embodiment. As shown in FIG. 4, with respect to the region extraction data 110, that is, the human image 6, the human image 6 is cut at lengths a, b, and c from the top of the head. That is, the region extraction data cut by the length a from the top of the head covers only the face portion. The region extraction data cut by the length b from the top of the head includes a part of the face and a little upper body.
The region extraction data cut by the length c from the top of the head includes the face portion and the majority of the upper body.
【0033】図5は本実施形態における領域抽出データ
110で、重要部分を残しながら順にカットしていった
様子を説明した図である。図5によると、人物像8は顔
の部分のみで、符号化した場合に符号化量が少ない。即
ち、最低限必要な顔の部分のみ従来の符号化レートで符
号化して、顔以外をカットすることで符号化量を減少さ
せている。人物像10は上半身を少し残し、人物像8よ
り符号化量が多くなっている。人物像12は領域抽出部
108で領域抽出したままの状態で最も符号化量が多
い。即ち、優先度設定部4では領域抽出データ110か
ら境界a、b、及びcにより、段階的な符号化量が設定
され優先度領域データ14となる。FIG. 5 is a view for explaining the region extraction data 110 in this embodiment, which is cut in order while leaving important portions. According to FIG. 5, the human image 8 is only a face part, and the encoding amount is small when encoded. That is, the minimum necessary face portion is coded at the conventional coding rate, and the portion other than the face is cut to reduce the coding amount. The human image 10 has a little upper body left, and the coding amount is larger than that of the human image 8. The person image 12 has the largest coding amount in a state where the region is extracted by the region extracting unit 108. That is, in the priority setting unit 4, a stepwise encoding amount is set based on the boundaries a, b, and c from the region extraction data 110 and becomes the priority region data 14.
【0034】そして、領域分割部16で制御部128か
ら入力された選択情報18により、優先度領域データ1
4から人物像8、人物像10、及び人物像12のうち必
要となる人物像が選択され、加工後領域データ20とし
てオブジェクト映像符号化部120に印加される。Based on the selection information 18 input from the control unit 128 in the area dividing unit 16, the priority area data 1
From 4, a required person image is selected from the person image 8, the person image 10, and the person image 12, and applied to the object video encoding unit 120 as the processed area data 20.
【0035】一方、オブジェクト映像符号化部120に
はデジタル映像106が印加されており、加工後領域デ
ータ20が指定する領域内のデジタル映像106につい
て例えばMPEG4方式によるオブジェクト映像符号化
処理が行われ、符号化データ122として出力される。On the other hand, the digital video 106 is applied to the object video encoding unit 120, and the digital video 106 in the area designated by the processed area data 20 is subjected to, for example, an object video encoding process according to the MPEG4 system. It is output as encoded data 122.
【0036】同様に、他の被写体(図3の背景22等)
についても映像ソース114からデジタル映像116を
得る。デジタル映像116から領域抽出部112で領域
抽出データ118を算出する。領域抽出データ118か
ら、上記の場合と同様に優先度設定部24で領域抽出デ
ータ118について重要な領域からカットすべき領域の
境界を決定して、優先度領域データ26とする。Similarly, other subjects (such as background 22 in FIG. 3)
, A digital video 116 is obtained from the video source 114. An area extraction unit 112 calculates area extraction data 118 from the digital video 116. From the region extraction data 118, the priority setting unit 24 determines the boundary of the region to be cut from the important region in the region extraction data 118 in the same manner as described above, and sets it as the priority region data 26.
【0037】領域分割部28は、制御部128から選択
情報30を得て、優先度領域データ26から必要となる
映像領域を選択し、加工後領域データ32としてオブジ
ェクト映像符号化部124に印加する。The area dividing section 28 obtains the selection information 30 from the control section 128, selects a required video area from the priority area data 26, and applies it to the object video encoding section 124 as processed area data 32. .
【0038】オブジェクト映像符号化部124で加工後
領域データ32とデジタル映像116を使用して、符号
化データ126を生成する。The object video coding unit 124 generates the coded data 126 using the processed area data 32 and the digital video 116.
【0039】符号化データ122、符号化データ12
6、及びシーン構成情報130は多重化部132で多重
化されて直列データ134として映像送信端末102か
ら外部に出力される。Encoded data 122, encoded data 12
6 and the scene configuration information 130 are multiplexed by the multiplexing unit 132 and output from the video transmission terminal 102 to the outside as serial data 134.
【0040】図2に示すように、直列データ134は伝
送路136を介して、映像受信端末138の分離部14
0に印加される。分離部140では符号化データ14
2、符号化データ144、及びシーン構成情報146が
分離される。As shown in FIG. 2, the serial data 134 is transmitted via the transmission line 136 to the separating unit 14 of the video receiving terminal 138.
0 is applied. In the separating unit 140, the encoded data 14
2. The encoded data 144 and the scene configuration information 146 are separated.
【0041】符号化データ142はオブジェクト映像復
号化部148に印加され、オブジェクト映像復号化部1
48でオブジェクト映像150が生成される。符号化デ
ータ144はオブジェクト映像復号化部152に印加さ
れ、オブジェクト映像復号化部152でオブジェクト映
像154が生成される。一方、シーン構成情報146は
制御部156に印加される。The coded data 142 is applied to the object video decoding unit 148, and the object video decoding unit 1
At 48, an object video 150 is generated. The encoded data 144 is applied to the object video decoding unit 152, and the object video decoding unit 152 generates the object video 154. On the other hand, the scene configuration information 146 is applied to the control unit 156.
【0042】オブジェクト映像150及びオブジェクト
映像154は合成部158に印加されて、制御部156
はシーン構成情報146により指定された座標にオブジ
ェクト映像150及びオブジェクト映像154を配置し
て、合成映像データ160を出力する。モニタ162は
合成映像データ160を入力して表示する。The object image 150 and the object image 154 are applied to the synthesizing unit 158 and the control unit 156
Arranges the object video 150 and the object video 154 at the coordinates specified by the scene configuration information 146, and outputs the composite video data 160. The monitor 162 inputs and displays the composite video data 160.
【0043】ここで、優先度設定部4、24で自動的に
行っていた優先度領域データ14、26の生成を設定部
34から手操作で行ってもよい。Here, the generation of the priority area data 14, 26, which has been automatically performed by the priority setting sections 4, 24, may be manually performed by the setting section 34.
【0044】図6(a)、(b)、(c)は、本実施形
態において、モニタ162に人物像と背景とを重ねて表
示した表示図である。図6(a)は背景22の上に人物
像8を重ねている。図6(b)は背景22の上に人物像
10を重ねている。図6(c)は背景22の上に人物像
12を重ねている。図6(a)、(b)、(c)から分
かるように、人物像8、人物像10、人物像12の大き
さにより符号化量が異なり、スケラビリティの目的が可
能になる。そして、人物像で最も重要な顔の部分をカッ
トせず、重要度の低い下半身部分の映像をカットするこ
とにより、符号化量を調整することができる。FIGS. 6A, 6B, and 6C are display diagrams in which a human image and a background are displayed on the monitor 162 in this embodiment. FIG. 6A shows a person image 8 superimposed on a background 22. FIG. 6B shows the person image 10 superimposed on the background 22. FIG. 6C shows the person image 12 overlaid on the background 22. As can be seen from FIGS. 6A, 6B, and 6C, the coding amount varies depending on the size of the human image 8, the human image 10, and the human image 12, and the purpose of scalability becomes possible. Then, the encoding amount can be adjusted by cutting the image of the lower body part of low importance without cutting the most important face part in the person image.
【0045】上記の例では人物像について、重要度の高
い部分を残して重要度の低い部分から、必要に応じてカ
ットすることにより符号化量を減少させていた。ここ
で、領域抽出データ110について優先度設定部4でカ
ットすべき境界は直線に限定する必要がない。図7は本
実施形態において任意形状の領域抽出データについて優
先度の境界を示した図である。図7で示すように、優先
度を区切る境界は上述したように直線である必要がな
い。任意の曲線でもかまわない。図7によるとaで区切
った領域が最も優先度が高い領域で、b、cの順に優先
度が低くなる。即ち、必要となる符号化量に応じてa、
b、cの境界による領域抽出データを選択していけばよ
い。In the above-described example, the coding amount is reduced by cutting as necessary the portions of low importance from the portions of high importance while leaving the portions of high importance. Here, the boundary to be cut by the priority setting unit 4 for the region extraction data 110 does not need to be limited to a straight line. FIG. 7 is a diagram showing boundaries of priorities for region extraction data of an arbitrary shape in the present embodiment. As shown in FIG. 7, the boundary that separates the priorities does not need to be a straight line as described above. Any curve may be used. According to FIG. 7, the area delimited by a is the area with the highest priority, and the priority becomes lower in the order of b and c. That is, depending on the required encoding amount, a,
What is necessary is to select the region extraction data based on the boundary between b and c.
【0046】図8は本実施形態において背景22の下側
を優先度により分割した表示図である。即ち、境界aが
もっとも優先度が高く、b、cと優先度が低くなってい
る。映像受信端末138で背景22を表示する際に、下
側の映像がそれほど重要でないならば、必要により下側
からカットしてゆき、符号化量を減少させることができ
る。FIG. 8 is a display diagram in which the lower side of the background 22 is divided by priority according to the present embodiment. That is, the boundary a has the highest priority, and b and c have the lowest priority. When displaying the background 22 on the video receiving terminal 138, if the video on the lower side is not so important, the video can be cut from the lower side as necessary to reduce the encoding amount.
【0047】図9は本実施形態において背景22の両端
を優先度により分割した表示図である。また、図10は
本実施形態において背景22の下側及び両端を優先度に
より分割した表示図である。以上のように、背景22に
ついても映像の左右上下の端の方でカットしても差し支
えない領域はカットして符号化量を減少させることがで
きる。FIG. 9 is a display diagram in which both ends of the background 22 are divided according to priority in the present embodiment. FIG. 10 is a display diagram in which the lower side and both ends of the background 22 are divided according to priority in the present embodiment. As described above, with respect to the background 22, an area which can be cut at the left, right, upper, and lower ends of the video can be cut to reduce the encoding amount.
【0048】図11は本実施形態において背景映像及び
人物像について優先度の低い領域をカットした後、配置
した表示図である。図11のように人物像36の下側を
カットし、背景22の下側もカットし、人物像36と背
景22を配置することで、余剰領域38が画面の下側に
生じる。人物像36と背景22の面積が小さくなったた
め、伝送容量に余裕が出るので、別なオブジェクトを映
像送信端末102から映像受信端末138に送り、余剰
領域38に表示させることができる。FIG. 11 is a display diagram in which a low-priority region is cut out from the background image and the human image in the present embodiment and then arranged. As shown in FIG. 11, by cutting the lower side of the human image 36 and also cutting the lower side of the background 22, and arranging the human image 36 and the background 22, a surplus area 38 is generated at the lower side of the screen. Since the areas of the human image 36 and the background 22 are reduced, the transmission capacity has a margin, so that another object can be sent from the video transmission terminal 102 to the video reception terminal 138 and displayed in the surplus area 38.
【0049】また、映像受信端末138で、この余剰領
域38に映像ソース40から別なオブジェクト映像42
を読み出して、合成部158でオブジェクト映像15
0、オブジェクト映像154と一緒に配置して合成映像
データ160としてモニタ162に表示させてもよい。
また、余剰領域38にはオブジェクト映像42でなく
て、テキストあるいは任意の映像を表示させても良い。Further, the video receiving terminal 138 stores another object video 42 from the video source 40 in the surplus area 38.
Is read, and the combining unit 158 reads the object video 15
0, may be arranged together with the object video 154 and displayed on the monitor 162 as the composite video data 160.
Further, instead of the object video 42, text or an arbitrary video may be displayed in the surplus area 38.
【0050】以上説明したように、本実施形態では伝送
路136の符号伝送量が低下したときに、人物像あるい
は背景等の重要でない部分をカットすることで符号量を
減少させ、且つ映像受信端末138のモニタ162の表
示領域に余剰領域38が発生する。そして、この余剰領
域38に映像受信端末138で任意のオブジェクト映像
あるいはテキスト等を表示させることができる。また、
伝送路136の伝送量が低下しない場合でも、余剰領域
38に表示させるための別なオブジェクト映像を映像送
信端末102から送り、前記余剰領域38に表示させる
こともできる。As described above, in the present embodiment, when the amount of code transmission on the transmission line 136 is reduced, the amount of code is reduced by cutting unimportant portions such as a human image or a background, and A surplus area 38 is generated in the display area of the monitor 162 at 138. Then, an arbitrary object video or text can be displayed on the surplus area 38 by the video receiving terminal 138. Also,
Even when the transmission amount of the transmission path 136 does not decrease, another object video to be displayed in the surplus area 38 can be sent from the video transmission terminal 102 and displayed in the surplus area 38.
【0051】(第2の実施形態)次に、本発明の第2の
実施形態について説明する。(Second Embodiment) Next, a second embodiment of the present invention will be described.
【0052】本実施形態は、人物像及び背景等のオブジ
ェクト映像について映像送信端末から映像受信端末にそ
のままカットしないで送り、優先領域の境界a、b、及
びc等の優先度領域データも映像受信端末に送ることを
特徴としている。In this embodiment, an object image such as a person image and a background is sent from a video transmitting terminal to a video receiving terminal without being cut, and priority area data such as boundaries a, b, and c of priority areas are also received. The feature is to send to the terminal.
【0053】図12は本実施形態における映像送信端末
の構成図、また図13はその映像受信端末の構成図であ
る。FIG. 12 is a block diagram of the video transmitting terminal in the present embodiment, and FIG. 13 is a block diagram of the video receiving terminal.
【0054】また、図14は本実施形態において、人物
像48について優先度により領域を分けた表示図であ
る。人物像48に関しては、映像ソース104から読み
出したデジタル映像106について、領域抽出部108
で領域抽出を行い、領域抽出データ110を生成する。
領域抽出データ110とデジタル映像106によりオブ
ジェクト映像符号化部120で符号化して符号化データ
122を生成する。FIG. 14 is a display diagram in which regions of the human image 48 are divided according to priority in the present embodiment. As for the human image 48, an area extracting unit 108 for the digital video 106 read from the video source 104.
Is performed to generate region extraction data 110.
The object image encoding unit 120 encodes the region extraction data 110 and the digital image 106 to generate encoded data 122.
【0055】符号化データ122は、図14によると人
物像48で境界cの最も面積の大きな人物像となる。そ
して、領域抽出データ110は優先度設定部4で図14
のように優先度によって、a、b、及びcの境界が決定
される。The encoded data 122 is a person image having the largest area of the boundary c in the person image 48 according to FIG. The area extraction data 110 is stored in the priority setting unit 4 as shown in FIG.
The boundaries between a, b, and c are determined according to the priority.
【0056】本実施形態は、このa、b、及びcとして
決定された境界を優先度領域データ14として映像受信
端末138に送ることを特徴としている。なお、本実施
形態では人物像48の頭頂からの距離、即ちa、b、及
びcを優先度領域データ14としてもよい。The present embodiment is characterized in that the boundaries determined as a, b, and c are sent to the video receiving terminal 138 as the priority area data 14. In the present embodiment, the distance from the top of the person image 48, that is, a, b, and c may be used as the priority area data 14.
【0057】図15は本実施形態において、背景22に
ついて優先度により領域を分けた表示図である。映像ソ
ース114から図15のような背景22を読み出し、表
示画面の上端からの距離a、b、及びcを優先度領域デ
ータ26とする。FIG. 15 is a display diagram in which the background 22 is divided into areas according to priority in the present embodiment. The background 22 as shown in FIG. 15 is read from the video source 114, and distances a, b, and c from the upper end of the display screen are set as priority area data 26.
【0058】映像受信端末138では優先度領域データ
50と優先度領域データ52を制御部156に印加す
る。The video receiving terminal 138 applies the priority area data 50 and the priority area data 52 to the control unit 156.
【0059】図16は本実施形態における人物像54と
背景22を優先度に合わせて表示した表示図である。図
16のように、制御部156はシーン構成情報146に
より、人物像54と背景22を優先度に合わせて重ねて
表示する。即ち、人物像54の優先度を示す境界aと
b、背景22の優先度を示す境界aとbが垂直方向で、
一致するように配置する。このように人物像54と背景
22を配置することで、余剰領域38は、境界aから下
側の領域または境界bから下側の領域に分類される。FIG. 16 is a display diagram in which the person image 54 and the background 22 in this embodiment are displayed according to the priority. As shown in FIG. 16, the control unit 156 superimposes and displays the human image 54 and the background 22 according to the priority according to the scene configuration information 146. That is, the boundaries a and b indicating the priority of the person image 54 and the boundaries a and b indicating the priority of the background 22 are in the vertical direction,
Place them so that they match. By arranging the human image 54 and the background 22 in this way, the surplus area 38 is classified into an area below the boundary a or an area below the boundary b.
【0060】そして、映像ソース40からオブジェクト
映像42を読み出して、この余剰領域38(境界aある
いは境界bより下側の領域)の上に重ねて表示すること
ができる。Then, the object video 42 can be read from the video source 40 and displayed over the surplus area 38 (the area below the boundary a or the boundary b).
【0061】即ち、人物像54及び背景22で優先度の
低い領域、即ち境界aあるいは境界bの下側の領域は映
像受信端末138で任意の映像を上側に重ねて表示する
ことができ、人物像54及び背景22の下側の領域を隠
蔽して、映像受信端末138で別な表示領域を確保する
ことができる。That is, in the region of low priority in the person image 54 and the background 22, that is, the region below the boundary a or the boundary b, an arbitrary image can be displayed on the image receiving terminal 138 so as to be overlaid thereon. By hiding the area under the image 54 and the background 22, another display area can be secured in the video receiving terminal 138.
【0062】(第3の実施形態)次に、本発明の第3の
実施形態について説明する。(Third Embodiment) Next, a third embodiment of the present invention will be described.
【0063】本実施形態は複数のオブジェクト映像につ
いて、各オブジェクト映像の重要領域を決定する優先度
を守りながら、各オブジェクト映像の面積を変えること
で、全体として映像受信端末に伝送する符号化量を制御
するレート制御を実現することを目的としている。In the present embodiment, the coding amount to be transmitted to the video receiving terminal as a whole is changed by changing the area of each object video while maintaining the priority for determining the important area of each object video for a plurality of object videos. The purpose is to realize rate control for controlling.
【0064】図17は本実施形態においてレート制御を
行なう映像送信端末の構成図である。図17の構成で、
領域抽出部108、領域抽出部112、優先度設定部
4、優先度設定部24、オブジェクト映像符号化部12
0、及びオブジェクト映像符号化部124は上述の動作
と同じである。FIG. 17 is a configuration diagram of a video transmission terminal that performs rate control in the present embodiment. In the configuration of FIG.
Region extracting unit 108, region extracting unit 112, priority setting unit 4, priority setting unit 24, object video encoding unit 12
0 and the object video encoding unit 124 are the same as those described above.
【0065】オブジェクト映像符号化部120及びオブ
ジェクト映像符号化部124でそれぞれ符号化された符
号化データ122及び符号化データ126はマルチプレ
クサ56で直列出力58に変換され、バッファメモリ6
0に印加される。The coded data 122 and coded data 126 coded by the object video coding unit 120 and the object video coding unit 124 are converted into the serial output 58 by the multiplexer 56 and
0 is applied.
【0066】バッファメモリ60に蓄積されている内容
が伝送路136の伝送レートで送出される。ここで、伝
送レートが速く、マルチプレクサ56から入力するレー
トより多ければ、バッファメモリ60は空になり、アン
ダーフローを起こす。反対に、伝送レートが遅く、マル
チプレクサ56から入力するレートが大きければバッフ
ァメモリ60はすぐに一杯になりオーバーフローを起こ
す。そこで、バッファメモリ60の容量情報62を検出
して、レート制御部64に印加する。The contents stored in the buffer memory 60 are transmitted at the transmission rate of the transmission line 136. Here, if the transmission rate is high and is higher than the rate input from the multiplexer 56, the buffer memory 60 becomes empty, causing an underflow. Conversely, if the transmission rate is slow and the rate input from the multiplexer 56 is high, the buffer memory 60 will soon fill up and overflow. Therefore, the capacity information 62 of the buffer memory 60 is detected and applied to the rate control unit 64.
【0067】レート制御部64は入力した容量情報62
から、領域分割部16、及び領域分割部28で分割すべ
き境界線を決定する。即ち、バッファメモリ60がオー
バーフローしそうになったら、符号化データ122及び
符号化データ126を少なくするために、領域分割部1
6及び領域分割部28で優先度領域データ14及び優先
度領域データ26について、面積が小さくなるよう境界
を選択する。反対に、バッファメモリ60がオーバーフ
ローしそうになったら、符号化データ122及び符号化
データ126を多くするため、領域分割部16及び領域
分割部28で優先度領域データ14及び優先度領域デー
タ26について、面積が大きくなるように境界を選択す
る。The rate control section 64 receives the input capacity information 62
Then, the boundary lines to be divided by the region dividing unit 16 and the region dividing unit 28 are determined. That is, when the buffer memory 60 is about to overflow, the area dividing unit 1 is used to reduce the amount of the encoded data 122 and the encoded data 126.
In the priority area data 14 and the priority area data 26, a boundary is selected so that the area is reduced. Conversely, if the buffer memory 60 is about to overflow, the area dividing unit 16 and the area dividing unit 28 perform processing on the priority area data 14 and the priority area data 26 in order to increase the encoded data 122 and the encoded data 126. Select the boundaries so that the area is large.
【0068】即ち、バッファメモリ60の蓄積容量と伝
送路136に送出するデータ量がつりあうように、レー
ト制御部64からの制御により領域分割部16及び領域
分割部28における優先度領域データ14及び優先度領
域データ26の境界を選択することで、符号化データ1
22、及び符号化データ126のデータ量を変化させて
いる。That is, the priority area data 14 and the priority area data 14 in the area division sections 16 and 28 are controlled by the rate control section 64 so that the storage capacity of the buffer memory 60 and the data amount to be transmitted to the transmission path 136 are balanced. By selecting the boundary of the degree region data 26, the encoded data 1
22 and the data amount of the encoded data 126 are changed.
【0069】ここで、優先度領域データ14の方の優先
度を優先度領域データ26より高くして、できるだけ優
先度領域データ26における境界を変化させることで、
優先度領域データ14の形状を変えることを少なくして
もよい。Here, the priority of the priority area data 14 is set higher than that of the priority area data 26, and the boundary in the priority area data 26 is changed as much as possible.
Changing the shape of the priority area data 14 may be reduced.
【0070】本実施形態によるレート制御は、従来のレ
ート制御のようにオブジェクト映像についての量子化精
度あるいはフレームレートを変えるような複雑な処理を
せず、形状のみを変化させる単純な処理で済ますことが
できる利点がある。The rate control according to the present embodiment does not require complicated processing such as changing the quantization precision or the frame rate of the object video unlike the conventional rate control, but requires simple processing of changing only the shape. There are advantages that can be.
【0071】(第4の実施形態)次に、本発明の第4の
実施形態について説明する。(Fourth Embodiment) Next, a fourth embodiment of the present invention will be described.
【0072】本実施形態は、オブジェクト映像符号化部
で符号化したデータに誤り訂正符号化を施して、映像受
信端末に送り、映像受信端末で誤り訂正復号化を行うこ
とにより、元のデータを誤り訂正して復元した後、オブ
ジェクト映像復号化を行いオブジェクト映像を再現する
場合において、伝送路の回線品質に応じて符号化データ
と誤り訂正符号のデータ量の比率を変えるようにしたも
のである。In the present embodiment, the data encoded by the object video encoding unit is subjected to error correction encoding, sent to the video receiving terminal, and subjected to error correction decoding by the video receiving terminal, so that the original data is When the object video is reproduced by decoding the object video after error correction and restoration, the ratio between the amount of encoded data and the data amount of the error correction code is changed according to the line quality of the transmission path. .
【0073】図18は本実施形態における映像送信端末
の構成図、また図19はその映像受信端末の構成図であ
る。FIG. 18 is a block diagram of the video transmitting terminal in this embodiment, and FIG. 19 is a block diagram of the video receiving terminal.
【0074】図18において、オブジェクト映像符号化
部120で生成した符号化データ122に誤り訂正符号
化部66で誤り訂正符号68を付加して多重化部132
に印加する。In FIG. 18, the error correction code 68 is added to the coded data 122 generated by the object video coding unit 120 by the error correction
Is applied.
【0075】図20(a)は本実施形態における符号化
データに誤り訂正符号を付加したデータの構成図、
(b)はその場合の人物像88を示す図であり、また、
図21(a)は符号化データと誤り訂正符号のデータ量
の比率を変えた場合のデータの構成図、(b)はその場
合の人物像を示す図である。FIG. 20A is a configuration diagram of data obtained by adding an error correction code to encoded data in the present embodiment.
(B) is a diagram showing a person image 88 in that case, and
FIG. 21A is a configuration diagram of data when the ratio of the data amount of the coded data to the error correction code is changed, and FIG. 21B is a diagram illustrating a human image in that case.
【0076】図20(a)のように符号化データ122
を訂正する能力のある誤り訂正符号68が誤り訂正符号
化部66で後ろに付加され、訂正符号付き符号化データ
70となり多重化部132に印加される。The encoded data 122 as shown in FIG.
The error correction code 68 capable of correcting the error is added to the end by the error correction coding unit 66, and becomes encoded data with correction code 70, and is applied to the multiplexing unit 132.
【0077】多重化部132から出力される訂正符号付
き符号化データ70を含む直列データ134は、図19
で示すように、伝送路136を介して、映像受信端末1
38の分離部140に印加される。分離部140で分離
された訂正符号付き符号化データ72は誤り訂正復号化
部74に印加され、符号化データ122に対して所要の
誤り訂正が施されて、符号化データ142が再現され、
オブジェクト映像復号化部148に印加されて、オブジ
ェクト映像150が復元され、モニタ162で表示され
る。The serial data 134 including the encoded data 70 with the correction code output from the multiplexing unit 132 is shown in FIG.
As shown by, the video receiving terminal 1 via the transmission path 136
38 is applied to the separation unit 140. The coded data 72 with the correction code separated by the separation unit 140 is applied to the error correction decoding unit 74, and the coded data 122 is subjected to a required error correction to reproduce the coded data 142.
The object video 150 is applied to the object video decoding unit 148, and is restored, and is displayed on the monitor 162.
【0078】ここで、伝送路136の回線品質を調べる
ために映像受信端末138でテストパタ一ン発生部76
から基準信号78が発生していて、基準信号78は分離
部140に印加されて伝送路136を通り、映像送信端
末102の多重化部132を通って、基準信号80とし
てBER測定部82に印加されている。BER測定部8
2では基準信号80により伝送路136の品質を調べて
結果を制御部128に印加する。Here, in order to check the line quality of the transmission line 136, the test pattern generating unit 76 is used in the video receiving terminal 138.
, The reference signal 78 is applied to the demultiplexer 140, passes through the transmission line 136, passes through the multiplexer 132 of the video transmission terminal 102, and is applied as the reference signal 80 to the BER measuring unit 82. Have been. BER measurement unit 8
In step 2, the quality of the transmission path 136 is checked using the reference signal 80, and the result is applied to the control unit 128.
【0079】制御部128は領域分割部16を制御して
前記品質データから品質に適合した加工後領域データ2
0を選択する。一方、制御部128は誤り訂正符号化部
66を制御して、前記加工後領域データ20に適合した
誤り訂正符号68を選択して符号化データ122の後ろ
に付加する。そして、制御部128は符号化制御情報8
4を、多重化部132、伝送路136、及び分離部14
0を介して、映像受信端末138の制御部156に符号
化制御情報86として送る。制御部156は誤り訂正復
号化部74の訂正能力を誤り訂正符号化部66に合わせ
て選択する。The control unit 128 controls the area dividing unit 16 to process the processed area data 2 based on the quality data.
Select 0. On the other hand, the control unit 128 controls the error correction encoding unit 66 to select the error correction code 68 suitable for the post-processing area data 20 and add it to the end of the encoded data 122. Then, the control unit 128 outputs the encoding control information 8
4, the multiplexing unit 132, the transmission path 136, and the demultiplexing unit 14.
0, and sends the encoded control information 86 to the control unit 156 of the video receiving terminal 138. The control unit 156 selects the correction capability of the error correction decoding unit 74 according to the error correction encoding unit 66.
【0080】ここで、図20(a)及び図21(a)に
示すように、符号化データ122と誤り訂正符号68の
データ量とを組み合わせたデータ量aを一定に制御する
ことを前提にしている。Here, as shown in FIGS. 20 (a) and 21 (a), it is assumed that the data amount a obtained by combining the coded data 122 and the data amount of the error correction code 68 is controlled to be constant. ing.
【0081】図20(a)は伝送路136の回線品質が
低いため、符号化データ122のデータ量b1を少なく
して、代わりに誤り訂正符号68のデータ量c1を増や
すことで、誤り訂正能力を強化している。この場合、符
号化データ122のデータ量b1を少なくするために、
加工後領域データ20は図20(b)に示すように面積
の小さい人物像88を領域分割部16で選択している。In FIG. 20A, since the line quality of the transmission line 136 is low, the data amount b1 of the coded data 122 is reduced, and the data amount c1 of the error correction code 68 is increased instead. Has been strengthened. In this case, in order to reduce the data amount b1 of the encoded data 122,
As shown in FIG. 20B, the post-processing area data 20 selects a human image 88 having a small area by the area dividing unit 16.
【0082】一方、図21(a)は伝送路136の回線
品質が高いため、符号化データ122のデータ量b2を
多くして、代わりに誤り訂正符号68データ量c2を少
なくすることで、誤り訂正能力を低くしている。この場
合、符号化データ122のデータ量b2を多くするため
に、加工後領域データ20は図21(b)に示すように
面積の大きい人物像90を領域分割部16で選択してい
る。On the other hand, in FIG. 21A, since the line quality of the transmission line 136 is high, the data amount b2 of the encoded data 122 is increased, and the error correction code 68 data amount c2 is reduced instead. The correction ability is low. In this case, in order to increase the data amount b2 of the encoded data 122, the region dividing unit 16 selects a person image 90 having a large area as the post-processing region data 20 as shown in FIG.
【0083】以上説明したように、本実施形態では伝送
路136の回線品質を測定して、その回線品質に合わせ
て誤り訂正符号68を決め、誤り訂正符号68が決まる
と符号化データ122のデータ量が決まり、そのデータ
量に合わせて、優先度領域データ14の領域を適宜カッ
トすることを特徴としていて、伝送路136の回線品質
が低下しても、オブジェクト映像150の重要部分をモ
ニタ162に表示することが可能である。As described above, in this embodiment, the line quality of the transmission line 136 is measured, the error correction code 68 is determined according to the line quality, and when the error correction code 68 is determined, the data of the coded data 122 is determined. The amount is determined, and the area of the priority area data 14 is appropriately cut in accordance with the amount of data. Even if the line quality of the transmission path 136 deteriorates, the important part of the object video 150 is displayed on the monitor 162. It is possible to display.
【0084】[0084]
【発明の効果】以上説明したように本発明によれば、映
像の重要部分についてはその品質を劣化させることな
く、オブジェクト映像符号化した符号化データのスケラ
ビリティを実現することができる。As described above, according to the present invention, it is possible to realize the scalability of coded data obtained by object video coding without deteriorating the quality of important parts of a video.
【図1】 本発明の第1の実施形態における映像送信端
末の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of a video transmission terminal according to a first embodiment of the present invention.
【図2】 本発明の第1の実施形態における映像受信端
末の構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of a video receiving terminal according to the first embodiment of the present invention.
【図3】 頬座標検出により被写体を検出することを説
明するための図。FIG. 3 is a diagram for explaining detection of a subject by cheek coordinate detection.
【図4】 本発明の第1の実施形態における優先度設定
部の処理を説明するための図。FIG. 4 is a view for explaining processing of a priority setting unit according to the first embodiment of the present invention.
【図5】 本発明の第1の実施形態において重要部分を
残しながら人物像を順にカットしていった様子を説明し
た図。FIG. 5 is a diagram illustrating a state in which a human image is sequentially cut while leaving important portions in the first embodiment of the present invention.
【図6】 本発明の第1の実施形態においてモニタに人
物像と背景とを重ねて表示した表示図。FIG. 6 is a display diagram in which a human image and a background are superimposed and displayed on a monitor in the first embodiment of the present invention.
【図7】 本発明の第1の実施形態において任意形状の
領域抽出データについて優先度の境界を示した図。FIG. 7 is a view showing boundaries of priorities for region extraction data of an arbitrary shape in the first embodiment of the present invention.
【図8】 本発明の第1の実施形態において背景映像の
下側を優先度により分割した表示図。FIG. 8 is a display diagram in which a lower side of a background image is divided by priority according to the first embodiment of the present invention.
【図9】 本発明の第1の実施形態において背景映像の
両端を優先度により分割した表示図。FIG. 9 is a display diagram in which both ends of a background image are divided by priority according to the first embodiment of the present invention.
【図10】本発明の第1の実施形態において背景映像を
下側及び両端を優先度により分割した表示図。FIG. 10 is a display diagram in which a lower side and both ends of a background image are divided by priority according to the first embodiment of the present invention.
【図11】本発明の第1の実施形態において背景映像及
び人物像について優先度の低い領域をカットした後、配
置した表示図。FIG. 11 is a display diagram in which a low-priority region is cut out from a background video and a human image in the first embodiment of the present invention, and then cut out.
【図12】本発明の第2の実施形態における映像送信端
末の構成を示すブロック図。FIG. 12 is a block diagram illustrating a configuration of a video transmission terminal according to a second embodiment of the present invention.
【図13】本発明の第2の実施形態における映像受信端
末の構成を示すブロック図。FIG. 13 is a block diagram showing a configuration of a video receiving terminal according to a second embodiment of the present invention.
【図14】本発明の第2の実施形態において人物像を優
先度により領域を分けた表示図。FIG. 14 is a display diagram in which a human image is divided into regions according to priority in the second embodiment of the present invention.
【図15】本発明の第2の実施形態において背景を優先
度により領域を分けた表示図。FIG. 15 is a display diagram in which a background is divided into areas according to priority in the second embodiment of the present invention.
【図16】本発明の第2の実施形態において人物像と背
景を優先度に合わせて表示した表示図。FIG. 16 is a display diagram in which a human image and a background are displayed according to the priority in the second embodiment of the present invention.
【図17】本発明の第3の実施形態における映像送信端
末の構成を示すブロック図。FIG. 17 is a block diagram illustrating a configuration of a video transmission terminal according to a third embodiment of the present invention.
【図18】本発明の第4の実施形態における映像送信端
末の構成を示すブロック図。FIG. 18 is a block diagram illustrating a configuration of a video transmission terminal according to a fourth embodiment of the present invention.
【図19】本発明の第4の実施形態における映像受信端
末の構成を示すブロック図。FIG. 19 is a block diagram showing a configuration of a video receiving terminal according to a fourth embodiment of the present invention.
【図20】(a)は本発明の第4の実施形態における符
号化データに誤り訂正符号を付加したデータの構成図、
(b)はその場合の人物像を示す図。FIG. 20A is a configuration diagram of data obtained by adding an error correction code to encoded data according to the fourth embodiment of the present invention,
(B) is a diagram showing a person image in that case.
【図21】(a)は本発明の第4の実施形態における符
号化データと誤り訂正符号のデータ量の比率を変えた場
合のデータの構成図、(b)はその場合の人物像を示す
図。FIG. 21A is a configuration diagram of data when the ratio between the amount of encoded data and the amount of data of an error correction code according to the fourth embodiment of the present invention is changed, and FIG. 21B shows a human image in that case; FIG.
【図22】従来のテレビ電話システムにおける映像送信
端末の構成を示すブロック図。FIG. 22 is a block diagram showing a configuration of a video transmission terminal in a conventional videophone system.
【図23】従来のテレビ電話システムにおける映像受信
端末の構成を示すブロック図。FIG. 23 is a block diagram showing a configuration of a video receiving terminal in a conventional videophone system.
【図24】従来のモニタに表示されたオブジェクト映像
の表示図。FIG. 24 is a display diagram of an object video displayed on a conventional monitor.
【図25】従来の空間スケラビリティの例を説明するた
めの図。FIG. 25 is a view for explaining an example of conventional spatial scalability.
【図26】従来の時間スケラビリティの例を説明するた
めの図。FIG. 26 is a diagram for explaining an example of conventional time scalability.
2、6、8、10、12、36、48、54、88、9
0…人物像 4、24…優先度設定部 14、26、50、52…優先度領域データ 16、28…領域分割部 18、30…選択情報 20、32…加工後領域データ 22、166…背景 34…設定部 38…余剰領域 40、104、114…映像ソース 42、150、 154…オブジェクト映像 56…マルチプレクサ 58…直列出力 60…バッファメモリ 62…容量情報 64…レート制御部 66…誤り訂正符号化部 68…誤り訂正符号 70、72…訂正符号付き符号化データ 74…誤り訂正復号化部 76…テストパターン発生部 78、80…基準信号 82…BER測定部 84、86…符号化制御情報 102…映像送信端末 106、116…デジタル映像 108、112…領域抽出部 110、118…領域抽出データ 120、124…オブジェクト映像符号化部 122、126、142、144…符号化データ 128、156…制御部 130、146…シーン構成情報 132…多重化部 134…直列データ 136…伝送路 138…映像受信端末 140…分離部 148、152…オブジェクト映像復号化部 158…合成部 160…合成映像データ 162…モニタ2, 6, 8, 10, 12, 36, 48, 54, 88, 9
0 ... person image 4, 24 ... priority setting unit 14, 26, 50, 52 ... priority area data 16, 28 ... area dividing unit 18, 30 ... selection information 20, 32 ... processed area data 22, 166 ... background 34 setting section 38 surplus area 40, 104, 114 video source 42, 150, 154 object video 56 multiplexer 58 serial output 60 buffer memory 62 capacity information 64 rate control section 66 error correction coding Part 68: Error correction code 70, 72 ... Encoded data with correction code 74 ... Error correction decoding part 76 ... Test pattern generation part 78, 80 ... Reference signal 82 ... BER measurement part 84, 86 ... Coding control information 102 ... Video transmission terminals 106, 116 ... Digital video 108, 112 ... Area extraction unit 110, 118 ... Area extraction data 120, 12 ... object video coding units 122, 126, 142, 144 ... coded data 128, 156 ... control units 130, 146 ... scene configuration information 132 ... multiplexing units 134 ... serial data 136 ... transmission path 138 ... video receiving terminal 140 ... Separation units 148, 152 ... object video decoding unit 158 ... synthesis unit 160 ... synthesized video data 162 ... monitor
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK22 KK35 KK45 LB11 MA00 MA32 MA33 MA37 MB03 MB04 MB06 MB12 NN36 PP04 PP28 PP29 RB01 RB14 RC00 RE00 RF05 SS07 TA75 TA76 TB18 TC18 TC21 TC34 TC37 UA02 UA05 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK22 KK35 KK45 LB11 MA00 MA32 MA33 MA37 MB03 MB04 MB06 MB12 NN36 PP04 PP28 PP29 RB01 RB14 RC00 RE00 RF05 SS07 TA75 TA76 TB18 TC18 TC21 TC34 TC37 UA02 UA05
Claims (5)
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定する設定手段と、この設定手段が設定
する優先領域について前記映像からオブジェクト映像符
号化を行う符号化手段とを具備することを特徴とする映
像送信端末。1. An extracting means for extracting an area of a subject from a video including a subject, a setting means for setting a priority area for an area to be extracted by the extracting means, and a setting means for setting a priority area from the video for the priority area set by the setting means. A video transmission terminal, comprising: coding means for performing object video coding.
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定するとともに優先領域情報を生成する
手段と、前記抽出手段が抽出する優先領域について前記
映像からオブジェクト映像符号化を行い符号化データを
生成する手段と、前記符号化データと前記優先領域情報
とを送信する手段とを具備することを特徴とする映像送
信端末。2. An extracting means for extracting an area of a subject from a video including a subject, a means for setting a priority area and generating priority area information for the area to be extracted by the extracting means, and the extracting means extracting the information. A video transmitting terminal comprising: means for performing object video coding on a priority area from the video to generate coded data; and means for transmitting the coded data and the priority area information.
先領域情報とを受信する受信手段と、この受信手段が受
信する前記符号化データを復号化してオブジェクト映像
を再現する再生手段と、この再生手段が再現する前記オ
ブジェクト映像を表示する表示手段と、この表示手段が
前記オブジェクト映像を表示する際に、前記優先領域情
報を用いて指定された所定領域に他の映像を重畳する映
像重畳手段とを具備することを特徴とする映像受信端
末。3. Receiving means for receiving coded data and priority area information transmitted by a video transmitting terminal, reproducing means for decoding the coded data received by the receiving means to reproduce an object video, Display means for displaying the object video reproduced by the reproduction means; and video superimposing means for superimposing another video on a predetermined area designated using the priority area information when the display means displays the object video. A video receiving terminal comprising:
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定する設定手段と、この設定手段が設定
する優先領域から所定の優先領域を選択する選択手段
と、この選択手段が選択する所定の優先領域について前
記映像からオブジェクト映像符号化を行う符号化手段
と、この符号化手段が符号化する符号化データを送信す
る送信手段と、この送信手段が送信する前記符号化デー
タのレート制御を行うために、前記選択手段を制御する
制御手段とを具備することを特徴とする映像送信端末。4. An extracting means for extracting an area of a subject from a video including a subject, a setting means for setting a priority area for the area to be extracted by the extracting means, and a predetermined priority from the priority area set by the setting means. Selecting means for selecting an area, coding means for performing object video coding from the video for a predetermined priority area selected by the selecting means, and transmitting means for transmitting coded data to be coded by the coding means. And a control unit for controlling the selection unit in order to control the rate of the encoded data transmitted by the transmission unit.
出する抽出手段と、この抽出手段が抽出する領域につい
て優先領域を設定する設定手段と、この設定手段が設定
する優先領域から所定の優先領域を選択する選択手段
と、この選択手段が選択する所定の優先領域について前
記映像からオブジェクト映像符号化を行う符号化手段
と、この符号化手段が符号化する符号化データに誤り訂
正符号化を施す誤り訂正符号化手段と、この誤り訂正符
号化手段が誤り訂正符号化を施す符号化データを送信す
る送信手段と、映像受信端末との間の伝送路の回線品質
に関する情報を取得する取得手段と、この取得手段が取
得する回線品質に関する情報に基づいて前記選択手段及
び前記誤り訂正符号化手段を制御し、前記符号化データ
のデータ量と前記誤り訂正符号化データのデータ量の組
み合わせを設定する制御手段とを具備することを特徴と
する映像送信端末。5. An extracting means for extracting an area of a subject from a video including a subject, a setting means for setting a priority area for the area to be extracted by the extracting means, and a predetermined priority from the priority area set by the setting means. Selecting means for selecting an area; coding means for performing object video coding from the video for a predetermined priority area selected by the selecting means; and error correction coding for the coded data to be coded by the coding means. Error correction coding means for applying, transmission means for transmitting coded data to which the error correction coding means performs error correction coding, and acquisition means for obtaining information on line quality of a transmission path between the video receiving terminal and the video reception terminal And controlling the selection means and the error correction coding means based on the information on the line quality acquired by the acquisition means, and the data amount of the encoded data and the error Video transmitting terminal, characterized by comprising a control means for setting the combination of the data amount of the positive coded data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776599A JP2001069502A (en) | 1999-08-25 | 1999-08-25 | Video image transmission terminal and video image reception terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776599A JP2001069502A (en) | 1999-08-25 | 1999-08-25 | Video image transmission terminal and video image reception terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001069502A true JP2001069502A (en) | 2001-03-16 |
Family
ID=17020124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23776599A Pending JP2001069502A (en) | 1999-08-25 | 1999-08-25 | Video image transmission terminal and video image reception terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001069502A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001060075A1 (en) * | 2000-02-14 | 2001-08-16 | Mitsubishi Denki Kabushiki Kaisha | Apparatus and method for converting compressed bit stream |
WO2001078399A1 (en) * | 2000-04-11 | 2001-10-18 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for transcoding of compressed image |
WO2002082822A1 (en) * | 2001-03-30 | 2002-10-17 | Mitsubishi Denki Kabushiki Kaisha | Dynamic image receiver and dynamic image transmitter |
WO2002102084A1 (en) * | 2001-06-12 | 2002-12-19 | Koninklijke Philips Electronics N.V. | Video communication system using model-based coding and prioritization techniques |
WO2003054708A1 (en) * | 2001-12-12 | 2003-07-03 | Nec Corporation | Electronic document reading system and method |
JP2005109757A (en) * | 2003-09-29 | 2005-04-21 | Fuji Photo Film Co Ltd | Picture imaging apparatus, picture processing apparatus, picture imaging method, and program |
JP2005341076A (en) * | 2004-05-26 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Image communication system, communication conference system, hierarchical encoding device, server device, image communication method, image communication program, and image communication program recording medium |
JP2010226594A (en) * | 2009-03-25 | 2010-10-07 | Sanyo Electric Co Ltd | Image transmission device and imaging device mounting the same |
KR101275211B1 (en) * | 2006-06-30 | 2013-06-18 | 엘지전자 주식회사 | method for transmitting and receiving broadcasting signal |
-
1999
- 1999-08-25 JP JP23776599A patent/JP2001069502A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001060075A1 (en) * | 2000-02-14 | 2001-08-16 | Mitsubishi Denki Kabushiki Kaisha | Apparatus and method for converting compressed bit stream |
JP4601889B2 (en) * | 2000-02-14 | 2010-12-22 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | Apparatus and method for converting a compressed bitstream |
WO2001078399A1 (en) * | 2000-04-11 | 2001-10-18 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for transcoding of compressed image |
WO2002082822A1 (en) * | 2001-03-30 | 2002-10-17 | Mitsubishi Denki Kabushiki Kaisha | Dynamic image receiver and dynamic image transmitter |
JP2004241793A (en) * | 2001-03-30 | 2004-08-26 | Mitsubishi Electric Corp | Dynamic image receiver and dynamic image transmitter |
WO2002102084A1 (en) * | 2001-06-12 | 2002-12-19 | Koninklijke Philips Electronics N.V. | Video communication system using model-based coding and prioritization techniques |
WO2003054708A1 (en) * | 2001-12-12 | 2003-07-03 | Nec Corporation | Electronic document reading system and method |
US7458015B2 (en) | 2001-12-12 | 2008-11-25 | Nec Corporation | Electronic document reading system and method |
JP2005109757A (en) * | 2003-09-29 | 2005-04-21 | Fuji Photo Film Co Ltd | Picture imaging apparatus, picture processing apparatus, picture imaging method, and program |
JP2005341076A (en) * | 2004-05-26 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Image communication system, communication conference system, hierarchical encoding device, server device, image communication method, image communication program, and image communication program recording medium |
KR101275211B1 (en) * | 2006-06-30 | 2013-06-18 | 엘지전자 주식회사 | method for transmitting and receiving broadcasting signal |
JP2010226594A (en) * | 2009-03-25 | 2010-10-07 | Sanyo Electric Co Ltd | Image transmission device and imaging device mounting the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20100214422A1 (en) | Recording Apparatus, Reproducing Apparatus, Recording Method, Recording Program, and Computer-Readable Recording Medium | |
JP6283108B2 (en) | Image processing method and apparatus | |
KR102588146B1 (en) | Multi-view signal codec | |
US20070162922A1 (en) | Apparatus and method for processing video data using gaze detection | |
JPH1132330A (en) | Image coder, image coding method, image decoder and image decoding method, and image processing unit and image processing method | |
EP2453663A2 (en) | Video receiving apparatus and video reproducing apparatus | |
US20050062846A1 (en) | Stereoscopic video encoding/decoding apparatuses supporting multi-display modes and methods thereof | |
US12096027B2 (en) | Method, an apparatus and a computer program product for volumetric video encoding and decoding | |
JP2004274125A (en) | Image processing apparatus and method | |
US8724912B2 (en) | Method, apparatus, and program for compressing images, and method, apparatus, and program for decompressing images | |
EP0771117A3 (en) | Method and apparatus for encoding and decoding a video signal using feature point based motion estimation | |
KR20080109325A (en) | System and method for generating and playing 3D stereoscopic image files based on 2D image media standard | |
TWI511525B (en) | Method for generating, transmitting and receiving stereoscopic images, and related devices | |
US6577352B1 (en) | Method and apparatus for filtering chrominance signals of image | |
JP2001069502A (en) | Video image transmission terminal and video image reception terminal | |
Adolph et al. | 1.15 Mbit/s coding of video signals including global motion compensation | |
JP4657258B2 (en) | Stereoscopic image display apparatus and method | |
JP2020005201A (en) | Transmitting device and receiving device | |
JPH11122610A (en) | Image encoding method, image decoding method, and these devices | |
US8204319B2 (en) | Image compression apparatus and image compression method | |
US20020097797A1 (en) | Method and apparatus for decoding picture signal at variable picture rate | |
JP2003319417A (en) | Stereoscopic image generating device, stereoscopic image display device, and their methods | |
JPH0851599A (en) | Image information converter | |
US20060120454A1 (en) | Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer | |
JP2009111762A (en) | Image encoding apparatus and image decoding apparatus |