[go: up one dir, main page]

JPS62299187A - Video encoding processing method - Google Patents

Video encoding processing method

Info

Publication number
JPS62299187A
JPS62299187A JP61142370A JP14237086A JPS62299187A JP S62299187 A JPS62299187 A JP S62299187A JP 61142370 A JP61142370 A JP 61142370A JP 14237086 A JP14237086 A JP 14237086A JP S62299187 A JPS62299187 A JP S62299187A
Authority
JP
Japan
Prior art keywords
frame
frames
discrete
encoding
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61142370A
Other languages
Japanese (ja)
Inventor
Shinichi Maki
新一 牧
Kiichi Matsuda
松田 喜一
Toshitaka Tsuda
俊隆 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61142370A priority Critical patent/JPS62299187A/en
Publication of JPS62299187A publication Critical patent/JPS62299187A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To solve the unnaturalness of movement due to a deframing picture by dividing a frame into one to execute the usual encoding and the other to encode a dynamic vector only, and executing the encoding. CONSTITUTION:A frame extracting part 100 extracts a skipping frame, for example, #1F, #4F, #7F and #10F, and is held at frame memories 3a and 3b. On the other hand, frames, which come to be the object of the time lapse, for example, #2F, #3F, #5F and #6f,...are respectively held at frame memories 4a and 4b. Under this condition, the #1F and the #2F are compared, the #2V and the #4F are compared and concerning the part with an action in the #2F, an action vector #2V is generated. In the same way, the #1F and the #3F are compared, the #3F and the #4F are compared and concerning the part with the action is the #3F, an action vector #3V is generated. A transmission line encoding part 6 outputs onto the transmission line in the sequence of the #4F, #2V, #3V, #7F, #5V, #6V, #10F....

Description

【発明の詳細な説明】 3、発明の詳細な説明 〔)既要〕 本発明は、動画像について低ビツトレート符号化を行う
動画像符号化処理方式において、コマ落とし画面による
動きの不自然さを解決するために。
[Detailed Description of the Invention] 3. Detailed Description of the Invention [) Already Required] The present invention solves the problem of unnatural motion caused by frame-dropped images in a video encoding processing method that performs low bit rate encoding of video images. to solve.

通常の符号化を行うフレームと、動きベタ1〜ルだけを
符号化するフレームとに分けて、符号化を行うようにし
、伝送品質の低下を防ぐようにしたものである。
In this system, encoding is performed separately into frames in which normal encoding is performed and frames in which only motion patterns 1 to 1 are encoded, thereby preventing deterioration in transmission quality.

〔産業上の利用分野〕[Industrial application field]

本発明は、動画像符号化処理方式、特にいわばコマ落と
しの対象となったフレームについては。
The present invention relates to a video encoding processing method, especially regarding frames subject to so-called frame dropping.

動きベクトルを伝送するようにした動画像符号化処理方
式に関する。
The present invention relates to a video encoding processing method that transmits motion vectors.

〔従来の技術〕[Conventional technology]

この種の技術における従来の方式としては、コマ落とし
されたフレームについて、受信側において、当該フレー
ム以前に伝送されてきたフレームをそのまま代用する方
式や、伝送されてきた前後のフレームを用いて、コマ落
としフレームラ[’1する方式などが知られている。
Conventional methods for this type of technology include a method in which the receiving side directly substitutes the frame that was transmitted before the frame, or a method in which the frame is dropped using frames before and after the frame, on the receiving side. A method of dropping the frame rate ['1] is known.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記前者の方式の場合には、動きが不自然である。また
後者の方式の場合には、動きの不自然さはある程度解消
されるが、再生画の画質に関してなお改善すべき問題が
ある。またコマ落としフレームの個数が大とならざるを
得ないような場合には、再生画像中の動きが実際のもの
から極端にずれてしまうという問題があった。特に背景
に対する動体の輪郭や、見え隠れする背景についての画
質劣化が目立ってしまうという問題があった。
In the case of the former method, the movement is unnatural. Further, in the case of the latter method, although the unnaturalness of the movement is eliminated to some extent, there are still problems that need to be improved regarding the image quality of the reproduced image. Furthermore, when the number of frame-dropped frames is unavoidable, there is a problem in that the motion in the reproduced image deviates extremely from the actual motion. In particular, there has been a problem in that image quality deterioration is noticeable with respect to the outline of a moving object relative to the background and the background that appears or disappears.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は上記の点を解決しており、第1図は本発明の原
理構成図を示す。図中の符号100はフレーム抽出部で
あって飛び飛びのフレーム、例えば#1フレーム(#I
F)、#4フレーム(#4F)、#7フレーム(#7F
)、・・・・・・を抽出する。
The present invention solves the above-mentioned problems, and FIG. 1 shows a basic configuration diagram of the present invention. The reference numeral 100 in the figure is a frame extracting unit, which includes discrete frames, for example #1 frame (#I
F), #4 frame (#4F), #7 frame (#7F
),... are extracted.

3aは#1フレーム(#IF)を保持するフレーム・メ
モリ、3bは#4フレーム(#4F)を保持するフレー
ム・メモリ、4aはコマ落としフレームに当たる#2フ
レーム(62F)を保持するフレーム・メモリ、4bは
同じく#3フレーム(#3F)を保持するフレーム・メ
モリ、5は動き補償処理部、6は伝送路符号化部を表し
ている。
3a is a frame memory that holds #1 frame (#IF), 3b is a frame memory that holds #4 frame (#4F), and 4a is a frame memory that holds #2 frame (62F), which is the frame drop frame. , 4b is a frame memory that also holds #3 frame (#3F), 5 is a motion compensation processing section, and 6 is a transmission line encoding section.

動き補償処理部5は、フレーム・メモリ3aの内容(#
IF)とフレーム・メモリ3bの内容(#4F)とを参
照し、フレーム・メモリ4aの内容(t$2F)に対応
する動きベクトル(#2■)を生成する。また同様に、
内容(# I F)と(14F)とを参照し、フレーム
・メモリ4bの内容(#3F)に対応する動きベクトル
(#3V)を生成する。
The motion compensation processing unit 5 stores the contents (#) of the frame memory 3a.
IF) and the contents of the frame memory 3b (#4F), a motion vector (#2■) corresponding to the contents of the frame memory 4a (t$2F) is generated. Similarly,
With reference to the contents (#IF) and (14F), a motion vector (#3V) corresponding to the contents (#3F) of the frame memory 4b is generated.

〔作用〕[Effect]

フレーム抽出部100は、飛び飛びのフレーム。 The frame extraction unit 100 extracts discrete frames.

例えば#IF、#4F、#7F、#10Fを抽出してゆ
く。そして、フレーム・メモリ3aと3bとに保持され
る。即ち飛び飛びフレームについての少なくとも2つの
前後するフレーム(#IFと#4F、94Fと#7F、
・・・)が同時期に存在するようにされる。
For example, #IF, #4F, #7F, and #10F are extracted. Then, it is held in frame memories 3a and 3b. That is, at least two consecutive frames (#IF and #4F, 94F and #7F,
) are made to exist at the same time.

一方、コマ落としの対象となっているフレーム例えば#
2Fや#3F、#5Fや#6F、・・・は夫々フレーム
・メモリ4aと4bとに保持される。
On the other hand, the frame that is subject to frame dropping, for example #
2F, #3F, #5F, #6F, . . . are held in frame memories 4a and 4b, respectively.

そして、この状態の下で、#IFと#2Fとを比較し、
また#2Fと#4Fとを比較して、#2F中の動きのあ
る部分について、動きベクトル#2■が生成される。ま
た同様に、#IFと#3Fとを比較し、また#3Fと#
4Fとを比較して、#3F中の動きのある部分について
、動きベクトル#3■が生成される。
Then, under this condition, compare #IF and #2F,
Further, by comparing #2F and #4F, a motion vector #2■ is generated for a moving portion in #2F. Similarly, #IF and #3F are compared, and #3F and #3F are compared.
4F, a motion vector #3■ is generated for a moving portion in #3F.

伝送路符号化部6は、後述する如<、#4F。The transmission path encoding unit 6 performs #4F as described below.

#2V、#3V、#7F、#5V、#6V、#10F・
・・・・・の順に伝送路上に出力してゆ(。
#2V, #3V, #7F, #5V, #6V, #10F・
It outputs on the transmission path in the order of...

〔実施例〕〔Example〕

第2図は本発明に関する送信部の一実施例構成。 FIG. 2 shows the configuration of an embodiment of the transmitting section according to the present invention.

第3図は送信部の動作説明図、第4図は動きベクトルを
検出する概念を説明する説明図、第5図は受信部の一実
施例構成、第6図は受信部の動作説明図、第7図は動き
補償処理部の構成、第8図および第9図は夫々動き補償
処理部における内部構成を示す。
3 is an explanatory diagram of the operation of the transmitter, FIG. 4 is an explanatory diagram illustrating the concept of detecting a motion vector, FIG. 5 is an example configuration of the receiver, and FIG. 6 is an explanatory diagram of the operation of the receiver, FIG. 7 shows the configuration of the motion compensation processing section, and FIGS. 8 and 9 each show the internal configuration of the motion compensation processing section.

第2図は送信部の構成を示しており1図中の符号100
.3a、3b、4a、4b、5.−6は第1図に対応し
ており、1は飛び飛びフレーム符号化部(CODI)、
2は復号化部(DECI)。
Figure 2 shows the configuration of the transmitter, and the reference numeral 100 in Figure 1 shows the configuration of the transmitter.
.. 3a, 3b, 4a, 4b, 5. -6 corresponds to Fig. 1, 1 is an intermittent frame coding unit (CODI),
2 is a decoding unit (DECI).

7はバッファ・メモリ、5W−Al、5W−Bl。7 is a buffer memory, 5W-Al, 5W-Bl.

5W−C1,5W−DIは夫々切り換えスイッチを表し
ている。
5W-C1 and 5W-DI represent changeover switches, respectively.

飛び飛びフレーム#IF、#4F・・・・・・について
は、符号化部lにおいて9通常の画像符号化(例えばΔ
符号化)によって符号化され、符号化出力データとされ
る。このデータは、スイッチ5W−Dlに導かれるが、
あわせて復号化部2によって復号化出力に戻される。そ
して、当該復号化出力についてはフレーム・メモリ3a
上にフレーム#IFが保持され、フレーム・メモリ3b
上にフレーム#4Fが保持される。
Regarding the discrete frames #IF, #4F..., the encoding unit l performs normal image encoding (for example, Δ
encoding) to produce encoded output data. This data is led to switch 5W-Dl,
It is also returned to a decoded output by the decoder 2. Then, regarding the decoded output, the frame memory 3a
Frame #IF is held above and frame memory 3b
Frame #4F is held above.

一方、コマ落としの対象となるフレーム#2Fや#3F
が夫々フレーム・メモリ4aや4bに保持される。そし
て、第1図を参照して説明した如く、フレーム#2Fに
対応する動きベクトル#2■、フレーム#3Fに対応す
る動きベクトル#3■が、動き補償処理部5において生
成され、スイッチ5W−D1に導かれる。そして、伝送
路符号化部6.バッファ・メモリ7をへて伝送路上へ送
出される。
On the other hand, frames #2F and #3F that are subject to frame dropping
are held in frame memories 4a and 4b, respectively. Then, as described with reference to FIG. 1, motion vector #2■ corresponding to frame #2F and motion vector #3■ corresponding to frame #3F are generated in the motion compensation processing unit 5, and the switch 5W- Guided to D1. Then, the transmission path encoding unit 6. The signal is sent out through the buffer memory 7 onto the transmission path.

この間の動作が第3図において明らかにされている。図
中の枠内の数値はフレームの番号に対応している。第3
図から判る如く、フレーム#4F。
The operation during this time is clarified in FIG. The numbers in the frames in the figure correspond to frame numbers. Third
As you can see from the figure, frame #4F.

#7Fについては符号化出力データが、いわば直ちに伝
送路符号化部6に入力される。一方、フレーム#2Fに
ついての動きベクトル#2■は、フレーム・メモリ3a
と3bとの内容を利用して生成され、その時点で伝送路
符号化部6に入力される。フレーム#3Fについての動
きベクトル#3■や、フレーム#5Fにつし9での動き
ベクトル#5■・・・・・・についても同様である。
Regarding #7F, the encoded output data is immediately inputted to the transmission line encoder 6, so to speak. On the other hand, the motion vector #2■ for frame #2F is stored in the frame memory 3a.
and 3b, and input to the transmission path encoding unit 6 at that point. The same applies to motion vector #3■ for frame #3F and motion vector #5■ for frame #5F to 9.

例えばフレーム#2Fにおける動きベクトルを抽出する
に当たっては、第4図に示す如く、(i)第(n+1)
フレームを複数のブロックに区分して、1つのブロック
を当該時点での処理対照ブロックBとみなし、(ii)
第(n+1)フレーム上での当該ブロックBが第nフレ
ーム上で存在していたとみなし得る範囲として「参照領
域1」を決定し+  (iii)第(n+1)フレーム
上での上記ブロックBが第(n+3)フレーム上で存在
している可能性のある範囲として「参照領域2」を決定
し、  (iv)上記参照領域1内での各ブロックRと
ブロックBとの比較を行い、また上記参照嶺域2内での
各ブロックRとブロックBとの比較を行い、 (V)い
ずれかもっともブロックBに近似するブロックRを決定
し、当該ブロックRの位置を示す情報が、ブロックBに
ついてのベクトル情報とされる。上記処理対照ブロック
Bに対すると同様な処理は、第(n+1)フレーム上の
すべてのブロックについて行われ、夫々生成されたベク
トル情報をまとめて、第(n+1)フレームに対応する
動きベクトル# (n+1)Vとされる。
For example, when extracting the motion vector in frame #2F, as shown in FIG.
Divide the frame into a plurality of blocks, and consider one block as the processing target block B at the relevant point in time, (ii)
Determine "reference area 1" as a range in which the block B on the (n+1)th frame can be considered to have existed on the nth frame + (iii) The block B on the (n+1)th frame (n+3) Determine "reference area 2" as a range that may exist on the frame, (iv) Compare each block R and block B in the reference area 1, and refer to the above Each block R and block B in the ridge area 2 are compared, and (V) the block R that is most similar to block B is determined, and the information indicating the position of the block R is a vector for block B. It is considered information. The same processing as for the processing target block B is performed on all blocks on the (n+1)th frame, and the vector information generated for each is put together to form a motion vector # (n+1) corresponding to the (n+1)th frame. It is considered to be V.

第5図は受信部の構成を示し、8はバッファ・メモリ、
9は伝送路復号化部、10は動き補償処理部、11は復
号化部、12aおよび12bは夫々フレーム・メモリ、
5W−A2,5W−B2゜5W−C2は夫々スイッチを
表している。第6図に示す受信部の動作を参照すると判
る如く、フレーム#4F、 #7F、・・・・・・につ
いては、復号化部11によって復号されたものが、フレ
ーム・メモリ12aや12bを介して出力されてゆく。
FIG. 5 shows the configuration of the receiving section, where 8 is a buffer memory;
9 is a transmission path decoding unit, 10 is a motion compensation processing unit, 11 is a decoding unit, 12a and 12b are frame memories, respectively;
5W-A2, 5W-B2 and 5W-C2 represent switches, respectively. As can be seen from the operation of the receiving section shown in FIG. 6, frames #4F, #7F, . is output.

またフレーム#5Fや#6Fについては、フレーム・メ
モリ12aや12bの内容を参照しつつ再生されてゆく
Further, frames #5F and #6F are reproduced while referring to the contents of the frame memories 12a and 12b.

第7図は第1図または第2図に示す動き補償処理部の構
成を示しており、符号13は差分値累積回路、14は比
較回路段、15は比較回路を表している。
FIG. 7 shows the configuration of the motion compensation processing section shown in FIG. 1 or 2, in which reference numeral 13 represents a difference value accumulation circuit, 14 represents a comparison circuit stage, and 15 represents a comparison circuit.

差分値累積回路13は2図示の如く2例えば「参照領域
1」中のブロックRと対照ブロックB(第4図参照)と
について比較を行って出力信号の1つを発するようにし
ている。即ち、ブロックR上の画素RiとブロックB上
の画素Biとの差をとって、ブロック内の全画素nにつ
いて累積した結果を出力信号の1つとして出力する(こ
のとき、当該信号に対応して、ブロックRの位置情報が
求められている)。「参照領域1」や「参照領域2」に
おけるすべてのブロックRと対照ブロックBとの差 Σ1Bi−R4l をとった結果の中で最小の値をもつものが、比較回路段
14において抽出される。当該抽出されたものは1次の
事柄を表現している。即ち、ブロックBは、 (i)第
nフレーム上の当該ブロックRの位置から移動して第(
n+1)フレーム上の現ブロックBの位置にきたもので
あるか、あるいは(ii)第(n+1)フレーム上の現
ブロックBの位置から第(n + 3)フレーム上の当
該ブロックRの位置に移動したものであるかである。こ
とを表現している。
As shown in FIG. 2, the difference value accumulating circuit 13 compares, for example, block R in "reference area 1" and control block B (see FIG. 4), and outputs one of the output signals. That is, the difference between the pixel Ri on the block R and the pixel Bi on the block B is calculated, and the accumulated result for all pixels n in the block is output as one of the output signals (at this time, the result corresponding to the signal (The position information of block R is obtained.) Among the results of taking the differences Σ1Bi-R4l between all the blocks R and the control block B in "reference area 1" and "reference area 2", the one having the smallest value is extracted in the comparator circuit stage 14. The extracted thing expresses the first order matter. That is, block B moves from the position of block R on the (i) n-th frame to the (i)
n+1) has come to the position of the current block B on the frame, or (ii) has moved from the position of the current block B on the (n+1)th frame to the position of the block R on the (n+3)th frame. It depends on what you did. It expresses that.

第8図は第7図図示の差分値累積回路の構成を示してい
る。図中の符号13−1.13−2は夫々参照データ発
生部であって上述の画素Riを夫々出力する。13−3
.13−4は夫々減算器。
FIG. 8 shows the configuration of the difference value accumulation circuit shown in FIG. Reference numerals 13-1 and 13-2 in the figure are reference data generating units, respectively, and output the above-mentioned pixels Ri, respectively. 13-3
.. 13-4 are subtracters, respectively.

13−5.13−6は夫々絶対値発生回路513−7.
13−8は夫々加算器、13−9.13−10は夫々フ
リップ・フロップ、13−11.13−12は夫々アン
ド回路を表している。
13-5, 13-6 are absolute value generating circuits 513-7, respectively.
13-8 are adders, 13-9, 13-10 are flip-flops, and 13-11, 13-12 are AND circuits.

フリップ・フロップ13−9.13−10の出力は夫々
上述の ΣlB1−R11 を示している。そして「参照領域1」や「参照領域2」
内にm個のブロックが存在するとすれば。
The outputs of flip-flops 13-9 and 13-10 respectively represent ΣlB1-R11 as described above. and “reference area 1” and “reference area 2”
Suppose there are m blocks within.

夫々m個の差分累積値が得られる。m cumulative difference values are obtained.

第9図は比較回路の構成を示している。符号15−1は
比較器、15−2はセレクタを表している。比較器15
−1には、2つの差分累積値が供給され、より小さい側
を選択する。そして、セレクタ15−2は、より小さい
側の差分累積値と。
FIG. 9 shows the configuration of the comparison circuit. Reference numeral 15-1 represents a comparator, and 15-2 represents a selector. Comparator 15
-1 is supplied with two cumulative difference values and selects the smaller one. Then, the selector 15-2 selects the smaller accumulated difference value.

当8亥累)貞イ直がどのブロックRに対応するものであ
るかの識別情報を抽出する。
8) Extract the identification information as to which block R corresponds to Sadai Nao.

〔発明の効果〕〔Effect of the invention〕

以上説明した如く2本発明によれば、いわばコマ落とし
されたフレームについての動きベクトルが伝送される。
As described above, according to the second aspect of the present invention, motion vectors for frames in which frames have been dropped are transmitted.

このために、従来の補間を行うものにくらべて、動き部
分の不自然性が大きく解消される。
For this reason, unnaturalness in moving parts can be largely eliminated compared to conventional methods that perform interpolation.

また、lフレームについて通常の符号化を行った場合の
情報■をPビット/画面、動きベクトルを伝送する場合
の情報量をVビット/画面、単位時間当たりに通常の符
号化を行うフレーム数をn9+単位時間当たりに動きベ
クトルを伝送するフレーム数をnV+ また従来の場合
のコマ落とし方式で単位時間当たりmフレームを伝送す
るものとし1本発明の場合と従来の場合が共に最大の伝
送を行うとすると。
In addition, the information ■ when normal encoding is performed for l frames is P bits/screen, the amount of information when transmitting a motion vector is V bits/screen, and the number of frames when normal coding is performed per unit time is n9 + the number of frames in which motion vectors are transmitted per unit time is nV + In addition, it is assumed that m frames are transmitted per unit time using the frame dropping method in the conventional case.1 If the maximum transmission is performed in both the case of the present invention and the conventional case. Then.

P−n、+V・nv =P−m ■ np+□・nv =m したがって、V/Pは1より小であるので。P-n, +V・nv = P-m ■ np+□・nv = m Therefore, since V/P is less than 1.

H,+n、>m となり、単位時間当たりに伝送できるフレーム数は、従
来のコマ落としの場合にくらべて大となる。
H,+n,>m, and the number of frames that can be transmitted per unit time is larger than in the case of conventional frame dropping.

また動きベクトルを伝送しているために1画質劣化が少
ない。
Furthermore, since motion vectors are transmitted, there is little deterioration in the quality of one image.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理構成図、第2図は本発明に関する
送信部の一実施例構成、第3図は送信部の動作説明図、
第4図は動きベクトルを検出する概念を説明する説明図
、第5図は受信部の一実施例構成、第6図は受信部の動
作説明図、第7図は動き補償処理部の構成、第8図およ
び第9図は夫々動き補償処理部における内部構成を示す
。 図中、100はフレーム抽出部、1は符号化部。 3.4は夫々フレーム・メモリ、5は動き補償処理部(
送信)、6は伝送路符号化部を表している。
FIG. 1 is a diagram showing the principle configuration of the present invention, FIG. 2 is a configuration diagram of an embodiment of the transmitting section related to the present invention, and FIG. 3 is an explanatory diagram of the operation of the transmitting section.
FIG. 4 is an explanatory diagram explaining the concept of detecting a motion vector, FIG. 5 is an example configuration of the receiving section, FIG. 6 is an explanatory diagram of the operation of the receiving section, and FIG. 7 is the configuration of the motion compensation processing section. FIG. 8 and FIG. 9 each show the internal configuration of the motion compensation processing section. In the figure, 100 is a frame extraction unit, and 1 is an encoding unit. 3.4 is a frame memory, and 5 is a motion compensation processing unit (
(transmission), 6 represents a transmission path encoding unit.

Claims (1)

【特許請求の範囲】 複数のフレームによって構成される入力画像について、
飛び飛びのフレームに関して画像符号化を行うようにし
て帯域圧縮を行い、動画像伝送を行う動画像符号化処理
方式において、 上記飛び飛びのフレームを抽出する飛び飛びフレーム抽
出部(100)と、 上記飛び飛びのフレームについて、少なくとも前後する
2つのフレームを保持するフレーム・メモリ(3a、3
b)と、 上記飛び飛びのフレームの間に位置する1つまたは複数
のフレームについて、当該夫々のフレームを保持するフ
レーム・メモリ(4a、4b)と、上記飛び飛びのフレ
ームを保持するフレーム・メモリ(3a、3b)の内容
を参照しつつ、上記飛び飛びのフレームの間に位置する
フレームを保持するフレーム・メモリ(4aまたは4b
)の内容を用いて、当該飛び飛びのフレームの間に位置
するフレームに対応する動きベクトルを生成する動き補
償処理部(5)とをもうけ、 上記飛び飛びフレーム抽出部(100)によって得られ
た飛び飛びフレームに対して画像符号化を行って伝送す
ると共に、上記動きベクトルに対して符号化を行って伝
送するようにした ことを特徴とする動画像符号化処理方式。
[Claims] Regarding an input image composed of a plurality of frames,
A video encoding processing method that performs band compression by performing image encoding on discrete frames and transmits a video image, comprising: a discrete frame extraction unit (100) for extracting the discrete frames; frame memory (3a, 3
b), frame memories (4a, 4b) that hold the respective frames, and frame memories (3a, 4b) that hold the respective frames, and frame memories (3a, 4b) that hold the respective frames located between the above-mentioned discontinuous frames; , 3b), and a frame memory (4a or 4b) that holds frames located between the above-mentioned discrete frames.
), the motion compensation processing unit (5) generates a motion vector corresponding to a frame located between the discrete frames, and the discrete frame obtained by the discrete frame extraction unit (100) is A video encoding processing method characterized in that the motion vector is encoded and transmitted, and the motion vector is encoded and transmitted.
JP61142370A 1986-06-18 1986-06-18 Video encoding processing method Pending JPS62299187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61142370A JPS62299187A (en) 1986-06-18 1986-06-18 Video encoding processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61142370A JPS62299187A (en) 1986-06-18 1986-06-18 Video encoding processing method

Publications (1)

Publication Number Publication Date
JPS62299187A true JPS62299187A (en) 1987-12-26

Family

ID=15313803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61142370A Pending JPS62299187A (en) 1986-06-18 1986-06-18 Video encoding processing method

Country Status (1)

Country Link
JP (1) JPS62299187A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097157A (en) * 2017-10-18 2019-06-20 アクシス アーベー Method and encoder for encoding video stream in video coding format supporting auxiliary frame
US10625175B2 (en) 2016-04-06 2020-04-21 Kiinja Corporation Extractor for high pressure extraction of a matrix

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10625175B2 (en) 2016-04-06 2020-04-21 Kiinja Corporation Extractor for high pressure extraction of a matrix
JP2019097157A (en) * 2017-10-18 2019-06-20 アクシス アーベー Method and encoder for encoding video stream in video coding format supporting auxiliary frame

Similar Documents

Publication Publication Date Title
EP1271962B1 (en) Image data coding method and apparatus
US20020034249A1 (en) Picture coding apparatus and decoding apparatus
JPH0422075B2 (en)
JPH02172389A (en) High efficient coding system for animated picture signal
JPS61118085A (en) Coding system and device for picture signal
US20020030684A1 (en) Moving image editing apparatus and moving image editing method using intraframe encoding
JPS59194589A (en) Encoding device between movement compensating frames
JPS62299187A (en) Video encoding processing method
KR102620281B1 (en) Apparatus and Method for Selecting Skip Frames
JPH0221776A (en) Predicting static picture encoder/decoder
JP2608909B2 (en) Video predictive coding
KR100186268B1 (en) Edge compensation method and structure using virtual image region
JPS63296583A (en) Image encoding method
US6898244B1 (en) Movement vector generating apparatus and method and image encoding apparatus and method
JP3071579B2 (en) Encoding apparatus and decoding apparatus for two-screen multiplexed moving image
JP2621341B2 (en) Predictive coding method for video using background prediction and its apparatus
JPH08126033A (en) Method for coding stereoscopic moving image
JPS62108687A (en) Image signal encoding parameter control method
JP2832949B2 (en) High-efficiency code decoding device
JPH01154691A (en) Moving image transmitter
JP2621337B2 (en) Predictive coding method for video using background prediction and its apparatus
JP2000209304A (en) Self-monitoring coding device and its self-monitoring method
JP3506634B2 (en) Image storage memory device
JPS6115485A (en) Picture encoding system
JP2581420B2 (en) Decoding device in video encoding transmission