[go: up one dir, main page]

RU2384970C1 - Interlayer forcasting method for video signal - Google Patents

Interlayer forcasting method for video signal Download PDF

Info

Publication number
RU2384970C1
RU2384970C1 RU2008132819/09A RU2008132819A RU2384970C1 RU 2384970 C1 RU2384970 C1 RU 2384970C1 RU 2008132819/09 A RU2008132819/09 A RU 2008132819/09A RU 2008132819 A RU2008132819 A RU 2008132819A RU 2384970 C1 RU2384970 C1 RU 2384970C1
Authority
RU
Russia
Prior art keywords
macroblock
macroblocks
pair
base layer
field
Prior art date
Application number
RU2008132819/09A
Other languages
Russian (ru)
Inventor
Сеунг Воок ПАРК (KR)
Сеунг Воок ПАРК
Биеонг Моон ДЗЕОН (KR)
Биеонг Моон ДЗЕОН
Дзи Хо ПАРК (KR)
Дзи Хо ПАРК
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020060111894A external-priority patent/KR20070074451A/en
Priority claimed from KR1020060111893A external-priority patent/KR20070075257A/en
Priority claimed from KR1020070001582A external-priority patent/KR20070095180A/en
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Application granted granted Critical
Publication of RU2384970C1 publication Critical patent/RU2384970C1/en

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

FIELD: physics, cinematography.
SUBSTANCE: invention relates to a method for interlayer forecasting when coding/decoding a video signal. The result is achieved due to that the method provides construction of pairs of frame macroblocks from one field macroblock or two vertically adjacent field macroblocks of a base layer and use of texture information of the constructed pair of frame macroblocks in the interlayer forecasting of the texture of pairs of frame macroblocks of the current layer.
EFFECT: design of an interpolation method which takes into account video signal layer scanning modes.
8 cl, 67 dwg

Description

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

Настоящее изобретение относится к способу межслойного предсказания при кодировании/декодировании видеосигнала.The present invention relates to an interlayer prediction method for encoding / decoding a video signal.

Предшествующий уровень техникиState of the art

Масштабируемый видеокодек (SVC) кодирует видео в последовательность изображений с максимально высоким визуальным качеством и при этом обеспечивает возможность декодирования части последовательности кодированных изображений (в частности, частичной последовательности кадров, выбранных с перерывами из полной последовательности кадров) и использования для представления видео с низким визуальным качеством.Scalable video codec (SVC) encodes the video into a sequence of images with the highest possible visual quality and at the same time provides the ability to decode part of the sequence of encoded images (in particular, a partial sequence of frames selected intermittently from the full sequence of frames) and use it to represent video with low visual quality .

Несмотря на то что существует возможность представления видео с низким визуальным качеством посредством приема и обработки части последовательности изображений, кодированных по масштабируемой схеме, остается проблема, связанная с тем, что визуальное качество существенно ухудшается, если снижается расход битов (битрейт). Одно решение упомянутой проблемы заключается в обеспечении вспомогательной последовательности изображений для низких битрейтов, например, последовательности изображений, имеющих небольшой экранный размер и/или низкую частоту кадров, в виде, по меньшей мере, одного слоя в иерархической структуре.Despite the fact that it is possible to present video with low visual quality by receiving and processing part of a sequence of images encoded in a scalable scheme, the problem remains that the visual quality is significantly degraded if the bit rate is reduced (bitrate). One solution to this problem is to provide an auxiliary sequence of images for low bitrates, for example, a sequence of images having a small screen size and / or low frame rate, in the form of at least one layer in a hierarchical structure.

Когда предполагается, что обеспечены две последовательности, вспомогательную (младшую) последовательность изображений называют базовым слоем, и главную (старшую) последовательность изображений называют улучшенным слоем или слоем улучшенного качества. Видеосигналы базового и улучшенного слоев обладают избыточностью, поскольку один и тот же источник видеосигнала кодируется в двух слоях. Для повышения эффективности кодирования улучшенного слоя, видеосигнал улучшенного слоя кодируется с использованием кодированной информации (информации о движении или информации о текстуре) базового слоя.When it is assumed that two sequences are provided, the auxiliary (junior) image sequence is called the base layer, and the main (senior) image sequence is called the enhanced layer or layer of improved quality. The video signals of the base and advanced layers are redundant, since the same video source is encoded in two layers. To improve the coding efficiency of the enhanced layer, the video signal of the enhanced layer is encoded using encoded information (motion information or texture information) of the base layer.

Хотя единственный видеоисточник 1 можно кодировать во множество слоев с разными скоростями переноса, как показано на фиг.1a, множество видеоисточников 2b в разных режимах сканирования, которые содержат одинаковый контент 2a, можно кодировать в соответствующие слои, как показано на фиг.1b. И в этом случае кодер, который кодирует старший слой, может повысить эффективность кодирования путем выполнения межслойного предсказания с использованием кодированной информации младшего слоя, поскольку оба источника 2b обеспечивают одинаковый контент 2a.Although a single video source 1 can be encoded into multiple layers with different transfer rates, as shown in FIG. 1a, many video sources 2b in different scan modes that contain the same content 2a can be encoded into respective layers, as shown in FIG. 1b. And in this case, an encoder that encodes the upper layer can improve the coding efficiency by performing inter-layer prediction using the lower layer encoded information, since both sources 2b provide the same content 2a.

Таким образом, необходимо обеспечить способ для межслойного предсказания с учетом режимов сканирования видеосигналов, при кодировании разных источников в соответствующие слои. Когда кодируется чересстрочное видео, его можно кодировать в четные и нечетные поля и можно также кодировать в пары нечетных и четных макроблоков в одном кадре. Соответственно, типы изображений для кодирования чересстрочного видеосигнала также следует учитывать при межслойном предсказании.Thus, it is necessary to provide a method for interlayer prediction, taking into account the scanning modes of the video signals, when encoding different sources in the corresponding layers. When an interlaced video is encoded, it can be encoded into even and odd fields and can also be encoded into pairs of odd and even macroblocks in one frame. Accordingly, image types for encoding an interlaced video signal should also be taken into account in interlayer prediction.

В общем, улучшенный слой обеспечивает изображения с разрешением выше, чем в изображениях базового слоя. Соответственно, если изображения слоев имеют разные разрешения, когда разные источники кодируются в соответствующие слои, то необходимо также выполнять интерполяцию для повышения разрешения изображения (т.е. размера изображения). Поскольку чем ближе находятся видеообъекты в изображениях базового слоя для использования в межслойном предсказании к видеообъектам в изображениях улучшенного слоя для кодирования с предсказанием, тем выше является скорость кодирования, то необходимо создать способ интерполяции, учитывающий режимы сканирования видеосигналов слоев.In general, the enhanced layer provides images with a resolution higher than that of the images of the base layer. Accordingly, if the images of the layers have different resolutions, when different sources are encoded into the corresponding layers, then it is also necessary to perform interpolation to increase the resolution of the image (i.e., the size of the image). Since the closer the video objects in the images of the base layer are for use in interlayer prediction to the video objects in the images of the improved layer for prediction encoding, the higher the encoding speed, it is necessary to create an interpolation method that takes into account the scanning modes of the video signals of the layers.

Сущность изобретенияSUMMARY OF THE INVENTION

Целью настоящего изобретения является создание способа выполнения межслойного предсказания при условии, что, по меньшей мере, один из двух слоев содержит чересстрочные составляющие видеосигнала.The aim of the present invention is to provide a method for performing inter-layer prediction, provided that at least one of the two layers contains interlaced components of the video signal.

Другой целью настоящего изобретения является создание способа выполнения межслойного предсказания движения в слоях, содержащих изображения с разными пространственными разрешениями (масштабируемостями) в зависимости от типов изображений.Another objective of the present invention is to provide a method for performing interlayer motion prediction in layers containing images with different spatial resolutions (scalability) depending on image types.

Еще одной целью настоящего изобретения является создание способа выполнения межслойного предсказания текстуры в слоях, содержащих изображения с разными пространственными и/или временными разрешениями (масштабируемостями).Another objective of the present invention is to provide a method for performing interlayer texture prediction in layers containing images with different spatial and / or temporal resolutions (scalability).

Один способ межслойного предсказания движения в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что устанавливают связанную с движением информацию макроблока intra-режима (с внутрикадровым кодированием) по связанной с движением информации макроблока inter-режима (с межкадровым кодированием), при этом макроблоки intra-режима и inter-режима являются двумя вертикально смежными макроблоками базового слоя; и затем получают информацию о движении пары вертикально смежных макроблоков для использования в межслойном предсказании движения на основе этих двух вертикально смежных макроблоков.One interlayer motion prediction method in accordance with the present invention comprises the steps of establishing intra-mode macroblock (intra-frame coding) motion-related information from motion-related inter-mode macroblock information (inter-frame coding), while the macroblocks intra-mode and inter-mode are two vertically adjacent macroblocks of the base layer; and then, motion information of a pair of vertically adjacent macroblocks is obtained for use in interlayer motion prediction based on these two vertically adjacent macroblocks.

Другой способ межслойного предсказания движения в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что устанавливают макроблок intra-режима, который является одним из двух вертикально смежных макроблоков intra-режима и inter-режима базового слоя, по блоку inter-режима, содержащему нулевую, связанную с движением информацию; и затем получают информацию о движении пары вертикально смежных макроблоков для использования в межслойном предсказании движения на основе этих двух вертикально смежных макроблоков.Another interlayer motion prediction method in accordance with the present invention comprises the steps of installing an intra-mode macroblock, which is one of two vertically adjacent macro-blocks of intra-mode and inter-mode of the base layer, according to an inter-mode block containing zero traffic related information; and then, motion information of a pair of vertically adjacent macroblocks is obtained for use in interlayer motion prediction based on these two vertically adjacent macroblocks.

Другой способ межслойного предсказания движения в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что выводят информацию о движении одного макроблока из информации о движении пары вертикально смежных макроблоков кадра базового слоя; и используют выведенную информацию о движении в качестве информации предсказания в информации о движении макроблока поля в текущем слое или соответствующей информации о движении пары макроблоков полей в текущем слое.Another interlayer motion prediction method in accordance with the present invention comprises the steps of: deriving motion information of one macroblock from motion information of a pair of vertically adjacent macroblocks of a base layer frame; and using the derived motion information as the prediction information in the motion information of the macroblock field in the current layer or the corresponding motion information of the pair of macroblock fields in the current layer.

Другой способ межслойного предсказания движения в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что выводят соответствующую информацию о движении двух макроблоков из информации о движении одного макроблока поля базового слоя или информации о движении одного макроблока поля, выбранного из пары вертикально смежных макроблоков полей базового слоя; и используют выведенную соответствующую информацию о движении в качестве информации предсказания в соответствующей информации о движении пары макроблоков кадра текущего слоя.Another interlayer motion prediction method in accordance with the present invention comprises the steps of deriving relevant information about the movement of two macroblocks from information about the movement of one macroblock of a field of the base layer or information about the movement of one macroblock of a field selected from a pair of vertically adjacent macroblocks of the fields of the base layer; and using the derived corresponding motion information as the prediction information in the corresponding motion information of the pair of macroblocks of the frame of the current layer.

Один способ межслойного предсказания движения для слоев с изображениями с разными разрешениями в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что преобразуют изображение младшего слоя в кадровое изображение с таким же разрешением посредством селективного применения предсказательных способов для преобразования в макроблоки кадров в соответствии с типами изображений и типами макроблоков в изображениях; выполняют повышающую дискретизацию (сверхдискретизируют) в отношении кадрового изображения, чтобы получить такое же разрешение, как разрешение старшего слоя; и затем применяют способ межслойного предсказания, подходящий для типов макроблоков кадра в сверхдискретизированном кадровом изображении и типов макроблоков в изображении старшего слоя.One interlayer motion prediction method for layers with images with different resolutions in accordance with the present invention comprises the steps of converting an image of a minor layer into a frame image with the same resolution by selectively applying predictive methods to convert to macroblock frames according to types images and types of macroblocks in images; upsampling (oversampling) with respect to the frame image is performed to obtain the same resolution as the resolution of the senior layer; and then an interlayer prediction method is applied that is suitable for types of macroblock frames in an oversampled frame image and types of macroblocks in a senior layer image.

Другой способ межслойного предсказания движения для слоев с изображениями с разными разрешениями в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что опознают типы изображений младшего и старшего слоев и/или типы макроблоков, содержащихся в изображениях; применяют способ предсказания пары макроблоков кадра по одному макроблоку поля к изображению младшего слоя в соответствии с результатами опознания, чтобы построить виртуальное изображение, имеющее такое же соотношение размеров, как соотношение размеров изображения старшего слоя; сверхдискретизируют виртуальное изображение; и затем применяют межслойное предсказание движения к старшему слою с использованием сверхдискретизированного виртуального изображения.Another interlayer motion prediction method for layers with images with different resolutions in accordance with the present invention comprises the steps of recognizing the types of images of the lower and upper layers and / or the types of macroblocks contained in the images; apply a method for predicting a pair of macroblocks of a frame from one macroblock of the field to the image of the younger layer in accordance with the recognition results in order to build a virtual image having the same aspect ratio as the aspect ratio of the image of the senior layer; oversampling the virtual image; and then an interlayer motion prediction is applied to the senior layer using an oversampling virtual image.

Другой способ межслойного предсказания движения для слоев с изображениями с разными разрешениями в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что опознают типы изображений младшего и старшего слоев и/или типы макроблоков, содержащихся в изображениях; применяют способ предсказания пары макроблоков кадра по одному макроблоку поля к изображению младшего слоя в соответствии с результатами опознания, чтобы построить виртуальное изображение, имеющее такое же соотношение размеров, как соотношение размеров изображения старшего слоя; и применяют межслойное предсказание движения к изображению старшего слоя с использованием построенного виртуального изображения.Another interlayer motion prediction method for layers with images with different resolutions in accordance with the present invention comprises the steps of recognizing the types of images of the lower and upper layers and / or the types of macroblocks contained in the images; apply a method for predicting a pair of macroblocks of a frame from one macroblock of the field to the image of the younger layer in accordance with the recognition results in order to build a virtual image having the same aspect ratio as the aspect ratio of the image of the senior layer; and apply interlayer motion prediction to the image of the senior layer using the constructed virtual image.

Другой способ межслойного предсказания движения для слоев с изображениями с разными разрешениями в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что опознают типы изображений младшего и старшего слоев; копируют информацию о движении блока в изображении младшего слоя, чтобы построить виртуальное изображение, если тип изображения младшего слоя является чересстрочным, и тип изображения старшего слоя является прогрессивным; сверхдискретизируют виртуальное изображение; и применяют способ предсказания движения между макроблоками кадров сверхдискретизированного виртуального изображения и изображения старшего слоя.Another interlayer motion prediction method for layers with images with different resolutions in accordance with the present invention comprises the steps of recognizing the types of images of the lower and upper layers; copy information about the movement of the block in the image of the lower layer to build a virtual image if the image type of the lower layer is interlaced and the image type of the upper layer is progressive; oversampling the virtual image; and applying a method for predicting motion between macroblock frames of an oversampled virtual image and an older layer image.

Другой способ межслойного предсказания движения для слоев с изображениями с разными разрешениями в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что опознают типы изображений младшего и старшего слоев; копируют информацию о движении блока младшего слоя, чтобы построить виртуальное изображение, если тип изображения младшего слоя является чересстрочным и тип изображения старшего слоя является прогрессивным; и используют виртуальное изображение для применения межслойного предсказания движения к изображению старшего слоя.Another interlayer motion prediction method for layers with images with different resolutions in accordance with the present invention comprises the steps of recognizing the types of images of the lower and upper layers; copy the motion information of the block of the lower layer to build a virtual image if the image type of the lower layer is interlaced and the image type of the upper layer is progressive; and using a virtual image to apply interlayer motion prediction to an older layer image.

В варианте осуществления настоящего изобретения, при межслойном предсказании движения последовательно предсказываются режимы разбиения, опорные индексы и векторы движения.In an embodiment of the present invention, interlayer motion prediction sequentially predicts partitioning modes, reference indices, and motion vectors.

В другом варианте осуществления настоящего изобретения последовательно предсказываются опорные индексы, векторы движения и режимы разбиения.In another embodiment of the present invention, reference indices, motion vectors, and partition modes are sequentially predicted.

В другом варианте осуществления настоящего изобретения информация о движении пары макроблоков полей виртуального базового слоя, подлежащая использованию для межслойного предсказания движения, выводится из информации о движении пары макробоков кадра базового слоя.In another embodiment of the present invention, motion information of a pair of macroblock fields of a virtual base layer to be used for inter-layer motion prediction is derived from motion information of a pair of macroblocks of a frame of the base layer.

В другом варианте осуществления настоящего изобретения информация о движении макроблока поля в четном или нечетном полевом изображении виртуального базового слоя, подлежащая использованию для межслойного предсказания движения, выводится из информации о движении пары макробоков кадра базового слоя.In another embodiment of the present invention, motion information of a field macroblock in an even or odd field image of a virtual base layer to be used for interlayer motion prediction is derived from the motion information of a pair of macroblocks of a base layer frame.

В другом варианте осуществления настоящего изобретения макроблок выбирается из пары макроблоков полей базового слоя, и информация о движении пары макроблоков полей виртуального базового слоя, подлежащая использованию для межслойного предсказания движения, выводится из информации о движении выбранного макроблока.In another embodiment of the present invention, a macroblock is selected from a pair of macroblock fields of the base layer fields, and motion information of the pair of macroblock fields of the virtual base layer to be used for interlayer motion prediction is derived from the motion information of the selected macroblock.

В другом варианте осуществления настоящего изобретения информация о движении пары макроблоков кадра виртуального базового слоя, подлежащая использованию для межслойного предсказания движения, выводится из информации о движении макроблока поля в четном или нечетном полевом изображении базового слоя.In another embodiment of the present invention, motion information of a pair of macroblocks of a virtual base layer frame to be used for inter-layer motion prediction is derived from motion information of a field macroblock in an even or odd field image of the base layer.

В другом варианте осуществления настоящего изобретения информация макроблока поля в четном или нечетном полевом изображении базового слоя копируется, чтобы дополнительно построить виртуальный макроблок поля, и информация о движении пары макроблоков кадра виртуального базового слоя, подлежащая использованию для межслойного предсказания движения, выводится из информации о движении пары макробоков полей, построенных упомянутым образом.In another embodiment of the present invention, the information of the field macroblock in the even or odd field image of the base layer is copied to further construct a virtual field macroblock, and the motion information of the pair of macroblocks of the virtual base layer frame to be used for interlayer motion prediction is derived from the pair motion information macroblocks of fields constructed in the aforementioned manner.

Один способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что строят пару макроблоков полей из пары вертикально смежных макроблоков кадра базового слоя; и используют соответствующую информацию о текстуре построенной пары макроблоков полей в качестве соответствующей информации предсказания текстуры пары макроблоков полей текущего слоя.One interlayer texture prediction method in accordance with the present invention comprises the steps of constructing a pair of field macroblocks from a pair of vertically adjacent macroblocks of a base layer frame; and use the corresponding texture information of the constructed pair of field macroblocks as the corresponding texture prediction information of the field macroblock pair of fields of the current layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что строят один макроблок поля из пары вертикально смежных макроблоков кадра базового слоя; и используют информацию о текстуре построенного одного макроблока поля в качестве информации предсказания текстуры макроблока поля текущего слоя.Another interlayer texture prediction method in accordance with the present invention comprises the steps of constructing one field macroblock from a pair of vertically adjacent macroblocks of a base layer frame; and use the texture information of the constructed one field macroblock as the field macroblock texture prediction information of the current layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что строят пару макроблоков кадра из одного макроблока поля или пары вертикально смежных макроблоков полей базового слоя; и используют соответствующую информацию о текстуре построенной пары макроблоков кадра в качестве соответствующей информации предсказания текстуры пары макроблоков кадра текущего слоя.Another interlayer texture prediction method in accordance with the present invention comprises the steps of constructing a pair of macroblock frames from one macroblock field or a pair of vertically adjacent macroblock fields of the base layer; and use the corresponding texture information of the constructed pair of macroblock frames as the corresponding texture prediction information of the pair of macroblock frames of the current layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что строят N пар макроблоков кадров из пары вертикально смежных макроблоков полей базового слоя, причем N является целым числом больше, чем 1; и используют соответствующую информацию о текстуре построенных N пар макроблоков кадров в качестве соответствующей информации предсказания текстуры N пар макроблоков кадров, находящихся в разных временных позициях в текущем слое.Another interlayer texture prediction method in accordance with the present invention comprises the steps of constructing N pairs of macroblock frames from a pair of vertically adjacent macroblock fields of the base layer fields, wherein N is an integer greater than 1; and use the corresponding texture information of the constructed N pairs of macroblock frames as the corresponding texture prediction information of N pairs of macroblock frames located at different time positions in the current layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что разделяют каждый кадр младшего слоя на множество полевых изображений, чтобы младший слой мог иметь такое же временное разрешение, как временное разрешение старшего слоя; сверхдискретизируют каждое из полученных разделением полевых изображений в вертикальном направлении для растяжения каждого из разделенных полевых изображений в вертикальном направлении; и затем используют каждое из сверхдискретизированных полевых изображений в межслойном предсказании текстуры каждого кадра старшего слоя.Another interlayer texture prediction method in accordance with the present invention comprises the steps of dividing each frame of the younger layer into multiple field images so that the younger layer can have the same temporal resolution as the temporal resolution of the older layer; oversampling each of the split field images in the vertical direction to stretch each of the split field images in the vertical direction; and then each of the oversampling field images is used in the interlayer texture prediction of each frame of the senior layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что сверхдискретизируют каждое полевое изображение младшего слоя в вертикальном направлении для растяжения каждого полевого изображения в вертикальном направлении; и используют каждое из сверхдискретизированных полевых изображений в межслойном предсказании текстуры каждого кадра старшего слоя.Another interlayer texture prediction method in accordance with the present invention comprises the steps of oversampling each field image of a younger layer in a vertical direction to stretch each field image in a vertical direction; and using each of the oversampling field images in an interlayer texture prediction of each frame of the senior layer.

Другой способ межслойного предсказания текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что разделяют каждый кадр старшего слоя на множество полевых изображений; выполняют понижающую дискретизацию (субдискретизируют) в отношении изображений младшего слоя для уменьшения изображений младшего слоя в вертикальном направлении; и затем используют субдискретизированные изображения в межслойном предсказании текстуры полученных разделением полевых изображений старшего слоя.Another method for interlayer texture prediction in accordance with the present invention comprises the steps of dividing each frame of the senior layer into a plurality of field images; perform downsampling (sub-sampling) in relation to the images of the younger layer to reduce the images of the younger layer in the vertical direction; and then sub-sampled images are used in inter-layer texture prediction obtained by separating field images of the older layer.

Способ кодирования видеосигнала с использованием межслойного предсказания в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что определяют, использовать ли, в межслойном предсказании текстуры, соответствующую информацию о текстуре 2N блоков, построенных поочередным выбором строк 2N блоков в произвольном изображении базового слоя, и затем размещением выбранных строк в порядке выбора, или соответствующую информацию о текстуре 2N блоков, построенных интерполированием одного блока, выбранного из 2N блоков базового слоя; и включают информацию, показывающую результат определения, в кодированную информацию.The method for encoding a video signal using interlayer prediction in accordance with the present invention comprises the steps of determining whether to use, in the interlayer prediction of the texture, the corresponding texture information of 2N blocks constructed by alternately selecting rows of 2N blocks in an arbitrary image of the base layer, and then by placing the selected rows in the order of choice, or the corresponding texture information of 2N blocks constructed by interpolating one block selected from 2N blocks of the base layer; and include information showing the result of the determination in the encoded information.

Способ декодирования видеосигнала с использованием межслойного предсказания в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что проверяют, содержится ли или нет специальная указательная информация в принятом сигнале; и определяют, на основе результата проверки, использовать ли в межслойном предсказании текстуры соответствующую информацию о текстуре 2N блоков, построенных поочередным выбором строк 2N блоков в произвольном изображении базового слоя, и затем размещением выбранных строк в порядке выбора, или соответствующую информацию о текстуре 2N блоков, построенных интерполированием одного блока, выбранного из 2N блоков базового слоя.A method for decoding a video signal using interlayer prediction in accordance with the present invention comprises the steps of checking whether or not specific indicative information is contained in the received signal; and determining, based on the check result, whether to use in the interlayer texture prediction the corresponding texture information of 2N blocks constructed by alternately selecting rows of 2N blocks in an arbitrary image of the base layer, and then placing the selected rows in the selection order, or the corresponding texture information of 2N blocks, constructed by interpolating one block selected from 2N blocks of the base layer.

В варианте осуществления настоящего изобретения каждый кадр старшего или младшего слоя разделяется на два полевых изображения.In an embodiment of the present invention, each frame of a high or low layer is divided into two field images.

В варианте осуществления настоящего изобретения, если специальная указательная информация не содержится в принятом сигнале, то случай рассматривается как аналогичный случаю, в котором принят сигнал, содержащий указательную информацию, установленную в нуль, и определяются блоки, чья соответствующая информация о текстуре подлежит использованию в межслойном предсказании.In an embodiment of the present invention, if special indicative information is not contained in the received signal, then the case is regarded as similar to the case in which a signal containing indicative information set to zero is received and blocks whose corresponding texture information is to be used in the interlayer prediction are determined .

Один способ использования видеосигнала базового слоя в межслойном предсказании текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что разделяют чересстрочный видеосигнал базового слоя на компоненты четного и нечетного полей; увеличивают каждый из компонентов четного и нечетного полей в вертикальном и/или горизонтальном направлении; и затем объединяют и используют увеличенные компоненты четного и нечетного полей в межслойном предсказании текстуры.One way to use the base layer video signal in an interlayer texture prediction in accordance with the present invention comprises the steps of separating the interlaced video signal of the base layer into components of even and odd fields; increase each of the components of the even and odd fields in the vertical and / or horizontal direction; and then combine and use the increased components of the even and odd fields in the interlayer texture prediction.

Другой способ использования видеосигнала базового слоя в межслойном предсказании текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что разделяют прогрессивный видеосигнал базового слоя на группу четных строк и группу нечетных строк; увеличивают каждую из групп четных и нечетных строк в вертикальном и/или горизонтальном направлении; и объединяют и используют объединенные увеличенные группы четных и нечетных строк в межслойном предсказании текстуры.Another way to use the base layer video signal in the interlayer texture prediction in accordance with the present invention comprises the steps of dividing the progressive video signal of the base layer into a group of even lines and a group of odd lines; increase each of the groups of even and odd lines in the vertical and / or horizontal direction; and combine and use the combined enlarged groups of even and odd lines in the interlayer texture prediction.

Другой способ использования видеосигнала базового слоя в межслойном предсказании текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что увеличивают чересстрочный видеосигнал базового слоя в вертикальном и/или горизонтальном направлении, чтобы обеспечить такое же разрешение, как разрешение прогрессивного видеосигнала старшего слоя; и выполняют межслойное предсказание текстуры видеосигнала старшего слоя на основе увеличенного видеосигнала.Another way to use the base layer video signal in the interlayer texture prediction in accordance with the present invention comprises the steps of increasing the interlaced video signal of the base layer in the vertical and / or horizontal direction to provide the same resolution as the resolution of the progressive video signal of the older layer; and perform interlayer prediction of the texture of the video signal of the senior layer based on the enlarged video signal.

Другой способ использования видеосигнала базового слоя в межслойном предсказании текстуры в соответствии с настоящим изобретением содержит этапы, заключающиеся в том, что увеличивают прогрессивный видеосигнал базового слоя в вертикальном и/или горизонтальном направлении, чтобы обеспечить такое же разрешение, как разрешение чересстрочного видеосигнала старшего слоя; и выполняют межслойное предсказание текстуры видеосигнала старшего слоя на основе увеличенного видеосигнала.Another way of using the base layer video signal in the interlayer texture prediction in accordance with the present invention comprises the steps of increasing the progressive video signal of the base layer in the vertical and / or horizontal direction to provide the same resolution as the resolution of the interlaced video signal of the older layer; and perform interlayer prediction of the texture of the video signal of the senior layer based on the enlarged video signal.

В варианте осуществления настоящего изобретения разделение и увеличение видеосигнала выполняется на уровне макроблоков (или на основе макроблоков).In an embodiment of the present invention, video separation and enlargement is performed at the macroblock level (or based on macroblocks).

В другом варианте осуществления настоящего изобретения, разделение и увеличение видеосигнала выполняется на уровне изображений.In another embodiment of the present invention, separation and magnification of the video signal is performed at the image level.

В другом варианте осуществления настоящего изобретения, разделение и увеличение видеосигнала выполняется, если различаются форматы изображений двух слоев, к которым следует применять межслойное предсказание текстуры, т.е. если один слой содержит прогрессивные изображения и другой слой содержит чересстрочные изображения.In another embodiment of the present invention, separation and magnification of the video signal is performed if the image formats of the two layers to which the interlayer texture prediction should be applied, i.e. if one layer contains progressive images and the other layer contains interlaced images.

В другом варианте осуществления настоящего изобретения разделение и увеличение видеосигнала выполняется, если оба изображения двух слоев, к которым следует применять межслойное предсказание текстуры, являются чересстрочными.In another embodiment of the present invention, separation and magnification of the video signal is performed if both images of the two layers to which the interlayer texture prediction is to be applied are interlaced.

Перечень чертежейList of drawings

Фиг.1a и 1b - наглядное представление способов кодирования одного видеоисточника во множество слоев;Figa and 1b is a visual representation of the methods of encoding a single video source into multiple layers;

Фиг.2a и 2b - сокращенное представление конфигурации устройства кодирования видеосигнала, к которому применен способ межслойного предсказания в соответствии с настоящим изобретением;Figures 2a and 2b are an abbreviated configuration view of a video encoding device to which an inter-layer prediction method in accordance with the present invention is applied;

Фиг.2c и 2d - типы последовательностей изображений для кодирования чересстрочного видеосигнала;Figs. 2c and 2d are types of image sequences for encoding an interlaced video signal;

Фиг.3a и 3b - схематичное представление процедуры, по которой строится изображение базового слоя и выполняется деблокинговая фильтрация для межслойного предсказания текстуры в соответствии с вариантом осуществления настоящего изобретения;3a and 3b are a schematic diagram of a procedure by which an image of a base layer is constructed and deblocking filtering is performed for interlayer texture prediction in accordance with an embodiment of the present invention;

Фиг.4a-4f - схематичное представление процедуры, по которой информацию о движении в макроблоке поля виртуального базового слоя, подлежащего использованию для межслойного предсказания движения в макроблоке поля в MBAFF-кадре (кадре с адаптивным к макроблокам кодированием полей), получают с использованием информации о движении в макроблоке кадра в соответствии с вариантом осуществления настоящего изобретения;Figures 4a-4f are a schematic diagram of a procedure in which information about motion in a macroblock of a field of a virtual base layer to be used for interlayer prediction of motion in a macroblock of a field in an MBAFF frame (frame with macroblock adaptive field coding) is obtained using information about movement in a macroblock of a frame in accordance with an embodiment of the present invention;

Фиг.4g - схематичное представление процедуры, по которой информацию о текстуре в паре макроблоков используют для предсказания текстуры в паре макроблоков поля в MBAFF-кадре в соответствии с вариантом осуществления настоящего изобретения;FIG. 4g is a schematic diagram of a procedure in which texture information in a pair of macroblocks is used to predict texture in a pair of field macroblocks in an MBAFF frame in accordance with an embodiment of the present invention;

Фиг.4h - наглядное представление способа преобразования пары макроблоков кадра в пару макроблоков поля в соответствии с вариантом осуществления настоящего изобретения;Fig. 4h is a visual representation of a method for converting a pair of macroblocks of a frame into a pair of macroblocks of a field in accordance with an embodiment of the present invention;

Фиг.5a и 5b - представление процедуры вывода опорного индекса и информации о движении в соответствии с другим вариантом осуществления настоящего изобретения;5a and 5b are a representation of a procedure for deriving a reference index and motion information in accordance with another embodiment of the present invention;

Фиг.6a-6c - схематичное представление процедур, по которым информацию о движении в макроблоке поля виртуального базового слоя получают с использованием информации о движении в макроблоке кадра в соответствии с вариантом осуществления настоящего изобретения;6a-6c are a schematic diagram of procedures in which motion information in a macroblock of a virtual base layer field is obtained using motion information in a macroblock of a frame in accordance with an embodiment of the present invention;

Фиг.6d - схематичное представление процедуры, по которой информацию о текстуре в паре макроблоков кадров используют для предсказания текстуры в макроблоке поля в полевом изображении в соответствии с вариантом осуществления настоящего изобретения;6d is a schematic diagram of a procedure in which texture information in a pair of macroblock frames is used to predict texture in a macroblock of a field in a field image in accordance with an embodiment of the present invention;

Фиг.7a и 7b - представление процедуры вывода опорного индекса и информации о движении в соответствии с другим вариантом осуществления настоящего изобретения;7a and 7b are a representation of a procedure for deriving a reference index and motion information in accordance with another embodiment of the present invention;

Фиг.8a-8c - схематичное представление процедур, по которым информацию о движении в макроблоке кадра из макроблока поля виртуального базового слоя, подлежащую использованию для межслойного предсказания движения, выводят с использованием информации о движении макроблока поля в MBAFF-кадре в соответствии с вариантом осуществления настоящего изобретения;FIGS. 8a-8c are a schematic diagram of procedures in which motion information in a macroblock of a frame from a macroblock of a virtual base layer field to be used for inter-layer motion prediction is output using motion information of a macroblock of a field in an MBAFF frame in accordance with an embodiment of the present inventions;

Фиг.8d - схематичное представление процедуры, по которой информацию о текстуре пары макроблоков полей в MBAFF-кадре используют в предсказании текстуры пары макроблоков кадра в соответствии с вариантом осуществления настоящего изобретения;Fig. 8d is a schematic diagram of a procedure in which texture information of a pair of field macroblocks in an MBAFF frame is used to predict texture of a pair of macroblocks of a frame in accordance with an embodiment of the present invention;

Фиг.8e - схема способа преобразования пары макроблоков полей в пару макроблоков кадра в соответствии с вариантом осуществления настоящего изобретения;Fig. 8e is a diagram of a method for converting a pair of field macroblocks into a pair of frame macroblocks in accordance with an embodiment of the present invention;

Фиг.8f-8g - схематичное представление процедур, по которым информацию о текстуре пары макроблоков полей в MBAFF-кадре используют в межслойном предсказании пары макроблоков кадра, когда только один из пары макроблоков полей является макроблоком inter-режима в соответствии с вариантом осуществления настоящего изобретения;8f-8g is a schematic diagram of procedures in which texture information of a pair of field macroblocks in an MBAFF frame is used in inter-layer prediction of a pair of macroblocks of a frame when only one of the pair of field macroblocks is an inter-mode macroblock in accordance with an embodiment of the present invention;

Фиг.8h - схематичное представление процедуры, по которой информацию о текстуре пары макроблоков полей в MBAFF-кадре используют в предсказании текстуры множества пар макроблоков кадров в соответствии с вариантом осуществления настоящего изобретения;Fig. 8h is a schematic diagram of a procedure in which texture information of a pair of field macroblocks in an MBAFF frame is used in predicting the texture of a plurality of pairs of macroblock frames in accordance with an embodiment of the present invention;

Фиг.9a-9b - схема процедур вывода опорных индексов и информации о движении в соответствии с другим вариантом осуществления настоящего изобретения;Figa-9b is a diagram of the output procedures of reference indices and motion information in accordance with another embodiment of the present invention;

Фиг.10a-10c - схематичное представление процедур, по которым информацию о движении макроблока кадра виртуального базового слоя, подлежащую использованию для межслойного предсказания движения, выводят с использованием информации о движении макроблока поля в полевом изображении в соответствии с вариантом осуществления настоящего изобретения;10a-10c are a schematic diagram of procedures in which macroblock motion information of a virtual base layer frame to be used for interlayer motion prediction is derived using field macroblock motion information in a field image in accordance with an embodiment of the present invention;

Фиг.10d - схематичное представление процедуры, по которой информацию о текстуре макроблока поля в полевом изображении используют в предсказании текстуры пары макроблоков кадра в соответствии с вариантом осуществления настоящего изобретения;10d is a schematic diagram of a procedure in which field macroblock texture information in a field image is used in texture prediction of a pair of macroblock frames in accordance with an embodiment of the present invention;

Фиг.11 - схема процедуры вывода опорных индексов и информации о движении в соответствии с другим вариантом осуществления настоящего изобретения;11 is a diagram of a procedure for deriving reference indices and motion information in accordance with another embodiment of the present invention;

Фиг.12a и 12b - схематичное представление процедур, по которым информацию о движении макроблока кадра виртуального базового слоя, подлежащую использованию для межслойного предсказания движения, выводят с использованием информации о движении макроблока поля в полевом изображении в соответствии с другим вариантом осуществления настоящего изобретения;12a and 12b are a schematic diagram of procedures in which macroblock motion information of a virtual base layer frame to be used for inter-layer motion prediction is derived using field macroblock motion information in a field image in accordance with another embodiment of the present invention;

Фиг.13a-13d - схематичное представление, раздельно по типам изображений, процедур, по которым информацию о движении макроблока поля виртуального базового слоя, подлежащую использованию для межслойного предсказания движения, выводят с использованием информации о движении макроблока поля в соответствии с вариантом осуществления настоящего изобретения;Figa-13d is a schematic representation, separately by type of image, of the procedures by which the motion information of the macroblock field of the virtual base layer to be used for interlayer motion prediction is derived using the motion information of the macroblock field in accordance with an embodiment of the present invention;

Фиг.14a-14k - схематичное представление, раздельно по типам изображений, способов выполнения межслойного предсказания движения, когда пространственные разрешения слоев различаются, в соответствии с множеством различных вариантов осуществления настоящего изобретения;Figa-14k is a schematic representation, separately by image type, of methods for performing inter-layer motion prediction when the spatial resolutions of the layers differ, in accordance with many different embodiments of the present invention;

Фиг.15a и 15b - схематичное представление процедур, по которым изображение базового слоя с отличающимся пространственным разрешением используется в межслойном предсказании текстуры, когда улучшенный слой является прогрессивным и базовый слой является чересстрочным, в соответствии с вариантом осуществления настоящего изобретения;15a and 15b are a schematic diagram of procedures in which an image with a different spatial resolution is used in an interlayer texture prediction when the enhanced layer is progressive and the base layer is interlaced, in accordance with an embodiment of the present invention;

Фиг.16a и 16b - схематичное представление процедур, по которым, чтобы использовать изображение базового слоя в межслойном предсказании текстуры, пара макроблоков в изображении разделяется на макроблоки, и полученные разделением макроблоки увеличиваются в соответствии с вариантом осуществления настоящего изобретения;FIGS. 16a and 16b are a schematic diagram of procedures in which, to use a base layer image in an interlayer texture prediction, a pair of macroblocks in an image are divided into macroblocks, and the obtained macroblocks are enlarged in accordance with an embodiment of the present invention;

Фиг.17a и 17b - схематичное представление процедур, по которым изображение базового слоя с отличающимся пространственным разрешением используется в межслойном предсказании текстуры, когда улучшенный слой является чересстрочным, и базовый слой является прогрессивным в соответствии с вариантом осуществления настоящего изобретения;17a and 17b are a schematic diagram of procedures in which an image with a different spatial resolution is used in an interlayer texture prediction when the enhanced layer is interlaced and the base layer is progressive in accordance with an embodiment of the present invention;

Фиг.18 - схематичное представление процедур, по которым изображение базового слоя с отличающимся пространственным разрешением используется в межслойном предсказании, когда как улучшенный, так и базовый слои являются чересстрочными в соответствии с вариантом осуществления настоящего изобретения;FIG. 18 is a schematic diagram of procedures in which an image with a different spatial resolution is used in an interlayer prediction when both the enhanced and the base layers are interlaced in accordance with an embodiment of the present invention;

Фиг.19a - схематичное представление процедуры, по которой межслойное предсказание применяется, когда улучшенный слой представляет собой последовательность прогрессивных кадров, и различаются типы изображений и временные разрешения двух слоев в соответствии с вариантом осуществления настоящего изобретения;FIG. 19a is a schematic diagram of a procedure in which inter-layer prediction is applied when an enhanced layer is a sequence of progressive frames, and image types and temporal resolutions of two layers are different in accordance with an embodiment of the present invention;

Фиг.19b - схематичное представление процедуры, по которой межслойное предсказание применяется, когда улучшенный слой представляет собой последовательность прогрессивных кадров, и два слоя содержат изображения разных типов и имеют одинаковое разрешение в соответствии с вариантом осуществления настоящего изобретения;Fig. 19b is a schematic diagram of a procedure in which inter-layer prediction is applied when the enhanced layer is a sequence of progressive frames and the two layers contain different types of images and have the same resolution in accordance with an embodiment of the present invention;

Фиг.20 - схематичное представление процедуры, по которой межслойное предсказание применяется, когда базовый слой представляет собой последовательность прогрессивных кадров, и различаются типы изображений и временные разрешения двух слоев в соответствии с вариантом осуществления настоящего изобретения; иFIG. 20 is a schematic diagram of a procedure in which inter-layer prediction is applied when a base layer is a sequence of progressive frames, and image types and temporal resolutions of two layers are different in accordance with an embodiment of the present invention; and

Фиг.21 - схематичное представление процедуры, по которой межслойное предсказание применяется, когда базовый слой представляет собой последовательность прогрессивных кадров, и два слоя содержат изображения разных типов и имеют одинаковое разрешение в соответствии с вариантом осуществления настоящего изобретения.FIG. 21 is a schematic diagram of a procedure in which inter-layer prediction is applied when the base layer is a sequence of progressive frames and the two layers contain different types of images and have the same resolution in accordance with an embodiment of the present invention.

Варианты осуществления изобретенияEmbodiments of the invention

Ниже приведено подробное описание вариантов осуществления настоящего изобретения со ссылкой на прилагаемые чертежи.The following is a detailed description of embodiments of the present invention with reference to the accompanying drawings.

На фиг.2a схематично представлены компоновочные блоки устройства кодирования видеосигнала, к которому применен способ межслойного предсказания в соответствии с настоящим изобретением. Хотя устройство, показанное на фиг.2a, выполнено для кодирования входного видеосигнала в двух слоях, нижеописанные принципы настоящего изобретения применимы также к процессам межслойной обработки, даже когда видеосигнал кодируется в три или больше слоев.Fig. 2a schematically shows the building blocks of a video encoding device to which the inter-layer prediction method in accordance with the present invention is applied. Although the device shown in FIG. 2a is configured to encode an input video signal in two layers, the principles of the present invention described below are also applicable to interlayer processing even when the video signal is encoded in three or more layers.

Способ межслойного предсказания в соответствии с настоящим изобретением в кодере 20 улучшенного слоя (EL-кодере) в устройстве, показанном на фиг.2a. Кодированная информация (информация о движении и информация о текстуре) принимается в кодере 21 базового слоя (BL-кодере). Межслойное предсказание текстуры или предсказание движения выполняется на основании принятой информации. При необходимости, принятая информация декодируется, и предсказание выполняется на основании декодированной информации. Безусловно, в настоящем изобретении входной видеосигнал может быть кодирован с использованием видеоисточника 3 базового слоя, который уже кодирован, как показано на фиг.2b. В данном случае применяется такой же способ межслойного предсказания, как описанный ниже.An interlayer prediction method in accordance with the present invention in an Enhanced Layer Encoder 20 (EL encoder) in the apparatus shown in FIG. 2a. The coded information (motion information and texture information) is received in the encoder 21 of the base layer (BL encoder). Interlayer texture prediction or motion prediction is performed based on the received information. If necessary, the received information is decoded, and prediction is performed based on the decoded information. Of course, in the present invention, the input video signal can be encoded using the video source 3 of the base layer, which is already encoded, as shown in fig.2b. In this case, the same interlayer prediction method as described below is used.

В случае, показанном на фиг.2a, возможны два способа, которыми BL-кодер 21 кодирует чересстрочный видеосигнал или которыми кодирован кодированный видеоисточник 3, показанный на фиг.2b. В частности, по одному из двух способов чересстрочный видеосигнал просто, поле за полем, кодируется в последовательность полей, как показано на фиг.3a, и по другому способу кадры кодируются в последовательность кадров посредством построения каждого кадра последовательности парами макроблоков из двух (четного и нечетного) полей, как показано на фиг.3b. Верхний макроблок из пары макроблоков в кадре, кодированном таким образом, называется «верхним макроблоком», и нижний макроблок называется «нижним макроблоком». Если верхний макроблок состоит из видеокомпонента четного (или нечетного) поля, то нижний макроблок состоит из видеокомпонента нечетного (или четного) поля. Построение кадра упомянутым способом называется кадром с адаптивным к макроблокам кодированием полей (MBAFF). MBAFF-кадр может содержать не только пары макроблоков, содержащих, каждая, макроблоки нечетного и четного полей, но также пары макроблоков, содержащих, каждая, два макроблока кадра.In the case shown in FIG. 2a, there are two possible ways in which the BL encoder 21 encodes the interlaced video signal or by which the encoded video source 3 shown in FIG. 2b is encoded. In particular, in one of the two ways, the interlaced video signal is simple, field by field, encoded into a sequence of fields, as shown in Fig. 3a, and in another way, frames are encoded into a sequence of frames by constructing each frame in a sequence of pairs of macroblocks of two (even and odd ) fields, as shown in fig.3b. The upper macroblock of the pair of macroblocks in the frame encoded in this way is called the “upper macroblock”, and the lower macroblock is called the “lower macroblock”. If the upper macroblock consists of a video component of an even (or odd) field, then the lower macroblock consists of a video component of an odd (or even) field. The construction of a frame by the above method is called a frame with macroblock adaptive field coding (MBAFF). An MBAFF frame can contain not only pairs of macroblocks containing, each, macroblocks of odd and even fields, but also pairs of macroblocks, each containing two macroblocks of a frame.

Соответственно, когда макроблок в изображении содержит чересстрочный видеокомпонент, он может быть макроблоком в поле и может быть также макроблоком в кадре. Каждый макроблок, содержащий чересстрочный видеокомпонент, называется макроблоком поля, тогда как каждый макроблок, содержащий прогрессивный (с прогрессивной разверткой) видеокомпонент, называется макроблоком кадра.Accordingly, when the macroblock in the image contains an interlaced video component, it can be a macroblock in a field and can also be a macroblock in a frame. Each macroblock containing an interlaced video component is called a field macroblock, while each macroblock containing a progressive (progressive scan) video component is called a frame macroblock.

Таким образом, способ межслойного предсказания необходимо определить путем определения того, является ли каждый из типов макроблока, подлежащего кодированию в EL-кодере 20, и макроблок базового слоя, подлежащего использованию в межслойном предсказании макроблока, типом макроблока кадра или типом макроблока поля. Если макроблок является макроблоком поля, то способ межслойного предсказания необходимо определить путем определения, является ли упомянутый макроблок макроблоком поля в поле или в MBAFF-кадре.Thus, the interlayer prediction method must be determined by determining whether each of the types of macroblock to be encoded in the EL encoder 20 and the macroblock of the base layer to be used in the interlayer prediction of the macroblock are the type of macroblock of the frame or the type of macroblock of the field. If the macroblock is a field macroblock, then the inter-layer prediction method must be determined by determining whether the macroblock is a field macroblock in a field or in an MBAFF frame.

Способ будет описан отдельно для каждого случая. Перед описанием сделано допущение, что разрешение текущего слоя равно разрешению базового слоя. То есть принято, что тип пространственной масштабируемости (SpatialScalabilityType()) является нулевым. Описание случая, когда разрешение текущего слоя выше, чем разрешение базового слоя, будет дано позже. В нижеследующих описании и чертежах, термины «верхний» и «четный» (или нечетный) используются взаимозаменяемо, и термины «нижний» и «нечетный» (или четный) используются взаимозаменяемо.The method will be described separately for each case. Before the description, an assumption is made that the resolution of the current layer is equal to the resolution of the base layer. That is, it is assumed that the type of spatial scalability (SpatialScalabilityType ()) is zero. A description of the case when the resolution of the current layer is higher than the resolution of the base layer will be given later. In the following description and drawings, the terms “upper” and “even” (or odd) are used interchangeably, and the terms “lower” and “odd” (or even) are used interchangeably.

Чтобы выполнить межслойное предсказание для кодирования или декодирования улучшенного слоя с использованием базового слоя, сначала необходимо декодировать базовый слой. Поэтому далее сначала приведено описание декодирования базового слоя.In order to perform inter-layer prediction for encoding or decoding an enhanced layer using a base layer, it is first necessary to decode the base layer. Therefore, the following first describes the decoding of the base layer.

Когда декодируется базовый слой, декодируется не только информация о движении в базовом слое, например режимы разбиения, опорные индексы и векторы движения, но также текстура базового слоя.When a base layer is decoded, not only motion information in the base layer is decoded, for example, split modes, reference indices and motion vectors, but also the texture of the base layer.

Когда декодируется текстура базового слоя для межслойного предсказания текстуры, декодируются не все данные отсчетов видеообъектов базового слоя, чтобы уменьшить загрузку декодера. В макроблоках, обработанных в так называемом intra-режиме (режиме внутрикадрового кодирования, далее по тексту иногда intra-макроблоках), декодируются данные отсчетов видеообъектов, а в макроблоках, обработанных в так называемом inter-режиме (режиме межкадрового кодирования, далее по тексту иногда inter-макроблоках), декодируются без компенсации движения по отношению к соседним изображениям лишь остаточные данные, которые являются данными ошибок между данными отсчетов видеообъектов.When the base layer texture is decoded for interlayer texture prediction, not all sample data of the video objects of the base layer is decoded to reduce decoder load. In macroblocks processed in the so-called intra-mode (intra-frame coding mode, hereinafter sometimes referred to as intra-macroblocks), the data of video object samples are decoded, and in macroblocks processed in the so-called inter-mode (interframe coding mode, hereinafter sometimes inter macroblocks), only residual data, which is the error data between the sample data of video objects, is decoded without motion compensation with respect to neighboring images.

Кроме того, декодирование текстуры базового слоя для межслойного предсказания текстуры выполняется по изображениям, а не по макроблокам, чтобы строить изображения базового слоя, которые по времени совпадают с изображениями улучшенного слоя. Изображение базового слоя строится по данным отсчетов видеообъектов, реконструированным из intra-макроблоков, и остаточным данным, декодированным из inter-макроблоков, как описано выше.In addition, decoding the texture of the base layer for interlayer texture prediction is performed using images, rather than macroblocks, to construct images of the base layer that coincide in time with the images of the enhanced layer. The image of the base layer is constructed according to the data of video object samples reconstructed from intra-macroblocks and residual data decoded from inter-macroblocks, as described above.

Компенсация и преобразование движения в режиме intra или режиме inter, например, DCT (дискретное косинусное преобразование) и квантование выполняются по блокам видеообъектов, например, по 16×16 макроблокам или 4×4 субблокам. Это вызывает искажение изображений артефактами блочности на границах блоков. Для подавления упомянутых артефактов блочности применяют деблокинговую фильтрацию. Деблокинговый фильтр сглаживает контуры блоков видеообъектов для повышения качества видеокадров.Compensation and motion conversion in intra mode or inter mode, for example, DCT (discrete cosine transform) and quantization are performed on blocks of video objects, for example, 16 × 16 macroblocks or 4 × 4 sub-blocks. This causes image artifacts to become distorted at block boundaries. To suppress said blocking artifacts, deblocking filtering is used. The deblocking filter smooths outlines of blocks of video objects to improve the quality of video frames.

Следует ли или нет применять деблокинговую фильтрацию для подавления искажений блочности, зависит от яркости блоков видеообъектов на границах и градиентов пикселей около границ. Мощность или степень деблокингового фильтра определяется по параметру квантования, intra-режиму, inter-режиму, режиму разбиения на блоки, указывающему размер блоков или чего-то подобного, вектору движения, значению пикселя перед деблокинговой фильтрацией и т.п.Whether or not to apply deblocking filtering to suppress blocking distortions depends on the brightness of the blocks of video objects at the borders and the gradients of pixels near the borders. The power or degree of the deblocking filter is determined by the quantization parameter, intra-mode, inter-mode, blocking mode, indicating the size of blocks or something like that, motion vector, pixel value before deblocking filtering, etc.

Деблокинговый фильтр при межслойном предсказании применяется к intra-макроблоку в изображении базового слоя, которое является основой для предсказания текстуры в макроблоке улучшенного слоя, обработанном в базовом intra-режиме (режиме внутрикадрового кодирования базового слоя (intraBL-режиме) или режиме внутрикадрового кодирования с межслойным предсказанием).The interlayer prediction deblocking filter is applied to the intra macroblock in the base layer image, which is the basis for texture prediction in the enhanced layer macroblock processed in the intra intra mode (intra layer coding mode of the base layer (intraBL mode) or the interframe coding mode with interlayer prediction )

Когда каждый из двух слоев, подлежащих кодированию в соответствии со способом межслойного предсказания, кодируется в последовательность изображений полей, как показано на фиг.2c, каждый из двух слоев считается имеющим кадровый формат, так что, исходя из процессов кодирования для кадрового формата, можно легко вывести процессы кодирования/декодирования, включая деблокинговую фильтрацию.When each of the two layers to be encoded in accordance with the interlayer prediction method is encoded into a sequence of field images, as shown in FIG. 2c, each of the two layers is considered to have a frame format, so that, based on the encoding processes for the frame format, it can be easily output encoding / decoding processes, including deblocking filtering.

Способ для выполнения деблокинговой фильтрации в соответствии с вариантом осуществления описан ниже для случая, когда формат изображения базового слоя отличается от формата изображения улучшенного слоя, т.е. для случая, когда улучшенный слой имеет кадровый (или прогрессивный) формат и базовый слой имеет полевой (или чересстрочный формат) формат, для случая, когда улучшенный слой имеет полевой формат и базовый слой имеет кадровый формат, или для случая, когда какой-то один из улучшенного и базового слоев кодирован в последовательность изображений полей и другой кодирован в виде MBAFF-кадра, хотя как улучшенный, так и базовый слои имеют полевой формат, как показано на фиг.2c и 2d.A method for performing deblocking filtering in accordance with an embodiment is described below for the case where the image format of the base layer is different from the image format of the enhanced layer, i.e. for the case when the enhanced layer has a frame (or progressive) format and the base layer has a field (or interlaced format) format, for the case when the enhanced layer has a field format and the base layer has a frame format, or for the case when one from the enhanced and base layers, it is encoded into a sequence of field images and the other is encoded as an MBAFF frame, although both the enhanced and base layers have a field format, as shown in FIGS. 2c and 2d.

На фиг.3a и 3b схематично представлены процедуры, по которым строится изображение базового слоя, чтобы выполнять деблокинговую фильтрацию для межслойного предсказания текстуры в соответствии с вариантами осуществления настоящего изобретения.3a and 3b schematically illustrate the procedures by which an image of a base layer is constructed in order to perform deblocking filtering for interlayer texture prediction in accordance with embodiments of the present invention.

На фиг.3a представлен вариант осуществления, в котором улучшенный слой имеет кадровый формат и базовый слой имеет полевой формат, и на фиг.3b представлен вариант осуществления, в котором улучшенный слой имеет полевой формат и базовый слой имеет кадровый формат.FIG. 3a shows an embodiment in which the enhanced layer has a frame format and the base layer has a field format, and FIG. 3b shows an embodiment in which the enhanced layer has a field format and the base layer has a frame format.

В данных вариантах осуществления, для межслойного предсказания текстуры, текстура inter-макроблока и intra-макроблока базового слоя декодируется для построения изображения базового слоя, содержащего данные отсчетов видеообъектов и остаточные данные, и построенное изображение подвергается сверхдискретизации в соответствии с отношением между разрешением (или размером экрана) базового слоя и разрешением (или размером экрана) улучшенного слоя после того, как построенное изображение обработано деблокинговым фильтром для подавления артефактов блочности.In these embodiments, for interlayer texture prediction, the texture of the inter-macroblock and intra-macroblock of the base layer is decoded to construct an image of the base layer containing sample data of video objects and residual data, and the constructed image is oversampled in accordance with the relationship between resolution (or screen size ) the base layer and the resolution (or screen size) of the enhanced layer after the constructed image is processed by a deblocking filter to suppress artifact in blocking.

Первый способ (способ 1), показанный на фиг.3a и 3b, представляет собой способ, по которому базовый слой разделяется на два полевых изображения для выполнения деблокинговой фильтрации. По этому способу, когда улучшенный слой создается с использованием базового слоя, кодированного в отличающемся формате изображения, изображение базового слоя разбивается на изображение четного поля и изображение нечетного поля, и два полевых изображения подвергаются деблокингу (т.е. деблокинговой фильтрации) и сверхдискретизации. Затем два изображения объединяются в одно изображение, и межслойное предсказание текстуры выполняется по одному изображению.The first method (method 1) shown in FIGS. 3a and 3b is a method in which the base layer is divided into two field images to perform deblocking filtering. In this method, when an enhanced layer is created using a base layer encoded in a different image format, the image of the base layer is divided into an even field image and an odd field image, and two field images are subjected to deblocking (i.e., deblocking filtering) and oversampling. Then the two images are combined into one image, and the interlayer texture prediction is performed on one image.

Первый способ содержит следующие три этапа.The first method contains the following three steps.

На этапе разделения (этапе 1) изображение базового слоя разделяется на изображение верхнего поля (или четного поля), содержащее четные строки, и изображение нижнего поля (или нечетного поля), содержащее нечетные строки. Изображение базового слоя представляет собой видеоизображение, содержащее остаточные данные (данные inter-режима) и данные отсчетов видеообъектов (данные intra-режима), которое восстанавливается из потока данных базового слоя посредством компенсации движения.In the separation step (step 1), the image of the base layer is divided into the image of the upper field (or even field) containing even lines and the image of the lower field (or odd field) containing odd lines. The image of the base layer is a video image containing residual data (inter-mode data) and sample data of video objects (intra-mode data), which is restored from the base layer data stream by means of motion compensation.

На этапе деблокинга (этапе 2) изображения полей, разбитые на этапе разделения, деблокируются деблокинговым фильтром. В данном случае, обычный деблокинговый фильтр применим в качестве деблокингового фильтра.At the deblocking step (step 2), the field images broken up at the separation step are released by the deblocking filter. In this case, a conventional deblocking filter is applicable as a deblocking filter.

Когда разрешение улучшенного слоя отличается от разрешения базового слоя, деблокированные изображения полей подвергаются сверхдискретизации в соответствии с отношением между разрешением улучшенного слоя и разрешением базового слоя.When the resolution of the enhanced layer differs from the resolution of the base layer, the unlocked field images are oversampled in accordance with the relationship between the resolution of the enhanced layer and the resolution of the base layer.

На этапе объединения (этап 3) сверхдискретизованное изображение верхнего поля и сверхдискретизованное изображение нижнего поля чересстрочно перемежаются для объединения в одно изображение. Затем выполняется предсказание текстуры улучшенного слоя на основе одного изображения.In the combining step (step 3), the oversampled image of the upper field and the oversampled image of the lower field are interlaced alternately to combine into one image. Then, texture prediction of the enhanced layer based on a single image is performed.

Согласно второму способу (способ 2), представленному на фиг.3a и 3b, по которому улучшенный слой создается с использованием базового слоя, кодированного в отличающемся формате изображения, изображение базового слоя деблокируется непосредственно и подвергается сверхдискретизации без разбиения на два изображения полей, и межслойное предсказание текстуры выполняется на основе полученного изображения.According to the second method (method 2) shown in FIGS. 3a and 3b, in which an enhanced layer is created using a base layer encoded in a different image format, the image of the base layer is directly unlocked and subjected to oversampling without splitting into two field images, and interlayer prediction The texture is based on the resulting image.

Согласно второму способу изображение базового слоя, которое соответствует изображению улучшенного слоя, подлежащему кодированию при посредстве межслойного предсказания текстуры, деблокируется напрямую, без его разбиения на изображения верхнего и нижнего полей, и затем подвергается сверхдискретизации. Затем, выполняется предсказание текстуры улучшенного слоя по сверхдискретизованному изображению.According to the second method, the image of the base layer, which corresponds to the image of the enhanced layer to be encoded by means of inter-layer texture prediction, is released directly, without dividing it into images of the upper and lower fields, and then is subjected to oversampling. Then, texture prediction of the enhanced layer from the oversampled image is performed.

Деблокинговый фильтр для обработки изображения базового слоя, построенный для межслойного предсказания движения, применяется только к области, содержащей данные отсчетов видеообъектов, декодированные из intra-макроблоков, без применения к области, содержащей остаточные данные.The de-blocking filter for processing the image of the base layer, constructed for inter-layer motion prediction, is applied only to the region containing sample data of video objects decoded from intra-macroblocks, without applying to the region containing residual data.

В случае когда базовый слой кодирован в полевом формате, показанном на фиг.3a, т.е. когда базовый слой кодирован в последовательность изображений полей, как показано на фиг.2c, или в MBAFF-кадр, как показано на фиг.2d, для применения второго способа необходимо выполнить процесс чересстрочного перемежения строк изображений верхнего и нижнего полей, чтобы объединить их в одно изображение (в случае, показанном на фиг.2c), или чересстрочного перемежения строк верхнего и нижнего макроблоков из пар макроблоков полей, чтобы объединить их в одно изображение (в случае, показанном на фиг.2d). Вышеописанный процесс далее подробно описан со ссылкой на фиг.8d и 8e. Изображения верхнего и нижнего полей или верхний и нижний макроблоки, подлежащие чересстрочному перемежению, являются изображениями или макроблоками полей, содержащими остаточные данные (данные inter-режима) и данные отсчетов видеообъектов (данные intra-режима), восстановленные с компенсацией движения.In the case where the base layer is encoded in the field format shown in Fig. 3a, i.e. when the base layer is encoded into a sequence of field images, as shown in Fig. 2c, or in an MBAFF frame, as shown in Fig. 2d, to apply the second method, it is necessary to perform the process of interlacing interleaving lines of images of the upper and lower fields to combine them into one image (in the case shown in FIG. 2c), or interlaced alternating rows of upper and lower macroblocks from pairs of field macroblocks to combine them into one image (in the case shown in FIG. 2d). The above process is further described in detail with reference to fig.8d and 8e. Images of the upper and lower fields, or the upper and lower macroblocks subject to interlacing, are images or macroblocks of fields containing residual data (inter-mode data) and sample data of video objects (intra-mode data) restored with motion compensation.

Кроме того, в случае когда верхний и нижний макроблоки из пары макроблоков полей (базового слоя) в MBAFF-кадре, показанные на фиг.2d, различаются режимами, и из упомянутых макроблоков выбираются блоки intra-режима, подлежащие использованию для межслойного предсказания текстуры пар макроблоков улучшенного слоя (в нижеописанном случае, показанном на фиг.8g), в случае когда любой кадр (изображение) в базовом слое, кодированном в пары макроблоков полей в MBAFF-кадре, как показано на фиг.2d, не совпадает по времени с изображением улучшенного слоя (в нижеописанном случае, показанном на фиг.8h), или в случае когда текстура улучшенного слоя в парах макроблоков предсказывается из базового слоя макроблоков полей в изображениях полей, как показано на фиг.2c (в нижеописанном случае, показанном на фиг.10d), выбранный макроблок из макроблоков полей подвергается сверхдискретизации в промежуточную пару макроблоков («841» на фиг.8g и «851» и «852» на фиг.8h) или два промежуточных макроблока («1021» на фиг.10d), и деблокинговый фильтр обрабатывает intra-макроблоки из упомянутых макроблоков.In addition, in the case where the upper and lower macroblocks from the pair of field macroblocks (base layer) in the MBAFF frame shown in Fig. 2d differ in modes, and intra-mode blocks are selected from the macroblocks to be used for interlayer prediction of the texture of macroblock pairs improved layer (in the case described below, shown in fig.8g), in the case when any frame (image) in the base layer encoded into pairs of macroblock fields in the MBAFF frame, as shown in fig.2d, does not coincide in time with the image improved layer (in the description below 8h), or in the case where the texture of the enhanced layer in pairs of macroblocks is predicted from the base layer of macroblock fields in field images, as shown in FIG. 2c (in the case described below in FIG. 10d), the selected macroblock from the macroblocks of the fields, it is oversampled into an intermediate pair of macroblocks (“841” in FIG. 8g and “851” and “852” in FIG. 8h) or two intermediate macroblocks (“1021” in FIG. 10d), and the deblocking filter processes intra- macroblocks from said macroblocks.

Межслойное предсказание текстуры, поясняемое в контексте множества нижеследующих вариантов осуществления, выполняется на основе деблокированных изображений базового слоя, описанных в связи с вариантом осуществления, показанном на фиг.3a и 3b.The interlayer texture prediction explained in the context of the plurality of the following embodiments is based on the unlocked base layer images described in connection with the embodiment shown in FIGS. 3a and 3b.

Ниже приведено описание межслойного способа предсказания по отдельности для каждого случая, классифицируемого в зависимости от типа макроблоков в текущем слое, подлежащем кодированию, и типа макроблоков в базовом слое, подлежащем использованию для межслойного предсказания макроблоков текущего слоя. В описании предполагается, что пространственное разрешение текущего слоя равно пространственному разрешению базового слоя, как изложено выше.The following is a description of the interlayer prediction method separately for each case, classified according to the type of macroblocks in the current layer to be encoded and the type of macroblocks in the base layer to be used for interlayer prediction of macroblocks of the current layer. The description assumes that the spatial resolution of the current layer is equal to the spatial resolution of the base layer, as described above.

I. Случай: MB (макроблок) кадра -> MB поля в MBAFF-кадреI. Case: MB (macroblock) of a frame -> MB field in an MBAFF frame

В этом случае макроблоки в текущем слое (EL) кодированы в макроблоки полей в MBAFF-кадре, и макроблоки в базовом слое, подлежащие использованию для межслойного предсказания макроблоков текущего слоя, кодированы в макроблоки кадров. Составляющие видеосигнала, содержащиеся как в верхнем, так и нижнем макроблоках в базовом слое, являются такими же, как составляющие видеосигнала, содержащиеся в паре совмещенных макроблоков в текущем слое. Вышерасположенный и нижерасположенный (верхний и нижний) макроблоки именуются в дальнейшем парой макроблоков, и термин «пара» служит в дальнейшем описании для обозначения пары вертикально смежных блоков. Далее сначала приведено описание межслойного предсказания движения.In this case, macroblocks in the current layer (EL) are encoded into field macroblocks in an MBAFF frame, and macroblocks in the base layer to be used for interlayer prediction of macroblocks of the current layer are encoded into macroblocks of frames. The video components contained in both the upper and lower macroblocks in the base layer are the same as the video components contained in a pair of aligned macroblocks in the current layer. The upstream and downstream (upper and lower) macroblocks are hereinafter referred to as a pair of macroblocks, and the term “pair” in the following description refers to a pair of vertically adjacent blocks. The following is a first description of the interlayer motion prediction.

В качестве режимов разбиения текущего макроблока EL-кодер 20 применяет режимы разбиения макроблока, получаемые при объединении пары макроблоков 410 базового слоя в один макроблок (путем сжатия до половины размера в вертикальном направлении). На фиг.4a изображен подробный пример упомянутого процесса. Как показано, во-первых, соответствующая пара макроблоков 410 базового слоя объединяется в один макроблок (S41), и режимы разбиения макроблока, получаемые при объединении, воспроизводятся в другом для построения пары макроблоков 411 (S42). Затем, соответствующие режимы разбиения пары макроблоков 411 применяются к паре макроблоков 412 виртуального базового слоя (S43).As the split modes of the current macroblock, the EL encoder 20 applies macroblock split modes obtained by combining a pair of macroblocks 410 of the base layer into one macroblock (by compressing to half the size in the vertical direction). Fig. 4a shows a detailed example of said process. As shown, firstly, the corresponding pair of macroblocks 410 of the base layer is combined into one macroblock (S41), and the partitioning modes of the macroblock obtained by combining are reproduced in another to build a pair of macroblocks 411 (S42). Then, the respective split modes of the pair of macroblocks 411 are applied to the pair of macroblocks 412 of the virtual base layer (S43).

Однако, когда соответствующая пара макроблоков 410 объединяется в один макроблок, возможно создание области разбиения, которая является запрещенной в режиме разбиения. Для предотвращения такой возможности, EL-кодер 20 определяет режим разбиения по следующим правилам.However, when the corresponding pair of macroblocks 410 are combined into one macroblock, it is possible to create a partition area that is prohibited in the partition mode. To prevent this, the EL encoder 20 determines the split mode according to the following rules.

1) Два, верхний и нижний, блока 8×8 («B8_0» и «B8_2» на фиг.4a) в паре макроблоков базового слоя объединяются в один блок 8×8. Однако, если какой-либо из соответствующих блоков 8×8 не подразбит, то они объединяются в два блока 8×4, и, если какой-либо из соответствующих блоков 8×8 подразбит, то они объединяются в четыре блока 4×4 («401» на фиг.4a).1) Two, upper and lower, 8 × 8 blocks (“B8_0” and “B8_2” in Fig. 4a) in a pair of macroblocks of the base layer are combined into one 8 × 8 block. However, if any of the corresponding 8 × 8 blocks is not subdivided, then they are combined into two 8 × 4 blocks, and if any of the corresponding 8 × 8 blocks are subdivided, then they are combined into four 4 × 4 blocks (" 401 "in Fig. 4a).

2) Блок 8×16 базового слоя сжимается до блока 8×8, блок 16×8 преобразуется в два смежных блока 8×4, и блок 16×16 преобразуется в блок 16×8.2) An 8 × 16 block of the base layer is compressed to an 8 × 8 block, a 16 × 8 block is converted to two adjacent 8 × 4 blocks, and a 16 × 16 block is converted to a 16 × 8 block.

Если, по меньшей мере, один из пары соответствующих макроблоков кодирован в intra-режиме, то EL-кодер 20 сначала выполняет нижеследующие процессы обработки перед процессом объединения.If at least one of the pair of corresponding macroblocks is intra-mode encoded, then the EL encoder 20 first performs the following processing processes before the combining process.

Если только один из двух макроблоков кодирован в intra-режиме, то информация о движении inter-макроблока, например режимы разбиения макроблока, опорные индексы и векторы движения, копируется в intra-макроблок, как показано на фиг.4b, или intra-макроблок считается inter-макроблоком 16×16 с нулевыми векторами движения и нулевыми опорными индексами, как показано на фиг.4c. В альтернативном варианте, как показано на фиг.4d, опорные индексы intra-макроблока присваиваются копированием опорных индексов inter-макроблока в intra-макроблок, и intra-макроблоку назначаются нулевые векторы движения. Затем выполняется вышеупомянутый процесс объединения, и затем выполняется процедура вывода опорных индексов и векторов движения в нижеописанном порядке.If only one of the two macroblocks is encoded in intra-mode, then information about the movement of the inter-macroblock, for example, macroblock partition modes, reference indices and motion vectors, is copied to the intra-macroblock, as shown in Fig. 4b, or the intra-macroblock is considered inter a 16 × 16 macroblock with zero motion vectors and zero reference indices, as shown in FIG. 4c. Alternatively, as shown in FIG. 4d, reference indices of an intra-macroblock are assigned by copying reference indices of an inter-macroblock to an intra-macroblock, and zero motion vectors are assigned to the intra-macroblock. Then, the aforementioned combining process is performed, and then the derivation of reference indices and motion vectors is performed in the order described below.

EL-кодер 20 выполняет следующий процесс для вывода опорных индексов текущей пары макроблоков 412 из опорных индексов соответствующей пары макроблоков 410.The EL encoder 20 performs the following process to derive reference indices of the current pair of macroblocks 412 from the reference indices of the corresponding pair of macroblocks 410.

Если каждый из пары блоков 8×8 базового слоя, соответствующих текущему блоку 8×8, подразделен на одинаковое число частей, то опорный индекс одного (верхнего или нижнего блока) пары блоков 8×8 определяется равным опорному индексу текущего блока 8×8. В ином случае, опорный индекс одного из пары блоков 8×8, который подразделен на меньшее число частей, определяется равным опорному индексу текущего блока 8×8.If each of a pair of 8 × 8 blocks of the base layer corresponding to the current 8 × 8 block is subdivided into the same number of parts, then the reference index of one (upper or lower block) of the 8 × 8 block pair is determined equal to the reference index of the current 8 × 8 block. Otherwise, the reference index of one of the pair of 8 × 8 blocks, which is divided into fewer parts, is determined to be equal to the reference index of the current 8 × 8 block.

В другом варианте осуществления настоящего изобретения, меньший из опорных индексов, присвоенных паре блоков 8×8 базового слоя, соответствующих текущему блоку 8×8, определяется равным опорному индексу текущего блока 8×8. Такой способ определения, показанный в примере на фиг.4e, можно выразить следующим образом:In another embodiment of the present invention, the smaller of the reference indices assigned to the pair of 8 × 8 blocks of the base layer corresponding to the current 8 × 8 block is determined to be the reference index of the current 8 × 8 block. Such a determination method, shown in the example of FIG. 4e, can be expressed as follows:

опорный индекс текущего B8_0 = min(опорный индекс из B8_0 верхнего MB кадра базового слоя, опорный индекс из B8_2 верхнего MB кадра базового слоя),reference index of the current B8_0 = min (reference index of B8_0 of the upper MB frame of the base layer, reference index of B8_2 of the upper MB frame of the base layer),

опорный индекс текущего B8_1 = min(опорный индекс из B8_1 верхнего MB кадра базового слоя, опорный индекс из B8_3 верхнего MB кадра базового слоя),reference index of the current B8_1 = min (reference index of B8_1 of the upper MB of the base layer frame, reference index of B8_3 of the upper MB of the base layer frame),

опорный индекс текущего B8_2 = min(опорный индекс из B8_0 нижнего MB кадра базового слоя, опорный индекс из B8_2 нижнего MB кадра базового слоя), иa reference index of the current B8_2 = min (a reference index of B8_0 of the lower MB of the base layer frame, a reference index of B8_2 of the lower MB of the base layer frame), and

опорный индекс текущего B8_3 = min(опорный индекс из B8_1 нижнего MB кадра базового слоя, опорный индекс из B8_3 нижнего MB кадра базового слоя).reference index of the current B8_3 = min (reference index from B8_1 of the lower MB of the base layer frame, reference index of B8_3 of the lower MB of the base layer frame).

Вышеописанная процедура вывода опорных индексов применима как к верхним, так и нижним макроблокам полей. Опорный индекс каждого блока 8×8, найденного таким образом, умножается на 2, и умноженный опорный индекс определяется равным его окончательному опорному индексу. Основанием для такого умножения является то, что, при декодировании, число изображений является удвоенным числом изображений в последовательности кадров, поскольку макроблоки полей принадлежат изображениям, разбитым на четные и нечетные поля. В зависимости от алгоритма декодирования, окончательный опорный индекс нижнего макроблока поля может определяться умножением его опорного индекса на 2 и затем прибавлением 1 к умноженному опорному индексу.The above procedure for deriving reference indices is applicable to both upper and lower macroblocks of fields. The reference index of each 8 × 8 block thus found is multiplied by 2, and the multiplied reference index is determined to be equal to its final reference index. The reason for this multiplication is that, when decoding, the number of images is twice the number of images in the sequence of frames, since the macroblocks of the fields belong to images divided into even and odd fields. Depending on the decoding algorithm, the final reference index of the lower macroblock of the field can be determined by multiplying its reference index by 2 and then adding 1 to the multiplied reference index.

Ниже описана процедура, по которой EL-кодер 20 получает векторы движения пары макроблоков виртуального базового слоя.The following describes the procedure by which the EL encoder 20 receives the motion vectors of a pair of macroblocks of a virtual base layer.

Векторы движения определяются по блокам 4×4, и следовательно, соответствующий блок 4×8 базового слоя определяется так, как показано на фиг.4f. Если соответствующий блок 4×8 подразделен, то вектор движения его верхнего или нижнего блока 4×4 определяется равным вектору движения текущего блока 4×4. В ином случае, вектор движения соответствующего блока 4×8 определяется равным вектору движения текущего блока 4×4. Найденный вектор движения, вертикальная компонента которого разделена на 2, применяется в качестве окончательного векторы движения текущего блока 4×4. Основанием для такого деления является то, что видеокомпонента, содержащаяся в двух макроблоках кадра, соответствует видеокомпоненте одного макроблока поля, так что размер полевого видеообъекта уменьшается вдвое в вертикальном направлении.The motion vectors are determined by 4 × 4 blocks, and therefore, the corresponding 4 × 8 block of the base layer is determined as shown in FIG. 4f. If the corresponding 4 × 8 block is subdivided, then the motion vector of its upper or lower 4 × 4 block is determined equal to the motion vector of the current 4 × 4 block. Otherwise, the motion vector of the corresponding 4 × 8 block is determined equal to the motion vector of the current 4 × 4 block. The found motion vector, the vertical component of which is divided into 2, is used as the final motion vector of the current 4 × 4 block. The reason for this division is that the video component contained in two macroblocks of the frame corresponds to the video component of one macroblock of the field, so that the size of the field video object is halved in the vertical direction.

После того, как информация о движении в паре макроблоков 412 поля виртуального базового слоя определена вышеописанным образом, информация о движении используется для межслойного предсказания движения искомой пары макроблоков 413 полей улучшенного слоя. Кроме того, в нижеследующем описании, после того, как информация о движении в макроблоке или паре макроблоков виртуального базового слоя определена, информация о движении используется для межслойного предсказания движения в соответствующем макроблоке или соответствующей паре макроблоков текущего слоя. В нижеследующем описании предполагается, что такой процесс применяется даже без напоминания, что информация о движении в макроблоке или паре макроблоков виртуального базового слоя используется для межслойного предсказания движения в соответствующем макроблоке или соответствующей паре макроблоков текущего слоя.After the motion information in the pair of macroblock 412 fields of the virtual base layer is defined as described above, the motion information is used to interlayerly predict the motion of the desired pair of macroblocks 413 of the enhanced layer fields. In addition, in the following description, after the motion information in the macroblock or macroblock pair of the virtual base layer is determined, the motion information is used for interlayer motion prediction in the corresponding macroblock or the corresponding macroblock pair of the current layer. In the following description, it is assumed that such a process is applied even without a reminder that motion information in a macroblock or macroblock pair of a virtual base layer is used for interlayer motion prediction in the corresponding macroblock or corresponding macroblock pair of the current layer.

На фиг.5a схематично показано, как информация о движении в паре макроблоков 500 полей виртуального базового слоя, подлежащая использованию для межслойного предсказания, выводится из информации о движении в паре макроблоков 500 кадра базового слоя, соответствующих текущей паре макроблоков, в соответствии с другим вариантом осуществления настоящего изобретения. В этом варианте осуществления, как показано, опорный индекс верхнего или нижнего блока 8×8 верхнего макроблока из пары макроблоков кадра базового слоя применяется как опорный индекс верхнего блока 8×8 каждого из пары макроблоков 500 полей виртуального базового слоя, и опорный индекс верхнего или нижнего блока 8×8 нижнего макроблока базового слоя применяется как опорный индекс нижнего блока 8×8 каждого макроблока в паре макроблоков 500 полей. С другой стороны, как показано, вектор движения самого верхнего блока 4×4 верхнего макроблока из пары макроблоков кадра базового слоя обычно применяется для самого верхнего блока 4×4 каждого макроблока в паре макроблоков 500 полей виртуального базового слоя, вектор движения третьего блока 4×4 верхнего макроблока из пары макроблоков кадра базового слоя обычно применяется для второго блока 4×4 каждого макроблока в паре макроблоков 500 полей, вектор движения самого верхнего блока 4×4 нижнего макроблока из пары макроблоков кадра базового слоя обычно применяется для третьего блока 4×4 каждого макроблока в паре макроблоков 500 полей, и вектор движения третьего блока 4×4 нижнего макроблока из пары макроблоков кадра базового слоя обычно применяется для четвертого 4x4 блока 4×4 каждого макроблока в паре макроблоков 500 полей.Fig. 5a schematically shows how traffic information in a pair of macroblocks 500 of a virtual base layer field to be used for inter-layer prediction is derived from traffic information in a pair of macroblocks 500 of a base layer frame corresponding to the current pair of macroblocks, in accordance with another embodiment of the present invention. In this embodiment, as shown, the reference index of the upper or lower block 8 × 8 of the upper macroblock from the pair of macroblocks of the base layer frame is used as the reference index of the upper block 8 × 8 of each of the pair of macroblocks 500 of the fields of the virtual base layer, and the reference index of the upper or lower block 8 × 8 of the lower macroblock of the base layer is used as the reference index of the lower block 8 × 8 of each macroblock in a pair of macroblocks of 500 fields. On the other hand, as shown, the motion vector of the topmost 4 × 4 block of the upper macroblock from the pair of macroblocks of the base layer frame is usually applied to the topmost 4 × 4 block of each macroblock in the macroblock pair of 500 fields of the virtual base layer, the motion vector of the third block is 4 × 4 of the upper macroblock from a pair of macroblocks of the base layer frame is usually used for the second 4 × 4 block of each macroblock in a pair of macroblocks of 500 fields, the motion vector of the topmost block 4 × 4 of the lower macroblock from a pair of macroblocks of the frame of the base layer of the base layer It is usually applied for the fourth 4x4 block of each macroblock in a pair of macroblocks of 500 fields, and the motion vector of the third 4x4 block of the lower macroblock from a pair of macroblocks of the base layer frame is usually applied for the fourth 4x4 block of 4x4 of each macroblock in a pair of macroblocks of 500 fields.

Как показано на фиг.5a, верхний блок 4×4 501 и нижний блок 4×4 502 в блоке 8×8 в паре макроблоков 500 полей, построенных для использования в межслойном предсказании, используют векторы движения блоков 4×4 в разных блоках 8×8 511 и 512 базового слоя. Упомянутые векторы движения могут быть векторами движения, которые используют разные опорные изображения. То есть разные блоки 8×8 511 и 512 могут иметь разные опорные индексы. Соответственно, в таком случае, чтобы построить пару макроблоков 500 виртуального базового слоя, EL-кодер 20 обычно использует вектор движения соответствующего блока 4×4 503, выбранный для верхнего блока 4×4 501, в качестве векторы движения второго блока 4×4 502 виртуального базового слоя, как показано на фиг.5b (521).5a, the upper 4 × 4 501 block and the lower 4 × 4 502 block in an 8 × 8 block in a pair of macroblocks 500 fields constructed for use in inter-layer prediction use the motion vectors of 4 × 4 blocks in different 8 × blocks 8 511 and 512 base layers. Said motion vectors may be motion vectors that use different reference images. That is, different 8 × 8 511 and 512 blocks may have different reference indices. Accordingly, in this case, in order to construct a pair of macroblocks 500 of the virtual base layer, the EL encoder 20 typically uses the motion vector of the corresponding 4 × 4 503 block selected for the upper 4 × 4 501 block as the motion vectors of the second 4 × 4 502 virtual block the base layer, as shown in fig.5b (521).

В варианте осуществления, описанном со ссылкой на фиг.4a-4f, чтобы создать информацию о движении виртуального базового слоя для предсказания информации о движении в текущей паре макроблоков, EL-кодер 20 последовательно получает режимы разбиения, опорные индексы и векторы движения на основе информации о движении соответствующей пары макроблоков базового слоя. Однако, в варианте осуществления, описанном со ссылкой на фиг.5a и 5b, EL-кодер 20 сначала получает опорные индексы и векторы движения пары макроблоков виртуального базового слоя на основе информации о движении соответствующей пары макроблоков базового слоя и, наконец, затем определяет режимы разбиения пары макроблоков виртуального базового слоя на основе полученных значений. Когда определяются режимы разбиения, сегменты блоков 4×4 с одинаковыми полученными векторами движения и опорными индексами объединяются, и если режим объединенного блока является допустимым режимом разбиения, режимы разбиения устанавливаются в объединенный режим, а в ином случае режимы разбиения устанавливаются в режимы до объединения.In the embodiment described with reference to FIGS. 4a-4f, in order to create motion information of a virtual base layer for predicting motion information in the current pair of macroblocks, the EL encoder 20 sequentially obtains partition modes, reference indices, and motion vectors based on the information about the movement of the corresponding pair of macroblocks of the base layer. However, in the embodiment described with reference to FIGS. 5a and 5b, the EL encoder 20 first obtains reference indices and motion vectors of the macroblock pair of the virtual base layer based on the motion information of the corresponding macroblock pair of the base layer and, finally, then determines the partitioning modes pairs of macroblocks of the virtual base layer based on the obtained values. When split modes are determined, segments of 4x4 blocks with the same received motion vectors and reference indices are combined, and if the combined block mode is a valid split mode, the split modes are set to the combined mode, otherwise the split modes are set to the pre-join modes.

В вышеописанном варианте осуществления, если оба макроблока соответствующей пары макроблоков 410 базового слоя являются макроблоками intra-режима, то на текущей паре макроблоков 413 выполняется одно лишь внутрикадровое предсказание по базовому слою. В этом случае, предсказание движения не выполняется. Разумеется, пара макроблоков виртуального базового слоя не строится в случае предсказания текстуры. Если только один из соответствующей пары макроблоков 410 базового слоя является макроблоком intra-режима, то информация о движении inter-макроблока копируется в intra-макроблок, как показано на фиг.4b, векторы движения и опорные индексы intra-макроблока устанавливаются равными нулю, как показано на фиг.4c, или опорные индексы intra-макроблока устанавливаются посредством копирования опорных индексов inter-макроблока в intra-макроблок, и векторы движения intra-макроблока устанавливаются равными нулю, как показано на фиг.4d. Затем, информацию о движении пары макроблоков виртуального базового слоя получают так, как описано выше.In the above embodiment, if both macroblocks of the corresponding pair of macroblocks 410 of the base layer are intra-mode macroblocks, then only the intra-frame prediction of the base layer is performed on the current pair of macroblocks 413. In this case, motion prediction is not performed. Of course, a pair of macroblocks of the virtual base layer is not built in the case of texture prediction. If only one of the corresponding pair of macroblocks 410 of the base layer is an intra-macroblock, then the motion information of the inter-macroblock is copied to the intra-macroblock, as shown in Fig. 4b, the motion vectors and reference indices of the intra-macroblock are set to zero, as shown in Fig. 4c, or reference indices of the intra-macroblock are set by copying the reference indices of the inter-macroblock to the intra-macroblock, and the motion vectors of the intra-macroblock are set to zero, as shown in Fig. 4d. Then, the motion information of the pair of macroblocks of the virtual base layer is obtained as described above.

После построения пары макроблоков виртуального базового слоя для межслойного предсказания движения, как описано выше, EL-кодер 20 предсказывает и кодирует информацию о движении в текущей паре макроблоков 413 полей с использованием информации о движении в построенной паре макроблоков.After constructing a pair of macroblocks of a virtual base layer for inter-layer motion prediction, as described above, the EL encoder 20 predicts and encodes information about the motion in the current pair of field macroblocks 413 using motion information in the constructed pair of macroblocks.

Далее приведено описание межслойного предсказания текстуры. На фиг.4g показан пример способа межслойного предсказания текстуры в случае «MB кадра -> MB поля в MBAFF-кадре». EL-кодер 20 определяет режимы блоков соответствующей пары макроблоков 410 кадра базового слоя. Если оба макроблока соответствующей пары макроблоков 410 кадра являются макроблоками либо intra-, либо inter-режима, то EL-кодер 20 видоизменяет (или преобразует) соответствующую пару макроблоков 410 базового слоя в промежуточную пару макроблоков 421 полей, чтобы выполнить внутрикадровое предсказание по базовому слою текущей пары макроблоков 413 полей (когда оба макроблока 410 кадра являются макроблоками intra-режима), или чтобы выполнить предсказание по остаточным данным нижеописанным образом (когда оба макроблока 410 кадра являются макроблоками inter-режима). Когда оба макроблока из соответствующей пары макроблоков 410 являются макроблоками intra-режима, промежуточная пара макроблоков 421 полей содержит данные, деблокированные (т.е. подвергнутые деблокинговой фильтрации) после того, как завершено декодирование в случае intra-режима, как изложено ранее. То же самое справедливо в отношении промежуточной пары макроблоков, полученных из макроблоков базового слоя для применения в процессе предсказания текстуры, излагаемом в нижеследующем описании множества различных вариантов осуществления.The following is a description of the interlayer texture prediction. FIG. 4g shows an example of an interlayer texture prediction method in the case of “MB frame -> MB field in MBAFF frame”. The EL encoder 20 determines the block modes of the corresponding pair of macroblocks 410 of the base layer frame. If both macroblocks of the corresponding pair of macroblocks 410 of the frame are macroblocks of either intra- or inter-mode, then the EL encoder 20 modifies (or converts) the corresponding pair of macroblocks 410 of the base layer into an intermediate pair of macroblocks 421 fields to perform intra-frame prediction from the base layer of the current pairs of field macroblocks 413 (when both frame macroblocks 410 are intra-mode macroblocks), or to perform prediction on the residual data in the manner described below (when both frame macroblocks 410 are inter-mode macroblocks ima). When both macroblocks from the corresponding pair of macroblocks 410 are intra-mode macroblocks, the intermediate pair of field macroblocks 421 contains data released (i.e., subjected to deblocking filtering) after decoding in the case of intra-mode is completed, as described previously. The same is true for an intermediate pair of macroblocks obtained from macroblocks of the base layer for use in the texture prediction process set forth in the following description of many different embodiments.

Однако, межслойное предсказание текстуры не выполняется, когда только один из двух макроблоков является макроблоком inter-режима. Пара макроблоков 410 базового слоя для использования в межслойном предсказании текстуры содержит исходные видеоданные, которые не кодированы (или декодированные видеоданные), если макроблоки являются макроблоками intra-режима, и содержат кодированные остаточные данные (декодированные остаточные данные), если макроблоки являются макроблоками inter-режима. То же самое справедливо в отношении пары макроблоков базового слоя в последующем описании предсказания текстуры.However, interlayer texture prediction is not performed when only one of the two macroblocks is an inter-mode macroblock. A pair of base layer macroblocks 410 for use in interlayer texture prediction contains source video data that is not encoded (or decoded video data) if the macroblocks are intra-mode macroblocks and contain encoded residual data (decoded residual data) if the macroblocks are inter-mode macroblocks . The same is true for a pair of macroblocks of the base layer in the following description of texture prediction.

На фиг.4h показан способ преобразования пары макроблоков кадра в пару макроблоков полей, подлежащих использованию для межслойного предсказания текстуры. Как показано, четные строки пары макроблоков A и B кадра последовательно выбираются для построения верхнего макроблока A' поля, и нечетные строки пары макроблоков A и B кадра последовательно выбираются для построения нижнего макроблока A' поля. Когда один макроблок поля заполняется строками, то сначала он заполняется четными (или нечетными) строками верхнего блока A (A_even или A_odd) и затем заполняется нечетными (или четными строками) нижнего блока B (B_even или B_odd).Fig. 4h shows a method for converting a pair of macroblocks of a frame into a pair of macroblocks of fields to be used for interlayer texture prediction. As shown, the even lines of the pair of macroblocks A and B of the frame are sequentially selected to construct the upper macroblock A 'of the field, and the odd lines of the pair of macroblocks A and B of the frame are sequentially selected to construct the lower macroblock A' of the field. When one macroblock of a field is filled with rows, it is first filled with even (or odd) rows of the upper block A (A_even or A_odd) and then filled with the odd (or even) rows of the lower block B (B_even or B_odd).

II. Случай: MB кадра -> MB поля в полевом изображенииII. Case: MB frame -> MB fields in a field image

В этом случае макроблоки в текущем слое кодированы в макроблоки полей в полевом изображении, и макроблоки в базовом слое, подлежащие использованию для межслойного предсказания макроблоков текущего слоя, кодированы в макроблоки кадров. Составляющие видеосигнала, содержащиеся в паре макроблоков в базовом слое, являются такими же, как составляющие видеосигнала, содержащиеся в совмещенном макроблоке в четном или нечетном поле в текущем слое. Далее сначала приведено описание межслойного предсказания движения.In this case, macroblocks in the current layer are encoded into macroblocks of fields in the field image, and macroblocks in the base layer to be used for interlayer prediction of macroblocks of the current layer are encoded into macroblocks of frames. The video components contained in a pair of macroblocks in the base layer are the same as the video components contained in a combined macroblock in an even or odd field in the current layer. The following is a first description of the interlayer motion prediction.

В качестве режимов разбиения четного или нечетного макроблока виртуального базового слоя, EL-кодер 20 применяет режимы разбиения макроблока, получаемые при объединении пары макроблоков базового слоя в один макроблок (путем сжатия до половины размера в вертикальном направлении). На фиг.6a изображен подробный пример упомянутого процесса. Как показано, во-первых, соответствующая пара макроблоков 610 базового слоя объединяется в один макроблок 611 (S61), и режимы разбиения макроблока, получаемые при таком объединении, применяются к макроблоку виртуального базового слоя, подлежащему использованию для межслойного предсказания движения текущего макроблока 613 (S62). Правила объединения являются аналогичными правилам в предыдущем случае I. Способ обработки, когда, по меньшей мере, один из соответствующей пары макроблоков 610 кодирован в intra-режиме, аналогичен способу в предыдущем случае I.As the partition modes of the even or odd macroblock of the virtual base layer, the EL encoder 20 applies the macroblock partition modes obtained by combining a pair of macroblocks of the base layer into one macroblock (by compressing to half the size in the vertical direction). Fig. 6a shows a detailed example of the process. As shown, firstly, the corresponding pair of macroblocks 610 of the base layer is combined into one macroblock 611 (S61), and the macroblock partitioning modes obtained by this combination are applied to the macroblock of the virtual base layer to be used for interlayer prediction of the motion of the current macroblock 613 (S62 ) The association rules are similar to the rules in the previous case I. The processing method when at least one of the corresponding pair of macroblocks 610 is intra-mode encoded is similar to the method in the previous case I.

Процедура вывода опорных индексов и векторов движения также выполняется таким же образом, как описано выше в предыдущем случае I. В случае I такая же процедура вывода применяется к верхнему и нижнему макроблокам, так как в одном кадре содержатся пары из четного и нечетного макроблоков. Однако настоящий случай II отличается от случая I тем, что процедура вывода применяется только к одному макроблоку поля, как показано на фиг.6b и 6c, так как только один макроблок, соответствующий паре макроблоков 610 базового слоя, присутствует в текущем полевом изображении, подлежащем кодированию.The procedure for deriving reference indices and motion vectors is also carried out in the same manner as described above in the previous case I. In case I, the same derivation procedure is applied to the upper and lower macroblocks, since one frame contains pairs of even and odd macroblocks. However, this case II differs from case I in that the output procedure applies to only one macroblock of the field, as shown in FIGS. 6b and 6c, since only one macroblock corresponding to a pair of macroblocks 610 of the base layer is present in the current field image to be encoded .

В вышеописанном варианте осуществления для предсказания информации о движении в макроблоке виртуального базового слоя EL-кодер 20 последовательно получает режимы разбиения, опорные индексы и векторы движения макроблока на основе информации о движении соответствующей пары макроблоков базового слоя.In the above embodiment, for predicting motion information in a macroblock of a virtual base layer, the EL encoder 20 sequentially obtains partition modes, reference indices, and macroblock motion vectors based on the motion information of the corresponding macroblock pair of the base layer.

В другом варианте осуществления настоящего изобретения EL-кодер 20 сначала получает опорные индексы и векторы движения макроблока виртуального базового слоя на основе информации о движении соответствующей пары макроблоков базового слоя и, наконец, затем определяет режимы блоков макроблока виртуального базового слоя на основе полученных значений. На фиг.7a и 7b схематично показано получение опорных индексов и векторов движения макроблока поля виртуального базового слоя. Операции получения в настоящем случае аналогичны операциям в случае I, описанным со ссылкой на фиг.5a и 5b, за тем исключением, что информация о движении верхнего или нижнего макроблока выводится с использованием информации о движении в паре макроблоков базового слоя.In another embodiment of the present invention, the EL encoder 20 first obtains reference indices and motion vectors of the macroblock of the virtual base layer based on the motion information of the corresponding pair of macroblocks of the base layer and finally determines the block modes of the macroblock of the virtual base layer based on the obtained values. On figa and 7b schematically shows the receipt of reference indices and motion vectors of the macroblock field of the virtual base layer. The acquisition operations in the present case are similar to the operations in case I described with reference to FIGS. 5a and 5b, except that the motion information of the upper or lower macroblock is output using the motion information in the macroblock pair of the base layer.

Когда окончательно определяются режимы разбиения, сегменты блоков 4×4 с одинаковыми полученными векторами движения и опорными индексами объединяются, и если режим объединенного блока является допустимым режимом разбиения, режимы разбиения устанавливаются в объединенный режим, а, в ином случае, режимы разбиения устанавливаются в режимы до объединения.When the split modes are finally determined, the segments of 4 × 4 blocks with the same received motion vectors and reference indices are combined, and if the combined block mode is a valid split mode, the split modes are set to the combined mode, and, otherwise, the split modes are set to associations.

В вышеописанных вариантах осуществления, если оба макроблока соответствующей пары макроблоков базового слоя являются макроблоками intra-режима, то предсказание движения не выполняется, и информация о движении в паре макроблоков виртуального базового слоя также не создается, и если только один из двух макроблоков является макроблоком intra-режима, то предсказание движения выполняется, как описано выше в настоящем случае.In the above embodiments, if both macroblocks of the corresponding pair of macroblocks of the base layer are intra-mode macroblocks, then motion prediction is not performed, and motion information in the pair of macroblocks of the virtual base layer is also not generated, and if only one of the two macroblocks is an intra- macroblock mode, then motion prediction is performed as described above in the present case.

Далее приведено описание межслойного предсказания текстуры. На фиг.6d показан пример способа межслойного предсказания текстуры в случае «MB кадра -> MB поля в полевом изображении». EL-кодер 20 определяет режимы блоков соответствующей пары макроблоков 610 базового слоя. Если оба макроблока соответствующей пары макроблоков являются макроблоками либо intra-, либо inter-режима, то EL-кодер 20 строит промежуточный макроблок 621 поля из одной пары макроблоков 610 кадра. Если текущий макроблок 613 принадлежит изображению четного поля, то EL-кодер 20 строит промежуточный макроблок 621 поля из четных строк соответствующей пары макроблоков 610. Если текущий макроблок 613 принадлежит изображению нечетного поля, то EL-кодер 20 строит промежуточный макроблок 621 поля из нечетных строк соответствующей пары макроблоков 610. Способ построения аналогичен способу построения одного макроблока A' или B' поля на фиг.4h.The following is a description of the interlayer texture prediction. FIG. 6d shows an example of an interlayer texture prediction method in the case of “MB frame -> MB field in the field image”. The EL encoder 20 determines the block modes of the corresponding pair of macroblocks 610 of the base layer. If both macroblocks of the corresponding pair of macroblocks are macroblocks of either intra- or inter-mode, then the EL encoder 20 constructs an intermediate field macroblock 621 from one pair of macroblocks 610 of the frame. If the current macroblock 613 belongs to an even field image, then the EL encoder 20 builds an intermediate field macroblock 621 from even lines of the corresponding pair of macroblocks 610. If the current macroblock 613 belongs to an odd field image, then EL encoder 20 builds an intermediate field macroblock 621 from odd lines pairs of macroblocks 610. The construction method is similar to the method of constructing one macroblock A 'or B' of the field in Fig. 4h.

После того как построен промежуточный макроблок 621 поля, EL-кодер 20 выполняет внутрикадровое основное предсказание текущего макроблока 613 поля (когда оба макроблока соответствующей пары макроблоков 610 являются макроблоками intra-режима) на основе информации о текстуре в макроблоке 621 поля или выполняет его предсказание по остаточным данным (когда оба макроблока соответствующей пары макроблоков 610 являются макроблоками inter-режима).After the intermediate field macroblock 621 is built, the EL encoder 20 performs an intra-frame basic prediction of the current field macroblock 613 (when both macroblocks of the corresponding pair of macroblocks 610 are intra-mode macroblocks) based on the texture information in the field macroblock 621 or perform its prediction by the residual data (when both macroblocks of the corresponding pair of macroblocks 610 are inter-mode macroblocks).

EL-кодер 20 не выполняет межслойное предсказание текстуры, только если один из соответствующей пары макроблоков 610 является макроблоком inter-режима.The EL encoder 20 does not perform inter-layer texture prediction only if one of the corresponding pair of macroblocks 610 is an inter-mode macroblock.

III. Случай: MB в MBAFF-кадре -> MB кадраIII. Case: MB in MBAFF frame -> MB frame

В этом случае макроблоки в текущем слое кодированы в макроблоки кадров, и макроблоки в базовом слое, подлежащие использованию для межслойного предсказания макроблоков кадров текущего слоя, кодированы в макроблоки полей в MBAFF-кадре. Составляющие видеосигнала, содержащиеся в макроблоке поля в базовом слое, являются такими же, как составляющие видеосигнала, содержащиеся в паре совмещенных макроблоков в текущем слое. Далее сначала приведено описание межслойного предсказания движения.In this case, macroblocks in the current layer are encoded into macroblock frames, and macroblocks in the base layer to be used for interlayer prediction of macroblock frames of the current layer are encoded into field macroblocks in an MBAFF frame. The video components contained in the macroblock of the field in the base layer are the same as the video components contained in a pair of aligned macroblocks in the current layer. The following is a first description of the interlayer motion prediction.

В качестве режимов разбиения пары макроблоков в виртуальном базовом слое EL-кодер 20 применяет режимы разбиения макроблока, получаемые при растягивании (в два раза, в вертикальном направлении) верхнего или нижнего макроблока из пары макроблоков базового слоя. На фиг.8a изображен подробный пример упомянутого процесса. Хотя в последующем описании и на чертежах выбран верхний макроблок поля, все, что описано ниже, применимо, когда выбирается нижний макроблок поля.As modes of splitting a pair of macroblocks in a virtual base layer, the EL encoder 20 applies macroblock splitting modes obtained by stretching (twice, in the vertical direction) an upper or lower macroblock from a pair of macroblocks of a base layer. On figa shows a detailed example of the above process. Although the upper field macroblock is selected in the following description and drawings, everything described below is applicable when the lower field macroblock is selected.

Как показано на фиг.8a, верхний макроблок поля в соответствующей паре макроблоков 810 базового слоя растягивается в два раза для построения двух макроблоков 811 (S81), и режимы разбиения, получаемые при растяжении, применяются к паре макроблоков 812 виртуального базового слоя (S82).As shown in FIG. 8a, the upper macroblock of the field in the corresponding pair of macroblocks 810 of the base layer is doubled to construct two macroblocks 811 (S81), and the split modes obtained by stretching are applied to the pair of macroblocks 812 of the virtual base layer (S82).

Однако, когда соответствующий макроблок поля растягивается в два раза в вертикальном направлении, возможно создание режима (или схемы) разбиения, который(ая) запрещен(а) в режимах разбиения макроблоков. Для предотвращения такой возможности EL-кодер 20 определяет режимы разбиения в зависимости от режимов разбиения при растяжении в соответствии со следующими правилами.However, when the corresponding macroblock of the field is stretched twice in the vertical direction, it is possible to create a partition mode (or scheme), which is forbidden (a) in macroblock partition modes. To prevent this, the EL encoder 20 determines the split modes depending on the split split modes in accordance with the following rules.

1. Блоки 4×4, 8×4 и 16×8 базового слоя после растяжения становятся, по определению, блоками 4×8, 8×8 и 16×16, получаемыми их увеличением в два раза в вертикальном направлении.1. Blocks 4 × 4, 8 × 4 and 16 × 8 of the base layer after stretching become, by definition, blocks 4 × 8, 8 × 8 and 16 × 16, obtained by increasing them twice in the vertical direction.

2. Каждый из блоков 4×8, 8×8 и 16×16 базового слоя после растяжения составлен, по определению, двумя, верхним и нижним, блоками одинакового размера. Как показано на фиг.8a, блок 8×8 B8_0 становится, по определению, двумя блоками 8×8 (801). Причина, по которой блок 8×8 B8_0 после растяжения не задается в виде блока 8×16, состоит в том, что смежный с ним растянутый блок с левой или правой стороны может не быть блоком с разбиением 8×16, и, в этом случае, не поддерживается никакой режим разбиения макроблока.2. Each of the blocks 4 × 8, 8 × 8 and 16 × 16 of the base layer after stretching is composed, by definition, of two, upper and lower, blocks of the same size. As shown in FIG. 8a, an 8 × 8 block of B8_0 becomes, by definition, two 8 × 8 blocks (801). The reason the 8 × 8 B8_0 block is not specified as an 8 × 16 block after stretching is because the adjacent stretched block on the left or right side may not be an 8 × 16 block, and in this case , no macroblock splitting mode is supported.

Если один из соответствующей пары макроблоков 810 кодирован в intra-режиме, то EL-кодер 20 выбирает макроблок верхнего или нижнего поля, кодированный в inter-режиме, вместо intra-режима, и выполняет на нем вышеописанный процесс растяжения для определения режимов разбиения пары макроблоков 812 в виртуальном базовом слое.If one of the corresponding pair of macroblocks 810 is encoded in intra-mode, then the EL encoder 20 selects the macroblock of the upper or lower field encoded in inter-mode instead of intra-mode and performs the expansion process on it to determine the split modes of the pair of macroblocks 812 in the virtual base layer.

Если оба макроблока соответствующей пары макроблоков 810 являются макроблоками intra-режима, то EL-кодер 20 выполняет только межслойное предсказание текстуры, без выполнения определения режимов разбиения, в ходе вышеописанного процесса растяжения и нижеописанного процесса получения опорных индексов и векторов движения.If both macroblocks of the corresponding pair of macroblocks 810 are intra-mode macroblocks, then the EL encoder 20 performs only interlayer texture prediction, without determining the partitioning modes, during the above-described stretching process and the following process of obtaining reference indices and motion vectors.

Для получения опорных индексов пары макроблоков виртуального базового слоя из опорных индексов соответствующего макроблока поля EL-кодер 20 определяет опорный индекс соответствующего блока 8×8 B8_0 базового слоя равным опорному индексу каждого из двух, верхнего и нижнего, блоков 8×8, как показано на фиг.8b, и делит найденный опорный индекс каждого блока 8×8 на 2 для получения его окончательного опорного индекса. Основанием для такого деления является то, что, для применения к кадровой последовательности, число изображений необходимо уменьшать вдвое, так как количества опорных изображений макроблоков полей устанавливаются на основе изображений, разбиваемых на четные и нечетные поля.To obtain reference indices of a pair of macroblocks of the virtual base layer from reference indices of the corresponding macroblock of the field, the EL encoder 20 determines the reference index of the corresponding 8 × 8 B8_0 base layer block equal to the reference index of each of the two upper and lower 8 × 8 blocks, as shown in FIG. .8b, and divides the found reference index of each 8 × 8 block by 2 to obtain its final reference index. The reason for this division is that, to apply to the frame sequence, the number of images must be halved, since the number of reference images of macroblock fields are set based on images divided into even and odd fields.

При получении векторов движения пары макроблоков 812 кадров виртуального базового слоя EL-кодер 20 определяет вектор движения соответствующего блока 4×4 базового слоя равным вектору движения блока 4×8 в паре макроблоков 812 виртуального базового слоя, как показано на фиг.8c, и использует, в качестве окончательного векторы движения, найденный вектор движения, вертикальная компонента которого умножена на 2. Основанием для такого умножения является то, что видеокомпонента, содержащаяся в одном макроблоке поля, соответствует видеокомпоненте двух макроблоков кадра, так что размер кадрового видеообъекта умножается в два раза в вертикальном направлении.Upon receipt of the motion vectors of a pair of macroblocks 812 frames of the virtual base layer, the EL encoder 20 determines the motion vector of the corresponding 4 × 4 base layer block to be equal to the motion vector of the 4 × 8 block in the pair of macroblocks 812 of the virtual base layer, as shown in FIG. 8c, and uses, as the final motion vectors, the motion vector found, the vertical component of which is multiplied by 2. The basis for such a multiplication is that the video component contained in one field macroblock corresponds to the video component of two akroblokov frame, so that the size of the video object HR multiplied twice in the vertical direction.

В вышеописанном варианте осуществления, для предсказания информации о движении пары макроблоков виртуального базового слоя, EL-кодер 20 последовательно получает режимы разбиения, опорные индексы и векторы движения макроблока на основе информации о движении соответствующего макроблока поля базового слоя.In the above embodiment, in order to predict motion information of a pair of macroblocks of a virtual base layer, the EL encoder 20 sequentially obtains partition modes, reference indices and macroblock motion vectors based on the motion information of the corresponding macroblock of the base layer field.

В другом варианте осуществления настоящего изобретения при получении информации о движении пары макроблоков виртуального базового слоя, подлежащей использованию для межслойного предсказания текущей пары макроблоков, EL-кодер 20 сначала получает опорные индексы и векторы движения пары макроблоков виртуального базового слоя на основе информации о движении соответствующего макроблока поля базового слоя и, наконец, затем определяет режим блоков в каждом из пары макроблоков виртуального базового слоя на основе полученных значений, как показано на фиг.9a. Когда режимы разбиения окончательно определены, сегменты блоков 4×4 с одинаковыми полученными векторами движения и опорными индексами объединяются, и если режим объединенного блока является допустимым режимом разбиения, то режимы разбиения устанавливаются в объединенный режим, а, в ином случае, режимы разбиения устанавливаются в режимы до объединения.In another embodiment of the present invention, when acquiring motion information of a pair of macroblocks of a virtual base layer to be used for inter-layer prediction of the current pair of macroblocks, the EL encoder 20 first obtains reference indices and motion vectors of the pair of macroblocks of the virtual base layer based on the motion information of the corresponding macroblock field base layer and, finally, then determines the block mode in each of the pair of macroblocks of the virtual base layer based on the obtained values, as azano 9a. When the split modes are finally defined, the segments of 4x4 blocks with the same received motion vectors and reference indices are combined, and if the combined block mode is a valid split mode, then the split modes are set to the combined mode, and, otherwise, the split modes are set to modes before unification.

Ниже приведено более подробное описание варианта осуществления, показанного на фиг.9a. Как показано, выбирается макроблок поля inter-режима базового слоя, и векторы движения и опорные индексы выбранного макроблока служат для получения опорных индексов и векторов движения пары макроблоков кадра виртуального базового слоя, подлежащих использованию для предсказания движения текущей пары макроблоков. Если оба макроблока являются макроблоками inter-режима, то выбирается произвольный макроблок из верхнего и нижнего макроблоков (901 или 902), и используется информация о векторах движения и опорных индексах выбранного макроблока. Как показано, для получения опорных индексов, соответствующее значение верхнего блока 8×8 выбранного макроблока копируется в опорные индексы верхнего и нижнего блоков 8×8 верхнего макроблока виртуального базового слоя, и соответствующее значение нижнего блока 8×8 выбранного макроблока копируется в опорные индексы верхнего и нижнего блоков 8×8 нижнего макроблока виртуального базового слоя. Как показано, для вывода векторов движения, соответствующее значение каждого блока 4×4 выбранного макроблока обычно используют как векторы движения соответствующей пары вертикально смежных блоков 4×4 в паре макроблоков виртуального базового слоя. В другом варианте осуществления настоящего изобретения информация о движении соответствующей пары макроблоков базового слоя может смешиваться и применяться для получения векторов движения и опорных индексов пары макроблоков кадра виртуального базового слоя, что отличается от варианта осуществления, показанного на фиг.9a. На фиг.9b изображена процедура получения векторов движения и опорных индексов в соответствии с таким вариантом осуществления. Подробное описание объединения скопированных опорных индексов и векторов движения субблоков (блоков 8×8 и блоков 4×4) в паре макроблоков виртуального базового слоя в настоящей заявке опускается, поскольку его можно интуитивно понять из вышеприведенного описания процедуры получения информации о движении и чертежа на фиг.9b.Below is a more detailed description of the embodiment shown in figa. As shown, the macroblock of the inter-mode field of the base layer is selected, and the motion vectors and reference indices of the selected macroblock are used to obtain reference indices and motion vectors of a pair of macroblocks of a virtual base layer frame to be used to predict the motion of the current pair of macroblocks. If both macroblocks are inter-mode macroblocks, then an arbitrary macroblock is selected from the upper and lower macroblocks (901 or 902), and information about the motion vectors and reference indices of the selected macroblock is used. As shown, to obtain reference indices, the corresponding value of the upper 8 × 8 block of the selected macroblock is copied to the reference indices of the upper and lower blocks 8 × 8 of the upper macroblock of the virtual base layer, and the corresponding value of the lower 8 × 8 block of the selected macroblock is copied to the reference indices of the upper and lower blocks 8 × 8 of the lower macroblock of the virtual base layer. As shown, to output the motion vectors, the corresponding value of each 4 × 4 block of the selected macroblock is usually used as the motion vector of the corresponding pair of vertically adjacent 4 × 4 blocks in a pair of macroblocks of the virtual base layer. In another embodiment of the present invention, the motion information of the corresponding pair of macroblocks of the base layer can be mixed and used to obtain motion vectors and reference indices of the pair of macroblocks of the frame of the virtual base layer, which differs from the embodiment shown in Fig. 9a. Fig. 9b shows a procedure for obtaining motion vectors and reference indices in accordance with such an embodiment. A detailed description of the combination of copied reference indices and motion vectors of subunits (8 × 8 blocks and 4 × 4 blocks) in a pair of macroblocks of a virtual base layer is omitted in this application, since it can be intuitively understood from the above description of the procedure for obtaining motion information and the drawing in FIG. 9b.

Однако, поскольку в варианте осуществления, представленном на фиг.9b, используется информация о движении обоих макроблоков из пары макроблоков полей базового слоя, то, если один из пары макроблоков полей базового слоя кодирован в intra-режиме, тогда информация о движении intra-макроблока выводится с использованием информации о движении другого макроблока, который является макроблоком inter-режима. В частности, информация о векторах движения и опорных индексах пары макроблоков виртуального базового слоя может быть получена, как показано на фиг.9b, после того, как векторы движения и опорные индексы intra-макроблока построены копированием соответствующей информации inter-макроблока в intra-макроблок, как показано на фиг.4b, или после того, как intra-макроблок принят как inter-макроблок с нулевыми векторами движения и нулевыми опорными индексами, как показано на фиг.4c, или после того, как опорные индексы intra-макроблока установлены путем копирования опорных индексов inter-макроблока в intra-макроблок, и его векторы движения установлены равными нулю, как показано на фиг.4d. После того, как получена информация о векторах движения и опорных индексах в паре макроблоков виртуального базового слоя, режимы блоков в паре макроблоков определяются на основе полученной информации, как изложено выше.However, since the motion information of both macroblocks from a pair of macroblocks of the base layer fields is used in the embodiment shown in FIG. 9b, if one of the pair of macroblocks of the base layer fields is encoded in intra-mode, then intra-macroblock motion information is output using motion information of another macroblock, which is an inter-mode macroblock. In particular, information on motion vectors and reference indices of a pair of macroblocks of a virtual base layer can be obtained, as shown in Fig. 9b, after the motion vectors and reference indices of the intra-macroblock are constructed by copying the corresponding information of the inter-macroblock to the intra-macroblock, as shown in FIG. 4b, or after the intra-macroblock is accepted as an inter-macroblock with zero motion vectors and zero reference indices, as shown in FIG. 4c, or after the intra-macroblock reference indices are set by copying the the indices of the inter-macroblock into the intra-macroblock, and its motion vectors are set to zero, as shown in Fig. 4d. After the information on the motion vectors and reference indices in the pair of macroblocks of the virtual base layer is obtained, the block modes in the pair of macroblocks are determined based on the received information, as described above.

С другой стороны, если оба макроблока из соответствующей пары макроблоков полей базового слоя являются макроблоками intra-режима, то предсказание движения не выполняется.On the other hand, if both macroblocks from the corresponding pair of macroblocks of the base layer fields are intra-mode macroblocks, then motion prediction is not performed.

Далее приведено описание межслойного предсказания текстуры. На фиг.8d показан пример способа межслойного предсказания текстуры в случае «MB поля в MBAFF-кадре -> MB кадра». EL-кодер 20 определяет режимы блоков соответствующей пары макроблоков 810 полей базового слоя. Если оба макроблока соответствующей пары макроблоков 810 полей являются макроблоками либо intra-, либо inter-режима, то EL-кодер 20 преобразует соответствующую пару макроблоков 810 полей базового слоя в промежуточную пару макроблоков 821 кадра, чтобы выполнить внутрикадровое предсказание по базовому слою текущей пары макроблоков 813 кадра (когда оба макроблока 810 кадра являются макроблоками intra-режима) или чтобы выполнить его предсказание по остаточным данным нижеописанным образом (когда оба макроблока 810 кадра являются макроблоками inter-режима). Когда оба макроблока из соответствующей пары макроблоков 810 являются макроблоками intra-режима, пара макроблоков 810 содержит данные, которые были декодированы, и деблокинговый фильтр применяется к паре макроблоков 821, как изложено выше.The following is a description of the interlayer texture prediction. Fig. 8d shows an example of an interlayer texture prediction method in the case of "MB field in MBAFF frame -> MB frame". The EL encoder 20 determines the block modes of the corresponding pair of macroblocks 810 fields of the base layer. If both macroblocks of the corresponding pair of macroblocks 810 of the field are macroblocks of either intra- or inter-mode, then the EL encoder 20 converts the corresponding pair of macroblocks 810 of the fields of the base layer into an intermediate pair of macroblocks 821 of the frame to perform intra-frame prediction from the base layer of the current pair of macroblocks 813 frame (when both frame macroblocks 810 are intra-mode macroblocks) or to predict it from residual data in the manner described below (when both frame macroblocks 810 are inter-mode macroblocks). When both macroblocks from the corresponding pair of macroblocks 810 are intra-mode macroblocks, the pair of macroblocks 810 contains data that has been decoded, and the deblocking filter is applied to the pair of macroblocks 821, as described above.

На фиг.8e представлен способ для преобразования пары макроблоков полей в пару макроблоков кадра. Как показано, строки пары макроблоков A и B полей выбираются с чередованием (A->B->A->B->A->, …) последовательно от верха каждого из макроблоков и затем последовательно размещаются в порядке выбора сверху для построения пары макроблоков A' и B' кадра. Поскольку строки пары макроблоков полей перегруппируются в упомянутом порядке, то верхний макроблок A' кадра строится из строк верхней половины пары макроблоков A и B полей, и нижний макроблок B' кадра строится из строк нижней половины.Fig. 8e shows a method for converting a pair of field macroblocks into a pair of frame macroblocks. As shown, the rows of a pair of macroblocks A and B fields are selected alternately (A-> B-> A-> B-> A->, ...) sequentially from the top of each of the macroblocks and then sequentially placed in the order of selection from above to build a pair of macroblocks A 'and B' frame. Since the rows of a pair of field macroblocks are rearranged in the mentioned order, the upper macroblock A 'of the frame is constructed from the rows of the upper half of the pair of macroblocks A and B of the fields, and the lower macroblock B' of the frame is constructed from the rows of the lower half.

С другой стороны, если только один из соответствующей пары макроблоков 810 полей базового слоя является макроблоком inter-режима, то один блок выбирается из пары макроблоков 810 базового слоя в соответствии с режимами блоков текущей пары макроблоков 813 кадра, и выбранный блок используется для межслойного предсказания текстуры. В альтернативном варианте, перед определением режимов блоков текущей пары макроблоков 813 кадра, для выполнения межслойного предсказания применим каждый нижеописанный способ, и тогда можно определить режимы блоков в паре макроблоков 813.On the other hand, if only one of the corresponding pair of macroblocks 810 of the base layer fields is an inter-mode macroblock, then one block is selected from the pair of macroblocks 810 of the base layer in accordance with the block modes of the current pair of macroblocks 813 of the frame, and the selected block is used for interlayer texture prediction . Alternatively, before determining the block modes of the current pair of macroblocks 813 of the frame, each of the methods described below is applicable to perform interlayer prediction, and then the block modes in the pair of macroblocks 813 can be determined.

На фиг.8f и 8g представлен пример, в котором для выполнения межслойного предсказания выбирается один блок. В случае, когда текущая пара макроблоков 813 кадра кодирована в inter-режиме (или когда выполняется ее межкадровое предсказание), как показано на фиг.8f, из пары макроблоков 810 полей базового слоя выбирается блок 810a inter-режима, и выбранный блок сверхдискретизируется в вертикальном направлении для создания двух соответствующих макроблоков 831. Затем два макроблока 831 используются для предсказания по остаточным данным текущей пары макроблоков 813 кадра. В случае, когда текущая пара макроблоков 813 кадра не кодирована в inter-режиме (или когда выполняется ее внутрикадровое предсказание), как показано на фиг.8g, из пары макроблоков 810 полей базового слоя выбирается блок 810b intra-режима, и выбранный блок сверхдискретизируется в вертикальном направлении для создания двух соответствующих макроблоков 841. После того, как деблокинговый фильтр применен к двум макроблокам 841, два макроблока 841 используются для внутрикадрового предсказания по базовому слою текущей пары макроблоков 813 кадра.8f and 8g show an example in which one block is selected to perform inter-layer prediction. In the case where the current pair of macroblocks 813 of the frame is inter-mode encoded (or when its inter-frame prediction is performed), as shown in FIG. 8f, from the pair of macroblocks 810 of the base layer fields, an inter-mode block 810a is selected and the selected block is oversampled direction to create two corresponding macroblocks 831. Then, two macroblocks 831 are used to predict from the residual data the current pair of macroblocks 813 of the frame. In the case where the current pair of frame macroblocks 813 is not inter-mode encoded (or when its intra-frame prediction is performed), as shown in FIG. 8g, an intra-mode block 810b is selected from the pair of macroblocks 810 of the base layer fields, and the selected block is oversampled in in the vertical direction to create two corresponding macroblocks 841. After the deblocking filter is applied to the two macroblocks 841, two macroblocks 841 are used for intra-frame prediction from the base layer of the current pair of macroblocks 813 of the frame.

Способ, показанный на фиг.8f и 8g, по которому один блок выбирается и сверхдискретизируется для создания пары макроблоков, подлежащей использованию для межслойного предсказания текстуры, применим также, когда слои имеют разные частоты кадров. Когда частота кадров улучшенного слоя выше, чем частота кадров базового слоя, некоторые изображения в последовательности изображений улучшенного слоя могут не иметь соответствующего по времени изображения в базовом слое. Межслойное предсказание текстуры пары макроблоков кадра, содержащихся в изображении улучшенного слоя, которое не имеет соответствующего по времени изображения в базовом слое, может быть выполнено с использованием одного из пары пространственно совмещенных макроблоков полей в предыдущем по времени изображении в базовом слое.The method shown in FIGS. 8f and 8g, in which one block is selected and oversampled to create a pair of macroblocks to be used for interlayer texture prediction, is also applicable when the layers have different frame rates. When the frame rate of the enhancement layer is higher than the frame rate of the base layer, some images in the image sequence of the enhancement layer may not have a time-appropriate image in the base layer. Interlayer prediction of the texture of a pair of macroblocks of a frame contained in an image of an enhanced layer that does not have a time-appropriate image in the base layer can be performed using one of a pair of spatially aligned macroblock fields in the previous time image in the base layer.

На фиг.8h представлен пример упомянутого способа в случае, когда частота кадров улучшенного слоя в два раза выше, чем частота кадров базового слоя.On fig.8h presents an example of the above method in the case where the frame rate of the enhanced layer is two times higher than the frame rate of the base layer.

Как показано, частота кадров улучшенного слоя в два раза выше, чем частота кадров базового слоя. Поэтому, одно из каждых двух изображений улучшенного слоя, например, изображение с порядковым номером изображения (POC) «n2» не имеет изображения с таким же порядковым номером изображения (POC) в базовом слое. В рассматриваемом случае, одинаковый POC указывает совпадение по времени.As shown, the frame rate of the enhanced layer is two times higher than the frame rate of the base layer. Therefore, one of every two images of the enhanced layer, for example, an image with an image sequence number (POC) of "n2", does not have an image with the same image sequence number (POC) in the base layer. In this case, the same POC indicates a coincidence in time.

Когда в базовом слое отсутствует совпадающее по времени изображение (например, когда текущий POC равен n2), макроблок 802 нижнего поля, содержащийся в паре пространственно совмещенных макроблоков полей в предшествующем изображении (т.е. в изображении с POC, меньшим, чем текущий POC на 1), сверхдискретизируется по вертикали для создания промежуточной пары макроблоков 852 (S82), и затем промежуточная пара макроблоков 852 используется для выполнения межслойного предсказания текстуры текущей пары макроблоков 815. Когда в базовом слое имеется совпадающее по времени изображение (например, когда текущий POC равен n1), макроблок 801 верхнего блока, содержащийся в паре пространственно совмещенных макроблоков полей в совпадающем по времени изображении, сверхдискретизируется по вертикали для создания промежуточной пары макроблоков 851 (S82), и затем промежуточная пара макроблоков 851 используется для выполнения межслойного предсказания текстуры текущей пары макроблоков 814. Когда в промежуточной паре макроблоков 851 или 852, созданных сверхдискретизацией, содержится пара макроблоков, декодированных из intra-макроблока, пара макроблоков используется для межслойного предсказания текстуры после того, как деблокинговый фильтр обрабатывает пару макроблоков.When there is no time-matching image in the base layer (for example, when the current POC is n2), the lower field macroblock 802 contained in a pair of spatially aligned field macroblocks in the previous image (i.e., in an image with a POC smaller than the current POC by 1), is vertically downsampled to create an intermediate pair of macroblocks 852 (S82), and then an intermediate pair of macroblocks 852 is used to perform an interlayer prediction of the texture of the current pair of macroblocks 815. When the base layer has a matching n time image (for example, when the current POC is n1), the upper block macroblock 801 contained in a pair of spatially aligned field macroblocks in a time-matching image is vertically downsampled to create an intermediate pair of macroblocks 851 (S82), and then an intermediate pair of macroblocks 851 (S82) is used to perform interlayer prediction of the texture of the current pair of macroblocks 814. When the intermediate pair of macroblocks 851 or 852 created by oversampling contains a pair of macroblocks decoded from intr a-macroblock, a pair of macroblocks is used to inter-layer texture prediction after a deblocking filter processes a pair of macroblocks.

В другом варианте осуществления настоящего изобретения, когда в базовом слое присутствует совпадающее по времени изображение (когда текущий POC равен n1 в примере на фиг.8h), пара макроблоков кадра может быть создана из пары макроблоков полей в соответствии с вариантом осуществления, показанным на фиг.8d, вместо применения способа, показанного на фиг.8h, и затем может быть использована для межслойного предсказания текстуры. Кроме того, когда текущее изображение не содержит совпадающего по времени изображения в базовом слое (когда текущий POC равен n2 в примере на фиг.8h), межслойное предсказание текстуры может выполняться, как на фиг.8h, или, наоборот, межслойное предсказание текстуры может не выполняться на макроблоках в текущем изображении.In another embodiment of the present invention, when a time-matching image is present in the base layer (when the current POC is n1 in the example of FIG. 8h), a pair of macroblocks of a frame can be created from a pair of macroblocks of fields in accordance with the embodiment shown in FIG. 8d, instead of applying the method shown in FIG. 8h, and then can be used for interlayer texture prediction. In addition, when the current image does not contain a time-matching image in the base layer (when the current POC is n2 in the example of FIG. 8h), interlayer texture prediction can be performed as in FIG. 8h, or, conversely, interlayer texture prediction may not run on macroblocks in the current image.

Соответственно, в варианте осуществления настоящего изобретения присваивается флаг «field_base_flag», чтобы указать, выполнено ли межслойное предсказание текстуры в соответствии со способом, показанным на фиг.8d, или в соответствии со способом, показанным на фиг.8h, флаг включается в информацию о кодировании. Например, упомянутый флаг устанавливается в «0», когда предсказание текстуры выполнено в соответствии со способом, показанным на фиг.8d, и устанавливается в «1», когда предсказание текстуры выполнено в соответствии со способом, показанным на фиг.8h. Упомянутый флаг задается в наборе параметров последовательности в улучшенном слое, параметре последовательности в масштабируемом расширении, наборе параметров изображения, наборе параметров изображения в масштабируемом расширении, заголовке слайса, заголовке слайса в масштабируемом расширении, слое макроблоков или слое макроблоков в масштабируемом расширении, подлежащим передаче в декодер.Accordingly, in an embodiment of the present invention, a “field_base_flag” flag is assigned to indicate whether the inter-layer texture prediction is performed in accordance with the method shown in FIG. 8d or in accordance with the method shown in FIG. 8h, the flag is included in the encoding information . For example, said flag is set to “0” when the texture prediction is performed in accordance with the method shown in FIG. 8d, and is set to “1” when the texture prediction is made in accordance with the method shown in FIG. 8h. This flag is set in the sequence parameter set in the enhanced layer, the sequence parameter in the scalable extension, the image parameter set, the image parameter set in the scalable extension, the slice header, the slice header in the scalable extension, the macroblock layer or the macroblock layer in the scalable extension to be transmitted to the decoder .

IV. Случай: MB поля в полевом изображении -> MB кадраIV. Case: MB fields in a field image -> MB frame

В этом случае, макроблоки в текущем слое (EL) кодированы в макроблоки кадров, и макроблоки в базовом слое (BL), подлежащие использованию для межслойного предсказания макроблоков кадров текущего слоя, кодированы в макроблоки полей в полевом изображении. Составляющие видеосигнала, содержащиеся в макроблоке поля в базовом слое, являются такими же, как составляющие видеосигнала, содержащиеся в паре совмещенных макроблоков в текущем слое. Далее сначала приведено описание межслойного предсказания движения.In this case, the macroblocks in the current layer (EL) are encoded into macroblock frames, and the macroblocks in the base layer (BL) to be used for interlayer prediction of macroblock frames of the current layer are encoded into macroblocks of fields in the field image. The video components contained in the macroblock of the field in the base layer are the same as the video components contained in a pair of aligned macroblocks in the current layer. The following is a first description of the interlayer motion prediction.

В качестве режимов разбиения макроблока в виртуальном базовом слое EL-кодер 20 применяет режимы разбиения, получаемые при растягивании макроблока в четном или нечетном поле базового слоя (в два раза, в вертикальном направлении). На фиг.10a представлен подробный пример упомянутого процесса. Процедура, изображенная на фиг.10a, отличается от процедуры в случае III, когда выбирается макроблок верхнего или нижнего поля в MBAFF-кадре, тем, что обычно применяется пространственно совмещенный макроблок 1010 поля в четном или нечетном поле, и сходна с процедурой в случае III в том, что совмещенный макроблок 1010 поля растягивается, и режимы разбиения двух макроблоков, получаемых растягиванием, применяются к паре макроблоков 1012 виртуального базового слоя. Когда соответствующий макроблок 1010 поля растягивается в два раза в вертикальном направлении, возможно создание режима (или схемы) разбиения, который(ая) запрещен(а) в режимах разбиения макроблоков. Для предотвращения такой возможности EL-кодер 20 определяет режимы разбиения в зависимости от режимов разбиения при растяжении в соответствии с такими же правилами, как правила 1 и 2, предложенные в случае III.As the macroblock splitting modes in the virtual base layer, the EL encoder 20 applies the splitting modes obtained by stretching the macroblock in an even or odd field of the base layer (twice, in the vertical direction). Fig. 10a presents a detailed example of the process. The procedure shown in Fig. 10a differs from the procedure in case III, when the macroblock of the upper or lower field in the MBAFF frame is selected, in that a spatially aligned field macroblock 1010 in an even or odd field is usually used, and is similar to the procedure in case III in that the combined macroblock 1010 of the field is stretched, and the split modes of the two macroblocks obtained by stretching are applied to the pair of macroblocks 1012 of the virtual base layer. When the corresponding macroblock 1010 of the field is stretched twice in the vertical direction, it is possible to create a partition mode (or pattern), which is prohibited (a) in macroblock partition modes. To prevent this, the EL encoder 20 determines the split modes depending on the split split modes in accordance with the same rules as rules 1 and 2 proposed in case III.

Если соответствующий макроблок кодирован в intra-режиме, EL-кодер 20 выполняет только межслойное предсказание текстуры, без выполнения определения режимов разбиения, в ходе вышеописанного процесса растяжения и нижеописанного процесса получения опорных индексов и векторов движения. То есть EL-кодер 20 не выполняет межслойное предсказание движения.If the corresponding macroblock is encoded in intra-mode, the EL encoder 20 performs only inter-layer texture prediction, without performing the determination of split modes, during the above-described stretching process and the following process for obtaining reference indices and motion vectors. That is, the EL encoder 20 does not perform inter-layer motion prediction.

Процедура получения опорных индексов и векторов движения также сходна с процедурой, описанной в предыдущем случае III. Однако, рассматриваемый случай IV отличается от случае III в следующем. Поскольку, в случае III, соответствующие макроблоки базового слоя передаются в парах четных и нечетных макроблоков в кадре, то выбирается один из верхнего и нижнего макроблоков и применяется в процедуре вывода. Поскольку, в рассматриваемом случае IV, в базовом слое присутствует только один макроблок, который соответствует текущему макроблоку, подлежащему кодированию, то информация о движении в паре макроблоков 1012 виртуального базового слоя выводится из информации о движении соответствующего макроблока поля, без выполнения процедуры выбора макроблока, как показано на фиг.10b и 10c, и полученная информация о движении применяется для межслойного предсказания движения в текущей паре макроблоков 1013.The procedure for obtaining reference indices and motion vectors is also similar to the procedure described in the previous case III. However, case IV under consideration differs from case III in the following. Since, in case III, the corresponding macroblocks of the base layer are transmitted in pairs of even and odd macroblocks in the frame, one of the upper and lower macroblocks is selected and used in the output procedure. Since, in the case under consideration IV, there is only one macroblock in the base layer that corresponds to the current macroblock to be encoded, information about the movement in the pair of macroblocks 1012 of the virtual base layer is derived from the information about the movement of the corresponding macroblock of the field, without performing the macroblock selection procedure, as 10b and 10c, and the obtained motion information is used for interlayer motion prediction in the current pair of macroblocks 1013.

На фиг.11 схематично показано получение опорных индексов и векторов движения пары макроблоков виртуального базового слоя в соответствии с другим вариантом осуществления настоящего изобретения. В рассматриваемом случае, информация о движении пары макроблоков виртуального базового слоя выводится из информации о движении четного или нечетного макроблока поля базового слоя, что отлично от случая, описанного выше со ссылкой на фиг.9a. В настоящем случае применяются такие операции вывода, как операции в случае, показанном на фиг.9a. Однако, процесс смешения и использования информации о движении в паре макроблоков в случае, показанном на фиг.9b, не применим в рассматриваемом случае IV, поскольку, в рассматриваемом случае, в соответствующем поле базового слоя отсутствует пара из верхнего и нижнего макроблоков.11 schematically shows the receipt of reference indices and motion vectors of a pair of macroblocks of a virtual base layer in accordance with another embodiment of the present invention. In this case, information about the movement of a pair of macroblocks of the virtual base layer is derived from information about the movement of an even or odd macroblock of the field of the base layer, which is different from the case described above with reference to figa. In the present case, output operations such as those in the case shown in FIG. 9a are applied. However, the process of mixing and using motion information in a pair of macroblocks in the case shown in Fig. 9b is not applicable in case IV under consideration, since, in the case under consideration, there is no pair of upper and lower macroblocks in the corresponding field of the base layer.

В варианте осуществления, описанном со ссылкой на фиг.10a-10c, для предсказания информации о движении в паре макроблоков виртуального базового слоя, EL-кодер 20 последовательно получает режимы разбиения, опорные индексы и векторы движения на основе информации о движении соответствующего макроблока поля базового слоя. Однако, в другом варианте осуществления, показанном на фиг.11, EL-кодер 20 сначала получает опорные индексы и векторы движения пары макроблоков виртуального базового слоя на основе информации о движении соответствующей пары макроблоков базового слоя и, наконец, затем определяет режимы разбиения пары макроблоков виртуального базового слоя на основе полученных значений. Когда режимы разбиения определены, сегменты блоков 4×4 с одинаковыми полученными векторами движения и опорными индексами объединяются, и если режим объединенного блока является допустимым режимом разбиения, то режимы разбиения устанавливаются в объединенный режим, а, в ином случае, режимы разбиения устанавливаются в режимы до объединения.In the embodiment described with reference to FIGS. 10a-10c, for predicting motion information in a pair of macroblocks of a virtual base layer, the EL encoder 20 sequentially obtains partitioning modes, reference indices, and motion vectors based on the motion information of the corresponding macroblock of the base layer field . However, in another embodiment shown in FIG. 11, the EL encoder 20 first obtains reference indices and motion vectors of the pair of macroblocks of the virtual base layer based on the motion information of the corresponding pair of macroblocks of the base layer and, finally, then determines the split modes of the pair of virtual macroblocks base layer based on the values obtained. When the split modes are defined, segments of 4x4 blocks with the same received motion vectors and reference indices are combined, and if the combined block mode is a valid split mode, the split modes are set to the combined mode, and, otherwise, the split modes are set to associations.

Когда в вышеописанных вариантах осуществления выполняется предсказание текстуры, если соответствующий макроблок поля базового слоя является макроблоком intra-режима, то на текущем макроблоке выполняется внутрикадровое кодирование с предсказанием по базовому слою. Если соответствующий макроблок поля является макроблоком inter-режима, и если текущий макроблок кодирован в inter-режиме, то выполняется кодирование с межслойным предсказанием по остаточным данным. Разумеется, в рассматриваемом случае макроблок поля для использования в предсказании служит для предсказания текстуры после того, как он сверхдискретизируется в вертикальном направлении.When texture prediction is performed in the above embodiments, if the corresponding macroblock of the base layer field is an intra-mode macroblock, then intra-frame prediction based on the base layer is performed on the current macroblock. If the corresponding macroblock of the field is an inter-mode macroblock, and if the current macroblock is inter-mode encoded, interlayer prediction of residual data is performed. Of course, in this case, the macroblock of the field for use in prediction is used to predict the texture after it is oversampled in the vertical direction.

В другом варианте осуществления настоящего изобретения создается виртуальный макроблок из макроблока поля, содержащегося в нечетном или четном поле, для построения пары макроблоков, и затем информация о движении пары макроблоков виртуального базового слоя выводится из построенной пары макроблоков. На фиг.12a и 12b представлены примеры упомянутого варианта осуществления.In another embodiment of the present invention, a virtual macroblock is created from a macroblock of a field contained in an odd or even field to construct a pair of macroblocks, and then information about the movement of a pair of macroblocks of a virtual base layer is derived from the constructed pair of macroblocks. 12a and 12b are examples of the aforementioned embodiment.

В этом варианте осуществления опорные индексы и векторы движения соответствующего макроблока четного (или нечетного) поля базового слоя копируются (1201 и 1202) для создания виртуального макроблока нечетного (или четного) поля для построения пары макроблоков 1211, и информация о движении построенной пары макроблоков 1211 смешивается для вывода информации о движении пары макроблоков 1212 виртуального базового слоя (1203 и 1204). В примерном способе смешения и использования информации о движении, как показано на фиг.12a и 12b, опорные индексы верхнего блока 8×8 соответствующего верхнего макроблока применяются к верхнему блоку 8×8 верхнего макроблока из пары макроблоков 1212 виртуального базового слоя, опорные индексы нижнего блока 8×8 применяются к верхнему блоку 8×8 нижнего макроблока, опорные индексы верхнего блока 8×8 соответствующего нижнего макроблока применяются к нижнему блоку 8×8 верхнего макроблока из пары макроблоков 1212 виртуального базового слоя, и опорные индексы нижнего блока 8×8 применяются к нижнему блоку 8×8 нижнего макроблока (1203). Векторы движения применяются в соответствии с опорными индексами (1204). Описание такого процесса в настоящей заявке не приводится, поскольку его можно интуитивно понять из фиг.12a и 12b.In this embodiment, the reference indices and motion vectors of the corresponding macroblock of the even (or odd) field of the base layer are copied (1201 and 1202) to create a virtual macroblock of the odd (or even) field to build a pair of macroblocks 1211, and the motion information of the constructed pair of macroblocks 1211 is mixed to output information about the movement of a pair of macroblocks 1212 of the virtual base layer (1203 and 1204). In an example method of mixing and using motion information, as shown in FIGS. 12a and 12b, reference indices of the upper 8 × 8 block of the corresponding upper macroblock are applied to the upper 8 × 8 block of the upper macroblock from the pair of macroblocks 1212 of the virtual base layer, the reference indices of the lower block 8 × 8 are applied to the upper 8 × 8 block of the lower macroblock, reference indices of the upper 8 × 8 block of the corresponding lower macroblock are applied to the lower 8 × 8 block of the upper macroblock from a pair of macroblocks 1212 of the virtual base layer, and reference eksy lower block 8 × 8 block are applied to the lower 8 × 8 macroblock of the lower (1203). Motion vectors are applied in accordance with the reference indices (1204). A description of such a process is not given in this application since it can be intuitively understood from FIGS. 12a and 12b.

В варианте осуществления, показанном на фиг.12a и 12b, режимы разбиения пары макроблоков 1212 виртуального базового слоя определяются на основе полученных опорных индексов и векторов движения с использованием способа, аналогичного вышеописанному способу.In the embodiment shown in FIGS. 12a and 12b, split modes of the pair of macroblocks 1212 of the virtual base layer are determined based on the obtained reference indices and motion vectors using a method similar to the above method.

Далее приведено описание межслойного предсказания текстуры. На фиг.10b показан пример способа межслойного предсказания текстуры для рассматриваемого случая «MB поля в полевом изображении -> MB кадра». Сначала EL-кодер 20 сверхдискретизирует соответствующий макроблок 1010 поля базового слоя для создания двух промежуточных макроблоков 1021. Если соответствующий макроблок 1010 поля является макроблоком intra-режима, то EL-кодер 20 применяет деблокинговый фильтр к двум созданным промежуточным макроблокам 1021 и затем выполняет внутрикадровое предсказание по базовому слою текущей пары макроблоков 1013 кадра на основе двух промежуточных макроблоков 1021. Если соответствующий макроблок 1010 поля является макроблоком inter-режима, то EL-кодер 20 выполняет предсказание по остаточным данным текущей пары макроблоков 1013 кадра на основе двух созданных промежуточных блоков 1021.The following is a description of the interlayer texture prediction. 10b shows an example of an interlayer texture prediction method for the case under consideration “MB field in the field image -> MB frame”. First, the EL encoder 20 oversamples the corresponding macroblock 1010 of the base layer field to create two intermediate macroblocks 1021. If the corresponding macroblock 1010 of the field is an intra-mode macroblock, then the EL encoder 20 applies a deblocking filter to the two created intermediate macroblocks 1021 and then performs intra prediction on the base layer of the current pair of macroblocks 1013 of the frame based on two intermediate macroblocks 1021. If the corresponding field macroblock 1010 is an inter-mode macroblock, then the EL encoder 20 performs the prediction an indication of the residual data of the current pair of macroblocks 1013 of the frame based on two created intermediate blocks 1021.

V. Случай: MB поля -> MB поляV. Case: MB fields -> MB fields

Этот случай подразделяется на следующие четыре случая, поскольку макроблоки полей делятся на макроблоки полей, содержащиеся в полевом изображении, и макроблоки полей, содержащиеся в MBAFF-кадре.This case is divided into the following four cases, since the macroblocks of the fields are divided into macroblocks of the fields contained in the field image and macroblocks of the fields contained in the MBAFF frame.

i) Случай, когда базовый и улучшенный слои являются MBAFF-кадрамиi) The case when the base and advanced layers are MBAFF frames

Такой случай показан на фиг.13a. Как показано, информация о движении (режимы разбиения, опорные индексы и векторы движения) соответствующей пары макроблоков базового слоя используется как информация о движении пары макроблоков виртуального базового слоя посредством прямого копирования информации о движении соответствующей пары макроблоков в пару макроблоков виртуального базового слоя. При этом информация о движении копируется между макроблоками, идентичными по четности. В частности, информация о движении макроблоков четных полей копируется в макроблоки четных полей, и информация о движении макроблоков нечетных полей копируется в макроблоки нечетных полей, чтобы построить макроблок виртуального слоя, который применяется для предсказания движения макроблока текущего слоя.Such a case is shown in FIG. 13a. As shown, the motion information (partitioning modes, reference indices, and motion vectors) of the corresponding pair of macroblocks of the base layer is used as information about the motion of the pair of macroblocks of the virtual base layer by directly copying the motion information of the corresponding pair of macroblocks to the pair of macroblocks of the virtual base layer. In this case, motion information is copied between macroblocks that are identical in parity. In particular, the motion information of the even-field macroblocks is copied to the even-field macroblocks, and the motion information of the odd-field macroblocks is copied to the odd-field macroblocks to construct a macroblock of a virtual layer, which is used to predict the macroblock of the current layer.

Когда выполняется предсказание текстуры, применяется известный способ межслойного предсказания текстуры.When texture prediction is performed, a known method for interlayer texture prediction is applied.

ii) Случай, когда базовый слой содержит полевые изображения и улучшенный слой содержит MBAFF-кадрыii) The case where the base layer contains field images and the enhanced layer contains MBAFF frames

Такой случай показан на фиг.13b. Как показано, информация о движении (режимы разбиения, опорные индексы и векторы движения) соответствующего макроблока поля базового слоя используется как информация о движении каждого из пары макроблоков виртуального базового слоя посредством прямого копирования информации о движении соответствующего макроблока поля в каждый из пары макроблоков. При этом правило копирования с учетом идентичности по четности не применяется, поскольку информация о движении одного макроблока поля применяется для макроблоков как верхнего, так и нижнего полей.Such a case is shown in FIG. 13b. As shown, the motion information (partitioning modes, reference indices, and motion vectors) of the corresponding macroblock of the base layer field is used as the motion information of each of the pair of macroblocks of the virtual base layer by directly copying the motion information of the corresponding macroblock of the field to each of the pair of macroblocks. In this case, the rule of copying taking into account parity is not applied, since the information about the movement of one macroblock of the field is applied to macroblocks of both the upper and lower fields.

Когда выполняется предсказание текстуры, применяется внутрикадровое предсказание по базовому слою (когда соответствующий блок базового слоя является блоком intra-режима), или применяется предсказание по остаточным данным (когда соответствующий блок базового слоя является блоком inter-режима) между макроблоками улучшенного и базового слоев, имеющими одинаковые (четные или нечетные) атрибуты полей.When texture prediction is performed, intra-frame prediction is applied on the base layer (when the corresponding base layer block is an intra-mode block), or residual data prediction (when the corresponding base layer block is the inter-mode block) is applied between the macroblocks of the enhanced and base layers having the same (even or odd) field attributes.

iii) Случай, когда базовый слой содержит MBAFF-кадры и улучшенный слой содержит полевые изображенияiii) The case where the base layer contains MBAFF frames and the enhanced layer contains field images

Такой случай показан на фиг.13c. Как показано, макроблок поля идентичной четности выбирается из пары макроблоков базового слоя, соответствующей текущему макроблоку поля, и информация о движении (режимы разбиения, опорные индексы и векторы движения) выбранного макроблока поля используется как информация о движении макроблока поля виртуального базового слоя посредством прямого копирования информации о движении выбранного макроблока поля в макроблок поля виртуального базового слоя.Such a case is shown in FIG. 13c. As shown, a macroblock of a field of identical parity is selected from a pair of macroblocks of the base layer corresponding to the current macroblock of the field, and motion information (partitioning modes, reference indices, and motion vectors) of the selected macroblock of the field is used as information about the movement of the macroblock of the field of the virtual base layer by directly copying information about the movement of the selected macroblock of the field into the macroblock of the field of the virtual base layer.

Когда выполняется предсказание текстуры, применяется внутрикадровое предсказание по базовому слою (когда соответствующий блок базового слоя является блоком intra-режима), или применяется предсказание по остаточным данным (когда соответствующий блок базового слоя является блоком inter-режима) между макроблоками улучшенного и базового слоев, имеющими одинаковые (четные или нечетные) атрибуты полей.When texture prediction is performed, intra-frame prediction is applied on the base layer (when the corresponding base layer block is an intra-mode block), or residual data prediction (when the corresponding base layer block is the inter-mode block) is applied between the macroblocks of the enhanced and base layers having the same (even or odd) field attributes.

iv) Случай, когда базовый и улучшенный слои являются полевыми изображениямиiv) The case where the base and enhanced layers are field images

Такой случай показан на фиг.13d. Как показано, информация о движении (режимы разбиения, опорные индексы и векторы движения) соответствующего макроблока поля базового слоя используется как информация о движении макроблока поля виртуального базового слоя посредством прямого копирования информации о движении соответствующего макроблока поля в макроблок поля виртуального базового слоя. В рассматриваемом случае, информация о движении копируется также между макроблоками, одинаковыми по четности.Such a case is shown in FIG. 13d. As shown, the motion information (partitioning modes, reference indices, and motion vectors) of the corresponding macroblock of the field of the base layer is used as information about the movement of the macroblock of the field of the virtual base layer by directly copying the motion information of the corresponding macroblock of the field to the macroblock of the field of the virtual base layer. In this case, traffic information is also copied between macroblocks that are identical in parity.

Когда выполняется предсказание текстуры, применяется известный способ межслойного предсказания текстуры между макроблоками кадров.When texture prediction is performed, a known method for interlayer texture prediction between macroblock frames is applied.

Вышеприведенное описание межслойного предсказания приведено для случая, когда базовый и улучшенный слои имеют одинаковое разрешение. Ниже приведено описание того, каким образом опознается тип изображения (прогрессивный кадр, MBAFF-кадр или чересстрочное поле) каждого слоя и/или тип макроблока в изображении, когда разрешение улучшенного слоя выше, чем разрешение базового слоя (т.е. когда тип пространственной масштабируемости (SpatialScalabilityType()) выше нуля), и применяется способ межслойного предсказания в соответствии с опознанными типами. Во-первых, поясняется межслойное предсказание движения.The above description of interlayer prediction is for the case where the base and enhanced layers have the same resolution. The following is a description of how the image type (progressive frame, MBAFF frame or interlaced field) of each layer and / or the macroblock type in the image is recognized when the resolution of the enhanced layer is higher than the resolution of the base layer (i.e. when the type of spatial scalability (SpatialScalabilityType ()) is above zero), and an interlayer prediction method is applied according to the recognized types. First, the interlayer motion prediction is explained.

M_A). Базовый слой (прогрессивный кадр) -> Улучшенный слой (MBAFF-кадр)M_A). Base layer (progressive frame) -> Advanced layer (MBAFF frame)

На фиг.14a изображен способ обработки для такого случая. Как показано, сначала информация о движении всех макроблоков соответствующего кадра в базовом слое копируется для создания виртуального кадра. Затем выполняется сверхдискретизация. В ходе упомянутой сверхдискретизации выполняется интерполяция с использованием информации о текстуре изображения базового слоя с частотой интерполяции, при которой разрешение изображения (или размер изображения) может быть равным разрешению изображения текущего слоя. В дополнение формируется информация о движении каждого макроблока изображения, увеличенного путем интерполяции, на основе информации о движении каждого макроблока созданного виртуального кадра. Для упомянутого формирования применяется один из ряда известных способов. Изображения промежуточного базового слоя, построенного таким образом, имеют такое же разрешение, как изображения текущего (улучшенного) слоя. Соответственно, в рассматриваемом случае применимо вышеописанное межслойное предсказание движения.On figa shows a processing method for such a case. As shown, first, the motion information of all the macroblocks of the corresponding frame in the base layer is copied to create a virtual frame. Oversampling is then performed. During the said oversampling, interpolation is performed using the texture information of the image of the base layer with an interpolation frequency at which the image resolution (or image size) can be equal to the image resolution of the current layer. In addition, information about the movement of each macroblock of the image enlarged by interpolation is generated based on the information about the movement of each macroblock of the created virtual frame. For the said formation, one of a number of known methods is used. Images of an intermediate base layer constructed in this way have the same resolution as images of the current (improved) layer. Accordingly, in the case under consideration, the above-described interlayer motion prediction is applicable.

В рассматриваемом случае (фиг.14a) макроблоки в изображении в базовом и текущем слоях являются макроблоками кадра и макроблоками полей в MBAFF-кадре, поскольку базовый слой содержит кадры, и текущий слой содержит MBAFF-кадры. Соответственно, для выполнения межслойного предсказания движения применим способ из вышеописанного случая I. Однако в одном и том же MBAFF-кадре может содержаться не только пара макроблоков полей, но также пара макроблоков кадра, как описано выше. Соответственно, применяется известный способ предсказания движения между макроблоками кадров (межкадровый способ предсказания), который содержит простое копирование информации о движении, когда тип пары макроблоков текущего слоя, соответствующих паре макроблоков в изображении промежуточного базового слоя, опознан как тип макроблоков кадра, а не тип макроблока поля.In the case under consideration (Fig. 14a), the macroblocks in the image in the base and current layers are macroblocks of a frame and macroblocks of fields in an MBAFF frame, since the base layer contains frames and the current layer contains MBAFF frames. Accordingly, to perform the interlayer motion prediction, the method from the above case I is applicable. However, the same MBAFF frame may contain not only a pair of field macroblocks, but also a pair of macroblocks of a frame, as described above. Accordingly, the known method for predicting motion between macroblock frames is used (inter-frame prediction method), which comprises simply copying motion information when the type of a pair of macroblocks of the current layer corresponding to a pair of macroblocks in the image of the intermediate base layer is recognized as the type of macroblocks of the frame, and not the type of macroblocks fields.

M_B). Базовый слой (прогрессивный кадр) -> Улучшенный слой (поле с чересстрочной разверткой)M_B). Base layer (progressive frame) -> Improved layer (interlaced field)

На фиг.14b представлен способ обработки для такого случая. Как показано, сначала информация о движении всех макроблоков соответствующего кадра в базовом слое копируется для создания виртуального кадра. Затем выполняется сверхдискретизация. В ходе упомянутой сверхдискретизации выполняется интерполяция с использованием информации о текстуре изображения базового слоя с частотой интерполяции, при которой разрешение изображения может быть равным разрешению изображения текущего слоя. В дополнение формируется информация о движении каждого макроблока изображения, увеличенного путем интерполяции, на основе информации о движении каждого макроблока созданного виртуального кадра.14b shows a processing method for such a case. As shown, first, the motion information of all the macroblocks of the corresponding frame in the base layer is copied to create a virtual frame. Oversampling is then performed. During the said oversampling, interpolation is performed using information about the texture image of the base layer with an interpolation frequency at which the image resolution may be equal to the image resolution of the current layer. In addition, information about the movement of each macroblock of the image enlarged by interpolation is generated based on the information about the movement of each macroblock of the created virtual frame.

Для выполнения межслойного предсказания движения применяется способ из вышеописанного случая II, поскольку каждый макроблок в изображении промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком поля в полевом изображении.To perform the interlayer motion prediction, the method from the above case II is applied, since each macroblock in the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of the field in the field image.

M_C). Базовый слой (MBAFF-кадр) -> Улучшенный слой (прогрессивный кадр)M_C). Base layer (MBAFF frame) -> Improved layer (progressive frame)

На фиг.14c изображен способ обработки для такого случая. Как показано, сначала соответствующий MBAPF-кадр базового слоя преобразуется в прогрессивный кадр. Для преобразования пары макроблоков полей MBAPF-кадра в прогрессивный кадр применяется способ из вышеописанного случая III, и для преобразования пары макроблоков кадра MBAPF-кадра применяется известный способ межкадрового преобразования. Разумеется, когда в рассматриваемом случае применяется способ из случая III, виртуальный кадр и информация о движении каждого макроблока кадра создаются с использованием данных, полученных посредством межслойного предсказания, без выполнения операции кодирования разности между предсказанными данными и данными слоя, фактически подлежащего кодированию.Fig. 14c shows a processing method for such a case. As shown, first, the corresponding MBAPF frame of the base layer is converted to a progressive frame. To convert a pair of macroblocks of the fields of the MBAPF frame into a progressive frame, the method from the above case III is applied, and to convert a pair of macroblocks of the fields of the MBAPF frame, the known method of inter-frame conversion is used. Of course, when in the case under consideration the method from case III is applied, the virtual frame and the motion information of each macroblock of the frame are created using data obtained by inter-layer prediction without performing the encoding operation of the difference between the predicted data and the data of the layer actually to be encoded.

После того, как виртуальный кадр получен, на виртуальном кадре выполняется сверхдискретизация. В ходе упомянутой сверхдискретизации выполняется интерполяция с частотой интерполяции, при которой разрешение базового слоя может стать равным разрешению текущего слоя. В дополнение формируется информация о движении каждого макроблока увеличенного изображения на основе информации о движении каждого макроблока виртуального кадра с использованием одного из ряда известных способов. В рассматриваемом случае выполняется известный способ межслойного предсказания движения между макроблоками кадров, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком кадра.After the virtual frame is received, oversampling is performed on the virtual frame. During the mentioned oversampling, interpolation is performed with the interpolation frequency at which the resolution of the base layer can become equal to the resolution of the current layer. In addition, the motion information of each macroblock of the enlarged image is generated based on the motion information of each macroblock of a virtual frame using one of a number of known methods. In this case, a known method for interlayer motion prediction between macroblock frames is performed, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of the frame.

M_D). Базовый слой (поле с чересстрочной разверткой) -> Улучшенный слой (прогрессивный кадр)M_D). Base layer (interlaced field) -> Enhanced layer (progressive frame)

На фиг.14d изображен один способ обработки для такого случая. В этом случае тип изображения является таким, как тип макроблока изображения. Как показано, сначала соответствующее поле базового слоя преобразуется в прогрессивный кадр. Полученный преобразованием кадр имеет такое же отношение вертикального/горизонтального размеров (соотношение размеров), как изображение текущего слоя. Для преобразования чересстрочного поля в прогрессивный кадр применяются процесс сверхдискретизации и способ из вышеописанного случая IV. Разумеется, когда способ случая IV применяется в рассматриваемом случае, текстурные данные виртуального кадра и информация о движении каждого макроблока кадра создаются с использованием данных, получаемых межслойным предсказанием, без выполнения операции кодирования разности между предсказанными данными и данными слоя, фактически подлежащего кодированию.On fig.14d depicts one processing method for such a case. In this case, the type of image is such as the type of macroblock image. As shown, first, the corresponding field of the base layer is converted into a progressive frame. The frame obtained by the conversion has the same vertical / horizontal aspect ratio (aspect ratio) as the image of the current layer. To convert an interlaced field to a progressive frame, the oversampling process and the method from case IV described above are applied. Of course, when the case IV method is applied in the case under consideration, the texture data of the virtual frame and the motion information of each macroblock of the frame are created using data obtained by the interlayer prediction without performing the encoding operation of the difference between the predicted data and the data of the layer actually to be encoded.

После того, как виртуальный кадр получен, на виртуальном кадре выполняется сверхдискретизация. В ходе упомянутой сверхдискретизации выполняется интерполяция, чтобы разрешение виртуального кадра могло стать равным разрешению текущего слоя. В дополнение формируется информация о движении каждого макроблока интерполированного изображения на основе информации о движении каждого макроблока виртуального кадра с использованием одного из ряда известных способов. В рассматриваемом случае выполняется известный способ межслойного предсказания движения между макроблоками кадров, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком кадра.After the virtual frame is received, oversampling is performed on the virtual frame. During the aforementioned oversampling, interpolation is performed so that the resolution of the virtual frame can become equal to the resolution of the current layer. In addition, the motion information of each macroblock of the interpolated image is generated based on the motion information of each macroblock of a virtual frame using one of a number of known methods. In this case, a known method for interlayer motion prediction between macroblock frames is performed, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of the frame.

На фиг.14e изображен один способ обработки для вышеупомянутого случая M_D) в соответствии с другим вариантом осуществления настоящего изобретения. Как показано, в этом варианте осуществления нечетное или четное соответствующее поле преобразуется в прогрессивный кадр. Для преобразования чересстрочного поля в прогрессивный кадр применяются сверхдискретизация и вышеописанный способ из случая IV, представленный на фиг.14d. После того, как виртуальный кадр получен, способ предсказания движения между изображениями, имеющими одинаковое соотношение размеров, который является одним из ряда известных способов, применяется к виртуальному кадру для предсказания движения между изображением текущего слоя и виртуальным кадром промежуточного слоя, чтобы выполнить кодирование с предсказанием информации о движении каждого макроблока прогрессивного изображения текущего слоя.14e shows one processing method for the aforementioned case M_D) in accordance with another embodiment of the present invention. As shown, in this embodiment, the odd or even corresponding field is converted to a progressive frame. To convert an interlaced field to a progressive frame, oversampling and the above-described method from case IV are used, as shown in FIG. 14d. After the virtual frame is obtained, the motion prediction method between images having the same aspect ratio, which is one of a number of known methods, is applied to the virtual frame for motion prediction between the image of the current layer and the virtual frame of the intermediate layer to perform information prediction encoding about the movement of each macroblock of a progressive image of the current layer.

Способ, показанный на фиг.14e, отличается от способа, показанного на фиг.14d, тем, что не формируется никакого промежуточного сигнала предсказания.The method shown in FIG. 14e differs from the method shown in FIG. 14d in that no intermediate prediction signal is generated.

На фиг.14f изображен способ обработки для вышеупомянутого случая M_D) в соответствии с другим вариантом осуществления настоящего изобретения. Как показано, в этом варианте осуществления информация о движении всех макроблоков соответствующего поля базового слоя копируется для создания виртуального изображения. Затем выполняется сверхдискретизация. В ходе такой сверхдискретизации используется информация о текстуре изображения базового слоя, и применяются разные частоты интерполяции при вертикальной и горизонтальной интерполяции, чтобы увеличенное изображение имело такой же размер (или разрешение), как изображение текущего слоя. Кроме того, к виртуальному изображению применяется один из ряда известных способов предсказания (например, способ расширенной специальной масштабируемости (ESS)) для формирования разнообразной синтаксической информации и информации о движении увеличенного изображения. Векторы движения, построенные в ходе упомянутого процесса, растягиваются в соответствии с коэффициентом увеличения. После того, как сверхдискретизированное изображение промежуточного базового слоя построено, упомянутое изображение используется для выполнения межслойного предсказания движения каждого макроблока в изображении текущего слоя, чтобы кодировать информацию о движении каждого макроблока изображения текущего слоя. При этом, применяется известный способ межслойного предсказания движения между макроблоками кадров.FIG. 14f shows a processing method for the aforementioned case M_D) in accordance with another embodiment of the present invention. As shown, in this embodiment, motion information of all macroblocks of the corresponding field of the base layer is copied to create a virtual image. Oversampling is then performed. During such oversampling, the texture information of the base layer image is used, and different interpolation frequencies are used for vertical and horizontal interpolation so that the enlarged image has the same size (or resolution) as the image of the current layer. In addition, one of a number of known prediction methods (for example, Advanced Special Scalability (ESS)) is applied to the virtual image to generate a variety of syntax information and motion information of the enlarged image. The motion vectors constructed during the above process are stretched in accordance with the magnification factor. After the oversampling image of the intermediate base layer is constructed, the image is used to perform interlayer prediction of the movement of each macroblock in the image of the current layer to encode motion information of each macroblock of the image of the current layer. In this case, the known method of interlayer motion prediction between macroblock frames is applied.

На фиг.14g показан способ обработки для вышеупомянутого случая M_D) в соответствии с другим вариантом осуществления настоящего изобретения. Как показано, в этом варианте осуществления сначала копируется информация о движении всех макроблоков соответствующего поля базового слоя для создания виртуального изображения. После этого, информация о текстуре изображения базового слоя используется для выполнения интерполяции с разными частотами при вертикальной и горизонтальной интерполяции. Информация о текстуре, созданная в ходе такой операции, используется для межслойного предсказания текстуры. В дополнение, информация о движении в виртуальном изображении используется для выполнения межслойного предсказания движения каждого макроблока в изображении текущего слоя. При этом применяется один из ряда известных способов (например, способ расширенной специальной масштабируемости (ESS), заданный в объединенной модели масштабируемого видео (JSVM)), чтобы выполнить кодирование с предсказанием движения изображения текущего слоя.14g shows a processing method for the aforementioned case M_D) in accordance with another embodiment of the present invention. As shown, in this embodiment, motion information of all the macroblocks of the corresponding field of the base layer is first copied to create a virtual image. After that, the information about the texture of the image of the base layer is used to perform interpolation with different frequencies for vertical and horizontal interpolation. Texture information created during such an operation is used for interlayer texture prediction. In addition, motion information in a virtual image is used to perform interlayer prediction of the movement of each macroblock in the image of the current layer. In this case, one of a number of known methods is used (for example, the method of extended special scalability (ESS) specified in the combined scalable video model (JSVM)) to perform encoding with prediction of the image movement of the current layer.

Способ, показанный на фиг.14g отличается от способа, показанного на фиг.14f, тем, что не формируется никакого промежуточного сигнала предсказания.The method shown in FIG. 14g differs from the method shown in FIG. 14f in that no intermediate prediction signal is generated.

M_E). Базовый слой (MBAFF-кадр) -> Улучшенный слой (MBAFF-кадр)M_E). Base layer (MBAFF frame) -> Advanced layer (MBAFF frame)

На фиг.14h изображен способ обработки для такого случая. Как показано, сначала соответствующий MBAFF-кадр базового слоя преобразуется в прогрессивный кадр. Для преобразования MBAFF-кадра в прогрессивный кадр применяется способ из вышеописанного случая III для преобразования пар макроблоков полей MBAFF-кадра, и применяется способ межкадрового предсказания для преобразования пар макроблоков MBAFF-кадра. Разумеется, когда в рассматриваемом случае применяется способ из случая III, виртуальный кадр и информация о движении каждого макроблока кадра создаются с использованием данных, полученных посредством межслойного предсказания, без выполнения операции кодирования разности между предсказанными данными и данными слоя, фактически подлежащего кодированию.FIG. 14h shows a processing method for such a case. As shown, first, the corresponding MBAFF frame of the base layer is converted to a progressive frame. To convert an MBAFF frame to a progressive frame, the method from the above case III is used to convert pairs of macroblock fields of an MBAFF frame, and an inter-frame prediction method is used to convert pairs of macroblocks of an MBAFF frame. Of course, when in the case under consideration the method from case III is applied, the virtual frame and the motion information of each macroblock of the frame are created using data obtained by inter-layer prediction without performing the encoding operation of the difference between the predicted data and the data of the layer actually to be encoded.

После того, как виртуальный кадр получен, на виртуальном кадре выполняется сверхдискретизация. В ходе упомянутой сверхдискретизации выполняется интерполяция с частотой интерполяции, при которой разрешение базового слоя может стать равным разрешению текущего слоя. В дополнение формируется информация о движении каждого макроблока увеличенного изображения на основе информации о движении каждого макроблока виртуального кадра с использованием одного из ряда известных способов. Для выполнения межслойного предсказания движения применяется способ из вышеописанного случая I, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком поля в MBAPF-кадре. Однако в одном и том же MBAFF-кадре может содержаться не только пара макроблоков полей, но также пара макроблоков кадра, как описано выше. Соответственно, применяется известный способ предсказания движения между макроблоками кадров (межкадровый способ предсказания), который содержит копирование информации о движении, когда пара макроблоков текущего слоя, соответствующих паре макроблоков в изображении промежуточного базового слоя представляет собой макроблоки кадра, а не макроблоки полей.After the virtual frame is received, oversampling is performed on the virtual frame. During the mentioned oversampling, interpolation is performed with the interpolation frequency at which the resolution of the base layer can become equal to the resolution of the current layer. In addition, the motion information of each macroblock of the enlarged image is generated based on the motion information of each macroblock of a virtual frame using one of a number of known methods. To perform interlayer motion prediction, the method from the above case I is applied, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of the field in the MBAPF frame. However, the same MBAFF frame may contain not only a pair of macroblock fields, but also a pair of macroblocks of a frame, as described above. Accordingly, a known method for predicting motion between macroblock frames is used (interframe prediction method), which comprises copying motion information when a pair of macroblocks of the current layer corresponding to a pair of macroblocks in an image of an intermediate base layer are macroblocks of a frame, and not macroblocks of fields.

M_F). Базовый слой (MBAFF-кадр) -> Улучшенный слой (поле с чересстрочной разверткой)M_F). Base layer (MBAFF frame) -> Improved layer (interlaced field)

На фиг.14i представлен способ обработки для такого случая. Как показано, сначала соответствующий MBAFF-кадр базового слоя преобразуется в прогрессивный кадр. Чтобы преобразовать MBAFF-кадр в прогрессивный кадр, применяется способ из вышеописанного случая III для преобразования пар макроблоков полей MBAFF-кадра, и применяется способ межкадрового предсказания для преобразования пар макроблоков кадра MBAFF-кадра. Разумеется, также, когда способ из случая III применяется в рассматриваемом случае, виртуальный кадр и информация о движении каждого макроблока кадра создаются с использованием данных, получаемых посредством межслойного предсказания, без выполнения операции кодирования разности между предсказанными данными и данными слоя, фактически подлежащего кодированию.On figi presents a processing method for such a case. As shown, first, the corresponding MBAFF frame of the base layer is converted to a progressive frame. In order to convert the MBAFF frame to a progressive frame, the method from case III above is applied to convert the pairs of macroblock fields of the MBAFF frame, and the inter-frame prediction method is used to convert the macroblock pairs of the MBAFF frame. Of course, also, when the method from case III is applied in the case under consideration, the virtual frame and the motion information of each macroblock of the frame are created using data obtained by inter-layer prediction without performing the encoding operation of the difference between the predicted data and the data of the layer actually to be encoded.

После того, как виртуальный кадр получен, на виртуальном кадре выполняется интерполяция с частотой интерполяции, при которой разрешение может быть равным разрешению текущего слоя. В дополнение формируется информация о движении каждого макроблока увеличенного изображения на основе информации о движении каждого макроблока виртуального кадра с использованием одного из ряда известных способов. Для выполнения межслойного предсказания движения применяется способ из вышеописанного случая II, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком поля в четном или нечетном поле.After the virtual frame is received, interpolation is performed on the virtual frame with an interpolation frequency at which the resolution can be equal to the resolution of the current layer. In addition, the motion information of each macroblock of the enlarged image is generated based on the motion information of each macroblock of a virtual frame using one of a number of known methods. To perform the interlayer motion prediction, the method from the above case II is applied, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of a field in an even or odd field.

M_G). Базовый слой (поле с чересстрочной разверткой) -> Улучшенный слой (MBAFF-кадр)M_G). Base layer (interlaced field) -> Advanced layer (MBAFF frame)

На фиг.14j изображен способ обработки для такого случая. Как показано, сначала чересстрочное поле базового слоя преобразуется в прогрессивный кадр. Для преобразования чересстрочного поля в прогрессивный кадр применяются сверхдискретизация и способ из вышеописанного случая IV. Разумеется, также, когда в рассматриваемом случае применяется способ из случая IV, виртуальный кадр и информация о движении каждого макроблока кадра создаются с использованием данных, получаемых посредством межслойного предсказания, без выполнения операции кодирования разности между предсказанными данными и данными слоя, фактически подлежащего кодированию.FIG. 14j shows a processing method for such a case. As shown, first the interlaced field of the base layer is converted to a progressive frame. To convert an interlaced field to a progressive frame, oversampling and the method from case IV described above are applied. Of course, also, when in the case under consideration the method from case IV is applied, a virtual frame and motion information of each macroblock of the frame are created using data obtained by inter-layer prediction without performing the encoding operation of the difference between the predicted data and the data of the layer actually to be encoded.

После того, как виртуальный кадр получен, на виртуальном кадре выполняется сверхдискретизация, чтобы разрешение могло стать равным разрешению текущего слоя. В дополнение формируется информация о движении каждого макроблока увеличенного изображения с использованием одного из ряда известных способов. Для выполнения межслойного предсказания движения применяется способ из вышеописанного случая I, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком кадра, и каждый макроблок текущего слоя является макроблоком поля в MBAPF-кадре. Однако в одном и том же MBAFF-кадре может содержаться не только пара макроблоков полей, но также пара макроблоков кадра, как описано выше. Соответственно, применяется известный способ предсказания движения между макроблоками кадров (межкадровый способ предсказания), вместо способа предсказания из вышеописанного случая I, когда пара макроблоков текущего слоя, соответствующих паре макроблоков в изображении промежуточного базового слоя, содержит макроблоки кадра, а не макроблоки полей.After the virtual frame is received, oversampling is performed on the virtual frame so that the resolution can become equal to the resolution of the current layer. In addition, movement information of each macroblock of the enlarged image is generated using one of a number of known methods. To perform interlayer motion prediction, the method from the above case I is applied, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the frame, and each macroblock of the current layer is a macroblock of the field in the MBAPF frame. However, the same MBAFF frame may contain not only a pair of macroblock fields, but also a pair of macroblocks of a frame, as described above. Accordingly, the known method for predicting motion between macroblock frames is used (interframe prediction method), instead of the prediction method from the above case I, when a pair of macroblocks of the current layer corresponding to a pair of macroblocks in the image of the intermediate base layer contains macroblocks of the frame, and not macroblocks of the fields.

M_H). Базовый слой (поле с чересстрочной разверткой) -> Улучшенный слой (поле с чересстрочной разверткой)M_H). Base layer (interlaced field) -> Enhanced layer (interlaced field)

На фиг.14k изображен способ обработки для такого случая. Как показано, сначала информация о движении всех макроблоков соответствующего поля в базовом слое копируется для создания виртуального поля, и затем выполняется сверхдискретизация на виртуальном поле. Упомянутая сверхдискретизация выполняется с частотой сверхдискретизации, при которой разрешение базового слоя может быть равным разрешению текущего слоя. В дополнение, с использованием одного из ряда известных способов, формируется информация о движении каждого макроблока увеличенного изображения на основе информации о движении каждого макроблока созданного виртуального поля. Для выполнения межслойного предсказания движения применяется способ из вышеописанного случая iv) в случае V, поскольку каждый макроблок изображения промежуточного базового слоя, построенного таким образом, является макроблоком поля в полевом изображении, и каждый макроблок текущего слоя является также макроблоком поля в полевом изображении.14k shows a processing method for such a case. As shown, first, the motion information of all the macroblocks of the corresponding field in the base layer is copied to create a virtual field, and then oversampling on the virtual field is performed. Mentioned oversampling is performed with an oversampling frequency at which the resolution of the base layer may be equal to the resolution of the current layer. In addition, using one of a number of known methods, information about the movement of each macroblock of the enlarged image is generated based on information about the movement of each macroblock of the created virtual field. To perform the interlayer motion prediction, the method from the above case iv) is used in case V, since each macroblock of the image of the intermediate base layer constructed in this way is a macroblock of the field in the field image, and each macroblock of the current layer is also a macroblock of the field in the field image.

Хотя, для сверхдискретизации в описании вариантов осуществления, показанных на фиг.14a-14k, используется информация о текстуре виртуального поля или кадра промежуточного слоя, вместо информации о текстуре изображения базового слоя, информация о текстуре изображения базового слоя также может служить для сверхдискретизации. Кроме того, в отсутствие необходимости, процесс интерполяции с использованием информации о текстуре исключается из вышеописанного процесса сверхдискретизации, при выводе информации о движении в изображении промежуточного слоя, подлежащего использованию для межслойного предсказания движения, которое выполняется на последующей стадии.Although, for oversampling, the description of the embodiments shown in FIGS. 14a-14k uses texture information of a virtual field or frame of an intermediate layer, instead of information about the texture image of the base layer, the texture information of the image of the base layer can also serve as oversampling. In addition, in the absence of need, the interpolation process using texture information is excluded from the above-described oversampling process when outputting motion information in an image of an intermediate layer to be used for interlayer motion prediction, which is performed in a subsequent step.

С другой стороны, хотя описание предсказания текстуры приведено для случая, когда базовый и улучшенный слои имеют одинаковое пространственное разрешение, оба слоя могут иметь разные пространственные разрешения, как изложено выше. В случае, когда разрешение улучшенного слоя выше, чем разрешение базового слоя, сначала выполняются операции, обеспечивающие равенство разрешения изображения базового слоя разрешению изображения улучшенного слоя, чтобы создать изображение базового слоя, имеющее такое же разрешение, как изображение улучшенного слоя, и, на основе каждого макроблока в изображении, выбирается способ предсказания текстуры, соответствующий каждому из вышеописанных случаев I-V, для выполнения кодирования с предсказанием. Далее приведено описание процедуры, обеспечивающей равенство разрешения изображения базового слоя разрешению изображения улучшенного слоя.On the other hand, although the description of texture prediction is given for the case where the base and improved layers have the same spatial resolution, both layers can have different spatial resolutions, as described above. In the case where the resolution of the enhanced layer is higher than the resolution of the base layer, operations are first performed to ensure that the image resolution of the base layer is equal to the resolution of the image of the enhanced layer to create an image of the base layer having the same resolution as the image of the enhanced layer, and, based on each macroblock in the image, a texture prediction method corresponding to each of the above cases IV is selected to perform predictive coding. The following is a description of the procedure for ensuring that the resolution of the image of the base layer is equal to the resolution of the image of the enhanced layer.

Когда рассматриваются два слоя для межслойного предсказания, число комбинаций форматов изображения (прогрессивный и чересстрочный форматы) для кодирования между двумя слоями равно четырем, так как существуют два способа развертки видеосигнала, один способ прогрессивной развертки и другой способ чересстрочной развертки. Поэтому способ повышения разрешения изображений базового слоя для выполнения межслойного предсказания текстуры будет описан отдельно для каждого из четырех случаев.When two layers for interlayer prediction are considered, the number of combinations of image formats (progressive and interlaced formats) for encoding between two layers is four, since there are two methods of scanning a video signal, one method of progressive scanning and another method of interlacing. Therefore, a method for increasing the resolution of base layer images to perform interlayer texture prediction will be described separately for each of the four cases.

T_A). Случай, когда улучшенный слой является прогрессивным и базовый слой является чересстрочнымT_A). The case when the enhanced layer is progressive and the base layer is interlaced

На фиг.15a представлен вариант осуществления способа использования изображения базового слоя для межслойного предсказания текстуры в рассматриваемом случае. Как показано, изображение 1501 базового слоя, совпадающее по времени с изображением 1500 текущего (улучшенного) слоя, содержит четные и нечетные поля, которые выводятся в разные моменты времени. Поэтому сначала EL-кодер 20 разделяет изображение базового слоя на четное и нечетное поля (S151). Intra-макроблоки изображения 1501 базового слоя содержат исходные видеоданные, которые не кодированы (или видеоданные, которые кодированы) и которые служат для внутрикадрового предсказания по базовому слою, и inter-макроблоки упомянутого изображения содержат кодированные остаточные данные (или декодированные остаточные данные), которые служат для предсказания по остаточным данным. То же самое справедливо для макроблоков или изображений базового слоя при нижеописанном предсказании текстуры.On figa presents an embodiment of a method of using the image of the base layer for interlayer prediction of the texture in this case. As shown, the base layer image 1501, coinciding in time with the image 1500 of the current (improved) layer, contains even and odd fields that are output at different points in time. Therefore, first, the EL encoder 20 divides the image of the base layer into even and odd fields (S151). Intra macroblocks of the base layer image 1501 contain source video data that is not encoded (or video data that is encoded) and which serve for intra-frame prediction of the base layer, and inter-macroblocks of the image contain encoded residual data (or decoded residual data) that serve to predict residual data. The same is true for macroblocks or base layer images in the texture prediction described below.

После разделения соответствующего изображения 1501 на компоненты полей EL-кодер 20 выполняет интерполяцию полученных разделением полей 1501a и 1501b в вертикальном и/или горизонтальном направлении для создания увеличенных четного и нечетного изображений 1502a и 1502b (S152). При интерполяции применяется один из ряда известных способов, например, 6-точечной фильтрации и двоично-линейной фильтрации. Вертикальные и горизонтальные отношения для повышения разрешения (т.е. размера) изображения посредством интерполяции равны вертикальным и горизонтальным отношениям размера изображения 1500 улучшенного слоя к размеру изображения 1501 базового слоя. Вертикальные и горизонтальные отношения могут быть равными между собой. Например, если отношение по разрешению между улучшенным и базовым слоями равно 2, то интерполяция выполняется на полученных разделением четном и нечетном полях 1501a и 1501b для создания одного дополнительного пиксела между каждым пикселем в каждом поле в вертикальном и горизонтальном направлениях.After dividing the corresponding image 1501 into field components, the EL encoder 20 interpolates the dividing fields 1501a and 1501b in the vertical and / or horizontal direction to create enlarged even and odd images 1502a and 1502b (S152). When interpolating, one of a number of known methods is used, for example, 6-point filtering and binary-linear filtering. The vertical and horizontal ratios for increasing the resolution (i.e., size) of the image by interpolation are equal to the vertical and horizontal ratios of the image size 1500 of the enhanced layer to the image size 1501 of the base layer. Vertical and horizontal relationships can be equal to each other. For example, if the resolution ratio between the enhanced and base layers is 2, then interpolation is performed on the odd and even fields 1501a and 1501b obtained by separating to create one additional pixel between each pixel in each field in the vertical and horizontal directions.

После того, как интерполяция завершается, увеличенные четное и нечетное поля 1502a и 1502b объединяются для построения изображения 1503 (S153). При таком объединении, строки увеличенных четного и нечетного полей 1502a и 1502b выбираются попеременно (1502a -> 1502b -> 1502a -> 1502b-> …) и затем выстраиваются в выбранном порядке для построения объединенного изображения 1503. При этом определяется режим блока каждого макроблока в объединенном изображении 1503. Например, режим блока макроблока объединенного изображения 1503 задается идентичным режиму макроблока в изображении 1501 базового слоя, который содержит область, содержащую тот же самый видеокомпонент. Вышеупомянутый способ определения применим в любом нижеописанном случае увеличения изображений. Поскольку объединенное изображение 1503, построенное таким образом, имеет пространственное разрешение, равное пространственному разрешению текущего изображения 1500 улучшенного слоя, предсказание текстуры (например, межкадровое предсказание текстуры inter-макроблоков) макроблоков в текущем прогрессивном изображении 1500 выполняется на основе соответствующих макроблоков объединенного изображения 1503 (S154).After the interpolation is completed, the enlarged even and odd fields 1502a and 1502b are combined to create an image 1503 (S153). With this combination, the lines of enlarged even and odd fields 1502a and 1502b are selected alternately (1502a -> 1502b -> 1502a -> 1502b-> ...) and then line up in the selected order to build the combined image 1503. In this case, the block mode of each macroblock in the combined image 1503. For example, the macroblock block mode of the combined image 1503 is set to be identical to the macroblock mode in the base layer image 1501, which contains an area containing the same video component. The aforementioned determination method is applicable in any case of image enlargement described below. Since the combined image 1503 constructed in this way has a spatial resolution equal to the spatial resolution of the current enhanced layer image 1500, texture prediction (for example, inter-frame texture prediction of inter-macroblocks) of the macroblocks in the current progressive image 1500 is performed based on the corresponding macroblocks of the combined image 1503 (S154 )

На фиг.15b представлен способ использования изображения базового слоя для межслойного предсказания текстуры в соответствии с другим вариантом осуществления настоящего изобретения. Как показано, в этом варианте осуществления выполняется интерполяция изображения базового слоя, содержащего четные и нечетные поля, которые выводятся в разные моменты времени, в вертикальном и/или горизонтальном направлении, непосредственно, без разделения изображения базового слоя на основе атрибутов (четности) полей (S155), чтобы построить увеличенное изображение с таким же разрешением (т.е. размером), как разрешение изображения улучшенного слоя. Увеличенное изображение, построенное таким образом, используется для выполнения межслойного предсказания текстуры текущего прогрессивного изображения улучшенного слоя (S156).FIG. 15b shows a method of using a base layer image for interlayer texture prediction in accordance with another embodiment of the present invention. As shown, in this embodiment, the interpolation of the image of the base layer containing the even and odd fields that are output at different points in time, in the vertical and / or horizontal direction, directly, without dividing the image of the base layer based on the attributes (parity) of the fields (S155 ) to build an enlarged image with the same resolution (i.e. size) as the resolution of the image of the enhanced layer. An enlarged image constructed in this way is used to perform interlayer texture prediction of the current progressive image of the enhanced layer (S156).

На фиг.15a показана, на уровне изображения, процедура интерполяции изображения, содержащего четные и нечетные поля, посредством изображения на основе атрибутов полей. Однако EL-кодер 20 может получить такие же результаты, как показанные на фиг.15a, выполнением процедуры, представленной на фиг.15a, на уровне макроблоков. В частности, когда базовый слой, содержащий четные и нечетные поля, кодирован в режиме MBAFF, пара вертикально смежных макроблоков в изображении 1501, которые совмещаются с парой макроблоков в изображении улучшенного слоя, которое в настоящий момент должно быть кодировано с предсказанием текстуры, может содержать видеосигналы компонентов четных и нечетных полей, как на фиг.16a или 16b. На фиг.16a показан режим передачи пар макроблоков кадров, в котором компоненты четных и нечетных полей перемежаются в каждом из пары макроблоков A и B, и на фиг.16b показан режим передачи пар макроблоков полей, в котором каждый из пары макроблоков A и B содержит строки развертки с одинаковым атрибутом поля.FIG. 15a shows, at the image level, an interpolation procedure for an image containing even and odd fields by means of an image based on field attributes. However, the EL encoder 20 can obtain the same results as those shown in FIG. 15a by performing the procedure shown in FIG. 15a at the macroblock level. In particular, when a base layer containing even and odd fields is encoded in MBAFF mode, a pair of vertically adjacent macroblocks in image 1501 that are aligned with a pair of macroblocks in the enhanced layer image, which should currently be encoded with texture prediction, may contain video signals components of even and odd fields, as in figa or 16b. Fig. 16a shows a transmission mode of pairs of macroblock frames in which the even and odd field components are interleaved in each of the pair of macroblocks A and B, and Fig. 16b shows a transmission mode of pairs of macroblock fields in which each of the pair of macroblocks A and B contains scan lines with the same field attribute.

В случае, показанном на фиг.16a, чтобы применить способ, показанный на фиг.15a, четные строки каждого из пары макроблоков A и B выбираются для построения блока A' четного поля, и его нечетные строки выбираются для построения блока B' нечетного поля, что разделяет пару макроблоков, содержащих компоненты четного и нечетного полей, перемеженных в каждом макроблоке, на два блока A' и B', содержащих, соответственно, компоненты четного и нечетного полей. Интерполяция выполняется на каждом из двух макроблоков A' и B', полученных разделением упомянутым образом, для построения увеличенного блока. Предсказание текстуры выполняется с использованием данных в области в увеличенном блоке, которая соответствует макроблоку в режиме внутрикадрового или межкадрового предсказания, соответственно, по базовому слою (intra_BL) или по остаточным данным (residual_prediction) в изображении улучшенного слоя, которое в настоящий момент должно быть кодировано с предсказанием текстуры. Хотя и не показано на фиг.16a, объединение раздельно увеличенных блоков на основе атрибутов полей частично строит увеличенные четное и нечетное изображения 1502a и 1502b на фиг.15a, и поэтому увеличенные четное и нечетное изображения 1502a и 1502b на фиг.15a могут быть построены повторением вышеописанных операций для каждой пары макроблоков.In the case shown in FIG. 16a, in order to apply the method shown in FIG. 15a, even lines of each of the pair of macroblocks A and B are selected to construct an even field block A ′, and its odd lines are selected to construct an odd field block B ′, which divides the pair of macroblocks containing the components of the even and odd fields, interleaved in each macroblock, into two blocks A 'and B', containing, respectively, the components of the even and odd fields. Interpolation is performed on each of the two macroblocks A ′ and B ′ obtained by dividing in the aforementioned manner to construct an enlarged block. Texture prediction is performed using data in the region in the enlarged block, which corresponds to the macroblock in the intra-frame or inter-frame prediction mode, respectively, according to the base layer (intra_BL) or residual data (residual_prediction) in the image of the enhanced layer, which should currently be encoded with texture prediction. Although not shown in FIG. 16a, combining separately enlarged blocks based on field attributes partially constructs enlarged even and odd images 1502a and 1502b in FIG. 15a, and therefore enlarged even and odd images 1502a and 1502b in FIG. 15a can be constructed by repeating the above operations for each pair of macroblocks.

В случае, когда пара макроблоков разделяется на основе атрибутов полей для построения каждого макроблока, как на фиг.16b, вышеописанная процедура разделения является процессом простого копирования каждого из пары макроблоков для построения двух отдельных макроблоков. Последующая процедура аналогична процедуре, описанной со ссылкой на фиг.16a.In the case where the pair of macroblocks is separated based on the field attributes for constructing each macroblock, as in FIG. 16b, the above separation procedure is the process of simply copying each of the pair of macroblocks to build two separate macroblocks. The following procedure is similar to the procedure described with reference to figa.

T_B). Случай, когда улучшенный слой является чересстрочным и базовый слой является прогрессивнымT_B). The case when the enhanced layer is interlaced and the base layer is progressive

На фиг.17a представлен вариант осуществления способа использования изображения базового слоя для межслойного предсказания текстуры в рассматриваемом случае. Как показано, сначала EL-кодер 20 строит два изображения для изображения 1700 текущего слоя (S171). В примерном способе построения двух изображений, четные строки соответствующего изображения 1701 выбираются для построения одного изображения 1701a, и его нечетные строки выбираются для построения другого изображения 1701b. Затем EL-кодер 20 выполняет интерполяцию упомянутых двух построенных изображений 1701a и 1701b в вертикальном и/или горизонтальном направлении для создания двух увеличенных изображений 1702a и 1702b (S172). При такой интерполяции применяется один из ряда известных способов, например, 6-точечная фильтрация и двоично-линейная фильтрация, как в случае T_A). Отношения для повышения разрешения являются такими же, как отношения, описанные в случае T_A).On figa presents an embodiment of a method of using the image of the base layer for interlayer prediction of the texture in this case. As shown, first, the EL encoder 20 constructs two images for the image 1700 of the current layer (S171). In an exemplary method for constructing two images, even lines of the corresponding image 1701 are selected to build one image 1701a, and its odd lines are selected to build another image 1701b. Then, the EL encoder 20 interpolates said two constructed images 1701a and 1701b in the vertical and / or horizontal direction to create two enlarged images 1702a and 1702b (S172). With such interpolation, one of a number of known methods is used, for example, 6-point filtering and binary-linear filtering, as in the case of T_A). Relations for increasing resolution are the same as relations described in case of T_A).

После того, как интерполяция завершена, два увеличенных поля 1702a и 1702b объединяются для построения изображения 1703 (S173). При таком объединении, строки двух увеличенных полей 1702a и 1702b выбираются попеременно (1702a -> 1702b -> 1702a -> l702b -> …) и затем выстраиваются в выбранном порядке для построения объединенного изображения 1703. Поскольку объединенное изображение 1703, построенное таким образом, имеет пространственное разрешение, равное пространственному разрешению текущего изображения 1700 улучшенного слоя, предсказание текстуры (например, межкадровое предсказание текстуры inter-макроблоков или предсказание текстуры, описанное со ссылкой на фиг.4g) макроблоков в текущем чересстрочном изображении 1700 выполняется на основе соответствующих макроблоков объединенного изображения 1703 (S174).After the interpolation is completed, the two enlarged fields 1702a and 1702b are combined to create an image 1703 (S173). With this combination, the lines of the two enlarged fields 1702a and 1702b are selected alternately (1702a -> 1702b -> 1702a -> l702b -> ...) and then line up in the selected order to build the combined image 1703. Since the combined image 1703 constructed in this way has spatial resolution equal to the spatial resolution of the current image 1700 enhanced layer, texture prediction (for example, inter-frame texture prediction of inter-macroblocks or texture prediction described with reference to fig.4g) macroblocks in the current h the interlacing image 1700 is performed based on the corresponding macroblocks of the combined image 1703 (S174).

На фиг.17b представлен способ использования изображения базового слоя при межслойном предсказании текстуры в соответствии с другим вариантом осуществления настоящего изобретения. Как показано, в этом варианте осуществления выполняется интерполяция изображения базового слоя в вертикальном и/или горизонтальном направлении, непосредственно, без разделения изображения базового слоя на два изображения, (S175) для построения увеличенного изображения такого же разрешения (т.е. размера), как разрешение изображения улучшенного слоя. Увеличенное изображение, построенное таким образом, используется для выполнения межслойного предсказания текстуры текущего чересстрочного изображения улучшенного слоя (S176).On fig.17b presents a method of using images of the base layer in the interlayer prediction of the texture in accordance with another embodiment of the present invention. As shown, in this embodiment, the base layer image is interpolated in the vertical and / or horizontal direction, directly, without dividing the base layer image into two images, (S175) to construct an enlarged image of the same resolution (i.e., size) as image resolution of the enhanced layer. An enlarged image constructed in this way is used to perform interlayer prediction of the texture of the current interlaced image of the enhanced layer (S176).

Хотя описание фиг.17a также приведено на уровне изображения, EL-кодер 20 может выполнять процесс разделения изображения на уровне макроблоков, как описано выше в случае T_A). Способ, представленный на фиг.17b, аналогичен процедуре разделения и интерполяции, показанной на фиг.17a, когда одно изображение 1701 считается парой вертикально смежных макроблоков. Подробное описание этой процедуры в настоящей заявке отсутствует, поскольку она интуитивно понятна из фиг.17a.Although FIG. 17a is also described at the image level, the EL encoder 20 may perform an image splitting process at the macroblock level, as described above in the case of T_A). The method shown in FIG. 17b is similar to the separation and interpolation procedure shown in FIG. 17a when a single image 1701 is considered to be a pair of vertically adjacent macroblocks. A detailed description of this procedure is not provided in this application because it is intuitive from FIG.

T_C). Случай, когда как улучшенный, так и базовый слои являются чересстрочнымиT_C). The case when both the enhanced and the base layers are interlaced

На фиг.18 представлен вариант осуществления способа использования изображения базового слоя для межслойного предсказания текстуры в рассматриваемом случае. В этом случае, как показано, EL-кодер 20 разделяет изображение 1801 базового слоя, соответствующее по времени изображению 1800 текущего слоя, на четное и нечетное поля (S181) таким же образом, как в случае T_A). Затем EL-кодер 20 выполняет интерполяцию полученных разделением полей 1801a и 1801b в вертикальном и/или горизонтальном направлении для создания увеличенных четного и нечетного изображений 1802a и 1802b (S182). Затем EL-кодер 20 объединяет увеличенные четное и нечетное изображения 1802a и 1802b для построения изображения 1803 (S182). Затем EL-кодер 20 выполняет межслойное предсказание текстуры (например, межкадровое предсказание текстуры inter-макроблоков или предсказание текстуры, описанное со ссылкой на фиг. 4g) макроблоков (пар макроблоков кадров, кодированных в режиме MBAFF) в текущем чересстрочном изображении 1800 на основе соответствующих макроблоков объединенного изображения 1803 (S184).On Fig presents an embodiment of a method of using the image of the base layer for interlayer prediction of the texture in this case. In this case, as shown, the EL encoder 20 divides the base layer image 1801 corresponding to the time image 1800 of the current layer into even and odd fields (S181) in the same manner as in the case of T_A). Then, the EL encoder 20 interpolates the obtained separation fields 1801a and 1801b in the vertical and / or horizontal direction to create enlarged even and odd images 1802a and 1802b (S182). Then, the EL encoder 20 combines the enlarged even and odd images 1802a and 1802b to construct an image 1803 (S182). Then, the EL encoder 20 performs inter-layer texture prediction (for example, inter-frame texture prediction of inter-macroblocks or texture prediction described with reference to Fig. 4g) of macroblocks (pairs of macroblock frames encoded in MBAFF mode) in the current interlaced image 1800 based on the corresponding macroblocks the combined image 1803 (S184).

Хотя оба слоя имеют одинаковый формат изображения, EL-кодер 20 разделяет изображение 1801 базового слоя на основе атрибутов полей (S181) и раздельно увеличивает полученные разделением поля (S182) и затем объединяет увеличенные изображения (S183), поскольку если изображение 1801, объединяющее четное и нечетное поля, интерполировать непосредственно, когда оно характеризуется тем, что видеосигналы четного и нечетного полей значительно изменяются, то увеличенное изображение может содержать искаженное изображение (например, изображение, содержащее размытые границы) по сравнению с чересстрочным изображением 1800, содержащим перемеженные четное и нечетное поля улучшенного слоя. Соответственно, даже когда оба слоя являются чересстрочными, EL-кодер 20 использует изображение базового слоя после его разделения на основе атрибутов полей, чтобы получить два поля и раздельно увеличить два поля, и затем объединить увеличенные поля в соответствии с настоящим изобретением.Although both layers have the same image format, the EL encoder 20 separates the base layer image 1801 based on the field attributes (S181) and separately enlarges the fields obtained by dividing (S182) and then combines the enlarged images (S183), because if the image 1801 combines even and the odd field, interpolate directly when it is characterized by the fact that the video signals of the even and odd fields change significantly, then the enlarged image may contain a distorted image (for example, an image containing lived borders) compared to the interlaced image 1800, containing alternated even and odd fields of the improved layer. Accordingly, even when both layers are interlaced, the EL encoder 20 uses the image of the base layer after it is divided based on the field attributes to obtain two fields and separately increase the two fields, and then combine the enlarged fields in accordance with the present invention.

Разумеется, вместо использования способа, показанного на фиг.18, всегда, когда изображения обоих слоев являются чересстрочными, способ можно использовать выборочно, в зависимости от характеристик видеосигнала изображений.Of course, instead of using the method shown in Fig. 18, always when the images of both layers are interlaced, the method can be used selectively, depending on the characteristics of the video signal of the images.

На фиг.18 показана, на уровне изображения, процедура разделения и увеличения изображения, содержащего четные и нечетные поля на основе атрибутов полей, в соответствии с настоящим изобретением. Однако, как изложено выше в T_A), EL-кодер 20 может получить такие же результаты, как показанные на фиг.18, выполнением, на уровне макроблоков, процедуры, показанной на фиг.18, которая содержит процессы разделения и интерполяции для макроблоков, описанные со ссылкой на фиг.16a и 16b, (в частности, разделение пары макроблоков кадров на блоки с четными и нечетными строками и раздельное увеличение полученных разделением блоков) и процессы объединения и межслойного предсказания текстуры (в частности, попеременного выбора строк увеличенных блоков для построения пары увеличенных блоков и выполнения предсказания текстуры пары макроблоков кадра текущего слоя с использованием построенной пары увеличенных блоков).On Fig shows, at the image level, the procedure for dividing and enlarging an image containing even and odd fields based on the attributes of the fields, in accordance with the present invention. However, as described above in T_A), the EL encoder 20 can obtain the same results as those shown in FIG. 18 by performing, at the macroblock level, the procedure shown in FIG. 18, which contains the separation and interpolation processes for macroblocks described with reference to figa and 16b, (in particular, the separation of a pair of macroblock frames into blocks with even and odd lines and the separate increase obtained by the separation of blocks) and the processes of combining and interlayer texture prediction (in particular, alternately selecting rows of enlarged blocks for swarming pair of enlarged blocks and performing pair prediction texture of the current layer frame macroblocks using the constructed pair of enlarged blocks).

T_D). Случай, когда как улучшенный, так и базовый слои являются прогрессивнымиT_D). The case when both the advanced and the base layers are progressive

В этом случае изображение базового слоя увеличивается до такого же размера, как размер изображения улучшенного слоя, и увеличенное изображение используется для межслойного предсказания текстуры текущего изображения улучшенного слоя, имеющего такой же формат изображения.In this case, the image of the base layer is enlarged to the same size as the image size of the enhanced layer, and the enlarged image is used to interlayerly predict the texture of the current image of the enhanced layer having the same image format.

Хотя выше описаны варианты осуществления предсказания текстуры для случая, когда базовый и улучшенный слои имеют одинаковое временное разрешение, два слоя могут иметь разные временные разрешения, т.е. разные частоты кадров. Если изображения слоев различаются по типу развертки изображений, то, даже когда слои имеют одинаковое временное разрешение, изображения могут содержать видеосигналы с разными временами вывода, даже если они являются изображениями с одинаковыми POC (т.е. изображениями, соответствующими по времени одно другому). Ниже приведено описание способа межслойного предсказания текстуры для такого случая. В нижеследующем описании предполагается, что оба слоя первоначально имеют одинаковое пространственное разрешение. Если слои имеют разные пространственные разрешения, то после сверхдискретизации каждого изображения базового слоя для обеспечения равенства его пространственного разрешения пространственному разрешению улучшенного слоя, как изложено выше, применяются нижеописанные способы.Although embodiments of texture prediction are described above for the case where the base and enhanced layers have the same time resolution, the two layers may have different time resolutions, i.e. different frame rates. If the images of the layers differ in the type of image scan, then even when the layers have the same temporal resolution, the images can contain video signals with different output times, even if they are images with the same POC (i.e., images corresponding in time to one another). The following is a description of the interlayer texture prediction method for such a case. In the following description, it is assumed that both layers initially have the same spatial resolution. If the layers have different spatial resolutions, then after oversampling each image of the base layer to ensure that its spatial resolution is equal to the spatial resolution of the enhanced layer, as described above, the methods described below are applied.

a) Случай, когда улучшенный слой содержит прогрессивные кадры, базовый слой содержит MBAFF-кадры и временное разрешение улучшенного слоя выше в два разаa) The case where the enhanced layer contains progressive frames, the base layer contains MBAFF frames, and the time resolution of the enhanced layer is twice as high

На фиг.19a представлен способ межслойного предсказания движения для такого случая. Как показано, каждый MBAFF-кадр базового слоя содержит четные и нечетные поля, отличающиеся по времени вывода, и, следовательно, EL-кодер 20 разделяет каждый MBAFF-кадр на четные и нечетные поля (S191). EL-кодер 20 разделяет компоненты четного поля (например, четные строки) и компоненты нечетного поля (например, нечетные строки) каждого MBAFF-кадра на четное поле и нечетное поле соответственно. После разделения MBAFF-кадра на два поля упомянутым образом EL-кодер 20 интерполирует каждое поле в вертикальном направлении так, что его разрешение повышается в два раза (S192). При такой интерполяции применяется один из ряда известных способов, например, 6-точечная фильтрация, двоично-линейная фильтрация и простое дополнение незначащими строками. После того, как интерполяция завершена, каждый кадр улучшенного слоя содержит совпадающее по времени изображение в базовом слое, и, следовательно, EL-кодер 20 выполняет известное межслойное предсказание текстуры (например, межкадровое предсказание inter-макроблоков) на макроблоках каждого кадра улучшенного слоя (S193).On figa presents a method of inter-layer prediction of motion for such a case. As shown, each MBAFF frame of the base layer contains even and odd fields that differ in output time, and therefore, the EL encoder 20 divides each MBAFF frame into even and odd fields (S191). The EL encoder 20 separates even field components (e.g., even lines) and odd field components (e.g., odd lines) of each MBAFF frame into an even field and an odd field, respectively. After dividing the MBAFF frame into two fields in the aforementioned manner, the EL encoder 20 interpolates each field in the vertical direction so that its resolution is doubled (S192). With such interpolation, one of a number of known methods is used, for example, 6-point filtering, binary-linear filtering and simple addition with insignificant lines. After the interpolation is completed, each frame of the enhanced layer contains a time-matching image in the base layer, and therefore, the EL encoder 20 performs the known inter-layer texture prediction (e.g., inter-frame inter-macroblock prediction) on the macroblocks of each frame of the enhanced layer (S193 )

Вышеописанная процедура применима также к межслойному предсказанию движения. При этом при разделении MBAFF-кадра на два поля, EL-кодер 20 копирует информацию о движении каждой пары макроблоков полей в MBAFF-кадре как информацию о движении макроблока с одинаковым атрибутом (четности) поля, чтобы использовать ее для межслойного предсказания движения. При применении такого способа можно создать совпадающее по времени изображение в соответствии с вышеописанным способом для выполнения межслойного предсказания движения, даже когда в базовом слое отсутствует совпадающее по времени изображение (в случае t1, t3, …).The above procedure is also applicable to interlayer motion prediction. In this case, when dividing the MBAFF frame into two fields, the EL encoder 20 copies the information about the movement of each pair of field macroblocks in the MBAFF frame as information about the movement of a macroblock with the same attribute (parity) of the field in order to use it for interlayer motion prediction. Using this method, it is possible to create a time-consistent image in accordance with the above method for performing interlayer motion prediction, even when there is no time-matching image in the base layer (in the case of t1, t3, ...).

Вышеописанный способ можно применять непосредственно, когда разрешение одного из двух слоев в два раза выше, чем разрешение другого слоя, как в примере на фиг.19a, и даже когда разрешение выше в N (три или более) раз. Например, когда разрешение выше в три раза, одно из двух полученных разделением полей можно копировать дополнительно для построения и использования трех полей, и, когда разрешение выше в четыре раза, каждое из двух полученных разделением полей может копироваться еще раз для построения и использования четырех полей. Очевидно, что, при любой разнице во временном разрешении, специалисты в данной области техники смогут выполнить межслойное предсказание простым применением принципов настоящего изобретения, без какого-либо творческого напряжения. Следовательно, естественно, что любой способ предсказания между слоями с разными временными разрешениями, не рассмотренный в настоящем описании, не выходит за пределы объема настоящего изобретения. То же самое справедливо для других нижеописанных случаев.The above method can be applied directly when the resolution of one of the two layers is two times higher than the resolution of the other layer, as in the example of FIG. 19a, and even when the resolution is N (three or more) times higher. For example, when the resolution is three times higher, one of the two fields obtained by separation can be additionally copied to build and use three fields, and when the resolution is four times higher, each of the two fields obtained by separation can be copied again to build and use four fields . Obviously, for any difference in time resolution, those skilled in the art will be able to perform inter-layer prediction by simply applying the principles of the present invention, without any creative strain. Therefore, it is natural that any prediction method between layers with different temporal resolutions, not considered in the present description, is not beyond the scope of the present invention. The same is true for the other cases described below.

Если базовый слой кодирован в режиме адаптивного к изображению кодирования полей (PAFF), вместо MBAFF-кадров, оба слоя могут иметь одинаковое временное разрешение, как на фиг.19b. Следовательно, в этом случае, межслойное предсказание текстуры выполняется после построения изображения, имеющего такое же временное разрешение, как разрешение текущего слоя посредством прямой интерполяции кадра, без процесса разделения кадра на два поля.If the base layer is encoded in an image adaptive field coding (PAFF) mode, instead of MBAFF frames, both layers may have the same temporal resolution, as in FIG. 19b. Therefore, in this case, the interlayer texture prediction is performed after constructing an image having the same temporal resolution as the resolution of the current layer by direct frame interpolation, without the process of dividing the frame into two fields.

b) Случай, когда улучшенный слой содержит MBAFF-кадры, базовый слой содержит прогрессивные кадры, и временное разрешение улучшенного слоя составляет половину от временного разрешения базового слояb) The case where the enhanced layer contains MBAFF frames, the base layer contains progressive frames, and the temporal resolution of the enhanced layer is half the temporal resolution of the base layer

На фиг.20 представлен способ межслойного предсказания текстуры для такого случая. Как показано, каждый MBAFF-кадр улучшенного слоя содержит четные и нечетные поля с разными временами вывода, и, следовательно, EL-кодер 20 разделяет каждый MBAFF-кадр на четные и нечетные поля (S201). EL-кодер 20 разделяет компоненты четного поля (например, четные строки) и компоненты нечетного поля (например, нечетные строки) каждого MBAFF-кадра на четное поле и нечетное поле соответственно. EL-кодер 20 выполняет субдискретизацию каждого кадра базового слоя в вертикальном направлении для построения изображения с разрешением, сниженным в два раза (S202). Упомянутая субдискретизация может использовать строчную субдискретизацию или один из множества других известных способов понижающей дискретизации. В примере на фиг.20, EL-кодер 20 выбирает четные строки изображений с четными индексами изображений (изображения t0, t2, t4, …) для получения изображений, уменьшенных по размеру в два раза, и выбирает нечетные строки изображений с нечетными индексами изображений (изображения t1, t3, t5, …) для получения изображений, уменьшенных по размеру в два раза. Разделение (S201) и субдискретизация (S202) кадра могут также выполняться в обратном порядке.20 shows an interlayer texture prediction method for such a case. As shown, each MBAFF frame of the enhanced layer contains even and odd fields with different output times, and therefore, the EL encoder 20 divides each MBAFF frame into even and odd fields (S201). The EL encoder 20 separates even field components (e.g., even lines) and odd field components (e.g., odd lines) of each MBAFF frame into an even field and an odd field, respectively. The EL encoder 20 sub-samples each frame of the base layer in the vertical direction to construct an image with a resolution reduced by half (S202). Mentioned downsampling may use line subsampling or one of many other known downsampling techniques. In the example of FIG. 20, the EL encoder 20 selects even lines of images with even image indices (images t0, t2, t4, ...) to obtain images halved in size, and selects odd lines of images with odd image indices ( images t1, t3, t5, ...) to obtain images reduced in size by half. Separation (S201) and downsampling (S202) of the frame may also be performed in the reverse order.

После того, как два процесса S201 и S202 завершены, поля 2001, выделенные из кадров улучшенного слоя, содержат изображения, которые совпадают по времени с полями 2001 и имеют такое же пространственное разрешение, как разрешение полей 2001 в базовом слое, и, следовательно, EL-кодер 20 выполняет известное межслойное предсказание текстуры (например, покадровое предсказание inter-макроблоков) на макроблоках в каждом поле (S203).After the two processes S201 and S202 are completed, the fields 2001 extracted from the frames of the enhanced layer contain images that coincide in time with the fields 2001 and have the same spatial resolution as the resolution of the fields 2001 in the base layer, and therefore EL the encoder 20 performs known interlayer texture prediction (for example, frame-by-frame prediction of inter-macroblocks) on macroblocks in each field (S203).

Вышеописанная процедура применима также к межслойному предсказанию движения. При этом при получении изображения, уменьшенного по размеру, из каждого кадра базового слоя посредством субдискретизации (S202), EL-кодер 20 может получать информацию о движении соответствующего макроблока из информации о движении каждого из пары вертикально смежных макроблоков в соответствии с подходящим способом (например, способом выбора информации о движении блока, который не был разбит полностью) и затем может использовать полученную информацию о движении для межслойного предсказания движения.The above procedure is also applicable to interlayer motion prediction. In this case, when acquiring a reduced size image from each frame of the base layer by downsampling (S202), the EL encoder 20 may obtain motion information of the corresponding macroblock from the motion information of each of a pair of vertically adjacent macroblocks in accordance with a suitable method (e.g., the method of selecting information about the movement of the block, which was not completely broken) and then can use the obtained information about the movement for inter-layer prediction of motion.

В таком случае, изображения улучшенного слоя кодированы в режиме PAFF для передачи, поскольку межслойное предсказание выполняется на каждом полевом изображении 2001, выделенном из MBAFF-кадров.In this case, the enhanced layer images are encoded in PAFF mode for transmission, since interlayer prediction is performed on each field image 2001 extracted from MBAFF frames.

c) Случай, когда улучшенный слой содержит MBAFF-кадры, базовый слой содержит прогрессивные кадры, и оба слоя имеют одинаковое временное разрешениеc) The case where the enhanced layer contains MBAFF frames, the base layer contains progressive frames, and both layers have the same temporal resolution

На фиг.21 представлен способ межслойного предсказания текстуры для такого случая. Как показано, каждый MBAFF-кадр улучшенного слоя содержит четные и нечетные поля, отличающиеся по времени вывода, и, следовательно, EL-кодер 20 разделяет каждый MBAFF-кадр на четные и нечетные поля (S211). EL-кодер 20 разделяет компоненты четного поля (например, четные строки) и компоненты нечетного поля (например, нечетные строки) каждого MBAFF-кадра на четное поле и нечетное поле соответственно. EL-кодер 20 выполняет субдискретизацию каждого кадра базового слоя в вертикальном направлении для построения изображения с разрешением, уменьшенным в два раза (S212). Упомянутая субдискретизация может использовать строчную субдискретизацию или один из множества других известных способов понижающей дискретизации. Разделение (S211) и субдискретизация (S212) кадра могут также выполняться в обратном порядке.On Fig presents a method for interlayer texture prediction for such a case. As shown, each MBAFF frame of the enhanced layer contains even and odd fields that differ in output time, and therefore, the EL encoder 20 divides each MBAFF frame into even and odd fields (S211). The EL encoder 20 separates even field components (e.g., even lines) and odd field components (e.g., odd lines) of each MBAFF frame into an even field and an odd field, respectively. The EL encoder 20 sub-samples each frame of the base layer in the vertical direction to construct an image with a resolution that is halved (S212). Mentioned downsampling may use line subsampling or one of many other known downsampling techniques. Separation (S211) and downsampling (S212) of the frame can also be performed in the reverse order.

EL-кодер 20 может также строить поле (например, изображение четного поля) из MBAFF-кадра, вместо разделения MBAFF-кадра на два поля. Это возможно благодаря тому, что оба слоя имеют одинаковое временное разрешение, и, следовательно, только одному из двух полевых изображений, выделенных из одного кадра, (а не обоим таким изображениям) соответствует кадр в базовом слое, который можно использовать для межслойного предсказания.The EL encoder 20 may also construct a field (eg, an even field image) from an MBAFF frame, instead of dividing the MBAFF frame into two fields. This is possible due to the fact that both layers have the same temporal resolution, and, therefore, only one of the two field images extracted from one frame (and not both such images) corresponds to a frame in the base layer, which can be used for interlayer prediction.

После того, как два процесса S211 и S212 завершены, EL-кодер 20 выполняет известное межслойное предсказание текстуры (например, межкадровое предсказание inter-макроблоков) только на четных (нечетных) полях из полей, выделенных из кадров улучшенного слоя, на основе соответствующих субдискретизированных изображений в базовом слое (S213).After the two processes S211 and S212 are completed, the EL encoder 20 performs the known interlayer texture prediction (for example, inter-frame prediction of inter-macroblocks) only on even (odd) fields from fields extracted from frames of the enhanced layer, based on the corresponding sub-sampled images in the base layer (S213).

В этом случае, в отношении полученных разделением полей улучшенного слоя, для которого выполняется межслойное предсказание текстуры, может также выполняться межслойное предсказание движения таким же образом, как описано в случае b).In this case, with respect to the field separation obtained by the enhanced layer for which the interlayer texture prediction is performed, the interlayer motion prediction can also be performed in the same manner as described in case b).

Хотя вышеприведенные описания относятся к операциям межслойного предсказания, выполняемым EL-кодером 20, представленным на фиг.2a или 2b, все описания операций межслойного предсказания можно, как правило, применить к EL-декодеру, который получает декодированную информацию из базового слоя и декодирует потоки улучшенного слоя. В ходе процедур кодирования и декодирования вышеописанные операции межслойного предсказания (включая операции для разделения, увеличения и объединения видеосигналов в изображениях или макроблоках) выполняются одинаковым образом, тогда как операции, следующие за межслойным предсказанием, выполняются по-разному. Примером различия является то, что, после выполнения предсказания движения и текстуры, кодер кодирует предсказанную информацию или информацию о разности между предсказанной информацией и фактической информацией, чтобы передавать ее в декодер, тогда как декодер получает фактические информацию о движении и информацию о текстуре путем непосредственного применения информации, полученной выполнением такого же межслойного предсказания движения и текстуры, как предсказание, выполненное в кодере, к текущему макроблоку или путем дополнительного использования фактически принятой информации о кодировании макроблоков. Подробные данные и принципы настоящего изобретения, изложенные выше с точки зрения кодирования, непосредственно применимы к декодеру, который декодирует принимаемые потоки данных двух слоев.Although the above descriptions relate to inter-layer prediction operations performed by the EL encoder 20 shown in FIGS. 2a or 2b, all descriptions of inter-layer prediction operations can typically be applied to an EL decoder that receives decoded information from the base layer and decodes the enhanced streams layer. During the encoding and decoding procedures, the interlayer prediction operations described above (including operations for splitting, enlarging, and combining video signals in images or macroblocks) are performed in the same way, while the operations following the interlayer prediction are performed differently. An example of a difference is that, after performing motion and texture prediction, the encoder encodes the predicted information or the difference information between the predicted information and the actual information to transmit it to the decoder, while the decoder receives the actual motion information and texture information by directly applying information obtained by performing the same interlayer motion and texture prediction as the prediction made in the encoder to the current macroblock or by complementary full use of actually adopted information about the coding of macroblocks. The detailed data and principles of the present invention set forth above in terms of encoding are directly applicable to a decoder that decodes the received data streams of two layers.

Однако, когда EL-кодер передает улучшенный слой MBAFF-кадров в режиме PAFF после разделения улучшенного слоя на последовательности полей и выполнения межслойного предсказания, как описано со ссылками на фиг.20 и 21, декодер не выполняет вышеописанную процедуру разделения MBAFF-кадров на полевые изображения в текущем принимаемом слое.However, when the EL encoder transmits the enhanced layer of MBAFF frames in PAFF mode after dividing the enhanced layer into a sequence of fields and performing inter-layer prediction, as described with reference to FIGS. 20 and 21, the decoder does not perform the above procedure for dividing MBAFF frames into field images in the current received layer.

Кроме того, тогда декодер, из принимаемого сигнала, флаг «field_base_flag», который указывает, выполнил ли EL-кодер 20 межслойное предсказание текстуры между макроблоками, как показано на фиг.8d, или как показано на фиг.8h. На основании декодированного значения флага декодер решает, выполнено ли предсказание между макроблоками, как показано на фиг.8d или как показано на фиг.8h, и получает информацию предсказания текстуры в соответствии с решением. Если флаг «field_base_flag» не получен, то EL-декодер считает, что принят флаг, имеющий значение «0». То есть EL-декодер считает, что предсказание текстуры между макроблоками выполнено в соответствии со способом, показанным на фиг.8d, и получает информацию предсказания в текущей паре макроблоков для построения текущего макроблока или пары макроблоков.In addition, then the decoder, from the received signal, the “field_base_flag” flag, which indicates whether the EL encoder 20 has performed interlayer texture prediction between macroblocks, as shown in FIG. 8d, or as shown in FIG. 8h. Based on the decoded flag value, the decoder decides whether the prediction between the macroblocks is performed, as shown in FIG. 8d or as shown in FIG. 8h, and obtains texture prediction information in accordance with the decision. If the flag "field_base_flag" is not received, then the EL decoder considers that a flag having a value of "0" is received. That is, the EL decoder considers that the texture prediction between the macroblocks is made in accordance with the method shown in FIG. 8d, and obtains the prediction information in the current pair of macroblocks to construct the current macroblock or pair of macroblocks.

По меньшей мере, один из ограниченных вариантов осуществления настоящего изобретения, описанных выше, может выполнять межслойное предсказание, даже при использовании источников видеосигналов в разных форматах (или режимах). Следовательно, при кодировании множества слоев, скорость кодирования данных можно повышать, независимо от типов видеосигналов изображений, например, чересстрочных видеосигналов, прогрессивных сигналов, изображений MBAFF-кадров и полевых изображений. Кроме того, когда один из двух источников является источником чересстрочного видеосигнала, видеообъект в изображении для использования в предсказании можно строить более похожим на исходный видеообъект для кодирования с предсказанием, что повышает скорость кодирования данных.At least one of the limited embodiments of the present invention described above can perform inter-layer prediction, even when using video sources in different formats (or modes). Therefore, when encoding multiple layers, the data encoding rate can be increased, regardless of the types of video signals of the images, for example, interlaced video signals, progressive signals, images MBAFF frames and field images. In addition, when one of the two sources is an interlaced video source, the video object in the image for use in prediction can be constructed more similar to the original video object for prediction encoding, which increases the encoding speed of the data.

Выше настоящее изобретение описано со ссылкой на предпочтительные варианты осуществления, однако специалистам в данной области техники очевидно, что в настоящее изобретение можно вносить разнообразные усовершенствования, изменения и дополнения без выхода за пределы объема и существа изобретения. Следовательно, предполагается, что изобретение охватывает усовершенствования, изменения, замены и дополнения к изобретению при условии, что они не выходят за пределы объема, определяемого прилагаемой формулой изобретения и ее эквивалентами.The present invention has been described above with reference to preferred embodiments, but it will be apparent to those skilled in the art that various improvements, changes, and additions can be made to the present invention without departing from the scope and spirit of the invention. Therefore, it is intended that the invention covers the improvements, changes, substitutions and additions to the invention, provided that they do not go beyond the scope defined by the appended claims and their equivalents.

Claims (8)

1. Способ декодирования сигнала изображения, содержащий этапы, на которых
получают информацию виртуальной позиции соответствующей пары макроблоков полей, причем данная соответствующая пара макроблоков полей соответствует паре макроблоков полей улучшенного слоя;
получают информацию позиции пары макроблоков опорного кадра на основе упомянутой информации виртуальной позиции соответствующей пары макроблоков полей, причем данная пара макроблоков опорного кадра находится на базовом слое;
предсказывают информацию движения упомянутой пары макроблоков полей улучшенного слоя на основе информации движения упомянутой пары макроблоков опорного кадра согласно упомянутой информации позиции пары макроблоков опорного кадра; и
декодируют упомянутую пару макроблоков полей улучшенного слоя, используя упомянутую информацию движения пары макроблоков полей улучшенного слоя.
1. A method of decoding an image signal, comprising stages in which
receive information on the virtual position of the corresponding pair of macroblock fields, and this corresponding pair of macroblock fields corresponds to a pair of macroblock fields of the improved layer;
receiving position information of a pair of macroblocks of a reference frame based on said virtual position information of a corresponding pair of macroblocks of fields, wherein this pair of macroblocks of a reference frame is on the base layer;
predicting motion information of said pair of macroblock fields of the enhanced layer fields based on motion information of said pair of macroblocks of a reference frame according to said position information of a pair of macroblocks of a reference frame; and
the said pair of macroblock fields of the enhanced layer fields are decoded using said motion information of the pair of macroblock fields of the enhanced layer fields.
2. Способ по п.1, в котором упомянутая соответствующая пара макроблоков полей составлена из верхнего макроблока поля и нижнего макроблока поля, причем верхняя часть верхнего макроблока поля составлена из четных строк в верхнем макроблоке упомянутой пары макроблоков опорного кадра, а нижняя часть верхнего макроблока поля составлена из четных строк в нижнем макроблоке упомянутой пары макроблоков опорного кадра, причем верхняя часть нижнего макроблока поля составлена из нечетных строк в верхнем макроблоке упомянутой пары макроблоков опорного кадра, а нижняя часть нижнего макроблока поля составлена из нечетных строк в нижнем макроблоке упомянутой пары макроблоков опорного кадра.2. The method according to claim 1, wherein said corresponding pair of field macroblocks is composed of an upper field macroblock and a lower field macroblock, wherein the upper part of the upper field macroblock is composed of even rows in the upper macroblock of said pair of macroblocks of the reference frame and the lower part of the upper field macroblock composed of even rows in a lower macroblock of said pair of macroblocks of a reference frame, wherein the upper part of a lower macroblock of a field is composed of odd rows in an upper macroblock of said pair of macroblocks of supports frame, and the lower part of the lower macroblock of the field is composed of odd rows in the lower macroblock of the said pair of macroblocks of the reference frame. 3. Способ по п.1, в котором, когда упомянутая пара макроблоков опорного кадра составлена из макроблока, кодированного внутрикадровым кодированием, и макроблока, кодированного межкадровым кодированием, предсказывают упомянутую информацию движения пары макроблоков полей улучшенного слоя на основе информации движения данного макроблока, кодированного межкадровым кодированием.3. The method according to claim 1, wherein when said pair of macroblocks of a reference frame is composed of a macroblock encoded by intra-frame coding and a macroblock encoded by inter-frame coding, said motion information of a pair of macroblocks of enhanced layer fields is predicted based on motion information of a given macroblock encoded by inter-frame encoding. 4. Способ по п.1, в котором упомянутую пару макроблоков полей улучшенного слоя кодируют адаптивно как макроблок кадра или макроблок поля для каждого макроблока.4. The method according to claim 1, wherein said pair of macroblock fields of the enhanced layer fields are adaptively encoded as a macroblock of a frame or a macroblock of a field for each macroblock. 5. Устройство для декодирования сигнала изображения, содержащее модуль декодирования, который получает информацию виртуальной позиции соответствующей пары макроблоков полей; получает информацию позиции пары макроблоков опорного кадра на основе упомянутой информации виртуальной позиции соответствующей пары макроблоков полей; предсказывает информацию движения пары макроблоков полей улучшенного слоя на основе информации движения упомянутой пары макроблоков опорного кадра согласно упомянутой информации позиции пары макроблоков опорного кадра; и декодирует упомянутую пару макроблоков полей улучшенного слоя, используя упомянутую информацию движения пары макроблоков полей улучшенного слоя,
при этом упомянутая соответствующая пара макроблоков полей соответствует упомянутой паре макроблоков полей улучшенного слоя, а упомянутая пара макроблоков опорного кадра находится на базовом слое.
5. A device for decoding an image signal containing a decoding module that receives information about the virtual position of the corresponding pair of macroblock fields; obtains position information of a pair of macroblocks of a reference frame based on said virtual position information of a corresponding pair of macroblocks of fields; predicts motion information of a pair of macroblock fields of the enhanced layer based on motion information of said pair of macroblocks of a reference frame according to said position information of a pair of macroblocks of a reference frame; and decodes said pair of macroblock fields of the enhanced layer using said motion information of the pair of macroblock fields of the enhanced layer,
wherein said corresponding pair of macroblocks of the fields corresponds to said pair of macroblocks of the fields of the enhanced layer, and said pair of macroblocks of the reference frame is on the base layer.
6. Устройство по п.5, в котором упомянутая соответствующая пара макроблоков полей составлена из верхнего макроблока поля и нижнего макроблока поля, причем верхняя часть верхнего макроблока поля составлена из четных строк в верхнем макроблоке упомянутой пары макроблоков опорного кадра, а нижняя часть верхнего макроблока поля составлена из четных строк в нижнем макроблоке упомянутой пары макроблоков опорного кадра, причем верхняя часть нижнего макроблока поля составлена из нечетных строк в верхнем макроблоке упомянутой пары макроблоков опорного кадра, а нижняя часть нижнего макроблока поля составлена из нечетных строк в нижнем макроблоке упомянутой пары макроблоков опорного кадра.6. The device according to claim 5, wherein said corresponding pair of field macroblocks is composed of an upper field macroblock and a lower field macroblock, wherein the upper part of the upper field macroblock is composed of even rows in the upper macroblock of said pair of macroblocks of the reference frame and the lower part of the upper field macroblock composed of even rows in a lower macroblock of said pair of macroblocks of a reference frame, wherein the upper part of a lower macroblock of a field is composed of odd rows in an upper macroblock of said pair of macroblocks a reference frame, and the lower part of the lower macroblock of the field is composed of odd rows in the lower macroblock of said pair of macroblocks of the reference frame. 7. Устройство по п.5, в котором, когда упомянутая пара макроблоков опорного кадра составлена из макроблока, кодированного внутрикадровым кодированием, и макроблока, кодированного межкадровым кодированием, упомянутая информация движения пары макроблоков полей улучшенного слоя предсказывается на основе информации движения данного макроблока, кодированного межкадровым кодированием.7. The device according to claim 5, in which, when said pair of macroblocks of the reference frame is composed of a macroblock encoded by intraframe coding and a macroblock encoded by interframe coding, said motion information of a pair of macroblocks of enhanced layer field fields is predicted based on the motion information of this macroblock encoded by interframe encoding. 8. Устройство по п.5, в котором упомянутая пара макроблоков полей улучшенного слоя кодируется адаптивно как макроблок кадра или макроблок поля для каждого макроблока. 8. The device according to claim 5, in which said pair of macroblock fields of the enhanced layer is encoded adaptively as a macroblock of a frame or a macroblock of a field for each macroblock.
RU2008132819/09A 2006-01-09 2007-01-09 Interlayer forcasting method for video signal RU2384970C1 (en)

Applications Claiming Priority (22)

Application Number Priority Date Filing Date Title
US75700906P 2006-01-09 2006-01-09
US60/757,009 2006-01-09
US75823506P 2006-01-12 2006-01-12
US60/758,235 2006-01-12
US60/776,935 2006-02-28
US78339506P 2006-03-20 2006-03-20
US60/783,395 2006-03-20
US60/786,741 2006-03-29
US78749606P 2006-03-31 2006-03-31
US60/787,496 2006-03-31
US60/816,340 2006-06-26
US83060006P 2006-07-14 2006-07-14
US60/830,600 2006-07-14
KR10-2006-0111894 2006-11-13
KR10-2006-0111897 2006-11-13
KR1020060111894A KR20070074451A (en) 2006-01-09 2006-11-13 How to use video signal of base layer for inter-layer prediction
KR1020060111893A KR20070075257A (en) 2006-01-12 2006-11-13 Inter-layer motion prediction method during encoding / decoding of video signal
KR10-2006-0111895 2006-11-13
KR10-2006-0111893 2006-11-13
KR10-2007-0001587 2007-01-05
KR1020070001582A KR20070095180A (en) 2006-03-20 2007-01-05 Inter-layer prediction method according to picture type during encoding / decoding of video signal
KR10-2007-0001582 2007-01-05

Publications (1)

Publication Number Publication Date
RU2384970C1 true RU2384970C1 (en) 2010-03-20

Family

ID=42137532

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008132819/09A RU2384970C1 (en) 2006-01-09 2007-01-09 Interlayer forcasting method for video signal

Country Status (1)

Country Link
RU (1) RU2384970C1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10021384B2 (en) 2010-12-23 2018-07-10 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
US10123006B2 (en) 2012-04-13 2018-11-06 Ge Video Compression, Llc Low delay picture coding
US10484716B2 (en) 2012-06-29 2019-11-19 Ge Video Compression, Llc Video data stream concept
RU2785714C1 (en) * 2012-04-13 2022-12-12 ДжиИ Видео Компрешн, ЭлЭлСи Low latency image encoding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUN S. & FRANCOIS E. Extended Spatial Scalability with picture-level adaptation, JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 AND ITU-T SG16 Q6), JVT-O008, 15TH MEETING, BUSAN, 6-22 APRIL 2005, c.1-20. *
РИЧАРДСОН Я.Н. Видеокодирование Н.264 и MPEG-4 - стандарты нового поколения. - М.: Техносфера, 2005, с.188-197. *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10630986B2 (en) 2010-12-23 2020-04-21 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
US10021384B2 (en) 2010-12-23 2018-07-10 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
US11509899B2 (en) 2010-12-23 2022-11-22 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
US11070811B2 (en) 2010-12-23 2021-07-20 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
RU2785714C1 (en) * 2012-04-13 2022-12-12 ДжиИ Видео Компрешн, ЭлЭлСи Low latency image encoding
RU2710908C2 (en) * 2012-04-13 2020-01-14 ДжиИ Видео Компрешн, ЭлЭлСи Low delay picture coding
US10674164B2 (en) 2012-04-13 2020-06-02 Ge Video Compression, Llc Low delay picture coding
US10694198B2 (en) 2012-04-13 2020-06-23 Ge Video Compression, Llc Scalable data stream and network entity
US11343517B2 (en) 2012-04-13 2022-05-24 Ge Video Compression, Llc Low delay picture coding
US20190045201A1 (en) 2012-04-13 2019-02-07 Ge Video Compression, Llc Low delay picture coding
US10123006B2 (en) 2012-04-13 2018-11-06 Ge Video Compression, Llc Low delay picture coding
US11876985B2 (en) 2012-04-13 2024-01-16 Ge Video Compression, Llc Scalable data stream and network entity
US12192492B2 (en) 2012-04-13 2025-01-07 Ge Video Compression, Llc Low delay picture coding
US10743030B2 (en) 2012-06-29 2020-08-11 Ge Video Compression, Llc Video data stream concept
US10484716B2 (en) 2012-06-29 2019-11-19 Ge Video Compression, Llc Video data stream concept
US11856229B2 (en) 2012-06-29 2023-12-26 Ge Video Compression, Llc Video data stream concept
US11956472B2 (en) 2012-06-29 2024-04-09 Ge Video Compression, Llc Video data stream concept

Similar Documents

Publication Publication Date Title
AU2007205337B2 (en) Inter-layer prediction method for video signal
CN101385348B (en) Inter-Layer Prediction Method for Video Signal
RU2384970C1 (en) Interlayer forcasting method for video signal
CN103096078B (en) For inter-layer prediction method and the device of vision signal
MX2008008825A (en) Inter-layer prediction method for video signal