[go: up one dir, main page]

RU2809518C2 - Method and device for encoding/decoding images using filtering and method for transmitting a bit stream - Google Patents

Method and device for encoding/decoding images using filtering and method for transmitting a bit stream Download PDF

Info

Publication number
RU2809518C2
RU2809518C2 RU2022104065A RU2022104065A RU2809518C2 RU 2809518 C2 RU2809518 C2 RU 2809518C2 RU 2022104065 A RU2022104065 A RU 2022104065A RU 2022104065 A RU2022104065 A RU 2022104065A RU 2809518 C2 RU2809518 C2 RU 2809518C2
Authority
RU
Russia
Prior art keywords
block
maximum length
target boundary
boundary
determined
Prior art date
Application number
RU2022104065A
Other languages
Russian (ru)
Other versions
RU2022104065A (en
Inventor
Хён Мун ЧАН
Original Assignee
ЭлДжи ЭЛЕКТРОНИКС ИНК.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ЭлДжи ЭЛЕКТРОНИКС ИНК. filed Critical ЭлДжи ЭЛЕКТРОНИКС ИНК.
Publication of RU2022104065A publication Critical patent/RU2022104065A/en
Application granted granted Critical
Publication of RU2809518C2 publication Critical patent/RU2809518C2/en

Links

Images

Abstract

FIELD: image encoding/decoding technologies.
SUBSTANCE: group of inventions is related to equipment for image encoding/decoding using filtering. A method for decoding images is proposed, carried out by means of image decoding equipment containing a decoding module that decodes an image from a bit stream. The method comprises retrieving a target deblocking filter boundary in the reconstructed frame and determining a maximum deblocking filter length for the target boundary. A deblocking filter is applied to the target boundary based on the maximum length. Based on the target boundary being a vertical boundary, the maximum length is determined based on the width of at least one of the first block adjacent to the left side of the target boundary or the second block adjacent to the right side of the target boundary.
EFFECT: increase of efficiency of coding/decoding images.
15 cl, 17 dwg, 2 tbl

Description

Область техники, к которой относится изобретениеField of technology to which the invention relates

[1] Настоящее раскрытие сущности относится к способу и оборудованию кодирования/декодирования изображений и к способу передачи потока битов, а более конкретно, к способу и оборудованию для кодирования/декодирования изображения с использованием фильтрации и к способу передачи потока битов, сформированного посредством способа/оборудования кодирования изображений настоящего раскрытия сущности.[1] The present disclosure relates to a method and equipment for encoding/decoding images and to a method for transmitting a bit stream, and more specifically, to a method and equipment for encoding/decoding an image using filtering and to a method for transmitting a bit stream generated by the method/equipment encoding images of the present disclosure.

Уровень техникиState of the art

[2] В последнее время, спрос на высококачественные изображения высокого разрешения, к примеру, изображения высокой четкости (HD) и изображения сверхвысокой четкости (UHD) растет в различных областях техники. По мере того, как разрешение и качество данных изображений повышается, объем передаваемой информации или битов относительно увеличивается по сравнению с существующими данными изображений. Увеличение объема передаваемой информации или битов приводит к увеличению затрат на передачу и затрат на хранение.[2] Recently, the demand for high-quality, high-definition images, such as high-definition (HD) images and ultra-high-definition (UHD) images, has been increasing in various fields of technology. As the resolution and quality of image data increases, the amount of transmitted information or bits increases relatively compared to existing image data. Increasing the amount of information or bits transmitted results in increased transmission costs and storage costs.

[3] Соответственно, имеется потребность в высокоэффективной технологии сжатия изображений для эффективной передачи, сохранения и воспроизведения информации относительно высококачественных изображений высокого разрешения.[3] Accordingly, there is a need for high-performance image compression technology for efficiently transmitting, storing and reproducing information regarding high-quality, high-resolution images.

Сущность изобретенияThe essence of the invention

Техническая задачаTechnical problem

[4] Цель настоящего раскрытия сущности заключается в том, чтобы предоставлять способ и оборудование кодирования/декодирования изображений с повышенной эффективностью кодирования/декодирования.[4] The purpose of the present disclosure is to provide an image encoding/decoding method and equipment with improved encoding/decoding efficiency.

[5] Цель настоящего раскрытия сущности заключается в том, чтобы предоставлять способ и оборудование для кодирования/декодирования изображения с использованием фильтрации.[5] The purpose of the present disclosure is to provide a method and equipment for encoding/decoding an image using filtering.

[6] Другая цель настоящего раскрытия сущности заключается в том, чтобы предоставлять способ передачи потока битов, сформированного посредством способа или оборудования кодирования изображений согласно настоящему раскрытию сущности.[6] Another object of the present disclosure is to provide a method for transmitting a bit stream generated by an image encoding method or equipment according to the present disclosure.

[7] Другая цель настоящего раскрытия сущности заключается в том, чтобы предоставлять носитель записи, сохраняющий поток битов, сформированный посредством способа или оборудования кодирования изображений согласно настоящему раскрытию сущности.[7] Another object of the present disclosure is to provide a recording medium storing a bitstream generated by an image encoding method or equipment according to the present disclosure.

[8] Другая цель настоящего раскрытия сущности заключается в том, чтобы предоставлять носитель записи, сохраняющий поток битов, принимаемый, декодированный и используемый для того, чтобы восстанавливать изображение посредством оборудования декодирования изображений согласно настоящему раскрытию сущности.[8] Another object of the present disclosure is to provide a recording medium storing a bitstream received, decoded, and used to reconstruct an image by the image decoding equipment according to the present disclosure.

[9] Технические проблемы, разрешаемые посредством настоящего раскрытия сущности, не ограничены вышеуказанными техническими проблемами, и другие технические проблемы, которые не описываются в данном документе, должны становиться очевидными для специалистов в данной области техники из нижеприведенного описания.[9] The technical problems addressed by the present disclosure are not limited to the above technical problems, and other technical problems not described herein should become apparent to those skilled in the art from the following description.

Техническое решениеTechnical solution

[10] Согласно способу кодирования/декодирования изображений согласно аспекту настоящего раскрытия сущности, поскольку ситуация, в которой параллельная обработка фильтра удаления блочности является невозможной вследствие снижения размера блока преобразования, или ситуация, в которой перекрытие между фильтрами возникает вследствие различных целевых границ, не возникает, оборудование кодирования/декодирования изображений может всегда выполнять параллельную обработку фильтрации, и эффективность кодирования/декодирования изображений может увеличиваться.[10] According to the image encoding/decoding method according to an aspect of the present disclosure, since a situation in which parallel processing of a deblocking filter is not possible due to reduction in the transform block size, or a situation in which overlap between filters occurs due to different target boundaries does not occur, the image encoding/decoding equipment can always perform parallel filtering processing, and the efficiency of image encoding/decoding can be increased.

[11] Способ декодирования изображений, осуществляемый посредством оборудования декодирования изображений согласно аспекту настоящего раскрытия сущности, может содержать извлечение восстановленного блока для текущего блока, извлечение целевой границы для восстановленного блока, определение длины фильтра для фильтра удаления блочности, который должен применяться для целевой границы, и применение фильтра удаления блочности для целевой границы на основе определенной длины фильтра. Длина фильтра может определяться на основе, по меньшей мере, одной из ширины или высоты блока преобразования, смежного с целевой границей.[11] An image decoding method performed by the image decoding equipment according to an aspect of the present disclosure may comprise extracting a reconstructed block for a current block, extracting a target boundary for the reconstructed block, determining a filter length for a deblocking filter to be applied to the target boundary, and Applying a deblocking filter to the target boundary based on a specific filter length. The length of the filter may be determined based on at least one of the width or height of a transform block adjacent to the target boundary.

[12] В способе декодирования изображений настоящего раскрытия сущности, текущий блок может представлять собой блок, к которому применяется режим на основе внутренних субсегментов (ISP).[12] In the image decoding method of the present disclosure, the current block may be a block to which an internal subsegment-based (ISP) mode is applied.

[13] Способ декодирования изображений настоящего раскрытия сущности дополнительно может содержать определение типа границы для целевой границы, и тип границы может определяться как представляющий собой одно из вертикальной границы и горизонтальной границы.[13] The image decoding method of the present disclosure may further comprise determining a boundary type for a target boundary, and the boundary type may be determined to be one of a vertical boundary and a horizontal boundary.

[14] В способе декодирования изображений настоящего раскрытия сущности, на основе целевой границы, представляющей собой вертикальную границу, и ширины блока преобразования, равной или меньшей первого значения, длина фильтра может определяться в качестве первой длины.[14] In the image decoding method of the present disclosure, based on the target boundary being a vertical boundary and the transform block width equal to or smaller than the first value, the filter length may be determined as the first length.

[15] В способе декодирования изображений настоящего раскрытия сущности, на основе ширины блока преобразования, равной или большей второго значения, длина фильтра может определяться в качестве второй длины.[15] In the image decoding method of the present disclosure, based on a transform block width equal to or greater than the second value, the filter length may be determined as the second length.

[16] В способе декодирования изображений настоящего раскрытия сущности, на основе ширины блока преобразования, большей первого значения и меньшей второго значения, длина фильтра может определяться в качестве третьей длины.[16] In the image decoding method of the present disclosure, based on a transform block width larger than the first value and smaller than the second value, the filter length may be determined as the third length.

[17] В способе декодирования изображений настоящего раскрытия сущности, первое значение может быть равным 4, и первая длина может быть равной 1.[17] In the image decoding method of the present disclosure, the first value may be 4, and the first length may be 1.

[18] В способе декодирования изображений настоящего раскрытия сущности, на основе целевой границы, представляющей собой горизонтальную границу, и высоты блока преобразования, равной или меньшей первого значения, длина фильтра может определяться в качестве первой длины.[18] In the image decoding method of the present disclosure, based on the target boundary being a horizontal boundary and the transform block height equal to or smaller than the first value, the filter length may be determined as the first length.

[19] В способе декодирования изображений настоящего раскрытия сущности, на основе высоты блока преобразования, равной или большей второго значения, длина фильтра может определяться в качестве второй длины.[19] In the image decoding method of the present disclosure, based on a transform block height equal to or greater than the second value, the filter length may be determined as the second length.

[20] В способе декодирования изображений настоящего раскрытия сущности, на основе высоты блока преобразования, большей первого значения и меньшей второго значения, длина фильтра может определяться в качестве третьей длины.[20] In the image decoding method of the present disclosure, based on a transform block height greater than the first value and less than the second value, the filter length may be determined as the third length.

[21] В способе декодирования изображений настоящего раскрытия сущности, первое значение равно 4, и первая длина может быть равной 1.[21] In the image decoding method of the present disclosure, the first value is 4, and the first length may be 1.

[22] Оборудование декодирования изображений согласно другому аспекту настоящего раскрытия сущности может содержать запоминающее устройство и, по меньшей мере, один процессор.[22] Image decoding equipment according to another aspect of the present disclosure may comprise a storage device and at least one processor.

[23] По меньшей мере, один процессор может извлекать восстановленный блок для текущего блока, извлекать целевую границу для восстановленного блока, определять длину фильтра для фильтра удаления блочности, который должен применяться к целевой границе, и применять фильтр удаления блочности к целевой границе на основе определенной длины фильтра. Длина фильтра может определяться на основе, по меньшей мере, одной из ширины или высоты блока преобразования, смежного с целевой границей.[23] The at least one processor may retrieve a reconstructed block for the current block, retrieve a target boundary for the reconstructed block, determine a filter length for a deblocking filter to be applied to the target boundary, and apply a deblocking filter to the target boundary based on the determined filter length. The length of the filter may be determined based on at least one of the width or height of a transform block adjacent to the target boundary.

[24] Способ кодирования изображений согласно другому аспекту настоящего раскрытия сущности может содержать извлечение восстановленного блока для текущего блока, извлечение целевой границы для восстановленного блока, определение длины фильтра для фильтра удаления блочности, который должен применяться для целевой границы, и применение фильтра удаления блочности для целевой границы на основе определенной длины фильтра. Длина фильтра может определяться на основе, по меньшей мере, одной из ширины или высоты блока преобразования, смежного с целевой границей.[24] An image encoding method according to another aspect of the present disclosure may comprise extracting a reconstructed block for a current block, extracting a target boundary for the reconstructed block, determining a filter length for a deblocking filter to be applied to the target boundary, and applying a deblocking filter to the target boundaries based on a specific filter length. The length of the filter may be determined based on at least one of the width or height of a transform block adjacent to the target boundary.

[25] В способе кодирования изображений настоящего раскрытия сущности, текущий блок может представлять собой блок, к которому применяется режим на основе внутренних субсегментов (ISP).[25] In the image encoding method of the present disclosure, the current block may be a block to which an internal subsegment-based (ISP) mode is applied.

[26] Помимо этого, машиночитаемый носитель записи согласно другому аспекту настоящего раскрытия сущности может сохранять поток битов, сформированный посредством оборудования кодирования изображений или способа кодирования изображений настоящего раскрытия сущности.[26] In addition, the computer-readable recording medium according to another aspect of the present disclosure can store a bit stream generated by the image encoding equipment or the image encoding method of the present disclosure.

[27] Признаки, кратко обобщенные выше относительно настоящего раскрытия сущности, представляют собой просто примерные аспекты нижеприведенного подробного описания настоящего раскрытия сущности и не ограничивают объем настоящего раскрытия сущности.[27] The features briefly summarized above with respect to the present disclosure are merely exemplary aspects of the following detailed description of the present disclosure and do not limit the scope of the present disclosure.

Преимущества изобретенияAdvantages of the invention

[28] Согласно настоящему раскрытию сущности, можно предоставлять способ и оборудование кодирования/декодирования изображений с повышенной эффективностью кодирования/декодирования.[28] According to the present disclosure, it is possible to provide an image encoding/decoding method and equipment with improved encoding/decoding efficiency.

[29] Кроме того, согласно настоящему раскрытию сущности, можно предоставлять способ и оборудование для кодирования/декодирования изображения с использованием фильтрации.[29] In addition, according to the present disclosure, a method and equipment for encoding/decoding an image using filtering can be provided.

[30] Кроме того, согласно настоящему раскрытию сущности, можно предоставлять способ передачи потока битов, сформированного посредством способа или оборудования кодирования изображений согласно настоящему раскрытию сущности.[30] In addition, according to the present disclosure, it is possible to provide a method for transmitting a bitstream generated by an image encoding method or equipment according to the present disclosure.

[31] Кроме того, согласно настоящему раскрытию сущности, можно предоставлять носитель записи, сохраняющий поток битов, сформированный посредством способа или оборудования кодирования изображений согласно настоящему раскрытию сущности.[31] In addition, according to the present disclosure, it is possible to provide a recording medium storing a bitstream generated by the image encoding method or equipment according to the present disclosure.

[32] Кроме того, согласно настоящему раскрытию сущности, можно предоставлять носитель записи, сохраняющий поток битов, принимаемый, декодированный и используемый для того, чтобы восстанавливать изображение посредством оборудования декодирования изображений согласно настоящему раскрытию сущности.[32] In addition, according to the present disclosure, it is possible to provide a recording medium storing a bitstream received, decoded, and used to reconstruct an image by the image decoding equipment according to the present disclosure.

[33] Специалисты в данной области техники должны принимать во внимание, что преимущества, которые могут достигаться через настоящее раскрытие сущности, не ограничены тем, что конкретно описано выше, и другие преимущества настоящего раскрытия сущности должны более ясно пониматься из подробного описания.[33] Those skilled in the art will appreciate that the advantages that may be achieved through the present disclosure are not limited to those specifically described above, and other advantages of the present disclosure will be more clearly understood from the detailed description.

Краткое описание чертежейBrief description of drawings

[34] Фиг. 1 является видом, схематично показывающим систему кодирования видео, к которой является применимым вариант осуществления настоящего раскрытия сущности.[34] FIG. 1 is a view schematically showing a video encoding system to which an embodiment of the present disclosure is applicable.

[35] Фиг. 2 является видом, схематично показывающим оборудование кодирования изображений, к которому является применимым вариант осуществления настоящего раскрытия сущности.[35] FIG. 2 is a view schematically showing image encoding equipment to which an embodiment of the present disclosure is applicable.

[36] Фиг. 3 является видом, схематично показывающим оборудование декодирования изображений, к которому является применимым вариант осуществления настоящего раскрытия сущности.[36] FIG. 3 is a view schematically showing image decoding equipment to which an embodiment of the present disclosure is applicable.

[37] Фиг. 4 является видом, иллюстрирующим вариант осуществления типа сегментации блока согласно многотипной древовидной структуре.[37] FIG. 4 is a view illustrating an embodiment of a block segmentation type according to a multi-type tree structure.

[38] Фиг. 5 является видом, иллюстрирующим механизм передачи в служебных сигналах информации разбиения на блоки в дереве квадрантов с вложенной многотипной древовидной структурой согласно настоящему раскрытию сущности.[38] FIG. 5 is a view illustrating a signaling mechanism for blocking information in a quadtree with a nested multi-type tree structure according to the present disclosure.

[39] Фиг. 6 является видом, иллюстрирующим способ применения фильтра удаления блочности согласно варианту осуществления.[39] FIG. 6 is a view illustrating a method of applying a deblocking filter according to an embodiment.

[40] Фиг. 7 является видом, иллюстрирующим способ определения интенсивности фильтрации в фильтре удаления блочности.[40] FIG. 7 is a view illustrating a method for determining filter intensity in a deblocking filter.

[41] Фиг. 8 является видом, иллюстрирующим режим на основе внутренних субсегментов (ISP) из технологий внутреннего прогнозирования.[41] FIG. 8 is a view illustrating the internal sub-segment (ISP) mode of internal prediction technologies.

[42] Фиг. 9-11 являются видами, иллюстрирующими способ определения длины фильтра для фильтра удаления блочности, применяемого к целевой границе.[42] FIG. 9 to 11 are views illustrating a method for determining a filter length for a deblocking filter applied to a target boundary.

[43] Фиг. 12 является видом, иллюстрирующим способ кодирования/декодирования изображений согласно варианту осуществления настоящего раскрытия сущности.[43] FIG. 12 is a view illustrating an image encoding/decoding method according to an embodiment of the present disclosure.

[44] Фиг. 13 и 14 являются видами, иллюстрирующими способ определения длины фильтра удаления блочности согласно другому варианту осуществления настоящего раскрытия сущности.[44] FIG. 13 and 14 are views illustrating a method for determining the length of a deblocking filter according to another embodiment of the present disclosure.

[45] Фиг. 15 и 16 являются видами, иллюстрирующими способ определения длины фильтра удаления блочности согласно другому варианту осуществления настоящего раскрытия сущности.[45] FIG. 15 and 16 are views illustrating a method for determining the length of a deblocking filter according to another embodiment of the present disclosure.

[46] Фиг. 17 является видом, показывающим систему потоковой передачи контента, к которой является применимым вариант осуществления настоящего раскрытия сущности.[46] FIG. 17 is a view showing a content streaming system to which an embodiment of the present disclosure is applicable.

Оптимальный режим осуществления изобретенияOptimal mode for carrying out the invention

[47] В дальнейшем в этом документе подробно описываются варианты осуществления настоящего раскрытия сущности со ссылкой на прилагаемые чертежи, так что они легко могут реализовываться специалистами в данной области техники. Тем не менее, настоящее раскрытие сущности может реализовываться во всевозможных формах и не ограничено вариантами осуществления, описанными в данном документе.[47] Embodiments of the present disclosure are described in detail hereinafter with reference to the accompanying drawings so that they can be easily implemented by those skilled in the art. However, the present disclosure may be implemented in a variety of forms and is not limited to the embodiments described herein.

[48] При описании настоящего раскрытия сущности, если определяется то, что подробное описание связанной известной функции или конструкции приводит к излишней неоднозначности объема настоящего раскрытия сущности, ее подробное описание опускается. На чертежах, части, не связанные с описанием настоящего раскрытия сущности, опускаются, и аналогичные ссылки с номерами присоединяются к аналогичным частям.[48] In describing the present disclosure, if it is determined that a detailed description of a related known function or construct would cause unnecessary ambiguity to the scope of the present disclosure, the detailed description thereof is omitted. In the drawings, parts not related to the description of the present disclosure are omitted, and like reference numbers are added to like parts.

[49] В настоящем раскрытии сущности, когда компонент "соединяется", "спаривается" или "связывается" с другим компонентом, это может включать в себя не только непосредственную взаимосвязь на основе соединения, но также и косвенную взаимосвязь на основе соединения, в которой присутствует промежуточный компонент. Помимо этого, когда компонент "включает в себя" или "имеет" другие компоненты, это означает то, что другие компоненты могут включаться дополнительно, а не исключение других компонентов, если не указано иное.[49] In the present disclosure, when a component “connects,” “pairs,” or “links” to another component, it may include not only a direct connection-based relationship, but also an indirect connection-based relationship in which there is intermediate component. In addition, when a component “includes” or “has” other components, it means that other components may be additionally included, not the exclusion of other components, unless otherwise noted.

[50] В настоящем раскрытии сущности, термины "первый", "второй" и т.д. могут использоваться только для целей различения одного компонента от других компонентов и не ограничивают порядок или важность компонентов, если не указано иное. Соответственно, в пределах объема настоящего раскрытия сущности, первый компонент в одном варианте осуществления может называться "вторым компонентом" в другом варианте осуществления, и аналогично, второй компонент в одном варианте осуществления может называться "первым компонентом" в другом варианте осуществления.[50] In the present disclosure, the terms “first”, “second”, etc. may be used only for the purpose of distinguishing one component from other components and does not limit the order or importance of the components unless otherwise noted. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a “second component” in another embodiment, and likewise, a second component in one embodiment may be referred to as a “first component” in another embodiment.

[51] В настоящем раскрытии сущности, компоненты, которые отличаются друг от друга, имеют намерение ясно описывать каждый признак и не означают то, что компоненты обязательно разделяются. Таким образом, множество компонентов могут интегрироваться и реализовываться в одном аппаратном или программном модуле, или один компонент может распределяться и реализовываться во множестве аппаратных или программных модулей. Следовательно, даже если не указано иное, такие варианты осуществления, в которых компоненты интегрируются, или компонент распределяется, также включаются в объем настоящего раскрытия сущности.[51] In the present disclosure, components that are different from each other are intended to clearly describe each feature and do not mean that the components are necessarily separate. Thus, multiple components may be integrated and implemented in a single hardware or software module, or a single component may be distributed and implemented in multiple hardware or software modules. Therefore, even if not stated otherwise, such embodiments in which components are integrated or a component is distributed are also included within the scope of the present disclosure.

[52] В настоящем раскрытии сущности, компоненты, описанные в различных вариантах осуществления, не обязательно означают существенные компоненты, и некоторые компоненты могут представлять собой необязательные компоненты. Соответственно, вариант осуществления, состоящий из поднабора компонентов, описанных в варианте осуществления, также включается в объем настоящего раскрытия сущности. Помимо этого, варианты осуществления, включающие в себя другие компоненты, в дополнение к компонентам, описанным в различных вариантах осуществления, включаются в объем настоящего раскрытия сущности.[52] In the present disclosure, the components described in the various embodiments do not necessarily mean essential components, and some components may be optional components. Accordingly, an embodiment consisting of a subset of the components described in the embodiment is also included within the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in the various embodiments are included within the scope of the present disclosure.

[53] Настоящее раскрытие сущности относится к кодированию и декодированию изображения, и термины, используемые в настоящем раскрытии сущности, могут иметь общий смысл, широко используемый в области техники, которой принадлежит настоящее раскрытие сущности, если не задаются впервые в настоящем раскрытии сущности.[53] The present disclosure relates to image encoding and decoding, and the terms used in the present disclosure may have a general meaning commonly used in the art to which the present disclosure pertains, unless defined for the first time in the present disclosure.

[54] В настоящем раскрытии сущности, "кадр", в общем, означает единицу, представляющую одно изображение в конкретный период времени, и срез/плитка представляет собой единицу кодирования, составляющую часть кадра, и один кадр может состоять из одного или более срезов/плиток. Помимо этого, срез/плитка может включать в себя одну или более единиц дерева кодирования (CTU).[54] In the present disclosure, "frame" generally means a unit representing one image at a particular time period, and a slice/tile is an encoding unit constituting part of a frame, and one frame may consist of one or more slices/ tiles In addition, a slice/tile may include one or more coding tree units (CTUs).

[55] В настоящем раскрытии сущности, "пиксел" или "пел" может означать наименьшую единицу, составляющую один кадр (или изображение). Помимо этого, "выборка" может использоваться в качестве термина, соответствующего пикселу. Выборка, в общем, может представлять пиксел или значение пиксела и может представлять только пиксел/пикселное значение компонента сигнала яркости либо только пиксел/пикселное значение компонента сигнала цветности.[55] In the present disclosure, "pixel" or "pixel" can mean the smallest unit constituting one frame (or image). In addition, "sample" can be used as a term corresponding to a pixel. A sample may generally represent a pixel or a pixel value, and may represent only a pixel/pixel value of a luma component or only a pixel/pixel value of a chroma component.

[56] В настоящем раскрытии сущности, "единица" может представлять базовую единицу обработки изображений. Единица может включать в себя, по меньшей мере, одно из конкретной области кадра и информации, связанной с областью. Единица может использоваться взаимозаменяемо с такими терминами, как "массив выборок", "блок" или "зона" в некоторых случаях. В общем случае, блок MxN может включать в себя выборки (или массивы выборок) либо набор (или массив) коэффициентов преобразования из M столбцов и N строк.[56] In the present disclosure, a "unit" may represent a basic unit of image processing. The unit may include at least one of a specific frame area and information associated with the area. The unit may be used interchangeably with terms such as "sample array", "block" or "zone" in some cases. In general, an MxN block may include samples (or arrays of samples) or a set (or array) of transform coefficients of M columns and N rows.

[57] В настоящем раскрытии сущности, "текущий блок" может означать одно из "текущего блока кодирования", "текущей единицы кодирования", "целевого блока кодирования", "целевого блока декодирования" или "целевого блока обработки". Когда прогнозирование выполняется, "текущий блок" может означать "текущий блок прогнозирования" или "целевой блок прогнозирования". Когда преобразование (обратное преобразование)/квантование (деквантование) выполняется, "текущий блок" может означать "текущий блок преобразования" или "целевой блок преобразования". Когда фильтрация выполняется, "текущий блок" может означать "целевой блок фильтрации".[57] In the present disclosure, "current block" may mean one of "current encoding block", "current encoding unit", "target encoding block", "target decoding block" or "target processing block". When prediction is performed, "current block" may mean "current prediction block" or "target prediction block". When transform (inverse transform)/quantization (dequantization) is performed, "current block" can mean "current transform block" or "transform target block". When filtering is performed, "current block" can mean "target filtering block".

[58] В настоящем раскрытии сущности, термин "/" и "" должен интерпретироваться как указывающий "и/или". Например, выражение "A/B" и "A, B" может означать "A и/или B". Дополнительно, "A/B/C" и "A/B/C" может означать "по меньшей мере, одно из A, B и/или C".[58] In the present disclosure, the terms "/" and "" are to be interpreted to indicate "and/or". For example, the expression "A/B" and "A, B" can mean "A and/or B". Additionally, "A/B/C" and "A/B/C" may mean "at least one of A, B and/or C".

[59] В настоящем раскрытии сущности, термин "или" должен интерпретироваться как указывающий "и/или". Например, выражение "A или B" может содержать 1) только "A", 2) только "B" и/или 3) "как A, так и B". Другими словами, в настоящем раскрытии сущности, термин "или" должен интерпретироваться как указывающий "дополнительно или альтернативно".[59] In the present disclosure, the term “or” should be interpreted to indicate “and/or.” For example, the expression "A or B" may contain 1) only "A", 2) only "B", and/or 3) "both A and B". In other words, in the present disclosure, the term “or” is to be interpreted as indicating “in addition or alternatively.”

[60] Общее представление системы кодирования видео [60] Video Coding System Overview

[61] Фиг. 1 является видом, показывающим систему кодирования видео согласно настоящему раскрытию сущности.[61] FIG. 1 is a view showing a video encoding system according to the present disclosure.

[62] Система кодирования видео согласно варианту осуществления может включать в себя оборудование 10 кодирования и оборудование 20 декодирования. Оборудование 10 кодирования может доставлять кодированную информацию или данные видео и/или изображений в оборудование 20 декодирования в форме файла или потоковой передачи через цифровой носитель хранения данных или сеть.[62] The video encoding system according to an embodiment may include encoding equipment 10 and decoding equipment 20. The encoding equipment 10 may deliver encoded information or video and/or image data to the decoding equipment 20 in the form of a file or streaming via a digital storage medium or a network.

[63] Оборудование 10 кодирования согласно варианту осуществления может включать в себя формирователь 11 видеоисточников, модуль 12 кодирования и передатчик 13. Оборудование 20 декодирования согласно варианту осуществления может включать в себя приемник 21, модуль 22 декодирования и модуль 23 рендеринга. Модуль 12 кодирования может называться "модулем кодирования видео/изображений", и модуль 22 декодирования может называться "модулем декодирования видео/изображений". Передатчик 13 может включаться в модуль 12 кодирования. Приемник 21 может включаться в модуль 22 декодирования. Модуль 23 рендеринга может включать в себя дисплей, и дисплей может быть сконфигурирован как отдельное устройство или внешний компонент.[63] The encoding equipment 10 according to an embodiment may include a video source generator 11, an encoding unit 12, and a transmitter 13. The decoding equipment 20 according to an embodiment may include a receiver 21, a decoding unit 22, and a rendering unit 23. The encoding unit 12 may be referred to as a “video/image encoding unit,” and the decoding unit 22 may be referred to as a “video/image decoding unit.” The transmitter 13 may be included in the encoding module 12. The receiver 21 may be included in the decoding module 22. The rendering module 23 may include a display, and the display may be configured as a separate device or an external component.

[64] Формирователь 11 видеоисточников может получать видео/изображение через процесс захвата, синтезирования или формирования видео/изображения. Формирователь 11 видеоисточников может включать в себя устройство захвата видео/изображений и/или устройство формирования видео/изображений. Устройство захвата видео/изображений может включать в себя, например, одну или более камер, архивы видео/изображений, включающие в себя ранее захваченные видео/изображения, и т.п. Устройство формирования видео/изображений может включать в себя, например, компьютеры, планшетные компьютеры и смартфоны и может (электронно) формировать видео/изображения. Например, виртуальное видео/изображение может формироваться через компьютер и т.п. В этом случае, процесс захвата видео/изображений может заменяться посредством процесса формирования связанных данных.[64] The video source generator 11 may obtain video/image through a video/image capturing, synthesizing, or shaping process. The video source generator 11 may include a video/image capture device and/or a video/image generation device. The video/image capturing device may include, for example, one or more cameras, video/image archives including previously captured video/images, and the like. The video/image generating apparatus may include, for example, computers, tablet computers and smartphones and may (electronically) generate video/images. For example, a virtual video/image may be generated via a computer or the like. In this case, the video/image capturing process can be replaced by the associated data generation process.

[65] Модуль 12 кодирования может кодировать входное видео/изображение. Модуль 12 кодирования может выполнять последовательность процедур, таких как прогнозирование, преобразование и квантование, для эффективности сжатия и кодирования. Модуль 12 кодирования может выводить кодированные данные (кодированную информацию видео/изображений) в форме потока битов.[65] The encoding unit 12 can encode the input video/image. The encoding unit 12 may perform a series of procedures such as prediction, transform and quantization for compression and encoding efficiency. The encoding unit 12 can output encoded data (encoded video/image information) in the form of a bit stream.

[66] Передатчик 13 может передавать кодированную информацию или данные видео/изображений, выводимую в форме потока битов, в приемник 21 оборудования 20 декодирования через цифровой носитель хранения данных или сеть в форме файла или потоковой передачи. Цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик 13 может включать в себя элемент для формирования мультимедийного файла через предварительно определенный формат файлов и может включать в себя элемент для передачи через широковещательную сеть/сеть связи. Приемник 21 может извлекать/принимать поток битов из носителя хранения данных или сети и передавать поток битов в модуль 22 декодирования.[66] The transmitter 13 may transmit encoded information or video/image data output in the form of a bitstream to the receiver 21 of the decoding equipment 20 via a digital storage medium or a network in the form of a file or streaming. The digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-Ray, HDD, SSD, and the like. The transmitter 13 may include an element for generating a multimedia file through a predefined file format and may include an element for transmission through a broadcast/communications network. The receiver 21 may retrieve/receive a bit stream from the storage medium or network and transmit the bit stream to the decoding unit 22.

[67] Модуль 22 декодирования может декодировать видео/изображение посредством выполнения последовательности процедур, таких как деквантование, обратное преобразование и прогнозирование, соответствующих работе модуля 12 кодирования.[67] The decoding unit 22 can decode the video/image by performing a sequence of procedures such as dequantization, deconversion and prediction corresponding to the operation of the encoding unit 12.

[68] Модуль 23 рендеринга может подготавливать посредством рендеринга декодированное видео/изображение. Подготовленное посредством рендеринга видео/изображение может отображаться через дисплей.[68] The rendering unit 23 may prepare a decoded video/image by rendering. The video/image prepared by rendering can be displayed through the display.

[69] Общее представление оборудования кодирования изображений [69] General introduction to image encoding equipment

[70] Фиг. 2 является видом, схематично показывающим оборудование кодирования изображений, к которому является применимым вариант осуществления настоящего раскрытия сущности.[70] FIG. 2 is a view schematically showing image encoding equipment to which an embodiment of the present disclosure is applicable.

[71] Как показано на фиг. 2, оборудование 100 кодирования изображений может включать в себя модуль 110 сегментации изображений, вычитатель 115, преобразователь 120, квантователь 130, деквантователь 140, обратный преобразователь 150, сумматор 155, фильтр 160, запоминающее устройство 170, модуль 180 взаимного прогнозирования, модуль 185 внутреннего прогнозирования и энтропийный кодер 190. Модуль 180 взаимного прогнозирования и модуль 185 внутреннего прогнозирования могут совместно называться "модулем прогнозирования". Преобразователь 120, квантователь 130, деквантователь 140 и обратный преобразователь 150 могут включаться в остаточный процессор. Остаточный процессор дополнительно может включать в себя вычитатель 115.[71] As shown in FIG. 2, the image encoding equipment 100 may include an image segmentation unit 110, a subtractor 115, a converter 120, a quantizer 130, a dequantizer 140, an inverse converter 150, an adder 155, a filter 160, a memory 170, an inter-prediction unit 180, an intra-prediction unit 185 and an entropy encoder 190. The inter-prediction module 180 and the intra-prediction module 185 may be collectively referred to as a “prediction module”. Converter 120, quantizer 130, dequantizer 140, and inverse converter 150 may be included in the residual processor. The residual processor may further include a subtractor 115.

[72] Все или, по меньшей мере, часть из множества компонентов, конфигурирующих оборудование 100 кодирования изображений, могут быть сконфигурированы посредством одного аппаратного компонента (например, кодера или процессора) в некоторых вариантах осуществления. Помимо этого, запоминающее устройство 170 может включать в себя буфер декодированных кадров (DPB) и может быть сконфигурировано посредством цифрового носителя хранения данных.[72] All or at least a portion of the plurality of components configuring image encoding equipment 100 may be configured by a single hardware component (eg, an encoder or processor) in some embodiments. In addition, storage device 170 may include a decoded frame buffer (DPB) and may be configured with a digital storage medium.

[73] Модуль 110 сегментации изображений может сегментировать входное изображение (либо кадр или кинокадр), вводимое в оборудование 100 кодирования изображений, на одну более единиц обработки. Например, единица обработки может называться "единицей кодирования (CU)". Единица кодирования может получаться посредством рекурсивной сегментации единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU) согласно структуре в виде дерева квадрантов, двоичного дерева и троичного дерева (QT/BT/TT). Например, одна единица кодирования может сегментироваться на множество единиц кодирования большей глубины на основе структуры в виде дерева квадрантов, структуры в виде двоичного дерева и/или троичной структуры. Для сегментации единицы кодирования, сначала может применяться структура в виде дерева квадрантов, и впоследствии может применяться структура в виде двоичного дерева и/или троичная структура. Процедура кодирования согласно настоящему раскрытию сущности может выполняться на основе конечной единицы кодирования, которая более не сегментируется. Наибольшая единица кодирования может использоваться в качестве конечной единицы кодирования, или единица кодирования большей глубины, полученной посредством сегментации наибольшей единицы кодирования, может использоваться в качестве конечной единицы кодирования. Здесь, процедура кодирования может включать в себя процедуру прогнозирования, преобразования и восстановления, которая описывается ниже. В качестве другого примера, единица обработки процедуры кодирования может представлять собой единицу прогнозирования (PU) или единицу преобразования (TU). Единица прогнозирования и единица преобразования могут разбиваться или сегментироваться из конечной единицы кодирования. Единица прогнозирования может представлять собой единицу выборочного прогнозирования, и единица преобразования может представлять собой единицу для извлечения коэффициента преобразования и/или единицу для извлечения остаточного сигнала из коэффициента преобразования.[73] The image segmentation module 110 may segment an input image (either a frame or a movie frame) input to the image encoding equipment 100 into one more processing unit. For example, the processing unit may be called a "coding unit (CU)". A coding unit may be obtained by recursively segmenting a coding tree unit (CTU) or largest coding unit (LCU) according to a quadtree, binary tree, and ternary tree (QT/BT/TT) structure. For example, one coding unit may be segmented into multiple coding units of greater depth based on a quadtree structure, a binary tree structure, and/or a ternary structure. To segment a coding unit, a quadtree structure may first be applied, and subsequently a binary tree structure and/or a ternary structure may be applied. The encoding procedure of the present disclosure may be performed based on a final encoding unit that is no longer segmented. The largest coding unit may be used as the final coding unit, or a coding unit of greater depth obtained by segmenting the largest coding unit may be used as the final coding unit. Here, the encoding procedure may include a prediction, transformation and reconstruction procedure, which is described below. As another example, the processing unit of the encoding procedure may be a prediction unit (PU) or a transformation unit (TU). The prediction unit and the transformation unit may be split or segmented from the final encoding unit. The prediction unit may be a sample prediction unit, and the transformation unit may be a unit for extracting a transformation coefficient and/or a unit for extracting a residual signal from the transformation coefficient.

[74] Модуль прогнозирования (модуль 180 взаимного прогнозирования или модуль 185 внутреннего прогнозирования) может выполнять прогнозирование относительно блока, который должен обрабатываться (текущего блока), и формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование, на основе текущего блока или CU. Модуль прогнозирования может формировать различную информацию, связанную с прогнозированием текущего блока, и передавать сформированную информацию в энтропийный кодер 190. Информация относительно прогнозирования может кодироваться в энтропийном кодере 190 и выводиться в форме потока битов.[74] The prediction module (inter-prediction module 180 or intra-prediction module 185) may perform prediction regarding a block to be processed (the current block) and generate a predicted block including prediction samples for the current block. The prediction module may determine whether intra prediction or inter prediction is applied based on the current block or CU. The prediction module may generate various information related to prediction of the current block and transmit the generated information to the entropy encoder 190. Information regarding the prediction may be encoded in the entropy encoder 190 and output in the form of a bit stream.

[75] Модуль 185 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Выборки для ссылки могут быть расположены в окружении текущего блока или могут быть расположены с разнесением согласно режиму внутреннего прогнозирования и/или технологии внутреннего прогнозирования. Режимы внутреннего прогнозирования могут включать в себя множество ненаправленных режимов и множество направленных режимов. Ненаправленный режим может включать в себя, например, DC-режим и планарный режим. Направленный режим может включать в себя, например, 33 режима направленного прогнозирования или 65 режимов направленного прогнозирования согласно степени детальности направления прогнозирования. Тем не менее, это представляет собой просто пример, большее или меньшее число режимов направленного прогнозирования может использоваться в зависимости от настройки. Модуль 185 внутреннего прогнозирования может определять режим прогнозирования, применяемый к текущему блоку, посредством использования режима прогнозирования, применяемого к соседнему блоку.[75] The intra prediction module 185 may predict the current block by reference to the samples in the current frame. Samples for reference may be located in the surroundings of the current block or may be spaced apart according to an intra-prediction mode and/or intra-prediction technology. The intra prediction modes may include a plurality of non-directional modes and a plurality of directed modes. The omnidirectional mode may include, for example, DC mode and planar mode. The directional mode may include, for example, 33 directional prediction modes or 65 directional prediction modes according to the granularity of the prediction direction. However, this is merely an example; more or less directional prediction modes may be used depending on the setting. The intra prediction module 185 may determine the prediction mode applied to the current block by using the prediction mode applied to the adjacent block.

[76] Модуль 180 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Опорный кадр, включающий в себя опорный блок, и опорный кадр, включающий в себя временной соседний блок, могут быть идентичными или отличающимися. Временной соседний блок может называться "совместно размещенным опорным блоком", "совместно размещенной CU (colCU)" и т.п. Опорный кадр, включающий в себя временной соседний блок, может называться "совместно размещенным кадром (colPic)". Например, модуль 180 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и формировать информацию, указывающую то, какой возможный вариант используется для того, чтобы извлекать вектор движения и/или индекс опорного кадра текущего блока. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования. Например, в случае режима пропуска и режима объединения, модуль 180 взаимного прогнозирования может использовать информацию движения соседнего блока в качестве информации движения текущего блока. В случае режима пропуска, в отличие от режима объединения, остаточный сигнал может не передаваться. В случае режима прогнозирования векторов движения (MVP), вектор движения соседнего блока может использоваться в качестве предиктора вектора движения, и вектор движения текущего блока может передаваться в служебных сигналах посредством кодирования разности векторов движения и индикатора для предиктора вектора движения. Разность векторов движения может означать разность между вектором движения текущего блока и предиктором вектора движения.[76] The inter-prediction unit 180 may extract a predicted block for the current block based on a reference block (an array of reference samples) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks, or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0-prediction, L1-prediction, bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block present in the current frame and a temporal neighbor block present in the reference frame. The reference frame including the reference block and the reference frame including the temporary adjacent block may be identical or different. A temporary neighbor block may be referred to as a "co-located reference block", "co-located CU (colCU)", or the like. A reference frame including a temporary adjacent block may be referred to as a "co-located frame (colPic)". For example, the inter-prediction module 180 may configure a list of motion information candidates based on neighboring blocks and generate information indicating which candidate is used to retrieve the motion vector and/or reference frame index of the current block. Mutual prediction can be performed based on different prediction modes. For example, in the case of the skip mode and the merge mode, the inter-prediction unit 180 may use the motion information of a neighboring block as the motion information of the current block. In the case of the skip mode, unlike the combining mode, the residual signal may not be transmitted. In the case of the motion vector prediction (MVP) mode, the motion vector of an adjacent block can be used as a motion vector predictor, and the motion vector of the current block can be signaled by encoding the motion vector difference and an indicator for the motion vector predictor. The motion vector difference may mean the difference between the motion vector of the current block and the motion vector predictor.

[77] Модуль прогнозирования может формировать прогнозный сигнал на основе различных способов прогнозирования и технологий прогнозирования, описанных ниже. Например, модуль прогнозирования может не только применять внутреннее прогнозирование или взаимное прогнозирование, но также и одновременно применять как внутреннее прогнозирование, так и взаимное прогнозирование, чтобы прогнозировать текущий блок. Способ прогнозирования с одновременным применением как внутреннего прогнозирования, так и взаимного прогнозирования для прогнозирования текущего блока может называться "комбинированным взаимным и внутренним прогнозированием (CIIP)". Помимо этого, модуль прогнозирования может выполнять внутриблочное копирование (IBC) для прогнозирования текущего блока. Внутриблочное копирование может использоваться для кодирования изображений/видео контента игры и т.п., например, для кодирования экранного контента (SCC). IBC представляет собой способ прогнозирования текущего кадра с использованием ранее восстановленного опорного блока в текущем кадре в местоположении, разнесенном от текущего блока на предварительно определенное расстояние. Когда IBC применяется, местоположение опорного блока в текущем кадре может кодироваться как вектор (блочный вектор), соответствующий предварительно определенному расстоянию.[77] The prediction module can generate a prediction signal based on various prediction methods and prediction technologies described below. For example, the prediction module may not only apply intra-prediction or inter-prediction, but also simultaneously apply both intra-prediction and inter-prediction to predict the current block. A prediction method that simultaneously uses both intra prediction and inter prediction to predict the current block may be called "combined inter and intra prediction (CIIP)". In addition, the prediction module can perform intra-block copying (IBC) to predict the current block. In-block copying can be used to encode game image/video content and the like, such as screen content encoding (SCC). IBC is a method of predicting the current frame using a previously reconstructed reference block in the current frame at a location spaced from the current block by a predetermined distance. When IBC is applied, the location of the reference block in the current frame can be encoded as a vector (block vector) corresponding to a predetermined distance.

[78] Прогнозный сигнал, сформированный посредством модуля прогнозирования, может использоваться для того, чтобы формировать восстановленный сигнал или формировать остаточный сигнал. Вычитатель 115 может формировать остаточный сигнал (остаточный блок или массив остаточных выборок) посредством вычитания прогнозного сигнала (прогнозированного блока или массива прогнозных выборок), выводимого из модуля прогнозирования, из сигнала входного изображения (исходного блока или массива исходных выборок). Сформированный остаточный сигнал может передаваться в преобразователь 120.[78] The prediction signal generated by the prediction module can be used to generate a reconstructed signal or generate a residual signal. The subtractor 115 may generate a residual signal (a residual block or an array of residual samples) by subtracting a prediction signal (a prediction block or an array of prediction samples) output from the prediction module from an input image signal (a source block or an array of original samples). The generated residual signal can be transmitted to the converter 120.

[79] Преобразователь 120 может формировать коэффициенты преобразования посредством применения технологии преобразования к остаточному сигналу. Например, технология преобразования может включать в себя, по меньшей мере, одно из дискретного косинусного преобразования (DCT), дискретного синусного преобразования (DST), преобразования Карунена-Лоэва (KLT), преобразования на основе графа (GBT) или условно нелинейного преобразования (CNT). Здесь, GBT означает преобразование, полученное из графа, когда информация взаимосвязи между пикселами представляется посредством графа. CNT означает преобразование, полученное на основе прогнозного сигнала, сформированного с использованием всех ранее восстановленных пикселов. Помимо этого, процесс преобразования может применяться к квадратным пикселным блокам, имеющим идентичный размер, или может применяться к блокам, имеющим переменный размер, а не квадратный.[79] Converter 120 can generate conversion coefficients by applying conversion technology to the residual signal. For example, the transform technology may include at least one of a discrete cosine transform (DCT), a discrete sine transform (DST), a Karhunen-Loeve transform (KLT), a graph-based transform (GBT), or a conditionally nonlinear transform (CNT). ). Here, GBT means a graph-derived transformation when the relationship information between pixels is represented by the graph. CNT means the transformation obtained from the prediction signal generated using all the previously reconstructed pixels. In addition, the conversion process can be applied to square pixel blocks that are identical in size, or can be applied to blocks that are variable in size rather than square.

[80] Квантователь 130 может квантовать коэффициенты преобразования и передавать их в энтропийный кодер 190. Энтропийный кодер 190 может кодировать квантованный сигнал (информацию относительно квантованных коэффициентов преобразования) и выводить поток битов. Информация относительно квантованных коэффициентов преобразования может называться "остаточной информацией". Квантователь 130 может перекомпоновывать квантованные коэффициенты преобразования в блочной форме в одномерную векторную форму на основе порядка сканирования коэффициентов и формировать информацию относительно квантованных коэффициентов преобразования на основе квантованных коэффициентов преобразования в одномерной векторной форме.[80] Quantizer 130 may quantize the transform coefficients and pass them to entropy encoder 190. Entropy encoder 190 may encode the quantized signal (information regarding the quantized transform coefficients) and output a bit stream. Information regarding the quantized transform coefficients may be referred to as "residual information". Quantizer 130 may re-arrange the quantized transform coefficients in block form into one-dimensional vector form based on the scan order of the coefficients, and generate information regarding the quantized transform coefficients based on the quantized transform coefficients in one-dimensional vector form.

[81] Энтропийный кодер 190 может осуществлять различные способы кодирования, такие как, например, кодирование экспоненциальным кодом Голомба, контекстно-адаптивное кодирование переменной длины (CAVLC), контекстно-адаптивное двоичное арифметическое кодирование (CABAC) и т.п. Энтропийный кодер 190 может кодировать информацию, необходимую для восстановления видео/изображений, отличную от квантованных коэффициентов преобразования (например, значений синтаксических элементов и т.д.), вместе или отдельно. Кодированная информация (например, кодированная информация видео/изображений) может передаваться или сохраняться в единицах слоев абстрагирования от сети (NAL) в форме потока битов. Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Передаваемая в служебных сигналах информация, передаваемая информация и/или синтаксические элементы, описанные в настоящем раскрытии сущности, могут кодироваться через вышеописанную процедуру кодирования и включаться в поток битов.[81] The entropy encoder 190 may implement various encoding techniques, such as, for example, exponential Golomb coding, context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), and the like. Entropy encoder 190 may encode information needed to reconstruct video/images other than quantized transform coefficients (eg, syntax element values, etc.), together or separately. Encoded information (eg, encoded video/image information) may be transmitted or stored in network abstraction layer (NAL) units in the form of a bitstream. The video/image information may further include information regarding various parameter sets, such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The signaling information, transmission information, and/or syntax elements described in the present disclosure may be encoded through the encoding procedure described above and included in the bit stream.

[82] Поток битов может передаваться по сети или может сохраняться на цифровом носителе хранения данных. Сеть может включать в себя широковещательную сеть и/или сеть связи, и цифровой носитель хранения данных может включать в себя различные носители хранения данных, такие как, USB, SD, CD, DVD, Blu-Ray, HDD, SSD и т.п. Передатчик (не показан), передающий сигнал, выводимый из энтропийного кодера 190, и/или модуль хранения (не показан), сохраняющий сигнал, могут включаться в качестве внутреннего/внешнего элемента оборудования 100 кодирования, и альтернативно, передатчик может включаться в энтропийный кодер 190.[82] The bitstream may be transmitted over a network or may be stored on a digital storage medium. The network may include a broadcast network and/or a communications network, and the digital storage medium may include various storage media such as USB, SD, CD, DVD, Blu-Ray, HDD, SSD, and the like. A transmitter (not shown) transmitting the signal output from the entropy encoder 190 and/or a storage module (not shown) storing the signal may be included as an internal/external element of the encoding equipment 100, and alternatively, the transmitter may be included in the entropy encoder 190 .

[83] Квантованные коэффициенты преобразования, выводимые из квантователя 130, могут использоваться для того, чтобы формировать остаточный сигнал. Например, остаточный сигнал (остаточный блок или остаточные выборки) может восстанавливаться посредством применения деквантования и обратного преобразования к квантованным коэффициентам преобразования через деквантователь 140 и обратный преобразователь 150.[83] The quantized transform coefficients output from quantizer 130 can be used to generate a residual signal. For example, a residual signal (residual block or residual samples) may be recovered by applying dequantization and inverse transform to the quantized transform coefficients via dequantizer 140 and inverse transformer 150.

[84] Сумматор 155 суммирует восстановленный остаточный сигнал с прогнозным сигналом, выводимым из модуля 180 взаимного прогнозирования или модуля 185 внутреннего прогнозирования, с тем чтобы формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок). Если отсутствует остаток для блока, который должен обрабатываться, к примеру, в случае, в котором режим пропуска применяется, прогнозированный блок может использоваться в качестве восстановленного блока. Сумматор 155 может называться "модулем восстановления" или "формирователем восстановленных блоков". Сформированный восстановленный сигнал может использоваться для внутреннего прогнозирования следующего блока, который должен обрабатываться в текущем кадре, и может использоваться для взаимного прогнозирования следующего кадра посредством фильтрации, как описано ниже.[84] An adder 155 adds the reconstructed residual signal with the prediction signal output from the inter-prediction module 180 or the intra-prediction module 185 so as to generate a reconstructed signal (reconstructed frame, reconstructed block, reconstructed sample array). If there is no remainder for a block to be processed, for example in a case in which the skip mode is applied, the predicted block can be used as a reconstructed block. The adder 155 may be referred to as a "recovery module" or a "recovered block generator." The generated reconstructed signal can be used to internally predict the next block to be processed in the current frame, and can be used to inter-predict the next frame through filtering, as described below.

[85] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в процессе кодирования кадров, как описано ниже.[85] Meanwhile, luma conversion with chrominance scaling (LMCS) can be applied in the frame encoding process as described below.

[86] Фильтр 160 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 160 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 170, а именно, в DPB запоминающего устройства 170. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, дискретизированное адаптивное смещение, адаптивный контурный фильтр, билатеральный фильтр и т.п. Фильтр 160 может формировать различную информацию, связанную с фильтрацией, и передавать сформированную информацию в энтропийный кодер 190, как описано ниже в описании каждого способа фильтрации. Информация, связанная с фильтрацией, может кодироваться посредством энтропийного кодера 190 и выводиться в форме потока битов.[86] Filter 160 may enhance the subjective/objective quality of images by applying filtering to the reconstructed signal. For example, filter 160 may generate a modified reconstructed frame by applying various filtering techniques to the reconstructed frame and store the modified reconstructed frame in storage device 170, namely, a DPB of storage device 170. Various filtering techniques may include, for example, deblocking filtering. , sampled adaptive bias, adaptive contour filter, bilateral filter, etc. The filter 160 may generate various filtering-related information and transmit the generated information to the entropy encoder 190, as described below in the description of each filtering method. Information associated with filtering may be encoded by entropy encoder 190 and output in the form of a bitstream.

[87] Модифицированный восстановленный кадр, передаваемый в запоминающее устройство 170, может использоваться в качестве опорного кадра в модуле 180 взаимного прогнозирования. Когда взаимное прогнозирование применяется через оборудование 100 кодирования изображений, рассогласование прогнозирования между оборудованием 100 кодирования изображений и оборудованием декодирования изображений может исключаться, и эффективность кодирования может повышаться.[87] The modified reconstructed frame transferred to the storage device 170 can be used as a reference frame in the inter-prediction module 180. When mutual prediction is applied through the image encoding equipment 100, prediction mismatch between the image encoding equipment 100 and the image decoding equipment can be eliminated, and encoding efficiency can be improved.

[88] DPB запоминающего устройства 170 может сохранять модифицированный восстановленный кадр для использования в качестве опорного кадра в модуле 180 взаимного прогнозирования. Запоминающее устройство 170 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или кодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 180 взаимного прогнозирования и использоваться в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 170 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и может передавать восстановленные выборки в модуль 185 внутреннего прогнозирования.[88] The DPB of the storage device 170 may store the modified reconstructed frame for use as a reference frame in the inter-prediction module 180 . The storage device 170 may store block motion information from which motion information in the current frame is retrieved (or encoded) and/or motion information of blocks in a frame that have already been reconstructed. The stored motion information may be transmitted to the inter-prediction unit 180 and used as spatial neighbor block motion information or temporal neighbor block motion information. Memory 170 may store reconstructed samples of reconstructed blocks in the current frame and may transmit reconstructed samples to intra prediction module 185.

[89] Общее представление оборудования декодирования изображений [89] General introduction to image decoding equipment

[90] Фиг. 3 является видом, схематично показывающим оборудование декодирования изображений, к которому является применимым вариант осуществления настоящего раскрытия сущности.[90] FIG. 3 is a view schematically showing image decoding equipment to which an embodiment of the present disclosure is applicable.

[91] Как показано на фиг. 3, оборудование 200 декодирования изображений может включать в себя энтропийный декодер 210, деквантователь 220, обратный преобразователь 230, сумматор 235, фильтр 240, запоминающее устройство 250, модуль 260 взаимного прогнозирования и модуль 265 внутреннего прогнозирования. Модуль 260 взаимного прогнозирования и модуль 265 внутреннего прогнозирования могут совместно называться "модулем прогнозирования". Деквантователь 220 и обратный преобразователь 230 могут включаться в остаточный процессор.[91] As shown in FIG. 3, the image decoding equipment 200 may include an entropy decoder 210, a dequantizer 220, an inverse converter 230, an adder 235, a filter 240, a memory 250, an inter-prediction unit 260, and an intra-prediction unit 265. The inter-prediction module 260 and the intra-prediction module 265 may be collectively referred to as a “prediction module”. A dequantizer 220 and an inverse converter 230 may be included in the residual processor.

[92] Все или, по меньшей мере, часть из множества компонентов, конфигурирующих оборудование 200 декодирования изображений, могут быть сконфигурированы посредством аппаратного компонента (например, декодера или процессора) согласно варианту осуществления. Помимо этого, запоминающее устройство 250 может включать в себя буфер декодированных кадров (DPB) или может быть сконфигурировано посредством цифрового носителя хранения данных.[92] All or at least a portion of the plurality of components configuring the image decoding equipment 200 may be configured by a hardware component (eg, a decoder or processor) according to an embodiment. In addition, storage device 250 may include a decoded frame buffer (DPB) or may be configured with a digital storage medium.

[93] Оборудование 200 декодирования изображений, которое принимает поток битов, включающий в себя информацию видео/изображений, может восстанавливать изображение посредством выполнения процесса, соответствующего процессу, выполняемому посредством оборудования 100 кодирования изображений по фиг. 1. Например, оборудование 200 декодирования изображений может выполнять декодирование с использованием единицы обработки, применяемой в оборудовании кодирования изображений. Таким образом, единица обработки декодирования, например, может представлять собой единицу кодирования. Единица кодирования может получаться посредством сегментации единицы дерева кодирования или наибольшей единицы кодирования. Восстановленный сигнал изображения, декодированный и выводимый посредством оборудования 200 декодирования, может воспроизводиться посредством оборудования воспроизведения.[93] The image decoding equipment 200, which receives the bit stream including video/image information, can reconstruct the image by performing a process corresponding to the process performed by the image encoding equipment 100 in FIG. 1. For example, the image decoding equipment 200 may perform decoding using a processing unit used in the image encoding equipment. Thus, a decoding processing unit, for example, may be an encoding unit. A coding unit may be obtained by segmenting a coding tree unit or a largest coding unit. The reconstructed image signal decoded and output by the decoding equipment 200 can be reproduced by the playback equipment.

[94] Оборудование 200 декодирования изображений может принимать сигнал, выводимый из оборудования кодирования изображений по фиг. 1 в форме потока битов. Принимаемый сигнал может декодироваться через энтропийный декодер 210. Например, энтропийный декодер 210 может синтаксически анализировать поток битов, чтобы извлекать информацию (например, информацию видео/изображений), необходимую для восстановления изображений (или восстановления кадров). Информация видео/изображений дополнительно может включать в себя информацию относительно различных наборов параметров, таких как набор параметров адаптации (APS), набор параметров кадра (PPS), набор параметров последовательности (SPS) или набор параметров видео (VPS). Помимо этого, информация видео/изображений дополнительно может включать в себя общую информацию ограничений. Оборудование декодирования изображений дополнительно может декодировать кадр на основе информации относительно набора параметров и/или общей информации ограничений. Передаваемая в служебных сигналах/принимаемая информация и/или синтаксические элементы, описанные в настоящем раскрытии сущности, могут декодироваться посредством процедуры декодирования и получаться из потока битов. Например, энтропийный декодер 210 декодирует информацию в потоке битов на основе способа кодирования, такого как кодирование экспоненциальным кодом Голомба, CAVLC или CABAC, и выходных значений синтаксических элементов, требуемых для восстановления изображений, и квантованных значений коэффициентов преобразования для остатка. Более конкретно, способ энтропийного CABAC-декодирования может принимать элемент разрешения, соответствующий каждому синтаксическому элементу в потоке битов, определять контекстную модель с использованием информации целевого синтаксического элемента декодирования, информации декодирования соседнего блока и целевого блока декодирования или информации символа/элемента разрешения, декодированного на предыдущей стадии, и выполнять арифметическое декодирование для элемента разрешения посредством прогнозирования вероятности появления элемента разрешения согласно определенной контекстной модели и формировать символ, соответствующий значению каждого синтаксического элемента. В этом случае, способ энтропийного CABAC-декодирования может обновлять контекстную модель посредством использования информации декодированного символа/элемента разрешения для контекстной модели следующего символа/элемента разрешения после определения контекстной модели. Информация, связанная с прогнозированием из информации, декодированной посредством энтропийного декодера 210, может предоставляться в модуль прогнозирования (модуль 260 взаимного прогнозирования и модуль 265 внутреннего прогнозирования), и остаточное значение, для которого энтропийное декодирование выполнено в энтропийном декодере 210, т.е. квантованные коэффициенты преобразования и связанная информация параметров, может вводиться в деквантователь 220. Помимо этого, информация относительно фильтрации из информации, декодированной посредством энтропийного декодера 210, может предоставляться в фильтр 240. Между тем, приемник (не показан) для приема сигнала, выводимого из оборудования кодирования изображений, может быть дополнительно сконфигурирован в качестве внутреннего/внешнего элемента оборудования 200 декодирования изображений, или приемник может представлять собой компонент энтропийного декодера 210.[94] The image decoding equipment 200 may receive a signal output from the image encoding equipment of FIG. 1 in the form of a stream of bits. The received signal may be decoded through entropy decoder 210. For example, entropy decoder 210 may parse the bitstream to extract information (eg, video/image information) needed to reconstruct images (or reconstruct frames). The video/image information may further include information regarding various parameter sets, such as an adaptation parameter set (APS), a frame parameter set (PPS), a sequence parameter set (SPS), or a video parameter set (VPS). In addition, the video/image information may further include general restriction information. The image decoding equipment may further decode the frame based on information regarding the parameter set and/or general constraint information. The signaling/receiving information and/or syntax elements described in the present disclosure may be decoded by a decoding procedure and obtained from the bitstream. For example, entropy decoder 210 decodes information in a bitstream based on an encoding method, such as exponential Golomb, CAVLC, or CABAC encoding, and the output values of the syntax elements required for image reconstruction and the quantized values of the transform coefficients for the remainder. More specifically, the entropy CABAC decoding method may take a resolution element corresponding to each syntax element in the bitstream, determine a context model using information of a target decoding syntax element, decoding information of an adjacent block and a target decoding block, or information of a symbol/resolution element decoded on a previous one. stage, and perform arithmetic decoding for the resolution element by predicting the probability of occurrence of the permission element according to the determined context model and generating a symbol corresponding to the meaning of each syntactic element. In this case, the entropy CABAC decoding method can update the context model by using the decoded symbol/grant element information for the context model of the next symbol/grant element after determining the context model. The prediction-related information from the information decoded by the entropy decoder 210 may be provided to the prediction module (inter-prediction module 260 and intra-prediction module 265), and the residual value for which entropy decoding is performed in the entropy decoder 210, i.e. quantized conversion coefficients and related parameter information may be input to the dequantizer 220. In addition, information regarding filtering from information decoded by the entropy decoder 210 may be provided to the filter 240. Meanwhile, a receiver (not shown) for receiving a signal output from the equipment image encoding device may be further configured as an internal/external element of image decoding equipment 200, or the receiver may be a component of entropy decoder 210.

[95] Между тем, оборудование декодирования изображений согласно настоящему раскрытию сущности может называться "оборудованием декодирования видео/изображений/кадров". Оборудование декодирования изображений может классифицироваться на информационный декодер (декодер информации видео/изображений/кадров) и выборочный декодер (декодер выборок видео/изображений/кадров). Информационный декодер может включать в себя энтропийный декодер 210. Выборочный декодер может включать в себя, по меньшей мере, одно из деквантователя 220, обратного преобразователя 230, сумматора 235, фильтра 240, запоминающего устройства 250, модуля 260 взаимного прогнозирования или модуля 265 внутреннего прогнозирования.[95] Meanwhile, the image decoding equipment according to the present disclosure may be referred to as “video/image/frame decoding equipment.” The image decoding equipment can be classified into an information decoder (video/image/frame information decoder) and a sample decoder (video/image/frame sample decoder). The information decoder may include an entropy decoder 210. The sample decoder may include at least one of a dequantizer 220, an inverse converter 230, an adder 235, a filter 240, a memory 250, an inter-prediction module 260, or an intra-prediction module 265.

[96] Деквантователь 220 может деквантовать квантованные коэффициенты преобразования и выводить коэффициенты преобразования. Деквантователь 220 может перекомпоновывать квантованные коэффициенты преобразования в форме двумерного блока. В этом случае, перекомпоновка может выполняться на основе порядка сканирования коэффициентов, выполняемого в оборудовании кодирования изображений. Деквантователь 220 может выполнять деквантование для квантованных коэффициентов преобразования посредством использования параметра квантования (например, информации размера шага квантования) и получать коэффициенты преобразования.[96] Dequantizer 220 may dequantize the quantized transform coefficients and output the transform coefficients. Dequantizer 220 may re-arrange the quantized transform coefficients in the form of a two-dimensional block. In this case, rearrangement may be performed based on the order of coefficient scanning performed in the image encoding equipment. Dequantizer 220 may perform dequantization on the quantized transform coefficients by using a quantization parameter (eg, quantization step size information) and obtain the transform coefficients.

[97] Обратный преобразователь 230 может обратно преобразовывать коэффициенты преобразования, чтобы получать остаточный сигнал (остаточный блок, массив остаточных выборок).[97] The inverse converter 230 may inversely convert the transform coefficients to obtain a residual signal (residual block, residual sample array).

[98] Модуль прогнозирования может выполнять прогнозирование для текущего блока и может формировать прогнозированный блок, включающий в себя прогнозные выборки для текущего блока. Модуль прогнозирования может определять то, применяется внутреннее прогнозирование или взаимное прогнозирование к текущему блоку, на основе информации относительно прогнозирования, выводимой из энтропийного декодера 210, и может определять конкретный режим внутреннего/взаимного прогнозирования.[98] The prediction module may perform prediction for the current block and may generate a predicted block including prediction samples for the current block. The prediction module may determine whether intra prediction or inter prediction is applied to the current block based on the prediction information output from the entropy decoder 210, and may determine a particular intra/inter prediction mode.

[99] Идентично тому, что описано в модуле прогнозирования оборудования 100 кодирования изображений, модуль прогнозирования может формировать прогнозный сигнал на основе различных способов (технологий) прогнозирования, которые описываются ниже.[99] Identical to that described in the prediction module of the image encoding equipment 100, the prediction module can generate a prediction signal based on various prediction methods (techniques), which are described below.

[100] Модуль 265 внутреннего прогнозирования может прогнозировать текущий блок посредством ссылки на выборки в текущем кадре. Описание модуля 185 внутреннего прогнозирования в равной степени применяется к модулю 265 внутреннего прогнозирования.[100] Intra prediction module 265 may predict the current block by reference to samples in the current frame. The description of the intra prediction module 185 applies equally to the intra prediction module 265.

[101] Модуль 260 взаимного прогнозирования может извлекать прогнозированный блок для текущего блока на основе опорного блока (массива опорных выборок), указываемого посредством вектора движения для опорного кадра. В этом случае, чтобы уменьшать объем информации движения, передаваемой в режиме взаимного прогнозирования, информация движения может прогнозироваться в единицах блоков, субблоков или выборок на основе корреляции информации движения между соседним блоком и текущим блоком. Информация движения может включать в себя вектор движения и индекс опорного кадра. Информация движения дополнительно может включать в себя информацию направления взаимного прогнозирования (L0-прогнозирование, L1-прогнозирование, бипрогнозирование и т.д.). В случае взаимного прогнозирования, соседний блок может включать в себя пространственный соседний блок, присутствующий в текущем кадре, и временной соседний блок, присутствующий в опорном кадре. Например, модуль 260 взаимного прогнозирования может конфигурировать список возможных вариантов информации движения на основе соседних блоков и извлекать вектор движения текущего блока и/или индекс опорного кадра на основе принимаемой информации выбора возможных вариантов. Взаимное прогнозирование может выполняться на основе различных режимов прогнозирования, и информация относительно прогнозирования может включать в себя информацию, указывающую режим взаимного прогнозирования для текущего блока.[101] The inter-prediction module 260 may extract a predicted block for the current block based on a reference block (an array of reference samples) indicated by a motion vector for the reference frame. In this case, in order to reduce the amount of motion information transmitted in the inter-prediction mode, the motion information may be predicted in units of blocks, sub-blocks or samples based on the correlation of the motion information between a neighboring block and the current block. The motion information may include a motion vector and a reference frame index. The motion information may further include inter-prediction direction information (L0-prediction, L1-prediction, bi-prediction, etc.). In the case of inter-prediction, the neighbor block may include a spatial neighbor block present in the current frame and a temporal neighbor block present in the reference frame. For example, the inter-prediction module 260 may configure a motion information candidate list based on neighboring blocks and extract the current block's motion vector and/or reference frame index based on the received candidate selection information. The inter-prediction may be performed based on various prediction modes, and the information regarding the prediction may include information indicating the inter-prediction mode for the current block.

[102] Сумматор 235 может формировать восстановленный сигнал (восстановленный кадр, восстановленный блок, массив восстановленных выборок) посредством суммирования полученного остаточного сигнала с прогнозным сигналом (прогнозированным блоком, массивом прогнозированных выборок), выводимым из модуля прогнозирования (включающего в себя модуль 260 взаимного прогнозирования и/или модуль 265 внутреннего прогнозирования). Описание сумматора 155 является в равной степени применимым к сумматору 235.[102] The adder 235 may generate a reconstructed signal (recovered frame, reconstructed block, reconstructed sample array) by adding the resulting residual signal with a prediction signal (predicted block, predicted sample array) output from a prediction module (including inter-prediction module 260 and /or internal prediction module 265). The description of adder 155 is equally applicable to adder 235.

[103] Между тем, преобразование сигнала яркости с масштабированием сигнала цветности (LMCS) может применяться в процессе декодирования кадров, как описано ниже.[103] Meanwhile, luma conversion with chrominance scaling (LMCS) can be applied in the frame decoding process as described below.

[104] Фильтр 240 может повышать субъективное/объективное качество изображений посредством применения фильтрации к восстановленному сигналу. Например, фильтр 240 может формировать модифицированный восстановленный кадр посредством применения различных способов фильтрации к восстановленному кадру и сохранять модифицированный восстановленный кадр в запоминающем устройстве 250, а именно, в DPB запоминающего устройства 250. Различные способы фильтрации могут включать в себя, например, фильтрацию для удаления блочности, дискретизированное адаптивное смещение, адаптивный контурный фильтр, билатеральный фильтр и т.п.[104] Filter 240 may enhance the subjective/objective quality of images by applying filtering to the reconstructed signal. For example, filter 240 may generate a modified reconstructed frame by applying various filtering techniques to the reconstructed frame and store the modified reconstructed frame in storage device 250, namely, a DPB of storage device 250. Various filtering techniques may include, for example, deblocking filtering. , sampled adaptive bias, adaptive loop filter, bilateral filter, etc.

[105] (Модифицированный) восстановленный кадр, сохраненный в DPB запоминающего устройства 250, может использоваться в качестве опорного кадра в модуле 260 взаимного прогнозирования. Запоминающее устройство 250 может сохранять информацию движения блока, из которой информация движения в текущем кадре извлекается (или декодируется), и/или информацию движения блоков в кадре, которые уже восстановлены. Сохраненная информация движения может передаваться в модуль 260 взаимного прогнозирования, так что она используется в качестве информации движения пространственного соседнего блока или информации движения временного соседнего блока. Запоминающее устройство 250 может сохранять восстановленные выборки восстановленных блоков в текущем кадре и передавать восстановленные выборки в модуль 265 внутреннего прогнозирования.[105] The (modified) reconstructed frame stored in the DPB of the storage device 250 can be used as a reference frame in the inter-prediction unit 260. Memory 250 may store block motion information from which motion information in the current frame is retrieved (or decoded) and/or motion information of blocks in a frame that have already been reconstructed. The stored motion information may be transmitted to the inter-prediction unit 260 so that it is used as spatial neighbor block motion information or temporal neighbor block motion information. Memory 250 may store reconstructed samples of reconstructed blocks in the current frame and transmit the reconstructed samples to intra prediction module 265.

[106] В настоящем раскрытии сущности, варианты осуществления, описанные в фильтре 160, модуле 180 взаимного прогнозирования и модуле 185 внутреннего прогнозирования оборудования 100 кодирования, могут в равной или соответствующей степени применяться к фильтру 240, модулю 260 взаимного прогнозирования и модулю 265 внутреннего прогнозирования оборудования 200 декодирования изображений.[106] In the present disclosure, the embodiments described in the filter 160, the inter-prediction module 180, and the intra-prediction module 185 of the encoding equipment 100 may be equally or correspondingly applied to the filter 240, the inter-prediction module 260, and the intra-prediction module 265 of the hardware. 200 image decoding.

[107] Общее представление сегментации CTU [107] CTU segmentation overview

[108] Как описано выше, единица кодирования может получаться посредством рекурсивной сегментации единицы дерева кодирования (CTU) или наибольшей единицы кодирования (LCU) согласно структуре в виде дерева квадрантов/двоичного дерева/троичного дерева (QT/BT/TT). Например, CTU может сначала сегментироваться на структуры в виде дерева квадрантов. После этого, узлы-листья структуры в виде дерева квадрантов дополнительно могут сегментироваться посредством многотипной древовидной структуры.[108] As described above, a coding unit can be obtained by recursively segmenting a coding tree unit (CTU) or largest coding unit (LCU) according to a quadtree/binary tree/ternary tree (QT/BT/TT) structure. For example, a CTU may first be segmented into quadtree structures. Thereafter, the leaf nodes of the quadtree structure can be further segmented by a multi-type tree structure.

[109] Сегментация согласно дереву квадрантов означает то, что текущая CU (или CTU) сегментируется одинаково на четыре. Посредством сегментации согласно дереву квадрантов, текущая CU может сегментироваться на четыре CU, имеющие идентичную ширину и идентичную высоту. Когда текущая CU более не сегментируется на структуру в виде дерева квадрантов, текущая CU соответствует узлу-листу структуры в виде дерева квадрантов. CU, соответствующая узлу-листу структуры в виде дерева квадрантов, более не может сегментироваться и может использоваться в качестве вышеописанной конечной единицы кодирования. Альтернативно, CU, соответствующая узлу-листу структуры в виде дерева квадрантов, дополнительно может сегментироваться посредством многотипной древовидной структуры.[109] Quadtree segmentation means that the current CU (or CTU) is segmented equally into four. Through segmentation according to the quadtree, the current CU can be segmented into four CUs having identical width and identical height. When the current CU is no longer segmented into a quadtree structure, the current CU corresponds to a leaf node of the quadtree structure. The CU corresponding to the leaf node of the quadtree structure can no longer be segmented and can be used as the final encoding unit described above. Alternatively, the CU corresponding to a leaf node of the quadtree structure may further be segmented by a multi-type tree structure.

[110] Фиг. 4 является видом, показывающим вариант осуществления типа сегментации блока согласно многотипной древовидной структуре. Сегментация согласно многотипной древовидной структуре может включать в себя два типа разбиения согласно структуре в виде двоичного дерева и два типа разбиения согласно структуре в виде троичного дерева.[110] FIG. 4 is a view showing an embodiment of a block segmentation type according to a multi-type tree structure. Segmentation according to a multi-type tree structure may include two types of partitioning according to a binary tree structure and two types of partitioning according to a ternary tree structure.

[111] Два типа разбиения согласно структуре в виде двоичного дерева могут включать в себя вертикальное двоичное разбиение (SPLIT_BT_VER) и горизонтальное двоичное разбиение (SPLIT_BT_HOR). Вертикальное двоичное разбиение (SPLIT_BT_VER) означает то, что текущая CU разбивается одинаково напополам в вертикальном направлении. Как показано на фиг. 4, посредством вертикального двоичного разбиения, могут формироваться две CU, имеющие высоту, идентичную высоте текущей CU, и имеющие ширину, которая составляет половину от ширины текущей CU. Горизонтальное двоичное разбиение (SPLIT_BT_HOR) означает то, что текущая CU разбивается одинаково напополам в горизонтальном направлении. Как показано на фиг. 4, посредством горизонтального двоичного разбиения, могут формироваться две CU, имеющие высоту, которая составляет половину от высоты текущей CU, и имеющие ширину, идентичную ширине текущей CU.[111] Two types of partitioning according to the binary tree structure may include vertical binary partitioning (SPLIT_BT_VER) and horizontal binary partitioning (SPLIT_BT_HOR). Vertical binary splitting (SPLIT_BT_VER) means that the current CU is split equally in half in the vertical direction. As shown in FIG. 4, through vertical binary partitioning, two CUs having a height identical to the height of the current CU and having a width that is half the width of the current CU can be formed. Horizontal binary splitting (SPLIT_BT_HOR) means that the current CU is split equally in half in the horizontal direction. As shown in FIG. 4, through horizontal binary partitioning, two CUs having a height that is half the height of the current CU and having a width identical to the width of the current CU can be formed.

[112] Два типа разбиения согласно структуре в виде троичного дерева могут включать в себя вертикальное троичное разбиение (SPLIT_TT_VER) и горизонтальное троичное разбиение (SPLIT_TT_HOR). В вертикальном троичном разбиении (SPLIT_TT_VER), текущая CU разбивается в вертикальном направлении в соотношении 1:2:1. Как показано на фиг. 4, посредством вертикального троичного разбиения, могут формироваться две CU, имеющие высоту, идентичную высоте текущей CU, и имеющие ширину, которая составляет 1/4 от ширины текущей CU, и CU, имеющая высоту, идентичную высоте текущей CU, и имеющая ширину, которая составляет половину от ширины текущей CU. В горизонтальном троичном разбиении (SPLIT_TT_HOR), текущая CU разбивается в горизонтальном направлении в соотношении 1:2:1. Как показано на фиг. 4, посредством горизонтального троичного разбиения, могут формироваться две CU, имеющие высоту, которая составляет 1/4 от высоты текущей CU, и имеющие ширину, идентичную ширине текущей CU, и CU, имеющая высоту, которая составляет половину от высоты текущей CU, и имеющая ширины, идентичную ширине текущей CU.[112] Two types of partitioning according to the ternary tree structure may include vertical ternary partitioning (SPLIT_TT_VER) and horizontal ternary partitioning (SPLIT_TT_HOR). In vertical ternary splitting (SPLIT_TT_VER), the current CU is split in the vertical direction in a ratio of 1:2:1. As shown in FIG. 4, through vertical ternary partitioning, two CUs having a height identical to the height of the current CU and having a width that is 1/4 of the width of the current CU, and a CU having a height identical to the height of the current CU and having a width that is half the width of the current CU. In horizontal ternary splitting (SPLIT_TT_HOR), the current CU is split horizontally in a ratio of 1:2:1. As shown in FIG. 4, through horizontal ternary partitioning, two CUs having a height that is 1/4 of the height of the current CU and having a width identical to the width of the current CU, and a CU having a height that is half the height of the current CU and having width identical to the width of the current CU.

[113] Фиг. 5 является видом, показывающим механизм передачи в служебных сигналах информации разбиения на сегменты в дереве квадрантов с вложенной многотипной древовидной структурой согласно настоящему раскрытию сущности.[113] FIG. 5 is a view showing a mechanism for signaling signaling of partitioning information in a quadtree with a nested multi-type tree structure according to the present disclosure.

[114] Здесь, CTU трактуется в качестве корневого узла дерева квадрантов и сегментируется в первый раз на структуру в виде дерева квадрантов. Информация (например, qt_split_flag), указывающая то, выполняется или нет разбиение на дерево квадрантов для текущей CU (CTU или узла (QT_node) дерева квадрантов), передается в служебных сигналах. Например, когда qt_split_flag имеет первое значение (например, "1"), текущая CU может сегментироваться на дерево квадрантов. Помимо этого, когда qt_split_flag имеет второе значение (например, "0"), текущая CU не сегментируется на дерево квадрантов, но становится узлом-листом (QT_leaf_node) дерева квадрантов. Каждый узел-лист дерева квадрантов затем дополнительно может сегментироваться на многотипные древовидные структуры. Таким образом, узел-лист дерева квадрантов может становиться узлом (MTT_node) многотипного дерева. В многотипной древовидной структуре, первый флаг (например, Mtt_split_cu_flag) передается в служебных сигналах, чтобы указывать то, сегментируется или нет дополнительно текущий узел. Если соответствующий узел дополнительно сегментируется (например, если первый флаг равен 1), второй флаг (например, Mtt_split_cu_vertical_flag) может передаваться в служебных сигналах, чтобы указывать направление разбиения. Например, направление разбиения может представлять собой вертикальное направление, если второй флаг равен 1, и может представлять собой горизонтальное направление, если второй флаг равен 0. Затем третий флаг (например, Mtt_split_cu_binary_flag) может передаваться в служебных сигналах, чтобы указывать то, представляет тип разбиения собой тип на основе двоичного разбиения или тип на основе троичного разбиения. Например, тип разбиения может представлять собой тип на основе двоичного разбиения, когда третий флаг равен 1, и может представлять собой тип на основе троичного разбиения, когда третий флаг равен 0. Узел многотипного дерева, полученного посредством двоичного разбиения или троичного разбиения, дополнительно может сегментироваться на многотипные древовидные структуры. Тем не менее, узел многотипного дерева может не сегментироваться на структуры в виде дерева квадрантов. Если первый флаг равен 0, соответствующий узел многотипного дерева более не разбивается, но становится узлом-листом (MTT_leaf_node) многотипного дерева. CU, соответствующая узлу-листу многотипного дерева, может использоваться в качестве вышеописанной конечной единицы кодирования.[114] Here, the CTU is treated as the root node of a quadtree and is segmented for the first time into a quadtree structure. Information (eg, qt_split_flag) indicating whether or not quadtree splitting is performed for the current CU (CTU or QT_node) is signaled. For example, when qt_split_flag has the first value (for example, "1"), the current CU can be segmented into a quadtree. In addition, when qt_split_flag has a second value (for example, "0"), the current CU is not split into the quadtree, but becomes a leaf node (QT_leaf_node) of the quadtree. Each quadtree leaf node can then be further segmented into multi-type tree structures. Thus, a quadtree leaf node can become a node (MTT_node) of a multi-type tree. In a multi-type tree structure, the first flag (eg, Mtt_split_cu_flag) is signaled to indicate whether or not the current node is further segmented. If the corresponding node is further split (eg, if the first flag is 1), a second flag (eg, Mtt_split_cu_vertical_flag) may be signaled to indicate the direction of the split. For example, the split direction may be a vertical direction if the second flag is 1, and may be a horizontal direction if the second flag is 0. A third flag (for example, Mtt_split_cu_binary_flag) may then be signaled to indicate what represents the split type is a binary partition type or a ternary partition type. For example, the partition type may be a binary partition-based type when the third flag is 1, and may be a ternary partition-based type when the third flag is 0. A node of a multi-type tree obtained by a binary partition or a ternary partition may further be segmented into multi-type tree structures. However, a multi-type tree node may not be segmented into quadtree structures. If the first flag is 0, the corresponding multi-type tree node is no longer split, but becomes a leaf node (MTT_leaf_node) of the multi-type tree. The CU corresponding to a leaf node of a multi-type tree can be used as the final encoding unit described above.

[115] На основе mtt_split_cu_vertical_flag и mtt_split_cu_binary_flag, режим разбиения на основе многотипного дерева (MttSplitMode) CU может извлекаться так, как показано в нижеприведенной таблице 1.[115] Based on mtt_split_cu_vertical_flag and mtt_split_cu_binary_flag, the multi-type tree split mode (MttSplitMode) of the CU can be extracted as shown in Table 1 below.

[116] Табл. 1[116] Tab. 1

[117] [117]

[118] CTU может включать в себя блок кодирования выборок сигнала яркости (далее называемый "блоком сигналов яркости") и два блока кодирования выборок сигнала цветности, соответствующих ему (далее называемые "блоками сигналов цветности"). Вышеописанная схема на основе дерева кодирования можно одинаково или отдельно применяться к блоку сигналов яркости и к блоку сигналов цветности текущей CU. В частности, блоки сигналов яркости и сигналов цветности в одной CTU могут сегментироваться на идентичную блочную древовидную структуру, и в этом случае, древовидная структура представляется как SINGLE_TREE. Альтернативно, блоки сигналов яркости и сигналов цветности в одной CTU могут сегментироваться на отдельные блочные древовидные структуры, и в этом случае, древовидная структура может представляться как DUAL_TREE. Таким образом, когда CTU сегментируется на сдвоенные деревья, блочная древовидная структура для блока сигналов яркости и блочная древовидная структура для блока сигналов цветности могут отдельно присутствовать. В этом случае, блочная древовидная структура для блока сигналов яркости может называться "DUAL_TREE_LUMA", и блочная древовидная структура для компонента сигнала цветности может называться "DUAL_TREE_CHROMA". Для групп P- и B-срезов/плиток, блоки сигналов яркости и сигналов цветности в одной CTU могут быть ограничены тем, что они имеют идентичную структуру в виде дерева кодирования. Тем не менее, для групп I-срезов/плиток, блоки сигналов яркости и сигналов цветности могут иметь отдельную блочную древовидную структуру относительно друг друга. Если отдельная блочная древовидная структура применяется, CTB сигналов яркости может сегментироваться на CU на основе конкретной структуры в виде дерева кодирования, и CTB сигналов цветности может сегментироваться на CU сигнала цветности на основе другой структуры в виде дерева кодирования. Таким образом, CU в группе I-срезов/плиток, к которой применяется отдельная блочная древовидная структура, может состоять из блока кодирования блоков компонентов сигнала яркости или блоков кодирования двух компонентов сигнала цветности. Помимо этого, CU в группе I-срезов/плиток, к которой идентичная блочная древовидная структура применяется, и CU группы P- или B-срезов/плиток могут состоять из блоков трех цветовых компонентов (компонента сигнала яркости и двух компонентов сигнала цветности).[118] The CTU may include a luma sample encoding unit (hereinafter referred to as a "luminance signal unit") and two chrominance signal sample encoding units corresponding thereto (hereinafter referred to as "chrominance signal units"). The above-described coding tree-based scheme can be applied equally or separately to the luma signal block and the chrominance signal block of the current CU. In particular, luma and chroma blocks in the same CTU may be segmented into an identical block tree structure, in which case, the tree structure is represented as SINGLE_TREE. Alternatively, blocks of luma and chrominance signals in a single CTU may be segmented into separate block tree structures, in which case, the tree structure may be represented as DUAL_TREE. Thus, when a CTU is segmented into dual trees, a block tree structure for a luma block and a block tree for a chrominance block may be separately present. In this case, the block tree structure for the luminance signal block may be called "DUAL_TREE_LUMA", and the block tree structure for the chrominance signal component may be called "DUAL_TREE_CHROMA". For groups of P- and B-slices/tiles, luma and chrominance blocks in the same CTU may be limited to having identical encoding tree structure. However, for groups of I-slices/tiles, luma and chroma blocks may have a separate block tree structure relative to each other. If a separate block tree structure is used, the luma CTB may be segmented into CUs based on a particular coding tree structure, and the chroma CTB may be segmented into chrominance CUs based on a different coding tree structure. Thus, a CU in an I-slice/tile group to which a separate block tree structure is applied may consist of a luma component block encoding unit or two chroma component encoding units. In addition, CUs in an I-slice/tile group to which an identical block tree structure is applied, and CUs in a P- or B-slice/tile group may be composed of blocks of three color components (a luma component and two chrominance components).

[119] Хотя описывается структура в виде дерева кодирования на основе дерева квадрантов с вложенным многотипным деревом, структура, в которой CU сегментируется, не ограничена этим. Например, BT-структура и TT-структура могут интерпретироваться в качестве понятия, включенного в структуру в виде дерева с несколькими видами сегментации (MPT), и CU может интерпретироваться как сегментируемая через QT-структуру и MPT-структуру. В примере, в котором CU сегментируется через QT-структуру и MPT-структуру, синтаксический элемент (например, MPT_split_type), включающий в себя информацию относительно того, на сколько блоков сегментируется узел-лист QT-структуры, и синтаксический элемент (например, MPT_split_mode), включающий в себя информацию относительно того, в каком из вертикального и горизонтального направлений сегментируется узел-лист QT-структуры, может передаваться в служебных сигналах, чтобы определять структуру сегментации.[119] Although a structure in the form of a quadtree-based coding tree with a nested multi-type tree is described, the structure in which the CU is segmented is not limited to this. For example, a BT structure and a TT structure may be interpreted as a concept included in a multi-partitioning tree (MPT) structure, and a CU may be interpreted as segmentable through a QT structure and an MPT structure. In an example in which the CU is segmented across a QT structure and an MPT structure, a syntax element (for example, MPT_split_type) including information regarding how many blocks the leaf node of the QT structure is segmented into, and a syntax element (for example, MPT_split_mode) , including information regarding in which of the vertical and horizontal directions the leaf node of the QT structure is segmented, may be signaled to determine the segmentation structure.

[120] В другом примере, CU может сегментироваться способом, отличающимся от QT-структуры, BT-структуры или TT-структуры. Таким образом, в отличие от того, что CU меньшей глубины сегментируется на 1/4 от CU большей глубины согласно QT-структуре, CU меньшей глубины сегментируется на 1/2 от CU большей глубины согласно BT-структуре, или CU меньшей глубины сегментируется на 1/4 или 1/2 от CU большей глубины согласно TT-структуре, CU меньшей глубины может сегментироваться на 1/5, 1/3, 3/8, 3/5, 2/3 или 5/8 от CU большей глубины в некоторых случаях, и способ сегментации CU не ограничен этим.[120] In another example, the CU may be segmented in a manner different from the QT structure, BT structure, or TT structure. Thus, in contrast to a smaller CU being segmented 1/4 of a larger depth CU according to the QT structure, a shallower CU being segmented 1/2 of a larger depth CU according to the BT structure, or a shallower CU being segmented by 1 /4 or 1/2 of a deeper CU according to the TT structure, a shallower CU can be segmented to 1/5, 1/3, 3/8, 3/5, 2/3 or 5/8 of a deeper CU in some cases, and the CU segmentation method is not limited to this.

[121] Общее представление фильтрации [121] General overview of filtering

[122] В дальнейшем в этом документе описывается способ фильтрации согласно настоящему раскрытию сущности.[122] The filtering method according to the present disclosure is described later in this document.

[123] Согласно некоторым вариантам осуществления настоящего раскрытия сущности, фильтрация может выполняться для восстановленного кадра, сформированного посредством оборудования кодирования/декодирования изображений. В результате выполнения фильтрации, может формироваться модифицированный восстановленный кадр, и оборудование декодирования изображений может определять модифицированный восстановленный кадр в качестве конечного декодированного кадра. Помимо этого, в оборудовании кодирования/декодирования изображений, модифицированный восстановленный кадр может сохраняться в буфере декодированных кадров (DPB) или в запоминающем устройстве и затем может использоваться в качестве опорного кадра при кодировании/декодировании кадра.[123] According to some embodiments of the present disclosure, filtering may be performed on a reconstructed frame generated by image encoding/decoding equipment. As a result of performing filtering, a modified reconstructed frame may be generated, and the image decoding equipment may determine the modified reconstructed frame as the final decoded frame. In addition, in the image encoding/decoding equipment, the modified reconstructed frame may be stored in a decoded frame buffer (DPB) or memory, and then may be used as a reference frame when encoding/decoding the frame.

[124] Фильтрация согласно некоторым вариантам осуществления настоящего раскрытия сущности может использоваться со смысловым значением, идентичным смысловому значению внутриконтурной фильтрации. Фильтр, используемый для фильтрации, может включать в себя, по меньшей мере, одно из фильтра удаления блочности, фильтра на основе дискретизированного адаптивного смещения (SAO), адаптивного контурного фильтра (SLF) или двустороннего фильтра. По меньшей мере, один из фильтра удаления блочности, SAO-фильтра, ALF и/или двустороннего фильтра может последовательно применяться к восстановленному кадру, за счет этого формируя модифицированный восстановленный кадр. Порядок применения фильтра может быть предварительно установлен в оборудовании кодирования/декодирования изображений. Например, после того, как фильтр удаления блочности применяется к восстановленному кадру, SAO-фильтр может применяться. В качестве другого примера, после того, как фильтр удаления блочности применяется к восстановленному кадру, ALF может применяться. Фильтрация согласно некоторым вариантам осуществления настоящего раскрытия сущности может выполняться, по меньшей мере, посредством одного из фильтра 160 по фиг. 2 и/или фильтра 240 по фиг. 3.[124] Filtering according to some embodiments of the present disclosure may be used with a meaning identical to that of in-loop filtering. The filter used for filtering may include at least one of a deblocking filter, a sampled adaptive offset (SAO) filter, an adaptive loop filter (SLF), or a two-way filter. At least one of a deblocking filter, an SAO filter, an ALF, and/or a two-way filter may be sequentially applied to the reconstructed frame, thereby generating a modified reconstructed frame. The filter application order may be preset in the image encoding/decoding equipment. For example, after the deblocking filter is applied to the reconstructed frame, the SAO filter may be applied. As another example, after a deblocking filter is applied to the reconstructed frame, ALF may be applied. Filtering according to some embodiments of the present disclosure may be performed by at least one of the filter 160 of FIG. 2 and/or filter 240 of FIG. 3.

[125] Например, фильтр удаления блочности может исключать искажение, сформированное на границе блока восстановленного кадра. Например, фильтр удаления блочности может извлекать целевую границу, которая представляет собой границу между блоками в восстановленном кадре, и задавать граничную интенсивность или интенсивность фильтрации для целевой границы. Оборудование кодирования/декодирования изображений может выполнять фильтрацию для удаления блочности для целевой границы посредством применения фильтрации на основе заданной интенсивности фильтрации к целевой границе. В этом случае, интенсивность фильтрации может определяться на основе, по меньшей мере, одного из режимов прогнозирования двух блоков, смежных с целевой границей, разности векторов движения, того, являются или нет опорные кадры идентичными, либо присутствия/отсутствия ненулевого эффективного коэффициента.[125] For example, a deblocking filter may eliminate aliasing generated at a block boundary of a reconstructed frame. For example, a deblocking filter may extract a target boundary, which is the boundary between blocks in the reconstructed frame, and set a boundary intensity or filtering intensity for the target boundary. The image encoding/decoding equipment may perform deblocking filtering on the target edge by applying filtering based on a predetermined filtering intensity to the target edge. In this case, the filtering intensity may be determined based on at least one of the prediction modes of two blocks adjacent to the target boundary, the difference in motion vectors, whether or not the reference frames are identical, or the presence/absence of a non-zero effective coefficient.

[126] В качестве другого примера, SAO-фильтр может компенсировать разность смещения между восстановленным кадром и исходным кадром в единицах выборок. Например, SAO-фильтр может реализовываться посредством типа фильтра, такого как фильтр на основе полосового смещения или фильтр на основе смещения. SAO: При применении фильтра, выборки могут классифицироваться на различные категории согласно SAO-типу, и значение смещения может суммироваться с каждой выборкой на основе категории. Информация относительно SAO-фильтра может включать в себя, по меньшей мере, одно из информации относительно того, следует или нет применять SAO-фильтр, информации типа SAO-фильтра и/или информации значений SAO-смещения. Между тем, например, SAO-фильтр может быть ограничен применением к восстановленному кадру, к которому применяется фильтр удаления блочности.[126] As another example, the SAO filter may compensate for the offset difference between the reconstructed frame and the original frame in units of samples. For example, the SAO filter may be implemented by a filter type such as a bandpass filter or an offset filter. SAO: When applying a filter, samples can be classified into different categories according to the SAO type, and the offset value can be added to each sample based on the category. The SAO filter information may include at least one of information regarding whether or not to apply an SAO filter, SAO filter type information, and/or SAO offset value information. Meanwhile, for example, the SAO filter may be limited to being applied to the reconstructed frame to which the deblocking filter is applied.

[127] В качестве другого примера, ALF может представлять собой фильтр единиц выборок для применения коэффициентов фильтрации согласно форме фильтра к восстановленному кадру. Оборудование кодирования изображений может передавать в служебных сигналах, по меньшей мере, одно из того, следует или нет применять ALF, формы ALF и/или коэффициента фильтрации, посредством сравнения восстановленного кадра с исходным кадром. Таким образом, информация относительно ALF может включать в себя, по меньшей мере, одно из информации относительно того, следует или нет применять ALF, информации формы ALF-фильтра и/или информации коэффициентов ALF-фильтрации. Между тем, например, ALF может быть ограничен применением к восстановленному кадру, к которому применяется фильтр удаления блочности.[127] As another example, the ALF may be a sample unit filter for applying filter coefficients according to the shape of the filter to the reconstructed frame. The image encoding equipment may signal at least one of whether or not an ALF should be applied, an ALF shape, and/or a filter coefficient by comparing the reconstructed frame with the original frame. Thus, the information regarding the ALF may include at least one of information regarding whether or not to apply the ALF, ALF filter shape information, and/or ALF filter coefficient information. Meanwhile, for example, ALF may be limited to being applied to a reconstructed frame to which a deblocking filter is applied.

[128] Фиг. 6 является видом, иллюстрирующим способ применения фильтра удаления блочности.[128] FIG. 6 is a view illustrating a method of applying a deblocking filter.

[129] Как описано выше, фильтр удаления блочности может применяться к восстановленному кадру. Фильтр удаления блочности может применяться к границе каждой CU или TU, включенной в текущий блок, на основе порядка кодирования/декодирования кадра.[129] As described above, a deblocking filter may be applied to the reconstructed frame. The deblocking filter may be applied to the boundary of each CU or TU included in the current block based on the encoding/decoding order of the frame.

[130] Ссылаясь на фиг. 6, способ применения фильтра удаления блочности согласно некоторым вариантам осуществления настоящего раскрытия сущности может включать в себя извлечение целевой границы, к которой должна применяться фильтрация для удаления блочности (S610), определение интенсивности фильтрации (S620) и применение фильтра удаления блочности к целевой границе на основе определенной интенсивности фильтрации (S630).[130] Referring to FIG. 6, a method for applying a deblocking filter according to some embodiments of the present disclosure may include retrieving a target boundary to which deblocking filtering is to be applied (S610), determining a filtering intensity (S620), and applying a deblocking filter to the target boundary based on a certain filtration intensity (S630).

[131] В дальнейшем в этом документе описывается определение интенсивности фильтрации, применяемой к целевой границе (S620). Согласно некоторым вариантам осуществления настоящего раскрытия сущности, интенсивность фильтрации может определяться согласно условиям блока преобразования, смежного с целевой границей. В нижеприведенном описании, когда целевая граница представляет собой вертикальную границу, на основе целевой границы, левый блок может задаваться как P-блок, и правый блок может задаваться как Q-блок. Помимо этого, когда целевая граница представляет собой горизонтальную границу, на основе целевой границы, верхний блок может задаваться как P-блок, и нижний блок может задаваться как Q-блок. Помимо этого, в нижеприведенном описании, первое значение, второе значение и третье значение интенсивности фильтрации, соответственно, могут означать 0, 1 и 2, но объем настоящего раскрытия сущности не ограничен этим определением.[131] Hereinafter, this document describes the determination of the filtering intensity applied to the target boundary (S620). According to some embodiments of the present disclosure, the filtering intensity may be determined according to the conditions of a transform block adjacent to the target boundary. In the following description, when the target boundary is a vertical boundary, based on the target boundary, the left block may be specified as a P block and the right block may be specified as a Q block. In addition, when the target boundary is a horizontal boundary, based on the target boundary, the upper block may be specified as a P block and the lower block may be specified as a Q block. In addition, in the following description, the first value, second value and third value of the filtering intensity, respectively, may be 0, 1 and 2, but the scope of the present disclosure is not limited to this definition.

[132] Например, когда дифференциальная импульсно-кодовая модуляция в квантованной остаточной области на основе блоков (BDPCM) применяется к выборке P-блоков и выборке Q-блоков, включенной в одну CU сигналов яркости, интенсивность фильтрации для целевой границы может определяться как составляющая первое значение. В качестве другого примера, когда выборка P-блоков и выборка Q-блоков, включенные в одну CU, внутренне прогнозируются, интенсивность фильтрации для целевой границы может определяться как составляющая третье значение. В качестве другого примера, когда целевая граница представляет собой границу TU, и комбинированное взаимное и внутреннее прогнозирование (CIIP) применяется к выборке P-блоков и выборке Q-блоков, включенным в одну CU, интенсивность фильтрации для целевой границы может определяться как составляющая третье значение. В качестве другого примера, когда целевая граница представляет собой границу TU, и, по меньшей мере, одна из выборки P-блоков, и выборка Q-блоков, включенных в одну TU, имеет уровень ненулевых коэффициентов преобразования, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение. В качестве другого примера, когда режим прогнозирования субблока CU, включающей в себя выборку P-блоков, отличается от режима прогнозирования субблока CU, включающей в себя выборку Q-блоков, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение.[132] For example, when block-based residual domain differential pulse code modulation (BDPCM) is applied to a P-block sample and a Q-block sample included in one luminance CU, the filtering intensity for the target boundary may be determined to be a component of the former meaning. As another example, when a P-block sample and a Q-block sample included in one CU are internally predicted, the filtering intensity for the target boundary may be determined to constitute a third value. As another example, when the target boundary is a TU boundary, and combined inter and intra prediction (CIIP) is applied to a P-block sample and a Q-block sample included in one CU, the filtering intensity for the target boundary may be determined to be a third value . As another example, when the target boundary is a TU boundary, and at least one of the P-block sample and the Q-block sample included in one TU has a level of non-zero transform coefficients, the filtering intensity for the target boundary may be determined as a component of the second meaning. As another example, when the prediction mode of a sub-unit CU including a sample of P-blocks is different from the prediction mode of a sub-unit of a CU including a sample of Q-blocks, the filtering intensity for the target boundary may be determined as a component of the second value.

[133] В качестве другого примера, когда текущий блок представляет собой блок сигналов яркости, и, по меньшей мере, одно из следующих условий удовлетворяется, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение. Между тем, когда все следующие условия не удовлетворяются, интенсивность фильтрации для целевой границы может определяться как составляющая первое значение. Например, когда как субблок CU, включающей в себя выборку P-блоков, так и субблок CU, включающей в себя выборку Q-блоков, кодируются/декодируются в IBC-режиме, и разность горизонтальных или вертикальных значений вектора движения каждого субблока равна или больше 4 единиц в 1/4 выборки сигналов яркости, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение. Альтернативно, когда субблок CU, включающей в себя выборку P-блоков, и субблок CU, включающей в себя выборку Q-блоков, ссылаются на различные опорные кадры или имеют различные числа векторов движения, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение. Когда один вектор движения используется для того, чтобы прогнозировать субблок CU, включающей в себя выборку P-блоков, и субблок CU, включающей в себя выборку Q-блоков, или разность между горизонтальными значениями или вертикальными значениями вектора движения каждого субблока равна или больше 4 единиц в 1/4 выборки сигналов яркости, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение. Когда два вектора движения и два различных опорных кадра используются для того, чтобы прогнозировать субблок CU, включающей в себя выборку P-блоков, и два вектора движения и два идентичных опорных кадра используются для того, чтобы прогнозировать субблок CU, включающей в себя выборку Q-блоков, и разность между горизонтальными значениями или вертикальными значениями векторов движения для идентичного опорного кадра равна или больше 4 единиц в 1/4 выборки сигналов яркости, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение.[133] As another example, when the current block is a luma block, and at least one of the following conditions is satisfied, the filter intensity for the target boundary may be determined to be a component of the second value. Meanwhile, when all of the following conditions are not satisfied, the filtering intensity for the target boundary can be determined as a component of the first value. For example, when both a subblock CU including a sample of P blocks and a subblock CU including a sample of Q blocks are encoded/decoded in the IBC mode, and the difference of the horizontal or vertical motion vector values of each subblock is equal to or greater than 4 units in 1/4 of the luminance signal sample, the filter intensity for the target boundary can be determined as a component of the second value. Alternatively, when a subunit CU including a sample of P blocks and a subunit CU including a sample of Q blocks refer to different reference frames or have different numbers of motion vectors, the filtering intensity for the target boundary may be determined as a component of the second value. When one motion vector is used to predict a sub-block of a CU including a sample of P-blocks and a sub-block of a CU including a sample of Q-blocks, or the difference between the horizontal values or vertical values of the motion vector of each sub-block is equal to or greater than 4 units at 1/4 of the luminance signal sample, the filter intensity for the target edge can be determined as a component of the second value. When two motion vectors and two different reference frames are used to predict a sub-block of a CU including a P-block sample, and two motion vectors and two identical reference frames are used to predict a sub-block of a CU including a Q-block sample blocks, and the difference between the horizontal values or vertical values of the motion vectors for an identical reference frame is equal to or greater than 4 units per 1/4 sample of the luminance signals, the filtering intensity for the target boundary may be determined as a component of the second value.

[134] Когда два вектора движения и идентичные два опорных кадра используются для того, чтобы прогнозировать субблок CU, включающей в себя выборку P-блоков, и два движения и идентичные два опорных кадра используются для того, чтобы прогнозировать субблок CU, включающей в себя выборку Q-блоков, интенсивность фильтрации для целевой границы может определяться как составляющая второе значение, если удовлетворяются следующие два условия. Первое условие может означать условие случая, в котором разность горизонтальных значений или вертикальных значений вектора движения списка 0 каждого субблока равна или больше 4 единиц в 1/4 выборки сигналов яркости, либо случая, в котором разность горизонтальных значений или вертикальных значений вектора движения списка 1 каждого субблока равна или больше 4 единиц в 1/4 выборки сигналов яркости. Второе условие может означать условие случая, в котором разность горизонтальных значений или вертикальных значений вектора движения списка 0 для прогнозирования субблока CU, включающей в себя выборку P-блоков, и векторов движения списка 1 для прогнозирования субблока CU, включающей в себя выборку Q-блоков, равна или больше 4 единиц в 1/4 выборки сигналов яркости, либо случая, в котором разность горизонтальных значений или вертикальных значений вектора движения списка 1 для прогнозирования субблока CU, включающей в себя выборку P-блоков, и векторов движения списка 0 для прогнозирования субблока CU, включающей в себя выборку Q-блоков, равна или больше 4 единиц в 1/4 выборки сигналов яркости.[134] When two motion vectors and identical two reference frames are used to predict a sub-block of a CU including a P-block sample, and two motions and identical two reference frames are used to predict a sub-block of a CU including the sample Q-blocks, the filter intensity for the target boundary can be determined to be a component of the second value if the following two conditions are satisfied. The first condition may mean a condition of a case in which the difference of the horizontal values or vertical values of the motion vector of list 0 of each sub-block is equal to or greater than 4 units in 1/4 of the luminance signal sample, or of a case in which the difference of the horizontal values or vertical values of the motion vector of list 1 of each subblock is equal to or greater than 4 units per 1/4 sample of luminance signals. The second condition may mean a condition of a case in which the difference of the horizontal values or vertical values of the motion vector of list 0 for predicting a sub-block CU including a sample of P-blocks and the motion vectors of list 1 for predicting a sub-block of a CU including a sample of Q-blocks is equal to or greater than 4 units in 1/4 of the luminance signal sample, or the case in which the difference of the horizontal values or vertical values of the list 1 motion vector for CU sub-block prediction including the P-block sample and the list 0 motion vectors for CU sub-block prediction , including the Q-block sample, is equal to or greater than 4 units per 1/4 of the luminance signal sample.

[135] Оборудование кодирования/декодирования изображений может определять интенсивность фильтрации для целевой границы на основе вышеописанных условий. Между тем, когда интенсивность фильтрации имеет первое значение, фильтрация может не выполняться для целевой границы. Фильтр удаления блочности согласно некоторым вариантам осуществления настоящего раскрытия сущности может применяться на основе, по меньшей мере, одного из интенсивности фильтрации и/или длины фильтра.[135] The image encoding/decoding equipment may determine the filtering intensity for the target boundary based on the conditions described above. Meanwhile, when the filtering intensity is set to the first value, filtering may not be performed on the target boundary. A deblocking filter according to some embodiments of the present disclosure may be applied based on at least one of filter intensity and/or filter length.

[136] В дальнейшем в этом документе описывается способ определения интенсивности фильтрации согласно значению восстановленной выборки сигналов яркости.[136] Hereinafter, this document describes a method for determining the filtering intensity according to the value of the reconstructed luminance signal sample.

[137] Фиг. 7 является видом, иллюстрирующим способ определения интенсивности фильтрации в фильтре удаления блочности.[137] FIG. 7 is a view illustrating a method for determining filter intensity in a deblocking filter.

[138] В некоторых вариантах осуществления настоящего раскрытия сущности, фильтр удаления блочности может определяться согласно переменным β и tC. Здесь, переменные β и tC могут составлять значения, определенные посредством параметра квантования qP_L. Например, интенсивность фильтрации в фильтре удаления блочности может извлекаться посредством суммирования смещения, определенного согласно значению восстановленной выборки сигналов яркости, с qP_L. Например, восстановленный уровень сигнала яркости может задаваться как LL, и LL может извлекаться согласно нижеприведенному уравнению 1.[138] In some embodiments of the present disclosure, a deblocking filter may be determined according to the variables β and tC. Here, the variables β and tC may constitute values determined by the quantization parameter qP_L. For example, the filtering intensity in the deblocking filter can be extracted by summing the offset determined according to the value of the reconstructed luminance signal sample with qP_L. For example, the reconstructed luminance signal level may be set to LL, and LL may be extracted according to Equation 1 below.

[139] уравнение 1[139] equation 1

[140] LL=((p_0,0+p_0,3+q_0,0+q_0,3)>>2)/(1<<bitDepth)[140] LL=((p_0.0+p_0.3+q_0.0+q_0.3)>>2)/(1<<bitDepth)

[141] p_i, k и q_i, k уравнения 1 могут означать выборочное значение P-блока или Q-блока, определенное согласно фиг. 7.[141] p_i, k and q_i, k of Equation 1 may mean the sample value of a P-block or a Q-block determined according to FIG. 7.

[142] Между тем, qP_L может определяться согласно нижеприведенному уравнению 2.[142] Meanwhile, qP_L can be determined according to Equation 2 below.

[143] уравнение 2[143] equation 2

[144] qP_L=((Q_p_Q+Q_p_P+1)>>1)+qpOffset[144] qP_L=((Q_p_Q+Q_p_P+1)>>1)+qpOffset

[145] Q_p_Q и Q_p_P уравнения 2 могут означать параметры квантования CU, включающей в себя q_0,0 и p_0,0, и qpOffset может представлять собой смещение, передаваемое на SPS-уровне.[145] Q_p_Q and Q_p_P of Equation 2 may represent quantization parameters of a CU including q_0.0 and p_0.0, and qpOffset may represent an offset transmitted in the SPS layer.

[146] В некоторых вариантах осуществления настоящего раскрытия сущности, фильтр удаления блочности может применяться к области 8×8. Фильтр удаления блочности может применяться не только к границе CU и границе субблока или блока преобразования, конструирующего CU. В этом случае, субблок может означать, по меньшей мере, одно из субблока или блока преобразования, сформированного посредством режима объединения на основе субблоков, аффинного режима, режима на основе внутренних субсегментов (ISP) и/или преобразования на основе субблоков.[146] In some embodiments of the present disclosure, a deblocking filter may be applied to an 8x8 area. The deblocking filter can be applied not only to the boundary of the CU and the boundary of the subblock or transform block constructing the CU. In this case, a sub-block may mean at least one of a sub-block or a transform block formed by a sub-block-based combining mode, an affine mode, an intra-sub-segment-based (ISP) mode, and/or a sub-block-based transform.

[147] Фильтр удаления блочности может применяться к субблоку, сформированному посредством ISP-режима или преобразования на основе субблоков, когда ненулевой коэффициент присутствует в границе, пересекающей границу TU. Между тем, фильтр удаления блочности может применяться к субблоку согласно режиму объединения на основе субблоков или аффинному режиму на основе опорных кадров и вектора движения соседних субблоков.[147] A deblocking filter may be applied to a sub-block generated by ISP mode or sub-block-based transform when a non-zero coefficient is present in a boundary crossing a TU boundary. Meanwhile, a deblocking filter may be applied to a sub-block according to a sub-block-based fusion mode or an affine mode based on reference frames and the motion vector of neighboring sub-blocks.

[148] Общее представление режима на основе внутренних субсегментов (ISP) [148] General view of mode based on internal subsegments (ISP)

[149] Фиг. 8 является видом, иллюстрирующим режим на основе внутренних субсегментов (ISP) из технологий внутреннего прогнозирования.[149] FIG. 8 is a view illustrating the internal sub-segment (ISP) mode of internal prediction technologies.

[150] При традиционном внутреннем прогнозировании, текущий блок, который должен кодироваться/декодироваться (текущий блок), рассматривается в качестве одной единицы, и кодирование/декодирование выполняется без разбиения. Тем не менее, при применении ISP, текущий блок может разбиваться в горизонтальном или вертикальном направлении, и внутреннее прогнозирующее кодирование/декодирование может выполняться. В это время, кодирование/декодирование может выполняться в единицах разбитых ISP-субблоков, чтобы формировать восстановленный ISP-субблок, и восстановленный ISP-субблок может использоваться в качестве опорного блока следующего разбитого ISP-субблока.[150] In traditional intra prediction, the current block to be encoded/decoded (current block) is considered as one unit, and encoding/decoding is performed without partitioning. However, when using ISP, the current block can be divided in the horizontal or vertical direction, and internal predictive encoding/decoding can be performed. At this time, encoding/decoding may be performed in units of broken ISP sub-blocks to form a restored ISP sub-block, and the restored ISP sub-block may be used as a reference block of the next broken ISP sub-block.

[151] Когда ISP-режим применяется к текущему блоку, внутреннее прогнозирование может выполняться относительно каждого из ISP-субблоков, полученных посредством разбиения текущего блока в горизонтальном или вертикальном направлении. Таким образом, внутреннее прогнозирование, формирование остаточных сигналов и формирование восстановленных сигналов выполняются в единицах ISP-субблоков, и восстановленный сигнал восстановленного субсегмента может использоваться в качестве опорной выборки внутреннего прогнозирования следующего субсегмента.[151] When the ISP mode is applied to the current block, intra prediction may be performed on each of the ISP sub-blocks obtained by dividing the current block in the horizontal or vertical direction. Thus, intra prediction, residual signal generation, and reconstructed signal generation are performed in units of ISP sub-blocks, and the reconstructed signal of the reconstructed sub-segment can be used as an intra-prediction reference sample of the next sub-segment.

[152] Оборудование кодирования изображений может определять направление ISP-разбиения с использованием различных способов (например, способа на основе RDO). Определенное направление разбиения может явно передаваться в служебных сигналах через поток битов в качестве информации относительно направления ISP-разбиения. Оборудование декодирования изображений может определять направление ISP-разбиения текущего блока на основе информации относительно передаваемого в служебных сигналах направления разбиения. Когда направление ISP-разбиения неявно определяется посредством параметра кодирования текущего блока, такого как размер (ширина или высота) текущего блока, оборудование кодирования изображений и оборудование декодирования изображений могут определять направление ISP-разбиения текущего блока с использованием идентичного способа.[152] The image encoding equipment may determine the direction of the ISP partitioning using various methods (eg, an RDO-based method). The determined split direction may be explicitly signaled via the bitstream as information regarding the ISP split direction. The image decoding equipment may determine the ISP split direction of the current block based on information regarding the signaled split direction. When the ISP split direction is implicitly determined by an encoding parameter of the current block such as the size (width or height) of the current block, the image encoding equipment and the image decoding equipment can determine the ISP split direction of the current block using an identical method.

[153] Каждый из ISP-субблоков, полученных посредством разбиения текущего блока, возможно, должен включать в себя минимум 16 выборок. Например, когда текущий блок представляет собой блок 4×4, может неявно определяться то, что ISP не применяется. Помимо этого, когда текущий блок представляет собой блок 4×8 или блок 8×4, как показано на фиг. 8(a), текущий блок, к которому применяется ISP, может разбиваться на два ISP-субблока. Помимо этого, когда текущий блок не представляет собой блок 4×4, блок 4×8 или блок 8×4, как показано на фиг. 8(b), текущий блок, к которому применяется ISP, может разбиваться на четыре ISP-субблока. В примерах, показанных на фиг. 8(a) и 8(b), когда направление ISP-разбиения представляет собой горизонтальное направление, кодирование и декодирование могут выполняться в порядке от верхнего ISP-субблока к нижнему ISP-субблоку. Помимо этого, когда направление ISP-разбиения представляет собой вертикальное направление, кодирование и декодирование может выполняться в порядке от левого ISP-субблока к правому ISP-субблоку.[153] Each of the ISP subblocks obtained by splitting the current block may need to include a minimum of 16 samples. For example, when the current block is a 4x4 block, it may be implicitly determined that the ISP is not applied. In addition, when the current block is a 4x8 block or an 8x4 block, as shown in FIG. 8(a), the current block to which the ISP is applied may be split into two ISP sub-blocks. In addition, when the current block is not a 4x4 block, a 4x8 block, or an 8x4 block, as shown in FIG. 8(b), the current block to which the ISP is applied may be divided into four ISP sub-blocks. In the examples shown in FIGS. 8(a) and 8(b), when the ISP partitioning direction is a horizontal direction, encoding and decoding may be performed in order from the upper ISP sub-block to the lower ISP sub-block. In addition, when the ISP partitioning direction is a vertical direction, encoding and decoding can be performed in order from the left ISP sub-block to the right ISP sub-block.

[154] Например, размер ISP-субблока или группы коэффициентов согласно размеру текущего блока может определяться на основе нижеприведенной таблицы 2.[154] For example, the size of an ISP sub-block or coefficient group according to the size of the current block may be determined based on Table 2 below.

[155] Табл. 2[155] Tab. 2

[156][156]

Размер блокаBlock size Размер группы коэффициентовCoefficient Group Size 1 х N, N ≥ 161 x N, N ≥ 16 1×161x16 N х 1, N ≥ 16N x 1, N ≥ 16 16×116×1 2 х N, N ≥ 82 x N, N ≥ 8 2×82x8 N х 2, N ≥ 8N x 2, N ≥ 8 8×28×2 Все остальные возможные M x N случаевAll other possible M x N cases 4×44x4

[157] Вариант #1 осуществления [157] Embodiment #1

[158] В дальнейшем в этом документе описывается способ кодирования/декодирования изображения с использованием вышеописанного фильтра удаления блочности. Согласно варианту осуществления настоящего раскрытия сущности, длина фильтра для фильтра удаления блочности может определяться. Хотя, в нижеприведенном описании, блок преобразования, P-блок и/или Q-блок описываются в качестве субблока, извлекаемого на основе ISP-режима, объем настоящего раскрытия сущности не ограничен этим. Здесь, блок преобразования может означать, по меньшей мере, одно из P-блока или Q-блока, смежного с целевой границей. Помимо этого, хотя текущий блок или блок преобразования описывается как представляющий собой блок сигналов яркости в нижеприведенном описании, объем настоящего раскрытия сущности не ограничен этим.[158] Hereinafter, this document describes a method for encoding/decoding an image using the above-described deblocking filter. According to an embodiment of the present disclosure, the filter length for the deblocking filter can be determined. Although, in the following description, the transform block, P-block and/or Q-block are described as a sub-block extracted based on the ISP mode, the scope of the present disclosure is not limited to this. Here, a transform block may mean at least one of a P-block or a Q-block adjacent to the target boundary. In addition, although the current block or transform block is described as being a luminance signal block in the following description, the scope of the present disclosure is not limited to this.

[159] Согласно варианту осуществления настоящего раскрытия сущности, когда ширина P-блока или ширина Q-блока равна 4, длина фильтра Q-блоков, применяемая к целевой границе, которая представляет собой вертикальную границу, может определяться равной 1. Напротив, когда ширина Q-блока равна или больше 32, длина фильтра Q-блоков, применяемая к целевой границе, может определяться равной 7. В другом случае, длина фильтра Q-блоков, применяемая к целевой границе, может определяться равной 3.[159] According to an embodiment of the present disclosure, when the P-block width or the Q-block width is 4, the Q-block filter length applied to the target boundary, which is a vertical boundary, can be determined to be 1. In contrast, when the Q-block width -block is equal to or greater than 32, the length of the Q-block filter applied to the target boundary may be determined to be 7. Alternatively, the length of the Q-block filter applied to the target boundary may be determined to be 3.

[160] Между тем, когда ширина P-блока или ширина Q-блока равна 4, длина фильтра P-блоков, применяемая к целевой границе, которая представляет собой вертикальную границу, может определяться равной 1. Напротив, когда ширина P-блока равна или больше 32, длина фильтра P-блоков, применяемая к целевой границе, может определяться равной 7. В другом случае, длина фильтра P-блоков, применяемая к целевой границе, может определяться равной 3.[160] Meanwhile, when the P-block width or the Q-block width is 4, the length of the P-block filter applied to the target boundary, which is a vertical boundary, can be determined to be 1. In contrast, when the P-block width is equal to or greater than 32, the P-block filter length applied to the target boundary may be determined to be 7. Alternatively, the P-block filter length applied to the target boundary may be determined to be 3.

[161] Между тем, когда высота P-блока или высота Q-блока равна 4, длина фильтра Q-блоков, применяемая к целевой границе, которая представляет собой горизонтальную границу, может определяться равной 1. Напротив, когда высота Q-блока равна или больше 32, длина фильтра, применяемая к целевой границе, может определяться равной 7. В другом случае, длина фильтра Q-блоков, применяемая к целевой границе, может определяться равной 3.[161] Meanwhile, when the P-block height or the Q-block height is 4, the length of the Q-block filter applied to the target boundary, which is a horizontal boundary, can be determined to be 1. In contrast, when the Q-block height is equal to or greater than 32, the filter length applied to the target boundary may be determined to be 7. Alternatively, the Q-block filter length applied to the target boundary may be determined to be 3.

[162] Между тем, когда высота P-блока или высота Q-блока равна 4, длина фильтра P-блоков, применяемая к целевой границе, которая представляет собой горизонтальную границу, может определяться равной 1. Напротив, когда высота P-блока равна или больше 32, длина фильтра, применяемая к целевой границе, может определяться равной 7. В другом случае, длина фильтра P-блоков, применяемая к целевой границе, может определяться равной 3.[162] Meanwhile, when the P-box height or Q-box height is 4, the length of the P-box filter applied to the target boundary, which is a horizontal boundary, can be determined to be 1. In contrast, when the P-box height is equal to or greater than 32, the filter length applied to the target boundary may be determined to be 7. Alternatively, the P-box filter length applied to the target boundary may be determined to be 3.

[163] Согласно варианту осуществления настоящего раскрытия сущности, когда ширина или размер блока преобразования равны или меньше предварительно определенного значения, может возникать такая проблема, что параллелизация фильтра не может выполняться. В дальнейшем в этом документе подробно описывается проблема фильтра удаления блочности, который может возникать в вышеописанном варианте осуществления.[163] According to an embodiment of the present disclosure, when the width or size of the transform block is equal to or less than a predetermined value, a problem may occur that filter parallelization cannot be performed. Hereinafter, this document will describe in detail the deblocking filter problem that may occur in the above-described embodiment.

[164] Фиг. 9-11 являются видами, иллюстрирующими способ определения длины фильтра для фильтра удаления блочности, применяемого к целевой границе.[164] FIG. 9 to 11 are views illustrating a method for determining a filter length for a deblocking filter applied to a target boundary.

[165] Фиг. 9-11 показывают состояния, в которых блок 16×16 сегментируется на четыре блока 4×16, и второй и четвертый блоки 4×16, соответственно, сегментируются на два субблока 2×16 и четыре субблока 1×16 посредством ISP-режима.[165] FIG. 9-11 show states in which a 16×16 block is segmented into four 4×16 blocks, and the second and fourth 4×16 blocks, respectively, are segmented into two 2×16 sub-blocks and four 1×16 sub-blocks by ISP mode.

[166] Ссылаясь на фиг. 9, для первой границы фильтра, длина фильтра P-блоков может определяться равной 1, и граница фильтра Q-блоков может определяться равной 3. Ссылаясь на фиг. 10, для второй границы фильтра, длина фильтра P-блоков может определяться равной 3, и длина фильтра Q-блоков может определяться равной 1. Ссылаясь на фиг. 11, для третьей границы фильтра, длина фильтра Q-блоков может определяться равной 3, и для четвертой границы фильтра, длина фильтра P-блоков может определяться равной 3.[166] Referring to FIG. 9, for the first filter boundary, the P-block filter length may be determined to be 1, and the Q-block filter boundary may be determined to be 3. Referring to FIG. 10, for the second filter boundary, the P-block filter length may be determined to be 3, and the Q-block filter length may be determined to be 1. Referring to FIG. 11, for the third filter boundary, the Q-block filter length may be determined to be 3, and for the fourth filter boundary, the P-block filter length may be determined to be 3.

[167] На фиг. 10 и 11, хотя ширина субблока меньше 4, поскольку сумма длины фильтра, когда соответствующий блок представляет собой P-блок, и длины фильтра, когда соответствующий блок представляет собой Q-блок, больше 4, перекрытие между фильтрацией, применяемой посредством обеих границ, может возникать. Может возникать такая проблема, что параллельная обработка для фильтрации не может выполняться в силу перекрытия длин фильтра. В дальнейшем в этом документе подробно описывается способ разрешения такой проблемы.[167] In FIG. 10 and 11, although the width of a sub-block is less than 4, since the sum of the filter length when the corresponding block is a P-block and the filter length when the corresponding block is a Q-block is greater than 4, the overlap between the filtering applied by both boundaries may arise. A problem may arise that parallel processing for filtering cannot be performed due to overlapping filter lengths. Later in this document, a method for resolving such a problem is described in detail.

[168] В частности, когда ISP-режим применяется к текущему блоку, блок преобразования, сформированный в качестве результата внутреннего прогнозирования, может иметь размер, меньший размера традиционно заданного максимального блока преобразования. Таким образом, согласно некоторым вариантам осуществления настоящего раскрытия сущности, параллельная обработка для фильтрации может выполняться даже для блока, к которому применяется ISP-режим.[168] In particular, when the ISP mode is applied to the current block, the transform block generated as the result of the intra prediction may have a size smaller than the size of the conventionally specified maximum transform block. Thus, according to some embodiments of the present disclosure, parallel processing for filtering can be performed even on a block to which the ISP mode is applied.

[169] Фиг. 12 является видом, иллюстрирующим способ кодирования/декодирования изображений согласно варианту осуществления настоящего раскрытия сущности.[169] FIG. 12 is a view illustrating an image encoding/decoding method according to an embodiment of the present disclosure.

[170] Ссылаясь на фиг. 12, способ кодирования/декодирования изображений согласно варианту осуществления настоящего раскрытия сущности может включать в себя извлечение восстановленного блока для текущего блока (S1210), извлечение целевой границы для восстановленного блока (S1220), определение длины фильтра для фильтра удаления блочности, который должен применяться для целевой границы (S1230), и/или применение фильтра удаления блочности на основе определенной длины фильтра (S1240).[170] Referring to FIG. 12, the image encoding/decoding method according to an embodiment of the present disclosure may include extracting a reconstructed block for the current block (S1210), extracting a target boundary for the reconstructed block (S1220), determining a filter length for a deblocking filter to be applied for the target boundaries (S1230), and/or applying a deblocking filter based on the determined filter length (S1240).

[171] В этом случае, длина фильтра может определяться на основе, по меньшей мере, одной из ширины или высоты блока преобразования, смежного с целевой границей.[171] In this case, the length of the filter may be determined based on at least one of the width or height of a transform block adjacent to the target boundary.

[172] Вариант #2 осуществления [172] Embodiment #2

[173] Согласно другому варианту осуществления настоящего раскрытия сущности, когда ширина или высота блока преобразования удовлетворяет предварительно определенному условию, длина фильтра, применяемая к целевой границе, может определяться с учетом этого.[173] According to another embodiment of the present disclosure, when the width or height of the transform block satisfies a predetermined condition, the length of the filter applied to the target boundary can be determined taking this into account.

[174] Например, когда ширина или высота блока преобразования меньше размера минимального блока преобразования, длина фильтра, применяемая к целевой границе, может определяться в качестве предварительно установленного значения. Например, когда ширина или высота блока преобразования меньше 4, длина фильтра, применяемая к целевой границе, может определяться равной 1.[174] For example, when the width or height of the transform block is smaller than the size of the minimum transform block, the length of the filter applied to the target boundary may be determined as a preset value. For example, when the width or height of the transform block is less than 4, the length of the filter applied to the target boundary may be determined to be 1.

[175] Фиг. 13 и 14 являются видами, иллюстрирующими способ определения длины фильтра удаления блочности согласно другому варианту осуществления настоящего раскрытия сущности.[175] FIG. 13 and 14 are views illustrating a method for determining the length of a deblocking filter according to another embodiment of the present disclosure.

[176] Фиг. 13 показывает способ определения длины фильтра удаления блочности, который разрешает проблему согласно варианту осуществления по фиг. 10. Когда ширина или высота блока преобразования равна или меньше 4, длина фильтра целевой границы может определяться равной 1. Ссылаясь на фиг. 13, поскольку ширина субблока 2×16 равна или меньше 4, как длина фильтра Q-блоков первой целевой границы, так и длина фильтра P-блоков второй целевой границы могут определяться равными 1. Следовательно, перекрытие между фильтром Q-блоков первой целевой границы и фильтром P-блоков второй целевой границы может не возникать.[176] FIG. 13 shows a method for determining the length of a deblocking filter that solves the problem according to the embodiment of FIG. 10. When the width or height of the transform block is equal to or less than 4, the length of the target edge filter may be determined to be 1. Referring to FIG. 13, since the width of a 2×16 sub-block is equal to or less than 4, both the Q-block filter length of the first target boundary and the P-block filter length of the second target boundary can be determined to be 1. Therefore, the overlap between the Q-block filter of the first target boundary and the P-block filter may not produce a second target boundary.

[177] Фиг. 14 показывает способ определения длины фильтра удаления блочности, который разрешает проблему согласно варианту осуществления по фиг. 11. Ссылаясь на фиг. 13, поскольку ширина ISP-субблока 1×16 равна или меньше 4, как длина фильтра Q-блоков первой целевой границы, так и длина фильтра P-блоков второй целевой границы могут определяться равными 1. Следовательно, перекрытие между фильтром Q-блоков третьей целевой границы и фильтром P-блоков четвертой целевой границы может не возникать.[177] FIG. 14 shows a method for determining the length of a deblocking filter that solves the problem according to the embodiment of FIG. 11. Referring to FIG. 13, since the width of the 1×16 ISP sub-block is equal to or less than 4, both the Q-block filter length of the first target boundary and the P-block filter length of the second target boundary can be determined to be 1. Therefore, the overlap between the Q-block filter of the third target boundary and the P-block filter may not produce a fourth target boundary.

[178] Фиг. 15 и 16 являются видами, иллюстрирующими способ определения длины фильтра удаления блочности согласно другому варианту осуществления настоящего раскрытия сущности.[178] FIG. 15 and 16 are views illustrating a method for determining the length of a deblocking filter according to another embodiment of the present disclosure.

[179] Ссылаясь на фиг. 15, во-первых, может определяться то, представляет извлеченная целевая граница собой вертикальную границу или горизонтальную границу (S1510). Когда целевая граница представляет собой горизонтальную границу (S1510-N), процесс извлечения длин фильтра горизонтальной границы может выполняться (S1525). В дальнейшем описывается процесс извлечения длин фильтра горизонтальной границы посредством фиг. 16.[179] Referring to FIG. 15, firstly, whether the extracted target boundary is a vertical boundary or a horizontal boundary can be determined (S1510). When the target boundary is a horizontal boundary (S1510-N), the horizontal boundary filter length extraction process can be performed (S1525). Next, a process for extracting horizontal edge filter lengths will be described using FIG. 16.

[180] Например, оборудование кодирования/декодирования изображений может сначала определять длину фильтра Q-блоков. Когда целевая граница представляет собой вертикальную границу (S1510-Y), может определяться то, равна или меньше либо нет по меньшей мере, одна из ширины P-блока или ширины Q-блока первого значения (S1520). Когда, по меньшей мере, одна из ширины P-блока или ширины Q-блока равна или меньше первого значения (S1520-Y), длина фильтра Q-блоков для целевой границы может определяться в качестве первой длины (S1521). Между тем, когда ширина P-блока и ширина Q-блока больше первого значения (S1520-N), равна или больше либо нет ширина Q-блока второго значения (S1530). Когда ширина Q-блока равна или больше второго значения (S1530-Y), длина фильтра Q-блоков для целевой границы может определяться в качестве второй длины (S1531). Между тем, когда ширина Q-блока больше первого значения и меньше второго значения (S1530-N), длина фильтра Q-блоков для целевой границы может определяться в качестве третьей длины (S1532).[180] For example, the image encoding/decoding equipment may first determine the length of the Q-block filter. When the target boundary is a vertical boundary (S1510-Y), it can be determined whether at least one of the P-block width or the Q-block width of the first value is equal to or less than or not (S1520). When at least one of the P-block width or the Q-block width is equal to or less than the first value (S1520-Y), the length of the Q-block filter for the target boundary may be determined as the first length (S1521). Meanwhile, when the P-block width and the Q-block width are greater than the first value (S1520-N), the Q-block width of the second value is equal to or greater than or not (S1530). When the Q-block width is equal to or greater than the second value (S1530-Y), the Q-block filter length for the target boundary may be determined as the second length (S1531). Meanwhile, when the Q block width is larger than the first value and smaller than the second value (S1530-N), the Q block filter length for the target boundary may be determined as the third length (S1532).

[181] Затем, оборудование кодирования/декодирования изображений может определять длину фильтра P-блоков. После определения длины фильтра Q-блоков, может определяться то, равна или меньше либо нет, по меньшей мере, одна из ширины P-блока или ширины Q-блока первого значения (S1540). Когда, по меньшей мере, одна из ширины P-блока или ширины Q-блока равна или меньше первого значения (S1540-Y), длина фильтра P-блоков для целевой границы может определяться в качестве первой длины (S1541). Между тем, когда ширина P-блока и ширина Q-блока больше первого значения (S1540-N), может определяться то, равна или больше либо нет ширина P-блока второго значения (S1550). Когда ширина P-блока равна или больше второго значения (S1550-Y), длина фильтра P-блоков для целевой границы может определяться в качестве второй длины (S1551). Между тем, когда ширина P-блока больше первого значения и меньше второго значения (S1550-N), длина фильтра P-блоков для целевой границы может определяться в качестве третьей длины (S1552).[181] Next, the image encoding/decoding equipment can determine the length of the P-block filter. After determining the length of the Q-block filter, it can be determined whether at least one of the P-block width or the Q-block width of the first value is equal to or less than or not (S1540). When at least one of the P-block width or the Q-block width is equal to or less than the first value (S1540-Y), the P-block filter length for the target boundary may be determined as the first length (S1541). Meanwhile, when the P-block width and the Q-block width are larger than the first value (S1540-N), it can be determined whether the P-block width is equal to or larger than the second value (S1550). When the P-block width is equal to or greater than the second value (S1550-Y), the P-block filter length for the target boundary may be determined as the second length (S1551). Meanwhile, when the P-block width is larger than the first value and smaller than the second value (S1550-N), the P-block filter length for the target boundary may be determined as the third length (S1552).

[182] Например, первое значение и второе значение могут быть равными 4 и 32, соответственно. Помимо этого, первая длина, вторая длина и третья длина, соответственно, могут иметь значения в 1, 7 и 3, но это представляет собой только пример и не ограничено означенным. Помимо этого, хотя в вышеприведенном примере описывается вариант осуществления, в котором сначала извлекается длина фильтра Q-блоков, а затем извлекается длина фильтра P-блоков, вариант осуществления, в котором сначала извлекается длина фильтра Q-блоков, а затем извлекается длина фильтра P-блоков, и вариант осуществления, в котором одновременно извлекаются длина фильтра Q-блоков и длина фильтра P-блоков, также могут включаться в объем настоящего раскрытия сущности.[182] For example, the first value and the second value may be 4 and 32, respectively. In addition, the first length, the second length and the third length, respectively, may have values of 1, 7 and 3, but this is only an example and is not limited to this. In addition, although the above example describes an embodiment in which the Q-block filter length is first retrieved and then the P-block filter length is retrieved, the embodiment in which the Q-block filter length is first retrieved and then the P-block filter length is retrieved blocks, and an embodiment in which the Q-block filter length and the P-block filter length are simultaneously retrieved may also be included within the scope of the present disclosure.

[183] Ссылаясь на фиг. 16, во-первых, может определяться то, представляет извлеченная целевая граница собой вертикальную границу или горизонтальную границу (S1610). S1620-S1651 по фиг. 16 могут представлять собой подробное описание S1525 по фиг. 15. Помимо этого, S1610 по фиг. 16 и S1510 по фиг. 15 могут указывать идентичную конфигурацию.[183] Referring to FIG. 16, firstly, whether the extracted target boundary is a vertical boundary or a horizontal boundary can be determined (S1610). S1620-S1651 of FIG. 16 may be a detailed description of S1525 of FIG. 15. In addition, S1610 of FIG. 16 and S1510 of FIG. 15 may indicate an identical configuration.

[184] Например, оборудование кодирования/декодирования изображений может сначала определять длину фильтра Q-блоков. Когда целевая граница представляет собой горизонтальную границу (S1610-Y), по меньшей мере, одна из высоты P-блока или высоты Q-блока равна или меньше первого значения (S1620). Когда, по меньшей мере, одна из ширины P-блока или ширины Q-блока равна или меньше первого значения (S1620-Y), длина фильтра Q-блоков для целевой границы может определяться в качестве первой длины (S1621). Между тем, когда высота P-блока и высота Q-блока больше первого значения (S1620-N), может определяться то, равна или больше либо нет высота Q-блока второго значения S1630). Когда высота Q-блока равна или больше второго значения (S1630-Y), длина фильтра Q-блоков для целевой границы может определяться в качестве второй длины (S1631). Между тем, высота Q-блока больше первого значения и меньше второго значения (S1530-N), длина фильтра Q-блоков для целевой границы может определяться в качестве третьей длины (S1532).[184] For example, the image encoding/decoding equipment may first determine the length of the Q-block filter. When the target boundary is a horizontal boundary (S1610-Y), at least one of the P-block height or the Q-block height is equal to or less than the first value (S1620). When at least one of the P-block width or the Q-block width is equal to or less than the first value (S1620-Y), the Q-block filter length for the target boundary may be determined as the first length (S1621). Meanwhile, when the height of the P block and the height of the Q block are greater than the first value (S1620-N), it can be determined whether the height of the Q block is equal to or greater than or not of the second value S1630). When the Q-block height is equal to or greater than the second value (S1630-Y), the Q-block filter length for the target boundary may be determined as the second length (S1631). Meanwhile, the Q-block height is greater than the first value and less than the second value (S1530-N), the Q-block filter length for the target boundary may be determined as the third length (S1532).

[185] Затем, оборудование кодирования/декодирования изображений может определять длину фильтра P-блоков. После определения длины фильтра Q-блоков, может определяться то, равна или меньше либо нет, по меньшей мере, одна из высоты P-блока или высоты Q-блока первого значения (S1640). Когда, по меньшей мере, одна из высоты P-блока или высоты Q-блока равна или меньше первого значения (S1640-Y), длина фильтра P-блоков для целевой границы может определяться в качестве первой длины (S1641). Между тем, когда высота P-блока и высота Q-блока больше первого значения (S1640-N), равна или больше либо нет высота P-блока второго значения (S1650). Когда высота P-блока равна или больше второй длины (S1650-Y), длина фильтра P-блоков для целевой границы может определяться в качестве второй длины (S1651). Между тем, когда высота P-блока больше первого значения и меньше второго значения (S1650-N), длина фильтра P-блоков для целевой границы может определяться в качестве третьей длины (S1652).[185] Next, the image encoding/decoding equipment can determine the length of the P-block filter. After determining the length of the Q-block filter, it can be determined whether at least one of the P-block height or the Q-block height of the first value is equal to or less than or not (S1640). When at least one of the P-block height or the Q-block height is equal to or less than the first value (S1640-Y), the P-block filter length for the target boundary may be determined as the first length (S1641). Meanwhile, when the P-block height and the Q-block height are greater than the first value (S1640-N), the P-block height of the second value is equal to or greater than or not (S1650). When the P-block height is equal to or greater than the second length (S1650-Y), the P-block filter length for the target boundary may be determined as the second length (S1651). Meanwhile, when the P-block height is greater than the first value and less than the second value (S1650-N), the P-block filter length for the target boundary may be determined as the third length (S1652).

[186] Например, первое значение и второе значение могут быть равными 4 и 32, соответственно. Помимо этого, первая длина, вторая длина и третья длина, соответственно, могут иметь значения в 1, 7 и 3, но это представляет собой только пример и не ограничено означенным. Помимо этого, хотя в вышеприведенном примере описывается вариант осуществления, в котором сначала извлекается длина фильтра Q-блоков, а затем извлекается длина фильтра P-блоков, вариант осуществления, в котором сначала извлекается длина фильтра Q-блоков, а затем извлекается длина фильтра P-блоков, и вариант осуществления, в котором одновременно извлекаются длина фильтра Q-блоков и длина фильтра P-блоков, также могут включаться в объем настоящего раскрытия сущности.[186] For example, the first value and the second value may be 4 and 32, respectively. In addition, the first length, the second length and the third length, respectively, may have values of 1, 7 and 3, but this is only an example and is not limited to this. In addition, although the above example describes an embodiment in which the Q-block filter length is first retrieved and then the P-block filter length is retrieved, the embodiment in which the Q-block filter length is first retrieved and then the P-block filter length is retrieved blocks, and an embodiment in which the Q-block filter length and the P-block filter length are simultaneously retrieved may also be included within the scope of the present disclosure.

[187] Согласно настоящему варианту осуществления, поскольку ситуация, в которой параллельная обработка фильтра удаления блочности является невозможной вследствие снижения размера блока преобразования (например, в случае субблока, сформированного посредством применения ISP-режима), или ситуация, в которой перекрытие между фильтрами возникает вследствие различных целевых границ, не возникает, оборудование кодирования/декодирования изображений может всегда выполнять параллельную обработку фильтрации, и эффективность кодирования/декодирования изображений может увеличиваться.[187] According to the present embodiment, since a situation in which parallel processing of a deblocking filter is not possible due to reduction in the size of the transform block (for example, in the case of a sub-block generated by applying the ISP mode), or a situation in which overlap between filters occurs due to different target boundaries do not occur, the image encoding/decoding equipment can always perform parallel filtering processing, and the efficiency of image encoding/decoding can be increased.

[188] В этом описании, выполнение параллелизации или параллельной обработки не означает то, что оборудование кодирования/декодирования изображений всегда выполняет параллельную обработку. Даже когда параллельная обработка поддерживается, то, следует или нет выполнять параллельную обработку, может определяться с учетом аппаратной производительности, типа услуги и качества обслуживания оборудования кодирования/декодирования изображений. Например, когда оборудование кодирования/декодирования изображений реализуется с использованием многопроцессорной системы, параллельная обработка фильтра удаления блочности может выполняться через вариант осуществления настоящего раскрытия сущности. Между тем, когда оборудование кодирования/декодирования изображений реализуется с использованием одного процессора, фильтр удаления блочности может последовательно применяться к целевой границе без применения вышеописанного варианта осуществления.[188] In this description, performing parallelization or parallel processing does not mean that the image encoding/decoding equipment always performs parallel processing. Even when parallel processing is supported, whether or not to perform parallel processing may be determined taking into account the hardware performance, service type, and quality of service of the image encoding/decoding equipment. For example, when the image encoding/decoding equipment is implemented using a multiprocessor system, parallel processing of the deblocking filter can be performed through an embodiment of the present disclosure. Meanwhile, when the image encoding/decoding equipment is implemented using a single processor, the deblocking filter can be sequentially applied to the target edge without applying the above-described embodiment.

[189] Хотя примерные способы настоящего раскрытия сущности, описанного выше, представляются как последовательность операций для ясности описания, это не имеет намерение ограничивать порядок, в котором выполняются этапы, и этапы могут выполняться одновременно или в другом порядке при необходимости. Чтобы реализовывать способ согласно настоящему раскрытию сущности, описанные этапы дополнительно могут включать в себя другие этапы, могут включать в себя оставшиеся этапы, за исключением некоторых этапов, либо могут включать в себя другие дополнительные этапы, за исключением некоторых этапов.[189] Although the exemplary methods of the present disclosure described above are presented as a sequence of operations for clarity of description, it is not intended to limit the order in which the steps are performed, and the steps may be performed simultaneously or in a different order as necessary. To implement the method of the present disclosure, the described steps may further include other steps, may include the remaining steps except some steps, or may include other additional steps except some steps.

[190] В настоящем раскрытии сущности, оборудование кодирования изображений или оборудование декодирования изображений, которое выполняет предварительно определенную операцию (этап), может выполнять операцию (этап) подтверждения условия или ситуации выполнения соответствующей операции (этап). Например, если описывается то, что предварительно определенная операция выполняется, когда предварительно определенное условие удовлетворяется, оборудование кодирования изображений или оборудование декодирования изображений может выполнять предварительно определенную операцию после определения того, удовлетворяется или нет предварительно определенное условие.[190] In the present disclosure, image encoding equipment or image decoding equipment that performs a predetermined operation (step) may perform an operation (step) of confirming a condition or situation for executing the corresponding operation (step). For example, if it is described that a predetermined operation is performed when a predetermined condition is satisfied, the image encoding equipment or the image decoding equipment may perform the predetermined operation after determining whether or not the predetermined condition is satisfied.

[191] Различные варианты осуществления настоящего раскрытия сущности не представляют собой список всех возможных комбинаций и имеют намерение описывать характерные аспекты настоящего раскрытия сущности, и вопросы, описанные в различных вариантах осуществления, могут применяться независимо либо в комбинации двух или более из них.[191] The various embodiments of the present disclosure are not intended to be a list of all possible combinations and are intended to describe characteristic aspects of the present disclosure, and the matters described in the various embodiments may be applied independently or in combination of two or more of them.

[192] Различные варианты осуществления настоящего раскрытия сущности могут реализовываться в аппаратных средствах, микропрограммном обеспечении, программном обеспечении либо в комбинации вышеозначенного. В случае реализации настоящего раскрытия сущности посредством аппаратных средств, настоящее раскрытие сущности может реализовываться с помощью специализированных интегральных схем (ASIC), процессоров цифровых сигналов (DSP), устройств обработки цифровых сигналов (DSPD), программируемых логических устройств (PLD), программируемых пользователем вентильных матриц (FPGA), общих процессоров, контроллеров, микроконтроллеров, микропроцессоров и т.д.[192] Various embodiments of the present disclosure may be implemented in hardware, firmware, software, or a combination of the above. If the present disclosure is implemented in hardware, the present disclosure may be implemented in application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays. (FPGA), general processors, controllers, microcontrollers, microprocessors, etc.

[193] Помимо этого, оборудование декодирования изображений и оборудование кодирования изображений, к которым применяются варианты осуществления настоящего раскрытия сущности, могут включаться в мультимедийное широковещательное приемо-передающее устройство, терминал мобильной связи, видеоустройство системы домашнего кинотеатра, видеоустройство системы цифрового кинотеатра, камеру наблюдения, устройство проведения видеочатов, устройство связи в реальном времени, к примеру, для видеосвязи, мобильное устройство потоковой передачи, носитель хранения данных, записывающую видеокамеру, устройство предоставления услуг на основе технологии "видео по запросу" (VoD), устройство на основе OTT-видео (видео поверх сетей), устройство предоставления услуг потоковой передачи по Интернету, трехмерное видеоустройство, видеоустройство системы видеотелефонии, медицинское видеоустройство и т.п. и могут использоваться для того, чтобы обрабатывать видеосигналы или сигналы данных. Например, OTT-видеоустройства могут включать в себя игровую консоль, Blu-Ray-проигрыватель, телевизор с доступом в Интернет, систему домашнего кинотеатра, смартфон, планшетный PC, цифровое записывающее видеоустройство (DVR) и т.п.[193] In addition, the image decoding equipment and image encoding equipment to which embodiments of the present disclosure are applied may be included in a multimedia broadcast transceiver device, a mobile communication terminal, a home theater system video device, a digital cinema system video device, a surveillance camera, video chat device, real-time communication device such as video communication, mobile streaming device, storage medium, video recording camera, video-on-demand (VoD) service device, OTT video device ( video over networks), Internet streaming service device, 3D video device, video telephony system video device, medical video device, etc. and can be used to process video or data signals. For example, OTT video devices may include a gaming console, Blu-ray player, Internet-enabled television, home theater system, smartphone, tablet PC, digital video recorder (DVR), etc.

[194] Фиг. 17 является видом, показывающим систему потоковой передачи контента, к которой является применимым вариант осуществления настоящего раскрытия сущности.[194] FIG. 17 is a view showing a content streaming system to which an embodiment of the present disclosure is applicable.

[195] Ссылаясь на фиг. 17, система потоковой передачи контента, к которой применяется вариант(ы) осуществления настоящего документа, может включать в себя, главным образом, сервер кодирования, потоковый сервер, веб-сервер, хранилище мультимедиа, пользовательское устройство и устройство ввода мультимедиа.[195] Referring to FIG. 17, the content streaming system to which the embodiment(s) of this document applies may mainly include an encoding server, a streaming server, a web server, a media storage, a user device, and a media input device.

[196] Сервер кодирования сжимает контент, вводимый из устройств ввода мультимедиа, таких как смартфон, камера, записывающая видеокамера и т.д., в цифровые данные для того, чтобы формировать поток битов, и передает поток битов на потоковый сервер. В качестве другого примера, когда устройства ввода мультимедиа, такие как смартфоны, камеры, записывающие видеокамеры и т.д., непосредственно формируют поток битов, сервер кодирования может опускаться.[196] The encoding server compresses content input from media input devices such as a smartphone, camera, video recorder, etc. into digital data to form a bitstream, and transmits the bitstream to the streaming server. As another example, when media input devices such as smartphones, cameras, video recorders, etc. directly generate a bitstream, the encoding server may be omitted.

[197] Поток битов может формироваться посредством способа кодирования изображений или оборудования кодирования изображений, к которому применяется вариант осуществления настоящего раскрытия сущности, и потоковый сервер может временно сохранять поток битов в процессе передачи или приема потока битов.[197] The bitstream may be generated by an image encoding method or image encoding equipment to which an embodiment of the present disclosure is applied, and the streaming server may temporarily store the bitstream during the process of transmitting or receiving the bitstream.

[198] Потоковый сервер передает мультимедийные данные в пользовательское устройство на основе запроса пользователя через веб-сервер, и веб-сервер служит в качестве среды для информирования пользователя в отношении услуги. Когда пользователь запрашивает требуемую услугу из веб-сервера, веб-сервер может доставлять ее на потоковый сервер, и потоковый сервер может передавать мультимедийные данные пользователю. В этом случае, система потоковой передачи контента может включать в себя отдельный сервер управления. В этом случае, сервер управления служит для того, чтобы управлять командой/ответом между устройствами в системе потоковой передачи контента.[198] The streaming server transmits multimedia data to the user device based on the user's request through the web server, and the web server serves as a medium for informing the user regarding the service. When a user requests a desired service from a web server, the web server may deliver it to the streaming server, and the streaming server may stream the media data to the user. In this case, the content streaming system may include a separate control server. In this case, the control server serves to manage the command/response between devices in the content streaming system.

[199] Потоковый сервер может принимать контент из хранилища мультимедиа и/или сервера кодирования. Например, когда контент принимается из сервера кодирования, контент может приниматься в реальном времени. В этом случае, чтобы предоставлять плавную услугу потоковой передачи, потоковый сервер может сохранять поток битов в течение предварительно определенного времени.[199] The streaming server may receive content from a media storage and/or encoding server. For example, when content is received from an encoding server, the content may be received in real time. In this case, in order to provide a smooth streaming service, the streaming server may maintain the bit stream for a predetermined time.

[200] Примеры пользовательского устройства могут включать в себя мобильный телефон, смартфон, переносной компьютер, цифровой широковещательный терминал, персональное цифровое устройство (PDA), портативный мультимедийный проигрыватель (PMP), навигационное устройство, грифельный планшетный PC, планшетные PC, ультрабуки, носимые устройства (например, интеллектуальные часы, интеллектуальные очки, наголовные дисплеи), цифровые телевизоры, настольные компьютеры, систему цифровых информационных табло и т.п.[200] Examples of a user device may include a mobile phone, a smartphone, a laptop computer, a digital broadcast terminal, a personal digital assistant (PDA), a portable media player (PMP), a navigation device, a tablet PC, tablet PCs, ultrabooks, wearable devices (such as smart watches, smart glasses, head-mounted displays), digital TVs, desktop computers, digital signage system, etc.

[201] Каждый сервер в системе потоковой передачи контента может работать в качестве распределенного сервера, причем в этом случае данные, принимаемые из каждого сервера, могут распределяться.[201] Each server in a content streaming system may operate as a distributed server, in which case data received from each server may be distributed.

[202] Объем раскрытия сущности включает в себя программное обеспечение или машиноисполняемые команды (например, операционную систему, приложение, микропрограммное обеспечение, программу и т.д.) для обеспечения возможности выполнения операций согласно способам различных вариантов осуществления в оборудовании или компьютере, энергонезависимый машиночитаемый носитель, имеющий такое программное обеспечение или команды, сохраненные и выполняемые в оборудовании или компьютере.[202] The scope of the disclosure includes software or computer-executable instructions (e.g., operating system, application, firmware, program, etc.) to enable operations according to the methods of various embodiments in hardware or computer, non-volatile computer-readable media having such software or instructions stored and executed in hardware or a computer.

Промышленная применимостьIndustrial applicability

[203] Варианты осуществления настоящего раскрытия сущности могут использоваться для того, чтобы кодировать или декодировать изображение.[203] Embodiments of the present disclosure may be used to encode or decode an image.

Claims (43)

1. Способ декодирования изображений, осуществляемый посредством оборудования декодирования изображений, содержащего модуль декодирования, который выполняет декодирование изображения из потока битов, при этом способ декодирования изображений содержит этапы, на которых:1. An image decoding method carried out by an image decoding equipment comprising a decoding module that decodes an image from a bitstream, the image decoding method comprising the steps of: извлекают целевую границу фильтра удаления блочности в восстановленном кадре;extracting a target boundary of the deblocking filter in the reconstructed frame; определяют максимальную длину фильтра удаления блочности для целевой границы; иdetermining the maximum length of the deblocking filter for the target boundary; And применяют фильтр удаления блочности для целевой границы на основе максимальной длины,apply a deblocking filter to the target boundary based on the maximum length, при этом, на основе целевой границы, представляющей собой вертикальную границу, максимальная длина определяется на основе ширины по меньшей мере одного из первого блока, смежного с левой стороной целевой границы или второго блока, смежного с правой стороной целевой границы, иwherein, based on the target boundary being a vertical boundary, the maximum length is determined based on the width of at least one of the first block adjacent to the left side of the target boundary or the second block adjacent to the right side of the target boundary, and при этом, на основе целевой границы, представляющей собой горизонтальную границу, максимальная длина определяется на основе высоты по меньшей мере одного из третьего блока, смежного с верхней стороной целевой границы или четвертого блока, смежного с нижней стороной целевой границы.wherein, based on the target boundary being a horizontal boundary, the maximum length is determined based on the height of at least one of a third block adjacent to the top side of the target boundary or a fourth block adjacent to the bottom side of the target boundary. 2. Способ декодирования изображений по п. 1, в котором с первого по четвертый блоки представляют собой подблоки, основанные на режиме внутренних субсегментов (ISP), и2. The image decoding method according to claim 1, wherein the first to fourth blocks are subblocks based on an internal sub-segment (ISP) mode, and при этом максимальная длина определяется как равная или меньшая, чем ширина первого блока или второго блока, или высота третьего блока или четвертого блока.wherein the maximum length is defined as equal to or less than the width of the first block or the second block, or the height of the third block or the fourth block. 3. Способ декодирования изображений по п. 1, в котором максимальная длина содержит первую максимальную длину на стороне первого блока и вторую максимальную длину на стороне второго блока.3. The image decoding method of claim 1, wherein the maximum length comprises a first maximum length on a first block side and a second maximum length on a second block side. 4. Способ декодирования изображений по п. 3, в котором, на основе ширины по меньшей мере одного из первого блока или второго блока, равной или меньшей 4, каждая из первой максимальной длины и второй максимальной длины определяется равной 1.4. The image decoding method of claim 3, wherein, based on the width of at least one of the first block and the second block being equal to or less than 4, each of the first maximum length and the second maximum length is determined to be 1. 5. Способ декодирования изображений по п. 3, в котором на основе ширины первого блока, равной или большей 32, первая максимальная длина определяется равной 7,5. The image decoding method according to claim 3, wherein based on the width of the first block equal to or greater than 32, the first maximum length is determined to be 7, при этом, на основе ширины второго блока, равной или большей 32, вторая максимальная длина определяется равной 7.wherein, based on the width of the second block being equal to or greater than 32, the second maximum length is determined to be 7. 6. Способ декодирования изображений по п. 3, в котором на основе ширины первого блока, меньшей 32, первая максимальная длина определяется равной 3,6. The image decoding method of claim 3, wherein based on the width of the first block being less than 32, the first maximum length is determined to be 3, при этом, на основе ширины второго блока, меньшей 32, вторая максимальная длина определяется равной 3.wherein, based on the width of the second block being less than 32, the second maximum length is determined to be 3. 7. Способ декодирования изображений по п. 1, в котором максимальная длина содержит третью максимальную длину на стороне третьего блока и четвертую максимальную длину на стороне четвертого блока.7. The image decoding method of claim 1, wherein the maximum length comprises a third maximum length on a third block side and a fourth maximum length on a fourth block side. 8. Способ декодирования изображений по п. 7, в котором, на основе высоты по меньшей мере одного из третьего блока или четвертого блока, равной или меньшей 4, каждая из третьей максимальной длины и четвертой максимальной длины определяется равной 1.8. The image decoding method of claim 7, wherein, based on the height of at least one of the third block or the fourth block being equal to or less than 4, each of the third maximum length and the fourth maximum length is determined to be 1. 9. Способ декодирования изображений по п. 7, в котором на основе высоты третьего блока, равной или большей 32, третья максимальная длина определяется равной 7,9. The image decoding method of claim 7, wherein based on the third block height equal to or greater than 32, the third maximum length is determined to be 7, при этом, на основе высоты четвертого блока, равной или большей 32, четвертая максимальная длина определяется равной 7.wherein, based on the height of the fourth block being equal to or greater than 32, the fourth maximum length is determined to be 7. 10. Способ декодирования изображений по п. 7, в котором на основе высоты третьего блока, меньшей 32, третья максимальная длина определяется равной 3,10. The image decoding method of claim 7, wherein based on the height of the third block being less than 32, the third maximum length is determined to be 3, при этом, на основе высоты четвертого блока, меньшей 32, четвертая максимальная длина определяется равной 3.however, based on the height of the fourth block being less than 32, the fourth maximum length is determined to be 3. 11. Способ кодирования изображений, осуществляемый посредством оборудования кодирования изображений, содержащего модуль кодирования, который выполняет кодирование изображения в поток битов, при этом способ кодирования изображений содержит этапы, на которых:11. An image encoding method carried out by an image encoding equipment comprising an encoding module that encodes an image into a bitstream, the image encoding method comprising the steps of: извлекают целевую границу фильтра удаления блочности в восстановленном кадре;extracting a target boundary of the deblocking filter in the reconstructed frame; определяют максимальную длину фильтра удаления блочности для целевой границы; иdetermining the maximum length of the deblocking filter for the target boundary; And применяют фильтр удаления блочности для целевой границы на основе максимальной длины,apply a deblocking filter to the target boundary based on the maximum length, при этом, на основе целевой границы, представляющей собой вертикальную границу, максимальная длина определяется на основе ширины по меньшей мере одного из первого блока, смежного с левой стороной целевой границы или второго блока, смежного с правой стороной целевой границы, иwherein, based on the target boundary being a vertical boundary, the maximum length is determined based on the width of at least one of the first block adjacent to the left side of the target boundary or the second block adjacent to the right side of the target boundary, and при этом, на основе целевой границы, представляющей собой горизонтальную границу, максимальная длина определяется на основе высоты по меньшей мере одного из третьего блока, смежного с верхней стороной целевой границы или четвертого блока, смежного с нижней стороной целевой границы.wherein, based on the target boundary being a horizontal boundary, the maximum length is determined based on the height of at least one of a third block adjacent to the top side of the target boundary or a fourth block adjacent to the bottom side of the target boundary. 12. Способ кодирования изображений по п. 11, в котором с первого по четвертый блоки представляют собой подблоки, основанные на режиме внутренних субсегментов (ISP), и12. The image encoding method of claim 11, wherein the first to fourth blocks are subblocks based on an internal sub-segment (ISP) mode, and при этом максимальная длина определяется как равная или меньшая, чем ширина первого блока или второго блока, или высота третьего блока или четвертого блока.wherein the maximum length is defined as equal to or less than the width of the first block or the second block, or the height of the third block or the fourth block. 13. Способ кодирования изображений по п. 11, в котором максимальная длина определяется путем сравнения ширины или высоты с заданным пороговым значением,13. The image encoding method according to claim 11, wherein the maximum length is determined by comparing the width or height with a specified threshold value, при этом количество целевых блоков сравнения определяется равным 1 или 2, на основе заданного порогового значения.wherein the number of target comparison blocks is determined to be 1 or 2, based on a predetermined threshold value. 14. Энергонезависимый машиночитаемый носитель, хранящий инструкции, которые при исполнении компьютером предписывают компьютер выполнять способ кодирования изображений, при этом способ кодирования изображений содержит этапы, на которых:14. A non-transitory computer-readable medium storing instructions that, when executed by a computer, direct the computer to execute an image encoding method, wherein the image encoding method comprises the steps of: извлекают целевую границу фильтра удаления блочности в восстановленном кадре;extracting a target boundary of the deblocking filter in the reconstructed frame; определяют максимальную длину фильтра удаления блочности для целевой границы; иdetermining the maximum length of the deblocking filter for the target boundary; And применяют фильтр удаления блочности для целевой границы на основе максимальной длины,apply a deblocking filter to the target boundary based on the maximum length, при этом, на основе целевой границы, представляющей собой вертикальную границу, максимальная длина определяется на основе ширины по меньшей мере одного из первого блока, смежного с левой стороной целевой границы или второго блока, смежного с правой стороной целевой границы, иwherein, based on the target boundary being a vertical boundary, the maximum length is determined based on the width of at least one of the first block adjacent to the left side of the target boundary or the second block adjacent to the right side of the target boundary, and при этом, на основе целевой границы, представляющей собой горизонтальную границу, максимальная длина определяется на основе высоты по меньшей мере одного из третьего блока, смежного с верхней стороной целевой границы или четвертого блока, смежного с нижней стороной целевой границы.wherein, based on the target boundary being a horizontal boundary, the maximum length is determined based on the height of at least one of a third block adjacent to the top side of the target boundary or a fourth block adjacent to the bottom side of the target boundary. 15. Способ передачи потока битов, содержащий:15. A method for transmitting a bit stream, containing: передачу потока битов, сформированного этапами, на которых:transmission of a bit stream formed by the stages in which: извлекают целевую границу фильтра удаления блочности в восстановленном кадре;extracting a target boundary of the deblocking filter in the reconstructed frame; определяют максимальную длину фильтра удаления блочности для целевой границы; иdetermining the maximum length of the deblocking filter for the target boundary; And применяют фильтр удаления блочности для целевой границы на основе максимальной длины,apply a deblocking filter to the target boundary based on the maximum length, при этом, на основе целевой границы, представляющей собой вертикальную границу, максимальная длина определяется на основе ширины по меньшей мере одного из первого блока, смежного с левой стороной целевой границы или второго блока, смежного с правой стороной целевой границы, иwherein, based on the target boundary being a vertical boundary, the maximum length is determined based on the width of at least one of the first block adjacent to the left side of the target boundary or the second block adjacent to the right side of the target boundary, and при этом, на основе целевой границы, представляющей собой горизонтальную границу, максимальная длина определяется на основе высоты по меньшей мере одного из третьего блока, смежного с верхней стороной целевой границы или четвертого блока, смежного с нижней стороной целевой границы.wherein, based on the target boundary being a horizontal boundary, the maximum length is determined based on the height of at least one of a third block adjacent to the top side of the target boundary or a fourth block adjacent to the bottom side of the target boundary.
RU2022104065A 2019-07-19 2020-07-20 Method and device for encoding/decoding images using filtering and method for transmitting a bit stream RU2809518C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US62/875,974 2019-07-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2023132016A Division RU2023132016A (en) 2019-07-19 2020-07-20 METHOD AND DEVICE FOR ENCODING/DECODING IMAGES USING FILTERING AND METHOD FOR TRANSMITTING A BIT STREAM

Publications (2)

Publication Number Publication Date
RU2022104065A RU2022104065A (en) 2023-08-21
RU2809518C2 true RU2809518C2 (en) 2023-12-12

Family

ID=

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2355125C1 (en) * 2005-07-29 2009-05-10 Самсунг Электроникс Ко., Лтд. METHOD OF DEBLOCKING FILTRATION WITH ACCOUNT FOR intra-BL MODE AND UTILISING ITS MULTILAYER VIDEOCODER/VIDEODECODER
WO2011145601A1 (en) * 2010-05-18 2011-11-24 ソニー株式会社 Image processor and image processing method
US20160100163A1 (en) * 2014-10-07 2016-04-07 Qualcomm Incorporated Deblock filtering for intra block copying
RU2606304C2 (en) * 2011-07-19 2017-01-10 ТАГИВАН II ЭлЭлСи Filtering method, decoding method and encoding method
US20170064307A1 (en) * 2012-01-17 2017-03-02 Infobridge Pte. Ltd. Method of applying edge offset
WO2018038492A1 (en) * 2016-08-21 2018-03-01 엘지전자(주) Image coding/decoding method and apparatus therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2355125C1 (en) * 2005-07-29 2009-05-10 Самсунг Электроникс Ко., Лтд. METHOD OF DEBLOCKING FILTRATION WITH ACCOUNT FOR intra-BL MODE AND UTILISING ITS MULTILAYER VIDEOCODER/VIDEODECODER
WO2011145601A1 (en) * 2010-05-18 2011-11-24 ソニー株式会社 Image processor and image processing method
RU2606304C2 (en) * 2011-07-19 2017-01-10 ТАГИВАН II ЭлЭлСи Filtering method, decoding method and encoding method
US20170064307A1 (en) * 2012-01-17 2017-03-02 Infobridge Pte. Ltd. Method of applying edge offset
US20160100163A1 (en) * 2014-10-07 2016-04-07 Qualcomm Incorporated Deblock filtering for intra block copying
WO2018038492A1 (en) * 2016-08-21 2018-03-01 엘지전자(주) Image coding/decoding method and apparatus therefor

Similar Documents

Publication Publication Date Title
KR102745742B1 (en) Image coding method based on Transformation and apparatus
JP7141463B2 (en) Video processing method based on inter-prediction mode and apparatus therefor
JP7375152B2 (en) Video coding using conversion index
US20240163430A1 (en) Image encoding/decoding method and device using filtering, and method for transmitting bitstream
RU2809518C2 (en) Method and device for encoding/decoding images using filtering and method for transmitting a bit stream
CN114747223B (en) Image encoding/decoding method and apparatus for performing in-loop filtering based on sprite structure, and method for transmitting bitstream
CN114375574A (en) Image encoding/decoding method and apparatus for determining division mode based on prediction mode type determined according to color format, and method for transmitting bitstream
RU2809033C2 (en) Method and equipment for image encoding/decoding using quantization matrix and method for bitstream transmission
RU2811456C2 (en) Method and equipment for image encoding/decoding and method for bit stream transfer
RU2804732C2 (en) Method and device for image encoding/decoding for transmission of color signal component prediction in service signals according to whether palette mode is applicable or not, and method for bit stream transmission
RU2817300C2 (en) Method and apparatus for encoding/decoding images for transmitting carrier chrominance signal components prediction information in service signals according to whether or not palette mode is applicable, and method for transmitting bitstream
RU2815430C2 (en) Method and equipment for image encoding/decoding to perform in-loop filtration based on sub-frame structure and method for transmitting bit stream
RU2795473C1 (en) Method and equipment for image encoding/decoding using quantization matrix and method for bitstream transmission
RU2785731C1 (en) Method and equipment for encoding/decoding images and method for bitstream transmission
RU2808004C2 (en) Method and device for internal prediction based on internal subsegments in image coding system
RU2805218C2 (en) Image coding method based on transformation and a device
RU2803147C2 (en) Method and equipment for image encoding/decoding to perform internal prediction and method for bitstream transmission
RU2811779C1 (en) Image decoding method and device and image coding method and device in image coding system
RU2820843C1 (en) Bdpcm-based image encoding method and device for this
RU2827858C1 (en) Method and equipment for encoding/decoding image for performing deblocking filtering by determining boundary intensity and method for transmitting bitstream
RU2810123C2 (en) Method and equipment for image encoding/decoding to perform internal prediction and method for bitstream transmission
RU2792223C1 (en) Information coding regarding a set of transformation kernels
RU2824482C1 (en) Method and equipment for encoding/decoding images for performing internal prediction and method for transmitting bit stream
RU2827858C9 (en) Method and equipment for encoding/decoding image for performing deblocking filtering by determining boundary intensity and method for transmitting bitstream
RU2815810C2 (en) Encoding information on set of transformation kernels