RU2646384C1 - Способ и устройство декодирования видеосигнала - Google Patents
Способ и устройство декодирования видеосигнала Download PDFInfo
- Publication number
- RU2646384C1 RU2646384C1 RU2016133485A RU2016133485A RU2646384C1 RU 2646384 C1 RU2646384 C1 RU 2646384C1 RU 2016133485 A RU2016133485 A RU 2016133485A RU 2016133485 A RU2016133485 A RU 2016133485A RU 2646384 C1 RU2646384 C1 RU 2646384C1
- Authority
- RU
- Russia
- Prior art keywords
- block
- prediction
- motion vector
- correlated
- information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/40—Tree coding, e.g. quadtree, octree
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Группа изобретений относится к технологиям кодирования/декодирования видеосигнала. Техническим результатом является повышение эффективности кодирования/декодирования видеосигнала. Предложен способ декодирования видеосигнала. Способ содержит этап, на котором осуществляют декодирование информации, относящейся к межкадровому предсказанию. Далее получают вектор движения пространственного предсказания текущего блока с использованием вектора движения пространственно соседнего блока, смежного с текущим блоком. Определяют соотнесенный блок в соотнесенном изображении на основании того, прилегает ли граница текущего блока к границе наибольшего кодового блока. Получают вектор движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока, при этом вектор движения соотнесенного блока масштабируют на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока. 2 н. и 4 з.п. ф-лы, 10 ил.
Description
СПОСОБ И УСТРОЙСТВО ДЕКОДИРОВАНИЯ ВИДЕОСИГНАЛА
Настоящая заявка выделена из заявки № 2013140661 на выдачу патента РФ на изобретение, поданной 06.09.2012, с испрашиванием приоритета по дате подачи первых заявок KR 10-2011-0091782 и KR 10-2012-0039501, поданных в патентное ведомство Кореи 09.09.2011 и 17.04.2012, соответственно.
Область техники, к которой относится изобретение
Настоящее изобретение относится к способу кодирования и декодирования видео, более конкретно, настоящее изобретение относится к способу декодирования видеосигнала и устройству декодирования видеосигнала.
Уровень техники
В последнее время в различных областях возрастает спрос на видео высокого качества с высоким разрешением, такое как HD-видео (видео высокой четкости) и UHD-видео (видео сверхвысокой четкости). Поскольку приходят к видеоданным с высоким разрешением и/или с высоким качеством, то объем видеоданных относительно возрастает по сравнению с существующими видеоданными, при этом, если видеоданные передаются через обычную проводную/беспроводную широкополосную сеть или сохраняются на существующей запоминающей среде, то затраты на передачу и хранение возрастают. Для решения этой задачи, которая возникает при переходе видеоданных к высокому разрешению и высокому качеству, могут быть использованы высокоэффективные технологии сжатия видео.
Разработан ряд схем, которые могут использоваться для сжатия видео, такие как схема межкадрового предсказания, которая предсказывает значения пикселей в текущем изображении, исходя из изображения до или после текущего изображения, схема внутрикадрового предсказания, которая предсказывает значения пикселей, содержащихся в текущем изображении, используя пиксельную информацию в текущем изображении, и схема энтропийного кодирования, которая назначает более короткие кодовые слова для значений, которые встречаются более часто, и назначает более длинные кодовые слова для значений, которые встречаются менее часто. Такие схемы сжатия видео могут использоваться для эффективного сжатия, передачи или сохранения видеоданных.
Сущность изобретения
Техническая задача
Целью настоящего изобретения является обеспечение способа декодирования видеосигнала.
Другой целью настоящего изобретения является обеспечение устройства декодирования видеосигнала.
Техническое решение
Для достижения первой цели настоящего изобретения в соответствии с аспектом настоящего изобретения предлагается способ декодирования видеосигнала, содержащий получение вектора движения пространственного предсказания текущего блока с использованием вектора движения пространственно соседнего блока, смежного с текущим блоком; определение соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница текущего блока к границе наибольшего кодового блока; получение вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока, при этом вектор движения соотнесенного блока масштабируют на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока; формирование списка кандидатов в векторы движения текущего блока, при этом список кандидатов в векторы движения включает вектор движения пространственного предсказания и вектор движения временного предсказания; и выполнение межкадрового предсказания для текущего блока на основании сформированного таким образом списка кандидатов в векторы движения.
Для достижения второй цели настоящего изобретения в соответствии с аспектом настоящего изобретения предлагается устройство декодирования видеосигнала, содержащее модуль межкадрового предсказания, выполненный с возможностью получения вектора движения пространственного предсказания текущего блока с использованием вектора движения пространственно соседнего блока, смежного с текущим блоком; с возможностью определения соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница текущего блока к границе наибольшего кодового блока; с возможностью получения вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока, при этом вектор движения соотнесенного блока масштабирован на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока; с возможностью формирования списка кандидатов в векторы движения текущего блока, причем список кандидатов в векторы движения включает вектор движения пространственного предсказания и вектор движения временного предсказания; и с возможностью выполнения межкадрового предсказания для текущего блока на основании сформированного таким образом списка кандидатов в векторы движения.
В указанных аспектах изобретения прилегающая граница текущего блока и наибольшего кодового блока может представлять собой нижнюю границу.
В указанных аспектах изобретения пространственно соседний блок может представлять собой один из числа левого соседнего блока, левого нижнего соседнего блока, верхнего соседнего блока, верхнего правого соседнего блока и верхнего левого соседнего блока.
Предпочтительные результаты
Применение предлагаемых способа декодирования видеосигнала и устройства декодирования видеосигнала, как было раскрыто выше, позволяет уменьшить объем памяти, требующийся в ходе декодирования, и минимизировать сложность реализации.
Краткое описание чертежей
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 4 показана блок-схема алгоритма, иллюстрирующая способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 5 представлен концептуальный вид, иллюстрирующий положение соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 7 представлен концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
На фиг. 8 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий режим слияния в соответствии с вариантом реализации настоящего изобретения.
На фиг. 9 представлен концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияние в соответствии с вариантом реализации настоящего изобретения.
На фиг. 10 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий AMVP в соответствии с вариантом реализации настоящего изобретения.
Реализация изобретения
Для настоящего изобретения могут быть выполнены различные модификации, и настоящее изобретение может иметь несколько вариантов реализации. Частные примеры вариантов реализации раскрываются подробно со ссылкой на чертежи. Однако настоящее изобретение не ограничено частными вариантами реализации, и следует понимать, что настоящее изобретение включает в себя все модификации, эквиваленты или замены, входящие в объем и сущность настоящего изобретения. При пояснении чертежей для одинаковых элементов могут использоваться одинаковые номера.
Для описания различных элементов (или признаков) могут быть использованы термины «первый» и «второй». Однако эти элементы не ограничиваются этим. Эти термины используются только для отличия одного элемента от другого. Например, первый элемент может быть обозначен вторым элементом, а второй элемент может быть аналогично назван первым. Термин «и/или» включает в себя комбинацию множества соответствующих элементов, как здесь описано, или любой элемент из множества соответствующих элементов.
Если указано, что элемент (или признак) «подключен» или «присоединен» к другому элементу, то данный элемент может быть непосредственно присоединен или подключен к другому элементу. Напротив, если признак или элемент «непосредственно подключен или присоединен» к другому элементу, то промежуточные элементы отсутствуют.
Используемые здесь термины приведены для раскрытия вариантов реализации и не предназначены для ограничения настоящего изобретения. Единственная форма термина также включает в себя и множественную форму, если явно не указывается противоположное. Применяемые здесь термины «содержит» или «включает в себя», и т.п. служат для указания того, что имеются описываемые признаки, целые числа, шаги, операции, элементы, компоненты, части или их комбинации, но они не исключают наличие или возможность добавления одного или более признаков, целых чисел, шагов, операций, элементов, компонентов, частей или их комбинаций.
Далее подробно раскрываются предпочтительные варианты реализации настоящего изобретения со ссылкой на сопровождающие чертежи. Одинаковые числовые обозначения на чертежах относятся к одинаковым элементам, а описание одинаковых элементов не повторяется.
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 1, устройство 100 кодирования видео может включать в себя модуль 110 разделения изображения, модуль 120 межкадрового предсказания, модуль 125 внутрикадрового предсказания, модуль 130 преобразования, модуль 135 квантования, модуль 160 переупорядочивания, модуль 165 энтропийного кодирования, модуль 140 расквантования, модуль 145 обратного преобразования, модуль 150 фильтрации и память 155.
Каждый модуль на фиг. 1 показан независимо для отображения отличающихся друг от друга функций устройства кодирования видео, но это не означает, что каждый модуль выполнен в виде отдельного аппаратного или программного модульного (компонентного) блока. То есть, для удобства описания, модули показаны как выполненные независимо, и по меньшей мере два из этих модулей могут быть объединены в один модуль, или один из модулей может быть разделен на множество модулей для реализации функций. Варианты реализации с комбинированием модулей или варианты реализации с разделением модулей также входят в объем настоящего изобретения без отступления от сущности настоящего изобретения.
Кроме того, некоторые из модулей могут не быть обязательными модулями для реализации существенной функции в настоящем изобретении, а быть лишь опциональными модулями для улучшения рабочих характеристик. Настоящее изобретение может включать в себя только обязательные модули, необходимые для реализации сущности настоящего изобретения, исключая модули, используемые лишь для улучшения рабочих характеристик, и эта конфигурация также входит в объем настоящего изобретения.
Модуль 110 разделения изображения может разделять входное изображение на по меньшей мере один блок обработки. При этом блок обработки может быть блоком предсказания (PU), блоком преобразования (TU) или кодовым блоком (CU). Модуль 110 разделения изображения может кодировать изображение путем разделения одного изображения на комбинацию из множества кодовых блоков, блоков предсказания и блоков преобразования, при этом комбинация одного кодового блока, блока предсказания и блока преобразования может быть выбрана в соответствии с заданным стандартом (или критерием), например, стоимостной функцией, и может быть закодирована.
Например, одно изображение может быть разделено на множество кодовых блоков. Для разделения изображения на кодовые блоки может использоваться рекурсивная древовидная структура, такая как счетверенная древовидная структура. С изображением или наибольшим кодовым блоком в качестве корневого, кодовый блок может быть разделен на другие кодовые блоки, при этом число младших узлов равно количеству разделенных кодовых блоков. Кодовый блок, который далее не разделяется в соответствии с заданным ограничением, считается листовым узлом. Другими словами, если подразумевается, что для кодового блока доступно только квадратное разделение, то данный кодовый блок может быть разделен максимум на четыре других кодовых блока.
Далее в вариантах реализации настоящего изобретения кодовый блок может означать блок, в котором выполняют как кодирование, так и декодирование.
Блок предсказания может быть разделен с формой по меньшей мере одного квадрата или прямоугольника, имеющего одинаковый размер с кодовым блоком.
При формировании блока предсказания, в котором выполняется внутрикадровое предсказание на основании кодового блока, если данный кодовый блок не является наименьшим кодовым блоком, то внутрикадровое предсказание может выполняться без разделения блока предсказания на множество блоков предсказания NxN.
Модуль предсказания может включать в себя модуль 120 межкадрового предсказания для выполнения межкадрового предсказания и модуль 125 внутрикадрового предсказания для выполнения внутрикадрового предсказания. В отношении блока предсказания можно определить, следует ли выполнять межкадровое предсказание или внутрикадровое предсказание, и в соответствии с каждым способом предсказания можно определить конкретную информацию (например, режим внутрикадрового предсказания, вектор движения, опорное изображение и т.д.). В то же время блок обработки для выполнения предсказания может отличаться от блока обработки для определения способа предсказания и его конкретных деталей. Например, способ предсказания и режим предсказания могут быть определены блоком предсказания, а осуществление предсказания может быть выполнено в блоке преобразования. Остаточное значение (остаточный блок) между сформированным блоком предсказания и исходным блоком может подаваться в модуль 130 преобразования. Далее информация режима предсказания и информация вектора движения и т.д., используемые для предсказания, также могут кодироваться в модуле 165 энтропийного кодирования вместе с остаточным значением и затем могут быть переданы в устройство декодирования. Если используется конкретный режим кодирования, а не формируется блок предсказания с помощью модулей 120, 125 предсказания, то исходный блок, как он есть, может быть закодирован и передан в устройство декодирования.
Модуль межкадрового предсказания может предсказывать блок предсказания на основании информации по меньшей мере одного изображения из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может включать в себя модуль интерполяции опорного изображения, модуль предсказания движения и модуль компенсации движения.
Модуль интерполяции опорного изображения может принимать информацию опорного изображения из памяти 155 и может формировать пиксельную информацию в блоке, меньшем, чем блок целочисленных пикселей в опорном изображении. В случае пикселей яркости может использоваться 8-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/4 пикселя. В случае цветного сигнала может использоваться 4-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/8 пикселя.
Модуль предсказания движения может осуществлять предсказание движения на основании опорного изображения, интерполированного модулем интерполяции опорного изображения. Для получения вектора движения могут использоваться различные способы, такие как FBMA (от англ. «Full search-based Block Matching Algorithm» - алгоритм поиска совпадающих блоков на основании полного поиска), TSS (от англ. «Three Step Search» - трехшаговый поиск) или NTS (от англ. «New Three-Step Search Algorithm» - новый алгоритм трехшагового поиска) и т.п. Вектор движения может иметь значение вектора движения в блоке 1/2 пикселя или в блоке 1/4 пикселя на основании интерполированного пикселя. Модуль предсказания движения может предсказывать текущий блок предсказания путем применения различных способов предсказания движения. В качестве способа предсказания могут использоваться различные способы, такие как способ пропуска, способ слияния или способ AMVP (от англ. «Аdvanced Motion Vector Prediction» - усовершенствованное предсказание вектора движения).
В соответствии с примерным вариантом реализации настоящего изобретения, модуль межкадрового предсказания может определять, прилегает ли граница целевого блока предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный (или сорасположенный или совмещенный) блок в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCU. Например, если первый соотнесенный блок недоступен, то второй соотнесенный блок может быть определен как соотнесенный блок для получения вектора движения временного предсказания. Или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено, и первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора движения временного предсказания.
Далее, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания и определяет вектор движения временного предсказания соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с положением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно
раскрывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль межкадрового предсказания может формировать блок предсказания на основании информации об опорных пикселях, соседних с текущим блоком, которая является пиксельной информацией о пикселях в текущем изображении. Если блок, соседний для текущего блока предсказания, является блоком, к которому применяется межкадровое предсказание и, таким образом, опорный пиксель является пикселем из межкадрового предсказания, то опорный пиксель, входящий в блок, к которому применяется межкадровое предсказание, может быть заменен c использованием информации опорного пикселя блока, к которому применяется внутрикадровое предсказание. То есть, если опорный пиксель недоступен, то информация недоступного опорного пикселя может быть заменена, по меньшей мере, одним из доступных опорных пикселей.
Что касается внутрикадрового предсказания, то режимы предсказания могут включать в себя режим направленного предсказания, в котором используют информацию об опорных пикселях в соответствии с направлением предсказания, и режим ненаправленного предсказания, в котором не используется информация о направлении при осуществлении предсказания. Режим для предсказания информации о яркости может отличаться от режима предсказания информации о цвете. Кроме того, информация о режиме внутрикадрового предсказания, в котором предсказана информация о яркости, или информация о предсказанном сигнале яркости может использоваться для предсказания информации цветности.
При выполнении внутрикадрового предсказания, если размер блока предсказания такой же, как размер блока преобразования, то внутрикадровое предсказание выполняется на основании пикселей, находящихся с левой стороны блока предсказания, пикселей, находящихся вверху слева блока предсказания, и пикселей, находящихся вверху блока предсказания. Однако, при выполнении внутрикадрового предсказания, если размер блока предсказания отличается от размера блока преобразования, то внутрикадровое предсказание может выполняться с использованием опорных пикселей, основанных на блоке преобразования. Кроме того, только для наименьшего кодового блока может выполняться внутрикадровое предсказание с использованием разделения NxN.
В способе внутрикадрового предсказания блок предсказания может формироваться после применения фильтра внутрикадрового сглаживания, зависящего от режима, (MDIS-фильтра) к опорным пикселям в соответствии с режимом предсказания. К опорным пикселям могут применяться различные типы MDIS-фильтров. Для реализации способа внутрикадрового предсказания режим внутрикадрового предсказания текущего блока предсказания может предсказываться из режима внутрикадрового предсказания блока предсказания, соседнего для текущего блока предсказания. В случае, когда режим предсказания текущего блока предсказания предсказан с использованием информации о режиме, предсказанной из соседнего блока предсказания, если режим внутрикадрового предсказания текущего блока предсказания совпадает с режимом внутрикадрового предсказания соседнего блока предсказания, то для передачи информации, указывающей на то, что текущий блок предсказания идентичен в режиме предсказания с соседним блоком предсказания, может использоваться заданная флаговая информация. И если режим предсказания текущего блока предсказания отличается от режима предсказания соседнего блока предсказания, то для кодирования информации о режиме предсказания текущего блока может применяться энтропийное кодирование.
Кроме того, можно получить остаточный блок, включающий в себя информацию об остаточном значении, которое представляет собой разность между исходным блоком блока предсказания и блоком предсказания, по
которому осуществляется предсказание на основании блока предсказания, сформированного в модуле 120, 125 предсказания. Полученный остаточный блок может быть подан в модуль 130 преобразования. Модуль 130 преобразования может преобразовать остаточный блок с использованием способа преобразования, такого как DCT (дискретное косинусное преобразование) или DST (дискретное синусное преобразование). Остаточный блок включает в себя информацию остатка между блоком предсказания, сформированным с помощью модулей 120, 125 предсказания, и исходным блоком. Что следует применять, DCT или DST, для преобразования остаточного блока, можно определить на основании информации режима внутрикадрового предсказания блока предсказания, используемого для формирования остаточного блока.
Модуль 135 квантования может квантовать значения, преобразованные в частотную область модулем 130 преобразования. В зависимости от блока или важности изображения параметр квантования может меняться. Значение, полученное в модуле 135 квантования, может подаваться в модуль 140 расквантования и модуль 160 переупорядочивания.
Модуль 160 переупорядочивания может осуществлять переупорядочивание коэффициентов для квантованных остаточных значений.
Модуль 160 переупорядочивания может изменять коэффициенты формы двумерного (2D) блока в форму одномерного вектора с помощью способа сканирования коэффициента. Например, модуль 160 переупорядочивания может использовать способ диагонального сканирования от DC-коэффициентов до высокочастотных коэффициентов, тем самым упорядочивая коэффициенты в форме 2D-блока в форму одномерного вектора. В зависимости от размера модуля преобразования и режима внутрикадрового предсказания, вместо способа диагонального сканирования может использоваться способ вертикального сканирования, в котором коэффициенты в форме 2D-блока сканируются вдоль столбца или метод горизонтального сканирования, коэффициенты в форме 2D-блока сканируются вдоль ряда. Другими словами, в зависимости от размера блока преобразования и режима внутрикадрового предсказания может использоваться одно из диагонального сканирования, вертикального сканирования и горизонтального сканирования.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование на основании значений, полученных из модуля 160 переупорядочивания. Для энтропийного кодирования могут использоваться различные способы кодирования, такие как, например, экспоненциальный код Голомба, CABAC (бинарное арифметическое кодирование, адаптивное к контексту).
Модуль 165 энтропийного кодирования может кодировать различную информацию, предоставляемую модулем 160 переупорядочивания и модулями 120, 125 предсказания, такую как информация об остаточных коэффициентах и информация о типе блока кодового блока, информация режима предсказания, информация блока разделения, информация блока предсказания и информация блока передачи, информация вектора движения, информация опорного кадра, информация интерполяции для блока, информация фильтрации и информация о размере LCU.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование значений коэффициентов кодового блока, как входящего из модуля 160 переупорядочивания, с использованием способа энтропийного кодирования, такого как САВАС.
Модуль 140 расквантования может осуществлять расквантование значений, квантованных модулем 135 квантования, а модуль 145 обратного преобразования может осуществлять обратное преобразование значений, преобразованных модулем 130 преобразования. Остаточное значение, формируемое модулем 140 расквантования и модулем 145 обратного преобразования, может добавляться к блоку предсказания, предсказанному с помощью модуля оценки движения, модуля компенсации движения и модуля внутрикадрового предсказания, входящих в модуль 120, 125 предсказания, тем самым формируя восстановленный блок.
Модуль 150 фильтрации может включать в себя по меньшей мере одно из фильтра деблокирования, модуля коррекции смещения и ALF (адаптивный фильтр с обратной связью).
Фильтр деблокирования может устранять блочное искажение, возникающее из-за границы блока в восстановленном (или реконструированном) изображении. Следует ли применять фильтр деблокирования к текущему блоку, можно определить с помощью пикселя, входящего в несколько столбцов или рядов, входящих в блоки. При применении деблокирующего фильтра к блоку, может применяться сильный фильтр или слабый фильтр в зависимости от требуемой силы фильтрации деблокирования. Кроме того, при применении деблокирующего фильтра к блоку, фильтрация горизонтального направления и фильтрация вертикального направления могут осуществляться параллельно.
Модуль коррекции смещения может корректировать смещение между исходным изображением и изображением с деблокированием в пиксельном блоке (или попиксельно). Чтобы выполнить коррекцию смещения для конкретного изображения, пиксели, имеющиеся в изображении, делят на заданное число областей, одну из которых затем выбирают для выполнения смещения, при этом может использоваться способ применения смещения к соответствующей области, или способ применения смещения с учетом краевой информации каждого пикселя.
ALF (адаптивный фильтр с обратной связью) может выполнять фильтрацию на основании значения, полученного сравнением фильтрованного восстановленного (или реконструированного) изображения, и исходного изображения. Пиксели, содержащиеся в изображении, делят на заданные группы, и затем определяют один фильтр, применяемый к соответствующей группе, выполняя, тем самым, фильтрацию для каждой группы дискриминационным образом. В отношении информации о том, следует ли применять ALF, сигнал яркости может передаваться для каждого кодового блока, а применяемый размер и коэффициент ALF могут различаться для каждого блока. ALF может иметь различные формы, а количество коэффициентов в данном фильтре может меняться соответственно. Информация, относящаяся к фильтрации такого ALF (информация о коэффициентах фильтра, информация о включении/выключении ALF или информация о форме фильтра) может передаваться, будучи включенной в заданный набор параметров битового потока.
Память 155 может сохранять восстановленный блок или изображение, формируемое с помощью модуля 150 фильтрации, а сохраненный восстановленный блок или изображение могут передаваться в модуль 120, 125 предсказания при выполнении межкадрового предсказания.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
Согласно фиг. 2, видеодекодер может включать в себя модуль 210 энтропийного декодирования, модуль 215 переупорядочивания, модуль 220 расквантования, модуль 225 обратного преобразования, модуль 230 и 235 предсказания, модуль 240 фильтрации и память 245.
Если битовый поток видео поступает из видеокодера, то данный входящий битовый поток может быть декодирован в процессе, обратном происходящему в видеокодере.
Модуль 210 энтропийного декодирования может осуществлять энтропийное декодирование в процессе, обратном энтропийному кодированию, выполняемому в модуле энтропийного кодирования видеокодера. Из фрагментов информации, декодируемой модулем 210 энтропийного декодирования, информация, используемая для получения блока предсказания, такая как информация о размере LCU или информация о размере блока, подается в модуль 230 и 235 предсказания, а остаточные значения, полученные с помощью энтропийного декодирования в модуле энтропийного декодирования, могут подаваться в модуль 215 переупорядочивания.
Модуль 210 энтропийного декодирования может декодировать информацию, относящуюся к внутрикадровому предсказанию и межкадровому предсказанию, выполняемым в кодере. Как было раскрыто выше, при наличии заданного ограничения, если видеокодер осуществляет внутрикадровое предсказание и межкадровое предсказание, то энтропийное декодирование осуществляется на основании такого ограничения, с получением при этом информации, относящейся к внутрикадровому предсказанию и межкадровому предсказанию для текущего блока.
Модуль 215 переупорядочивания может осуществлять переупорядочивание на основании способа, которым кодер переупорядочивает битовый поток, который энтропийно декодирован в модуле 210 энтропийного декодирования. Такое переупорядочивание может быть выполнено путем восстановления коэффициентов, представленных в форме одномерных векторов, в форму 2D-блока коэффициентов.
Модуль 220 расквантования может осуществлять расквантование на основании блока переупорядоченных коэффициентов и параметров квантования, полученных из кодера.
Модуль 225 обратного преобразования может осуществлять обратное DCT-преобразование и обратное DST-преобразование, по отношению к DCT- и DST-преобразованиям, выполненным модулем преобразования, над результатом квантования, выполненного видеокодером. Обратное преобразование может выполняться на основании блока преобразования, определенного видеокодером. Модуль преобразования видеокодера может выборочно осуществлять DCT- и DST-преобразования в зависимости от совокупности информации, такой как способ предсказания, размер текущего блока и направление предсказания, а модуль 225 обратного преобразования видеодекодера может осуществлять обратное преобразование на основании информации преобразования, выполненного в модуле преобразования видеокодера.
Модуль 230 и 235 предсказания может формировать блок предсказания на основании предварительно декодированного блока или предварительно декодированной информации изображения, полученных из памяти 245, и информации, относящейся к формированию блока предсказания, полученной из модуля 210 энтропийного декодирования.
Модуль 230 и 235 предсказания может включать в себя модуль определения блока предсказания, модуль межкадрового предсказания и модуль внутрикадрового предсказания. Модуль определения блока предсказания может принимать различную информацию, включая информацию о режиме предсказания в способе внутрикадрового предсказания, информацию, относящуюся к предсказанию движения в способе межкадрового предсказания и информацию блока предсказания, а также различную информацию, поступающую из модуля энтропийного декодирования. Модуль определения блока предсказания может выделять блок предсказания из текущего кодового блока, а также может определять, осуществляется межкадровое предсказание или осуществляется внутрикадровое предсказание для блока предсказания. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания в соответствии с информацией, содержащейся, по меньшей мере, в одном изображении из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания с использованием информации, необходимой для межкадрового предсказания текущего блока предсказания, полученного из видеокодера.
Для реализации межкадрового предсказания можно определить, какой режим из режима пропуска, режима слияния и режима AMVP является способом предсказания движения для блока предсказания, имеющегося в соответствующем кодовом блоке, на основании данного кодового блока.
В соответствии с вариантом реализации настоящего изобретения модуль межкадрового предсказания может определять, прилегает ли целевой блок предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный блок в соответствии с определением того, прилегает ли целевой блок предсказания к границе LCU. Например, если определено, что первый соотнесенный блок недоступен, то в качестве соотнесенного блока для получения вектора временного предсказания движения может быть определен второй соотнесенный блок, или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено так, что первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора временного предсказания движения. Кроме того, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания, а также определяет вектор предсказания движения соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с местоположением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно описывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль внутрикадрового предсказания может формировать блок предсказания на основании пиксельной информации в текущем изображении. Если блок предсказания является блоком, к которому применяется внутрикадровое предсказание, то внутрикадровое предсказание может осуществляться на основании информации режима внутрикадрового предсказания блока предсказания, полученного из видеокодера. Модуль внутрикадрового предсказания может включать в себя MDIS-фильтр, модуль интерполяции опорного пикселя и DC-фильтр. MDIS-фильтр осуществляет фильтрацию по опорному пикселю текущего блока. Для MDIS-фильтра можно определить, применять ли фильтр, в соответствии с режимом предсказания текущего блока предсказания. Фильтрация по опорному пикселю текущего блока может осуществляться с использованием информации МDIS-фильтра и режима предсказания блока предсказания, полученных из видеокодера. Если режим предсказания текущего блока является режимом, который не осуществляет фильтрацию, то MDIS-фильтр может не применяться.
Если режим предсказания блока предсказания является режимом предсказания, в котором межкадровое предсказание осуществляется на основании пиксельных значений, полученных интерполяцией опорного пикселя, то путем интерполяции опорных пикселей можно определить опорный пиксель в блоке, меньшем, чем целое значение пикселя. Если режим предсказания текущего блока предсказания является режимом предсказания, в котором блок предсказания формируют без интерполяции опорного пикселя, то опорный пиксель можно не подвергать интерполяции. DC-фильтр может формировать блок предсказания посредством фильтрации, если режим предсказания текущего блока является DC-режимом.
Восстановленный блок или изображение могут быть поданы в модуль 240 фильтрации. Модуль 240 фильтрации может включать в себя фильтр деблокирования, модуль коррекции смещения и ALF.
Информация о том, применялся ли соответствующий блок или изображение с фильтром деблокирования, может подаваться из кодера видео (или изображения). Если был применен фильтр деблокирования, то из видеокодера может поступить информация о том, применяемый фильтр деблокирования является сильным фильтром или слабым фильтром. Фильтр деблокирования видеодекодера может получать относящуюся к фильтру деблокирования информацию из видеокодера, при этом может осуществляться деблокирующая фильтрация для соответствующего блока в видеодекодере. Аналогично видеокодеру, видеодекодер может сначала осуществлять вертикальную деблокирующую фильтрацию и горизонтальную деблокирующую фильтрацию. Перекрывающаяся область (области) могут подвергаться, по меньшей мере, одному из вертикального деблокирования и горизонтального деблокирования. В области, где вертикальная деблокирующая фильтрация и горизонтальная деблокирующая фильтрация перекрывают друг друга, может осуществляться либо вертикальная деблокирующая фильтрация, либо горизонтальная деблокирующая фильтрация, которая до этого могла не осуществляться для этой области. Такой процесс деблокирующей фильтрации обеспечивает возможность параллельной обработки деблокирующей фильтрации.
Модуль коррекции смещения может осуществлять коррекцию смещения для восстановленного изображения на основании типа коррекции смещения, применяемого к изображению в процессе кодирования, и информации о значении смещения в процессе кодирования.
ALF может осуществлять фильтрацию согласно сравнению между восстановленным изображением после фильтрации, и исходным изображением. ALF может осуществляться для кодового блока на основании информации о том, применяется ли ALF, и информации о коэффициентах ALF, полученных из кодера. Такая информация об ALF может быть обеспечена путем включения в набор конкретных параметров.
Память 245 может сохранять восстановленное изображение или восстановленный блок, чтобы использовать это в качестве опорного изображения или опорного блока, а также может подавать восстановленное изображение в отображающий модуль.
Как было раскрыто выше, хотя в варианте реализации настоящего изобретения для удобства описания используется термин «кодовый блок», кодовый блок также может использоваться как блок декодирования. Способ предсказания в соответствии с вариантом реализации настоящего изобретения, описываемый далее со ссылкой на фиг. 3-11, может осуществляться таким элементом, как модуль предсказания, показанный на фиг. 1 и 2.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 3, вектор движения временного предсказания может быть получен на основании значения вектора движения соотнесенного блока (colPu) в соотнесенном изображении (colPic).
Соотнесенное изображение является изображением, содержащим соотнесенный блок для получения информации, относящейся к вектору движения временного предсказания, при выполнении способа межкадрового предсказания, такого как слияние или AMVP. Соотнесенный блок может быть определен как блок, содержащийся в соотнесенном изображении, при этом соотнесенный блок определяется на основании информации о местоположении целевого блока предсказания и имеет временную фазу, отличающуюся от целевого блока предсказания.
Для одного целевого блока предсказания может быть множество соотнесенных блоков. Информация, относящаяся к движению соотнесенного блока, имеющегося в соотнесенном изображении, может сохраняться как одно репрезентативное значение по отношению к предварительно заданному блоку. Например, по отношению к блоку с размером 16х16, информация, относящаяся к предсказанию движения (вектор движения, опорное изображение и т.п.) может быть определена и сохранена в качестве одного репрезентативного значения в блоке 16х16.
На фиг. 4 показана схема алгоритма, иллюстрирующая способ определения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Далее в настоящем документе, способ получения вектора движения временного предсказания, который раскрывается ниже, может использоваться в способе межкадрового предсказания, таком как режим слияния или режим AMVP. Способ получения вектора движения временного предсказания может быть способом получения временного блока-кандидата (соотнесенного блока) для реализации режима слияния, способом получения временного блока-кандидата (соотнесенного блока) для реализации режима AMVP и способом получения вектора движения временного предсказания.
Далее в настоящем документе, в варианте реализации настоящего изобретения «соотнесенный блок» может определяться и использоваться в качестве термина, обозначающего временной блок-кандидат, используемый в режиме слияния и режиме AMVP.
Согласно фиг. 4, получают информацию соотнесенного изображения (шаг S400).
Информация о местоположения целевого блока предсказания, информация о размере целевого блока предсказания и информация индекса опорного изображения целевого блока предсказания может использоваться для получения информации соотнесенного изображения, информации соотнесенного блока и вектора движения временного предсказания.
В соответствии с вариантом реализации настоящего изобретения, информация соотнесенного изображения может быть получена на основании информации типа слайса (slice_type), информации списка опорных изображений (collocated_from_l0_flag) и информации индекса опорного изображения (collocated_ref_idx). При использовании информации списка опорных изображений (collocated_from_l0_flag), если информация списка опорных изображений (collocated_from_l0_flag) указывает 1, это означает, что соотнесенное изображение находится в первом списке опорных изображений (List 0), а если информация списка опорных изображений (collocated_from_l0_flag) указывает 0, это означает, что соотнесенное изображение находится во втором списке опорных изображений (List 1).
Например, если тип слайса - это В-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 0, то соотнесенное изображение может быть определено как изображение, содержащееся во втором списке опорных изображений, а если типа слайса - это В-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 1, или если тип слайса - это Р-слайс, то соотнесенное изображение может быть определено как изображение, входящее в первый список опорных изображений.
В случае способа межкадрового предсказания, использующего режим слияния, если удовлетворено заданное условие, то информация индекса опорного изображения соседнего блока в конкретном положении может быть определена в качестве информации для соотнесенного изображения, а если заданное условие не удовлетворено, то предыдущее изображение для текущего изображения может быть определено в качестве соотнесенного изображения.
Получают информацию соотнесенного блока (шаг S410).
Информацию для соотнесенного блока можно получить различным образом в зависимости от того, прилегает ли часть (или участок) целевого блока предсказания к границе LCU (наибольшего кодового блока). Далее в настоящем документе со ссылкой на фиг. 5-9 раскрывается способ определения соотнесенного блока в зависимости от положения целевого блока предсказания и границы LCU.
На фиг. 5 показан концептуальный вид, иллюстрирующий местоположение соотнесенного блока для получения временного вектора движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 5, в качестве соотнесенных блоков для получения временного вектора движения могут использоваться блоки в различных положениях по отношению к целевому блоку предсказания. Соотнесенные блоки, которые могут использоваться для получения временного вектора движения, могут классифицироваться в зависимости от местоположений следующим образом.
Если точка, находящаяся слева-сверху целевого блока предсказания, равна (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то первый соотнесенный блок 500 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH) в соотнесенном
изображении, второй соотнесенный блок 510 может быть блоком, содержащим точку (xP+nPSW-MinPuSize, yP+nPSH) в соотнесенном изображении, третий соотнесенный блок 520 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH-MinPuSize) в соотнесенном изображении, четвертый соотнесенный блок 530 может быть блоком, содержащим точку (xP+nPSW-1, yP+nPSH-1) в соотнесенном изображении, пятый соотнесенный блок 540 может быть блоком, содержащим точку (xP+(nPSW>>1), yP+(nPSH>>1)) в соотнесенном изображении и шестой соотнесенный блок 550 может быть блоком, содержащим точку (xP+(nPSW>>1)-1, yP+(nPSH>>1)-1) в соотнесенном изображении.
Соотнесенный блок может адаптивно определяться в соответствии с положением текущего блока предсказания, расположенного в LCU. Позиционное соотношение между целевым блоком предсказания и границей LCU можно классифицировать на следующие случаи: 1) когда нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, 2) когда только нижний край целевого блока предсказания прилегает к границе LCU, 3) когда и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, и 4) когда только правая сторона целевого блока предсказания прилегает к границе LCU.
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться различным образом в зависимости от положения целевого блока предсказания в LCU.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то третий соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то четвертый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то второй соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
То есть, в соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат можно адаптивно определить в зависимости от местоположения текущего блока в LCU. Положения пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока не прилегает к границе LCU. При этом положения пикселей для указания временного блока-кандидата для случая, когда нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата для случая, когда только правая граница текущего блока прилегает к границе LCU.
В соответствии с другим вариантом реализации настоящего изобретения может использоваться способ, в котором соотнесенный блок может определяться (или выбираться) адаптивно и иначе в зависимости от положения целевого блока предсказания в LCU так, чтобы соотнесенный блок и целевой блок предсказания находились в том же самом LCU, или соотнесенный блок может не использоваться, если соотнесенный блок и целевой блок предсказания не находятся в одном и том же LCU.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора предсказания движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 6, могут быть известны положения соотнесенных блоков совокупности блоков предсказания, находящихся в LCU.
В случае PU0, PU1, PU2 и PU5, блоки предсказания являются блоками предсказания внутри LCU, и первый соотнесенный блок может первым использоваться в качестве соотнесенного блока для получения временнóго вектора движения.
В случае PU4 и PU7, границы блоков предсказания прилегают только к нижней границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться третий соотнесенный блок.
В случае PU8, граница блока предсказания прилегает как к нижней границе, так и к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться четвертый соотнесенный блок.
В случае PU3 и PU6, границы блоков предсказания прилегают только к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться второй соотнесенный блок.
То есть, как было раскрыто выше, временной блок-кандидат адаптивно определяется в зависимости от местоположения текущего блока в LCU, а положения пикселей для указания временного блока-кандидата в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда нижняя граница текущего блока не прилегает к границе LCU (случаи PU0, PU1, PU2, PU3, PU5 и PU6), отличаются друг от друга. Кроме того, положения пикселей для указания временного блока-кандидата могут отличаться в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда только правая граница текущего блока прилегает к границе LCU (случаи PU3 и PU6).
В соответствии с другим вариантом реализации настоящего изобретения, до тех пор, пока соотнесенный блок находится в том же LCU, что и целевой блок предсказания, соотнесенный блок адаптивно и иначе определяется в зависимости от положения целевого блока предсказания в LCU. Если конкретный соотнесенный блок не находится в том же LCU, что и целевой блок предсказания, то такой конкретный соотнесенный блок может быть недоступным. Например, если нижняя граница блока предсказания прилегает к нижней границе LCU подобно PU4, PU7 и PU8, то первый соотнесенный блок может быть отмечен (или указан) как недоступный, и вместо него может использоваться пятый соотнесенный блок в качестве соотнесенного блока для определения временного вектора движения.
Как таковой, в качестве способа определения соотнесенного блока может быть использован способ, в котором, классифицируя характеристики целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, выбирают блок для использования в качестве соотнесенного блока в зависимости от классифицированного положения целевого блока предсказания. Предпочтительно, подразумевается, что первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока для получения временного вектора движения. После проверки доступности первого соотнесенного блока (например, прилегает ли нижняя граница целевого блока предсказания к LCU) соотнесенный блок, отличающийся от первого соотнесенного блока, может быть определен как соотнесенный блок для получения временного вектора движения. Например, если первый соотнесенный блок определен как недоступный посредством шагов определения того, прилегает ли целевой блок предсказания к границе LCU (наибольшего кодового блока), то соотнесенный блок для получения временного вектора движения может быть изменен на другой соотнесенный блок (например, третий соотнесенный блок), или же может использоваться непосредственно пятый соотнесенный блок без использования первого соотнесенного блока.
В частности, вышеуказанный способ может осуществляться посредством следующих шагов:
1) Шаг определения, прилегает ли граница целевого блока предсказания к границе LCU (наибольший кодовый блок),
2) Шаг определения, доступен ли первый соотнесенный блок, в зависимости о того, прилегает ли граница целевого блока предсказания к границе LCU. В частности, на шаге 2), если нижняя граница целевого блока предсказания прилегает к границе LCU, то можно определить, что первый соотнесенный блок недоступен,
3) Шаг определения соотнесенного блока, отличающегося от первого соотнесенного блока, в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок недоступен. В частности, на шаге 3) в случае, если нижняя граница целевого блока предсказания прилегает к границе LCU, и в случае, если правая граница целевого блока предсказания прилегает к границе LCU, в качестве соотнесенных блоков для получения временного вектора движения могут быть определены отличающиеся соотнесенные блоки для каждого отличающегося случая,
4) Шаг определения первого соотнесенного блока в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок доступен, и определения доступности пятого соотнесенного блока, если первый соотнесенный блок недоступен.
Вышеуказанные шаги могут быть опциональными шагами, и соотношение последовательности шагов или способа определения может меняться без отступления от сущности настоящего изобретения.
На фиг. 7 показан концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 7, показан случай, когда местоположение соотнесенного блока изменяется, если целевой блок предсказания (PU, PU7 или PU8) расположен у нижней границы LCU. Если целевой блок предсказания (PU4, PU7 или PU8) расположен у нижней границы LCU, то местоположение соотнесенного блока может быть установлено так, что информация, относящаяся к предсказанию движения, может быть получена даже без поиска LCU, расположенного под текущим LCU, среди LCU-блоков. Например, вектор движения временного предсказания можно получить с использованием третьего соотнесенного блока, а не первого соотнесенного блока целевого блока предсказания. 1) если прилегает только правая граница LCU, то, в зависимости от доступности, первый соотнесенный блок и пятый соотнесенный блок последовательно определяются в качестве соотнесенного блока для получения вектора движения временного предсказания, 2) если прилегает нижняя граница LCU, то, в зависимости от доступности, в качестве соотнесенного блока для получения вектора движения временного предсказания могут быть последовательно определены третий соотнесенный блок и пятый соотнесенный блок. То есть, в соответствии с вариантом реализации настоящего изобретения, положения пикселей для указания временного блока-кандидата могут отличаться для случая, когда нижняя граница текущего блока прилегает к границе LCU, и для случая, когда нижняя граница текущего блока не прилегает к границе LCU.
Возвращаясь к фиг. 4, на основании соотнесенного блока, определенного с помощью способа, раскрытого выше применительно к фиг. 5-7, определяют вектор предсказания движения (mvLXCol) соотнесенного блока и информацию (availableFlagLXCol) о доступности соотнесенного блока (шаг S420).
Информация (availableFlagLXCol) доступности соотнесенного блока и вектор (mvLXCol) движения соотнесенного блока, которые следует использовать для межкадрового предсказания целевого блока предсказания на основании информации соотнесенного блока, определенной с помощью процедур, показанных на фиг. 5-7, могут быть получены следующим способом:
1) Если соотнесенный блок (colPu) закодирован на основании режима внутрикадрового предсказания, если соотнесенный блок (colPu) недоступен, если соотнесенное изображение (colPic) недоступно для предсказания вектора движения временного предсказания, или если межкадровое предсказание осуществляется без использования вектора движения временного предсказания, то вектор (mvLXCol) движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть заданы как 0.
2) В отличие от случая 1), информация (mvLXCol) вектора движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть получены с помощью флага (PredFlagL0) и флага (PredFlagL1), где флаг (PredFlagL0) указывает, используется или нет список L0, а флаг (PredFlagL1) указывает, используется или нет список L1.
Во-первых, если определено, что межкадровое предсказание выполнено по соотнесенному блоку без использования списка L0 (флаг (PredFlagL0) равен 0), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol могут быть заданы как L1 и MvL1[xPCol][yPCol], RefIdxL1[xPCol][yPCol], которые являются информацией соотнесенного блока, относящейся к предсказанию движения, полученной с использованием списка L1, при этом информация (availableFlagLXCol) доступности соотнесенного блока может быть задана как 1.
В других случаях, если определено, что межкадровое предсказание выполнено по соотнесенному блоку с использованием списка L0 (флаг (PredFlagL0) равен 1), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol может задаваться отдельно для случая, когда PredFlagL1 равен 0 и для случая, когда PredFlagL1 равен 1, и информация (availableFlagLXCol) доступности соотнесенного блока может быть установлена как 1.
Полученный mvLXCol масштабируют (шаг S430).
Для использования mvLXCol, полученного на шаге S420 в качестве вектора движения временного предсказания для целевого блока предсказания, полученное значение mvLXCol может масштабироваться на основании информации расстояния, относящейся к расстоянию между соотнесенным изображением, содержащим соотнесенный блок и опорным изображением соотнесенного блока, на которое ссылается соотнесенный блок, и к расстоянию между изображением, содержащим целевой блок предсказания, и опорным изображением, на которое ссылается целевой блок предсказания. После масштабирования полученного значения mvLXCol может быть получен вектор движения временного предсказания.
Далее в настоящем документе, в соответствии с вариантом реализации настоящего изобретения, раскрывается способ реализации межкадрового предсказания, такой как слияние и AMVP.
На фиг. 8 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующего режим слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 8, из пространственного кандидата на слияние может быть получена информация, относящаяся к предсказанию движения (шаг S1000).
Пространственный кандидат на слияние может быть получен из соседних блоков предсказания целевого блока предсказания. Для получения пространственного кандидата на слияние может быть получена информация о ширине и высоте блока предсказания, информация MER (области оценки движения), информация singleMCLFlag и информация о положении частей. На основании такой входной информации можно получить информацию (availableFlagN) доступности в соответствии с положением пространственного кандидата на слияние, информацию (refldxL0, refldxL1) опорного изображения, информацию (predFlagL0N, redFlagL1N) использования списка и информацию (mvL0N, mvL1N) вектора движения. Множество блоков, соседних для целевого блока предсказания, могут быть пространственными кандидатами на слияние.
На фиг. 9 показан концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 9, если положение точки вверху слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то пространственный кандидат на слияние может быть блоком A0, содержащим точку (xP-1, yP+nPSH), блоком A1, содержащим точку (xP-1, yP+nPSH-MinPuSize), блоком B0, содержащим точку (xP+nPSW, yP-1), блоком B1, содержащим точку (xP+nPSW-MinPuSize, yP-1) и блоком B2, содержащим точку (xP-MinPuSize, yP-1).
Вернемся к фиг. 8, где определяют значение индекса опорного изображения временного кандидата на слияние (шаг S1010).
Значение индекса опорного изображения временного кандидата на слияние как значение индекса соотнесенного изображения, содержащего временной кандидат на слияние (соотнесенный блок), может быть получено при следующих конкретных условиях. Данные условия являются произвольными и могут варьироваться. Например, в случае, когда положение точки сверху-слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW и высота целевого блока предсказания равна nPSH, если 1) существует соседний блок предсказания целевого блока предсказания, соответствующий положению (xP-1, yP+nPSH-1) (далее обозначаемый как соседний блок предсказания для получения индекса опорного изображения), 2) значение индекса деления соседнего блока предсказания для определения индекса опорного изображения равно 0, 3) соседний блок предсказания для вывода индекса опорного изображения не является блоком, по которому осуществляется предсказание с использованием режима внутрикадрового предсказания, и 4) целевой блок предсказания и соседний блок предсказания для вывода индекса опорного изображения не принадлежат одной и той же MER (области оценки движения), то значение индекса опорного изображения временного кандидата на слияние может быть определено как то же самое значение, что
и значение индекса опорного изображения соседнего блока предсказания для получения индекса опорного изображения. Если эти условия не удовлетворяются, то значение индекса опорного изображения временного кандидата на слияние может быть задано равным 0.
Определяют временной блок-кандидат на слияние (соотнесенный блок), и из соотнесенного блока получают информацию, относящуюся к предсказанию движения (шаг S1020).
В соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат на слияние (соотнесенный блок) может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCU так, чтобы соотнесенный блок находился в том же самом LCU, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения может использоваться способ, обеспечивающий возможность определять соотнесенный блок адаптивно и иначе, в зависимости от положения целевого блока предсказания в LCU, чтобы находиться в положении, находящемся в одном LCU вместе с целевым блоком предсказания, или соотнесенный блок, не находящийся в одном LCU вместе с целевым блоком предсказания, может не использоваться.
Как было раскрыто выше, в качестве способа получения соотнесенного блока может использоваться способ разделения характеристик целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, и определения блока для немедленного использования в качестве соотнесенного блока в зависимости от положения выделенного целевого блока предсказания. Однако, первый соотнесенный блок и пятый соотнесенный блок могут сначала считаться последовательно используемыми в качестве соотнесенных блоков для получения временного вектора движения, при этом определяют, доступен ли первый соотнесенный блок (например, прилегает ли нижняя граница целевого блока предсказания к LCU), и затем в качестве соотнесенного блока для определения временного вектора движения может определяться соотнесенный блок, отличающийся от первого соотнесенного блока.
Конфигурируют список кандидатов на слияние (шаг S1030).
Список кандидатов на слияние может формироваться с включением в него, по меньшей мере, одного из пространственных кандидатов на слияние и временного кандидата на слияние. Пространственные кандидаты на слияние и временной кандидат на слияние, входящие в список кандидатов на слияние, можно упорядочить с заданным приоритетом.
Список кандидатов на слияние может быть созданным с входящим в него фиксированным числом кандидатов на слияние, и если число кандидатов на слияние меньше, чем данное фиксированное число, то информация, относящаяся к предсказанию движения и принадлежащая кандидатам на слияние, комбинируется для формирования кандидатов на слияние, или в качестве кандидатов на слияния формируются нулевые векторы, формируя, таким образом, список кандидатов на слияние.
На фиг. 10 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания с использованием AMVP в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 10, из пространственных блоков-кандидатов AMVP получают информацию, относящуюся к предсказанию движения (шаг S1200).
Для получения информации индекса опорного изображения и вектора предсказания движения целевого блока предсказания, пространственный блок(и)-кандидат(ы) AMVP можно определить из блоков предсказания, соседних для целевого блока предсказания.
Вернемся к фиг. 9, согласно которой в качестве первого пространственного блока-кандидата AMVP можно использовать один из блока А0 и блока А1, а в качестве второго пространственного блока-кандидата AMVP можно использовать один из блока В0, блока В1 и блока В2, определяя таким образом пространственные блоки-кандидаты AMVP.
Из временного блока-кандидата AMVP получают информацию, относящуюся к предсказанию движения (шаг S1210).
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCU так, чтобы соотнесенный блок находился в том же самом LCU, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения, может применяться способ, в котором соотнесенный блок, не находящийся в том же самом LCU, что и целевой блок предсказания, может не использоваться, а также способ, в котором соотнесенный блок адаптивно определяется в зависимости от местоположения целевого блока предсказания в LCU, чтобы иметь местоположение, входящее в тот же самый LCU, что и целевой блок предсказания.
На шаге S1200 получения пространственных блоков-кандидатов AMVP, если первый пространственный блок-кандидат AMVP и второй пространственный блок-кандидат AMVP определены как доступные, и значения полученных векторов предсказания движения не одинаковы, то шаг S1210 получения вектора движения временного предсказания можно не выполнять.
Создают список кандидатов AMVP (шаг S1220).
Список кандидатов AMVP создается с использованием информации, относящейся к предсказанию движения, полученной при выполнении по меньшей мере одного из шагов S1200 и S1210. Если в созданном списке кандидатов AMVP имеется такая же информация, относящаяся к предсказанию движения, то в качестве значения кандидата AMVP может использоваться одно значение среди одинаковых информаций, относящихся к предсказанию движения. Информация, относящаяся к предсказанию движения, входящая в список кандидатов AMVP, может содержать только фиксированное число значений кандидатов.
Хотя в настоящем документе раскрыты данные варианты реализации настоящего изобретения, для специалиста в области техники, к которой относится изобретение, очевидно, что могут быть сделаны различные изменения и модификации настоящего изобретения без отступления от сущности и объема настоящего изобретения.
Claims (15)
1. Способ декодирования видеосигнала, содержащий:
декодирование информации, относящейся к межкадровому предсказанию;
получение вектора движения пространственного предсказания текущего блока с использованием вектора движения пространственно соседнего блока, смежного с текущим блоком;
определение соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница текущего блока к границе наибольшего кодового блока;
получение вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока, при этом вектор движения соотнесенного блока масштабируют на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока;
формирование списка кандидатов в векторы движения текущего блока, при этом список кандидатов в векторы движения включает вектор движения пространственного предсказания и вектор движения временного предсказания; и
выполнение межкадрового предсказания для текущего блока на основании сформированного таким образом списка кандидатов в векторы движения и указанной декодированной информации.
2. Способ по п. 1, отличающийся тем, что прилегающая граница текущего блока и наибольшего кодового блока представляет собой нижнюю границу.
3. Способ по п. 1, отличающийся тем, что пространственно соседний блок представляет собой один из числа левого соседнего блока, левого нижнего соседнего блока, верхнего соседнего блока, верхнего правого соседнего блока и верхнего левого соседнего блока.
4. Устройство декодирования видеосигнала, содержащее модуль энтропийного декодирования, выполненный с возможностью декодирования информации, относящейся к межкадровому предсказанию; и модуль межкадрового предсказания, выполненный с возможностью получения вектора движения пространственного предсказания текущего блока с использованием вектора движения пространственно соседнего блока, смежного с текущим блоком; с возможностью определения соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница текущего блока к границе наибольшего кодового блока;
с возможностью получения вектора движения временного предсказания текущего блока путем масштабирования вектора движения соотнесенного блока, при этом вектор движения соотнесенного блока масштабирован на основании временного расстояния между текущим изображением, содержащим текущий блок, и опорным изображением текущего блока;
с возможностью формирования списка кандидатов в векторы движения текущего блока, причем список кандидатов в векторы движения включает вектор движения пространственного предсказания и вектор движения временного предсказания; и
с возможностью выполнения межкадрового предсказания для текущего блока на основании сформированного таким образом списка кандидатов в векторы движения и указанной декодированной информации.
5. Устройство по п. 4, отличающееся тем, что прилегающая граница текущего блока и наибольшего кодового блока представляет собой нижнюю границу.
6. Устройство по п. 4, отличающееся тем, что пространственно соседний блок представляет собой один из числа левого соседнего блока, левого нижнего соседнего блока, верхнего соседнего блока, верхнего правого соседнего блока и верхнего левого соседнего блока.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0091782 | 2011-09-09 | ||
KR20110091782 | 2011-09-09 | ||
KR10-2012-0039501 | 2012-04-17 | ||
KR1020120039501A KR101204026B1 (ko) | 2011-09-09 | 2012-04-17 | 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013140661/08A Division RU2600547C2 (ru) | 2011-09-09 | 2012-09-06 | Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2646384C1 true RU2646384C1 (ru) | 2018-03-02 |
Family
ID=47832709
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016133579A RU2716563C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133570A RU2716231C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133580A RU2716229C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133546A RU2636118C1 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2013140661/08A RU2600547C2 (ru) | 2011-09-09 | 2012-09-06 | Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ |
RU2016133501A RU2622849C1 (ru) | 2011-09-09 | 2012-09-06 | Способ и устройство декодирования видеосигнала |
RU2016133566A RU2716230C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133485A RU2646384C1 (ru) | 2011-09-09 | 2012-09-06 | Способ и устройство декодирования видеосигнала |
RU2016133536A RU2636117C1 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133481A RU2635235C1 (ru) | 2011-09-09 | 2012-09-06 | Способ и устройство декодирования видеосигнала |
Family Applications Before (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016133579A RU2716563C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133570A RU2716231C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133580A RU2716229C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133546A RU2636118C1 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2013140661/08A RU2600547C2 (ru) | 2011-09-09 | 2012-09-06 | Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ |
RU2016133501A RU2622849C1 (ru) | 2011-09-09 | 2012-09-06 | Способ и устройство декодирования видеосигнала |
RU2016133566A RU2716230C2 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016133536A RU2636117C1 (ru) | 2011-09-09 | 2012-09-06 | Способ декодирования видеосигнала |
RU2016133481A RU2635235C1 (ru) | 2011-09-09 | 2012-09-06 | Способ и устройство декодирования видеосигнала |
Country Status (14)
Country | Link |
---|---|
US (4) | US10523967B2 (ru) |
EP (2) | EP3179723B1 (ru) |
JP (7) | JP5745693B2 (ru) |
CN (19) | CN107483928B (ru) |
AU (1) | AU2012305071B2 (ru) |
BR (1) | BR112013022641B1 (ru) |
CA (2) | CA2937483C (ru) |
ES (1) | ES2487993B1 (ru) |
GB (7) | GB2562130B (ru) |
MX (6) | MX381916B (ru) |
PL (1) | PL231159B1 (ru) |
RU (10) | RU2716563C2 (ru) |
SE (5) | SE538787C2 (ru) |
WO (1) | WO2013036041A2 (ru) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120068743A (ko) * | 2010-12-17 | 2012-06-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
MX381916B (es) * | 2011-09-09 | 2025-03-13 | Kt Corp | Metodo para derivar un vector de movimiento predictivo temporal y aparato que usa el metodo. |
CA2824755C (en) | 2011-09-23 | 2018-01-16 | Kt Corporation | Method for deriving a merge candidate block and device using same |
WO2015016536A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치 |
US9762909B2 (en) | 2013-07-30 | 2017-09-12 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
CN105453562B (zh) | 2013-07-30 | 2018-12-25 | 株式会社Kt | 支持多个层的图像编码和解码方法以及使用该方法的装置 |
KR102551609B1 (ko) * | 2014-11-27 | 2023-07-05 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
WO2017008255A1 (en) * | 2015-07-14 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Advanced intra prediction mode signaling in video coding |
US10313765B2 (en) | 2015-09-04 | 2019-06-04 | At&T Intellectual Property I, L.P. | Selective communication of a vector graphics format version of a video content item |
WO2017048008A1 (ko) * | 2015-09-17 | 2017-03-23 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
CN105681788B (zh) * | 2016-04-07 | 2019-05-03 | 中星技术股份有限公司 | 视频编码方法和视频编码装置 |
CN116546207A (zh) * | 2016-04-08 | 2023-08-04 | 韩国电子通信研究院 | 用于导出运动预测信息的方法和装置 |
US10116957B2 (en) * | 2016-09-15 | 2018-10-30 | Google Inc. | Dual filter type for motion compensated prediction in video coding |
US11095892B2 (en) * | 2016-09-20 | 2021-08-17 | Kt Corporation | Method and apparatus for processing video signal |
US11394976B2 (en) * | 2017-01-03 | 2022-07-19 | Lg Electronics Inc. | Inter-prediction method and apparatus in image coding system |
EP3383043A1 (en) * | 2017-03-27 | 2018-10-03 | Thomson Licensing | Methods and apparatus for picture encoding and decoding |
JP6867870B2 (ja) | 2017-05-18 | 2021-05-12 | スタンレー電気株式会社 | 車両用灯具 |
WO2019089933A1 (en) * | 2017-11-01 | 2019-05-09 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
US11570443B2 (en) | 2018-01-25 | 2023-01-31 | Wilus Institute Of Standards And Technology Inc. | Method and apparatus for video signal processing using sub-block based motion compensation |
EP3758374A4 (en) | 2018-02-22 | 2021-09-01 | LG Electronics Inc. | IMAGE DECODING METHOD AND DEVICE ACCORDING TO A BLOCK DIVISION STRUCTURE IN AN IMAGE ENCODING SYSTEM |
CN118381905A (zh) | 2018-03-21 | 2024-07-23 | Lx 半导体科技有限公司 | 图像编码/解码设备以及发送图像数据的设备 |
CN116320489A (zh) * | 2018-06-29 | 2023-06-23 | 北京字节跳动网络技术有限公司 | 视频处理方法、编码装置和解码装置 |
EP4325860A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Update of look up table: fifo, constrained fifo |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
WO2020003280A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Which lut to be updated or no updating |
CN110662043B (zh) | 2018-06-29 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
JP7100200B2 (ja) | 2018-06-29 | 2022-07-12 | 北京字節跳動網絡技術有限公司 | マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング |
KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
CN110662057B (zh) | 2018-06-29 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、设备以及存储比特流的方法 |
CN117812258A (zh) * | 2018-07-02 | 2024-04-02 | Lg电子株式会社 | 图像解码设备、图像编码设备和发送设备 |
CN110677661B (zh) | 2018-07-02 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 用于视频处理的方法、装置和存储介质 |
CN117241039A (zh) | 2018-08-28 | 2023-12-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
JP7128348B2 (ja) * | 2018-08-29 | 2022-08-30 | ベイジン・ダジア・インターネット・インフォメーション・テクノロジー・カンパニー,リミテッド | サブブロックベースの時間動きベクトル予測を使用するビデオコーディング方法及び装置 |
WO2020053798A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | Conditions for starting checking hmvp candidates depend on total number minus k |
MX2021003327A (es) * | 2018-09-21 | 2021-05-14 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Metodo para codificar/decodificar una se?al de imagen y aparato para el mismo. |
GB2577318B (en) | 2018-09-21 | 2021-03-10 | Canon Kk | Video coding and decoding |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
CN118741155A (zh) * | 2018-10-10 | 2024-10-01 | 三星电子株式会社 | 视频编解码方法和设备 |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
GB2578151B (en) | 2018-10-18 | 2021-06-09 | Canon Kk | Video coding and decoding |
JP7281890B2 (ja) * | 2018-10-24 | 2023-05-26 | シャープ株式会社 | 動画像符号化装置および動画像復号装置 |
CN113273186B (zh) | 2019-01-10 | 2025-01-10 | 北京字节跳动网络技术有限公司 | Lut更新的调用 |
WO2020143824A1 (en) * | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
CN113453013B (zh) * | 2019-06-21 | 2022-02-18 | 杭州海康威视数字技术股份有限公司 | 预测模式的解码、编码方法及装置 |
BR112022002493A2 (pt) | 2019-08-10 | 2022-04-26 | Beijing Bytedance Network Tech Co Ltd | Método e aparelho para processamento de vídeo, e, mídia legível por computador com código armazenado na mesma |
WO2021052504A1 (en) * | 2019-09-22 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Scaling method for sub-block based inter prediction |
JP7482220B2 (ja) | 2019-10-18 | 2024-05-13 | 北京字節跳動網絡技術有限公司 | サブピクチャのパラメータセットシグナリングにおける構文制約 |
JP7457142B2 (ja) | 2020-02-14 | 2024-03-27 | 北京字節跳動網絡技術有限公司 | 映像ビットストリームにおける同一位置に配置されたピクチャの指示 |
EP4107941A4 (en) * | 2020-03-23 | 2023-04-19 | Beijing Bytedance Network Technology Co., Ltd. | PREDICTION REFINEMENT FOR AFFINE MERGE AND AFFINER MOTION VECTOR PREDICTION MODE |
CN113840148A (zh) * | 2020-06-24 | 2021-12-24 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN111698517B (zh) * | 2020-06-29 | 2022-07-12 | Oppo广东移动通信有限公司 | 运动矢量的确定方法、装置、电子设备和可读存储介质 |
CN113873249B (zh) | 2020-06-30 | 2023-02-28 | 杭州海康威视数字技术股份有限公司 | 一种编解码方法、装置及其设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US20050053147A1 (en) * | 2003-09-07 | 2005-03-10 | Microsoft Corporation | Motion vector prediction in bi-directionally predicted interlaced field-coded pictures |
US20070171974A1 (en) * | 2006-01-23 | 2007-07-26 | Samsung Electronics Co., Ltd. | Method of and apparatus for deciding encoding mode for variable block size motion estimation |
US20090060050A1 (en) * | 2004-12-06 | 2009-03-05 | Seung Wook Park | Method for encoding and decoding video signal |
RU2360375C2 (ru) * | 2002-07-18 | 2009-06-27 | Эл Джи Электроникс Инк. | Способ определения векторов движения для текущего блока в кадре, подлежащем декодированию |
WO2011096741A2 (en) * | 2010-02-02 | 2011-08-11 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video based on scanning order of hierarchical data units, and method and apparatus for decoding video based on scanning order of hierarchical data units |
Family Cites Families (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2003174C1 (ru) | 1990-01-22 | 1993-11-15 | Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) | Способ распознавани изображений |
US5508744A (en) * | 1993-03-12 | 1996-04-16 | Thomson Consumer Electronics, Inc. | Video signal compression with removal of non-correlated motion vectors |
JP3640318B2 (ja) | 1995-09-01 | 2005-04-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ディジタル画像の符号化方法及びシステム |
US20040042552A1 (en) | 2000-07-20 | 2004-03-04 | Dvorkovich Victor Pavlovich | Method and apparatus for determining motion vectors in dynamic images |
RU2182727C2 (ru) * | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
KR100446083B1 (ko) | 2002-01-02 | 2004-08-30 | 삼성전자주식회사 | 움직임 추정 및 모드 결정 장치 및 방법 |
AU2003228054A1 (en) * | 2002-05-30 | 2003-12-19 | Koninklijke Philips Electronics N.V. | Unit for and method of estimating a motion vector |
CN100553338C (zh) * | 2002-07-15 | 2009-10-21 | 株式会社日立制作所 | 动态图像编码方法 |
US7801217B2 (en) | 2002-10-01 | 2010-09-21 | Thomson Licensing | Implicit weighting of reference pictures in a video encoder |
RU2342803C2 (ru) | 2002-10-01 | 2008-12-27 | Томсон Лайсенсинг С.А. | Неявное взвешивание опорных изображений в видеокодере |
US7408986B2 (en) * | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
US20040258154A1 (en) * | 2003-06-19 | 2004-12-23 | Microsoft Corporation | System and method for multi-stage predictive motion estimation |
US7609763B2 (en) | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
EP1658727A1 (en) | 2003-08-22 | 2006-05-24 | Koninklijke Philips Electronics N.V. | Joint spatial-temporal-orientation-scale prediction and coding of motion vectors for rate-distortion-complexity optimized video coding |
MXPA06003925A (es) | 2003-10-09 | 2006-07-05 | Thomson Licensing | Proceso de derivacion de modo directo para el ocultamiento de error. |
KR100597402B1 (ko) | 2003-12-01 | 2006-07-06 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
RU2329615C2 (ru) * | 2003-12-01 | 2008-07-20 | Самсунг Электроникс Ко., Лтд. | Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления |
KR100596706B1 (ko) | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
JP3879741B2 (ja) * | 2004-02-25 | 2007-02-14 | ソニー株式会社 | 画像情報符号化装置および画像情報符号化方法 |
KR100694059B1 (ko) * | 2004-09-30 | 2007-03-12 | 삼성전자주식회사 | 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치 |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
CN101156451A (zh) * | 2005-04-12 | 2008-04-02 | 皇家飞利浦电子股份有限公司 | 使用基于区域的多次通过运动估计和时间运动矢量候选更新的视频处理 |
KR100896279B1 (ko) * | 2005-04-15 | 2009-05-07 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
JP2006303734A (ja) | 2005-04-18 | 2006-11-02 | Victor Co Of Japan Ltd | 動画像符号化装置及びそのプログラム |
KR20060123939A (ko) | 2005-05-30 | 2006-12-05 | 삼성전자주식회사 | 영상의 복부호화 방법 및 장치 |
US8761258B2 (en) | 2005-06-17 | 2014-06-24 | The Hong Kong University Of Science And Technology | Enhanced block-based motion estimation algorithms for video compression |
WO2007005750A2 (en) | 2005-07-01 | 2007-01-11 | Sonic Solutions | Method, apparatus and system for use in multimedia signal encoding |
KR20070038396A (ko) | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100959538B1 (ko) | 2006-03-30 | 2010-05-27 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
US20100091845A1 (en) | 2006-03-30 | 2010-04-15 | Byeong Moon Jeon | Method and apparatus for decoding/encoding a video signal |
CN101449585A (zh) * | 2006-03-30 | 2009-06-03 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
CN101090491B (zh) * | 2006-06-16 | 2016-05-18 | 香港科技大学 | 用于视频压缩的增强的基于块的运动估计算法 |
WO2007148906A1 (en) | 2006-06-19 | 2007-12-27 | Lg Electronics, Inc. | Method and apparatus for processing a vedeo signal |
CN101102503A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 视频分层编码层间运动矢量的预测方法 |
TWI375469B (en) | 2006-08-25 | 2012-10-21 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
US20080101474A1 (en) | 2006-11-01 | 2008-05-01 | Yi-Jen Chiu | Optimizing the storage and reducing the computation of reference picture list processing in video decoding |
CN101222638B (zh) * | 2007-01-08 | 2011-12-07 | 华为技术有限公司 | 多视视频编解码方法及装置 |
US20100266042A1 (en) | 2007-03-02 | 2010-10-21 | Han Suh Koo | Method and an apparatus for decoding/encoding a video signal |
WO2008133455A1 (en) * | 2007-04-25 | 2008-11-06 | Lg Electronics Inc. | A method and an apparatus for decoding/encoding a video signal |
CN101119493B (zh) | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
CN101999228A (zh) * | 2007-10-15 | 2011-03-30 | 诺基亚公司 | 针对多视角视频内容的运动跳跃和单环路编码 |
CN101884219B (zh) * | 2007-10-16 | 2014-08-20 | Lg电子株式会社 | 处理视频信号的方法和装置 |
US8908765B2 (en) | 2007-11-15 | 2014-12-09 | General Instrument Corporation | Method and apparatus for performing motion estimation |
US9641861B2 (en) | 2008-01-25 | 2017-05-02 | Mediatek Inc. | Method and integrated circuit for video processing |
CN101540902B (zh) * | 2008-03-20 | 2011-02-02 | 华为技术有限公司 | 运动矢量的缩放方法和装置、编解码方法和系统 |
JP5681861B2 (ja) * | 2008-03-31 | 2015-03-11 | メディメトリクス ペルソナリズド ドルグ デリヴェリー ベー ヴェ | センサを有する嚥下型カプセルを作成する方法 |
JP2010011075A (ja) * | 2008-06-26 | 2010-01-14 | Toshiba Corp | 動画像符号化及び動画像復号化の方法及び装置 |
JP2010016454A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 画像符号化装置および方法、画像復号装置および方法、並びにプログラム |
TWI374672B (en) * | 2008-07-04 | 2012-10-11 | Univ Nat Taiwan | Seamless wireless video transmission for multimedia applications |
WO2010004939A1 (ja) * | 2008-07-10 | 2010-01-14 | 三菱電機株式会社 | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 |
CN102210153A (zh) * | 2008-10-06 | 2011-10-05 | Lg电子株式会社 | 用于处理视频信号的方法和设备 |
CN101540926B (zh) | 2009-04-15 | 2010-10-27 | 南京大学 | 基于h.264的立体视频编解码方法 |
CN101931803B (zh) * | 2009-06-26 | 2013-01-09 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
KR101456498B1 (ko) | 2009-08-14 | 2014-10-31 | 삼성전자주식회사 | 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
US20130005493A1 (en) | 2009-08-20 | 2013-01-03 | Nak Sung Kim | Swing ride tilting swing chair back and forth |
JP2011097572A (ja) | 2009-09-29 | 2011-05-12 | Canon Inc | 動画像符号化装置 |
WO2011070730A1 (ja) | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
KR20110068792A (ko) | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
CN101860754B (zh) * | 2009-12-16 | 2013-11-13 | 香港应用科技研究院有限公司 | 运动矢量编码和解码的方法和装置 |
JP2011151775A (ja) * | 2009-12-22 | 2011-08-04 | Jvc Kenwood Holdings Inc | 画像復号装置、画像復号方法および画像復号プログラム |
KR101522850B1 (ko) | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
US9036692B2 (en) * | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
CN102131094A (zh) | 2010-01-18 | 2011-07-20 | 联发科技股份有限公司 | 运动预测方法 |
KR20120086232A (ko) | 2011-01-25 | 2012-08-02 | (주)휴맥스 | 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
US8792740B2 (en) | 2010-02-02 | 2014-07-29 | Humax Holdings Co., Ltd. | Image encoding/decoding method for rate-distortion optimization and apparatus for performing same |
SG10201503179VA (en) * | 2010-04-23 | 2015-06-29 | M&K Holdings Inc | Image encoding apparatus |
KR102219985B1 (ko) * | 2010-05-04 | 2021-02-25 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
CN105933713B (zh) * | 2010-09-02 | 2019-03-19 | Lg电子株式会社 | 编码和解码视频的方法和使用该方法的装置 |
KR101033243B1 (ko) | 2010-11-17 | 2011-05-06 | 엘아이지넥스원 주식회사 | 객체 추적 방법 및 장치 |
US8824558B2 (en) | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US9137544B2 (en) | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
US8711940B2 (en) * | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
US10142630B2 (en) * | 2010-12-10 | 2018-11-27 | Texas Instruments Incorporated | Mode adaptive intra prediction smoothing in video coding |
KR20120068743A (ko) | 2010-12-17 | 2012-06-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
WO2012081949A2 (ko) | 2010-12-17 | 2012-06-21 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
WO2012102021A1 (ja) | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
US9319716B2 (en) | 2011-01-27 | 2016-04-19 | Qualcomm Incorporated | Performing motion vector prediction for video coding |
EP2698999B1 (en) | 2011-04-12 | 2017-01-04 | Sun Patent Trust | Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus |
US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
MX381916B (es) | 2011-09-09 | 2025-03-13 | Kt Corp | Metodo para derivar un vector de movimiento predictivo temporal y aparato que usa el metodo. |
US9392235B2 (en) * | 2011-11-18 | 2016-07-12 | Google Technology Holdings LLC | Explicit way for signaling a collocated reference picture for video coding |
US9445090B2 (en) | 2011-11-18 | 2016-09-13 | Google Technology Holdings LLC | Explicit way for signaling a collocated picture for high efficicency video coding (HEVC) using reference list0 and list1 |
EP2783510A1 (en) * | 2011-11-21 | 2014-10-01 | Motorola Mobility LLC | Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction |
US9525861B2 (en) | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
US9445076B2 (en) * | 2012-03-14 | 2016-09-13 | Qualcomm Incorporated | Disparity vector construction method for 3D-HEVC |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
US10200709B2 (en) * | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
EP2837190A1 (en) * | 2012-04-11 | 2015-02-18 | Motorola Mobility LLC | Signaling of temporal motion vector predictor (mvp) flag for temporal prediction |
WO2013154674A1 (en) | 2012-04-11 | 2013-10-17 | Motorola Mobility Llc | Evaluation of signaling of collocated reference picture for temporal prediction |
US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
-
2012
- 2012-09-06 MX MX2017012379A patent/MX381916B/es unknown
- 2012-09-06 SE SE1551592A patent/SE538787C2/sv unknown
- 2012-09-06 GB GB1716275.1A patent/GB2562130B/en active Active
- 2012-09-06 CN CN201710737242.2A patent/CN107483928B/zh not_active Expired - Fee Related
- 2012-09-06 RU RU2016133579A patent/RU2716563C2/ru active
- 2012-09-06 RU RU2016133570A patent/RU2716231C2/ru active
- 2012-09-06 GB GB1321881.3A patent/GB2508739B/en active Active
- 2012-09-06 CN CN201710736236.5A patent/CN107580221B/zh not_active Expired - Fee Related
- 2012-09-06 SE SE1351475A patent/SE538057C2/sv unknown
- 2012-09-06 CN CN201710736975.4A patent/CN107396099B/zh active Active
- 2012-09-06 MX MX2016010978A patent/MX351052B/es unknown
- 2012-09-06 CN CN201710736974.XA patent/CN107396098B/zh not_active Expired - Fee Related
- 2012-09-06 RU RU2016133580A patent/RU2716229C2/ru active
- 2012-09-06 AU AU2012305071A patent/AU2012305071B2/en active Active
- 2012-09-06 JP JP2014516928A patent/JP5745693B2/ja active Active
- 2012-09-06 CN CN201710737674.3A patent/CN107483929B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201410601678.5A patent/CN104349164B/zh active Active
- 2012-09-06 US US14/002,444 patent/US10523967B2/en active Active
- 2012-09-06 SE SE1651148A patent/SE1651148A1/sv not_active Application Discontinuation
- 2012-09-06 RU RU2016133546A patent/RU2636118C1/ru active
- 2012-09-06 ES ES201390098A patent/ES2487993B1/es active Active
- 2012-09-06 CN CN201710736976.9A patent/CN107483927B/zh active Active
- 2012-09-06 RU RU2013140661/08A patent/RU2600547C2/ru active
- 2012-09-06 RU RU2016133501A patent/RU2622849C1/ru active
- 2012-09-06 RU RU2016133566A patent/RU2716230C2/ru active
- 2012-09-06 CN CN201710735665.0A patent/CN107592528B/zh active Active
- 2012-09-06 CN CN201710735855.2A patent/CN107580218B/zh not_active Expired - Fee Related
- 2012-09-06 GB GB1716270.2A patent/GB2559227B/en active Active
- 2012-09-06 GB GB1716273.6A patent/GB2562129B/en active Active
- 2012-09-06 CN CN201710735853.3A patent/CN107483925B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735677.3A patent/CN107635140B/zh not_active Expired - Fee Related
- 2012-09-06 EP EP17153707.9A patent/EP3179723B1/en active Active
- 2012-09-06 RU RU2016133485A patent/RU2646384C1/ru active
- 2012-09-06 PL PL407911A patent/PL231159B1/pl unknown
- 2012-09-06 GB GB1716265.2A patent/GB2559226B/en active Active
- 2012-09-06 SE SE1651149A patent/SE1651149A1/sv not_active Application Discontinuation
- 2012-09-06 RU RU2016133536A patent/RU2636117C1/ru active
- 2012-09-06 MX MX2016003898A patent/MX351041B/es unknown
- 2012-09-06 CN CN201710736365.4A patent/CN107483926B/zh active Active
- 2012-09-06 CA CA2937483A patent/CA2937483C/en active Active
- 2012-09-06 EP EP12829566.4A patent/EP2672710B1/en active Active
- 2012-09-06 BR BR112013022641-2A patent/BR112013022641B1/pt active IP Right Grant
- 2012-09-06 CN CN201710736224.2A patent/CN107580219B/zh not_active Expired - Fee Related
- 2012-09-06 GB GB1716271.0A patent/GB2559445B/en active Active
- 2012-09-06 CN CN201710736230.8A patent/CN107580220B/zh active Active
- 2012-09-06 MX MX2017012378A patent/MX381917B/es unknown
- 2012-09-06 CN CN201710735663.1A patent/CN107592527B/zh active Active
- 2012-09-06 CA CA2829114A patent/CA2829114C/en active Active
- 2012-09-06 SE SE1651147A patent/SE1651147A1/sv not_active Application Discontinuation
- 2012-09-06 CN CN201710735700.9A patent/CN107404651B/zh active Active
- 2012-09-06 WO PCT/KR2012/007174 patent/WO2013036041A2/ko active Application Filing
- 2012-09-06 GB GB1809871.5A patent/GB2562635B/en active Active
- 2012-09-06 MX MX2013010155A patent/MX2013010155A/es active IP Right Grant
- 2012-09-06 RU RU2016133481A patent/RU2635235C1/ru active
- 2012-09-06 CN CN201610740915.5A patent/CN106170088B/zh active Active
- 2012-09-06 CN CN201280013098.3A patent/CN103430550B/zh active Active
- 2012-09-06 CN CN201710737681.3A patent/CN107592529B/zh not_active Expired - Fee Related
-
2013
- 2013-09-04 MX MX2015010607A patent/MX338137B/es unknown
-
2015
- 2015-01-26 US US14/604,934 patent/US20150208093A1/en not_active Abandoned
- 2015-04-16 JP JP2015084331A patent/JP6062480B2/ja active Active
- 2015-04-16 JP JP2015084318A patent/JP5993484B2/ja active Active
- 2015-08-14 JP JP2015160173A patent/JP6062507B2/ja active Active
- 2015-08-14 JP JP2015160175A patent/JP6062508B2/ja active Active
-
2016
- 2016-12-13 JP JP2016241358A patent/JP6322693B2/ja active Active
-
2018
- 2018-04-09 JP JP2018074837A patent/JP6619045B2/ja active Active
-
2019
- 2019-11-13 US US16/682,473 patent/US10805639B2/en active Active
-
2020
- 2020-09-08 US US17/014,449 patent/US11089333B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
RU2360375C2 (ru) * | 2002-07-18 | 2009-06-27 | Эл Джи Электроникс Инк. | Способ определения векторов движения для текущего блока в кадре, подлежащем декодированию |
US20050053147A1 (en) * | 2003-09-07 | 2005-03-10 | Microsoft Corporation | Motion vector prediction in bi-directionally predicted interlaced field-coded pictures |
US20090060050A1 (en) * | 2004-12-06 | 2009-03-05 | Seung Wook Park | Method for encoding and decoding video signal |
US20070171974A1 (en) * | 2006-01-23 | 2007-07-26 | Samsung Electronics Co., Ltd. | Method of and apparatus for deciding encoding mode for variable block size motion estimation |
WO2011096741A2 (en) * | 2010-02-02 | 2011-08-11 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video based on scanning order of hierarchical data units, and method and apparatus for decoding video based on scanning order of hierarchical data units |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2646384C1 (ru) | Способ и устройство декодирования видеосигнала | |
AU2015200360B2 (en) | Method for deriving a temporal predictive motion vector, and apparatus using the method | |
AU2016216719B2 (en) | Method for deriving a temporal predictive motion vector, and apparatus using the method |