[go: up one dir, main page]

ES2784007T3 - Aparato de derivación de un modo de intra-predicción - Google Patents

Aparato de derivación de un modo de intra-predicción Download PDF

Info

Publication number
ES2784007T3
ES2784007T3 ES18181699T ES18181699T ES2784007T3 ES 2784007 T3 ES2784007 T3 ES 2784007T3 ES 18181699 T ES18181699 T ES 18181699T ES 18181699 T ES18181699 T ES 18181699T ES 2784007 T3 ES2784007 T3 ES 2784007T3
Authority
ES
Spain
Prior art keywords
prediction
intra
mode
prediction mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18181699T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Innotive Ltd
Original Assignee
Innotive Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48191357&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2784007(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Innotive Ltd filed Critical Innotive Ltd
Application granted granted Critical
Publication of ES2784007T3 publication Critical patent/ES2784007T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Un aparato (300) para generar un bloque de predicción en intra-predicción, que comprende: un módulo de análisis (310) de restauración de un indicador de grupo de modos y un índice de modo de predicción, en el que el indicador de grupo de modos indica si un modo de intra-predicción de una unidad de predicción actual es uno de los modos de intra-predicción en un grupo de modos más probables, MPM, o no, y el índice de modo de predicción indica que un modo de intra-predicción es el modo de intra-predicción de la unidad de predicción actual; un módulo de construcción de grupo de MPM para construir el grupo de MPM que incluye tres modos de intra-predicción; un módulo de restauración de modo de predicción para determinar un modo de intra-predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra-predicción de la unidad de predicción actual si el indicador de grupo de modos indica que el modo de intra-predicción de una unidad de predicción actual es uno de los modos de intra-predicción en el grupo de MPM, y derivar el modo de intrapredicción de la unidad de predicción actual usando el índice de modo de predicción y los tres modos de intra-predicción del grupo de MPM si el indicador de grupo de modos no indica que el modo de intrapredicción de una unidad de predicción actual es uno de los modos de intra-predicción en el grupo de MPM; un módulo de determinación de tamaño de predicción (330) para determinar un tamaño del bloque de predicción basándose en una información de tamaño de transformación, en el que la información de tamaño de transformación es el tamaño de una unidad de transformación; un módulo de verificación de disponibilidad de píxeles de referencia (340) para determinar si todos los píxeles de referencia de un bloque actual están disponibles, en el que el bloque actual es la unidad de predicción actual o un subbloque de la unidad de predicción actual; un módulo de generación de píxeles de referencia (350) para generar píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles; un módulo de filtrado de píxeles de referencia (360) para filtrar de manera adaptativa los píxeles de referencia basándose en el modo de intra-predicción y el tamaño del bloque actual; y un módulo de generación de bloque de predicción (370) para generar el bloque de predicción usando los píxeles de referencia basándose en el modo de intra-predicción restaurado, en el que cuando sólo está disponible uno de un modo de intra-predicción izquierda y un modo de intra30 predicción superior, el grupo de MPM incluye el modo de intra-predicción disponible y dos modos de intrapredicción adicionales, y si el modo de intra-predicción disponible es uno de dos modos de intra-predicción no direccionales, los dos modos de intra-predicción adicionales son el otro de los dos modos de intrapredicción no direccionales y un modo vertical, y si el modo de intra-predicción disponible es uno de los modos de intra-predicción direccionales, los dos modos de intra-predicción adicionales son dos modos de intra-predicción no direccionales, y en el que si el indicador de grupo de modos no indica el grupo de MPM, la unidad de restauración de modo de predicción deriva el modo de intra-predicción de la unidad de predicción actual realizando las etapas ordenadas de: aumentar un valor del índice de modo de predicción en uno si el índice de modo de predicción es igual a o mayor que el primer modo de intra-predicción del grupo de MPM; aumentar el valor del índice de modo de predicción en uno si el índice de modo de predicción es igual a o mayor que un segundo modo de intra-predicción del grupo de MPM; aumentar el valor del índice de predicción si el índice de modo de predicción es igual a o mayor que un tercer modo de intra-predicción del grupo de MPM; y determinar el valor del índice de modo de predicción como el número de modo del modo de intra-predicción de la unidad de predicción actual, en el que el primer modo de intra-predicción es un modo de intra-predicción que tiene el menor número de modo, el segundo modo de intra-predicción es un modo de intra-predicción que tiene un número de modo intermedio y el tercer modo de intra-predicción es un modo de intra-predicción que tiene el mayor número de modo, y en el que los dos modos de intra-predicción no direccionales son un modo DC y un modo plano.

Description

DESCRIPCIÓN
Aparato de derivación de un modo de intra-predicción
[Campo técnico]
La presente invención se refiere a un método y a un aparato de derivación de un parámetro de cuantificación, y más particularmente, a un método y aparato para codificar y decodificar un parámetro de cuantificación generando un predictor de parámetro de cuantificación similar al parámetro de cuantificación usando un parámetro de cuantificación vecino.
[Técnica anterior]
En H.264/MPEG-4 AVC, una imagen se divide en macrobloques, los macrobloques respectivos se codifican generando un bloque de predicción mediante ¡nter-predicción o intra-predicción. La diferencia entre un bloque original y el bloque de predicción se transforma para generar un bloque transformado, y el bloque transformado se cuantifica usando un parámetro de cuantificación y una matriz de cuantificación. El parámetro de cuantificación se ajusta por macrobloque y se codifica usando un parámetro de cuantificación anterior como predictor de parámetro de cuantificación.
Mientras tanto, en HEVC (High Efficiency Video Coding, codificación de vídeo de alta eficiencia) en construcción, se introducen diversos tamaños de unidades de codificación para obtener el doble de eficiencia de compresión. La unidad de codificación tiene una función similar al macrobloque de H.264.
Pero, si el parámetro de cuantificación se ajusta por unidad de codificación, aumenta el número de parámetros de cuantificación que han de codificarse a medida que el tamaño de la unidad de codificación es menor. Por tanto, ajustar el parámetro de cuantificación por unidad de codificación da como resultado una mayor cantidad de bits de codificación requeridos para codificar el parámetro de cuantificación, lo que degrada la eficiencia de codificación. Además, debido a que el uso de diversos tamaños de unidad de codificación hace que la correlación entre el parámetro de cuantificación y el parámetro de cuantificación anterior sea más débil que la de H.264, se requiere un nuevo método de codificación y decodificación del parámetro de cuantificación para diversos tamaños de la unidad de codificación.
W-J Chien et al, “Parsing friendly intra mode coding”, 6a reunión de JCT-VC; 97. Reunión de MPEG; 14-7-2011 - 22­ 7-2011; Turín; (Joint Collaborative Team on Video Coding of ISO/IEC JTC1/SC29/WG11 and ITU-TSG.16) dan a conocer un método de codificación para el modo de intra-predicción. En el modelo de prueba de HEVC actual, se definen diferentes binarizaciones de palabras de código basándose en los modos de intra-predicción de particiones vecinas para la codificación del modo de intra-predicción de luma. También usa diferentes binarizaciones de palabras de código para el modo de intra-predicción de croma basándose en el modo de intra-predicción de luma de la partición actual. Este método unifica una ganancia de binarización diferente del 0,2 % en configuraciones sólo intra.
Thomas Wiegand ET AL, “WD3: Working Draft 3 of High-Efficiency Video Coding (JCTVC-E603)” da a conocer el Borrador de trabajo 3 de la codificación de video de alta eficiencia.
Por tanto, el objeto de la invención es proporcionar un aparato mejorado para generar un bloque de predicción en intra-predicción.
Este objeto se resuelve mediante el contenido de la reivindicación independiente.
Se definen realizaciones preferidas por las reivindicaciones dependientes.
[Descripción de los dibujos]
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según la presente invención. La figura 2 es un diagrama conceptual que ilustra modos de intra-predicción según la presente invención.
La figura 3 es un diagrama de flujo que ilustra un método de codificación de parámetro de cuantificación según la presente invención.
La figura 4 es un diagrama de bloques de un aparato de decodificación de imágenes según la presente invención. La figura 5 es un diagrama de flujo que ilustra un método de generación de un bloque de predicción en intrapredicción según la presente invención.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de restauración del modo de intra-predicción según la presente invención.
La figura 7 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia de un bloque actual según la presente invención.
La figura 8 es un diagrama de bloques que ilustra un aparato de generación de un bloque de predicción en intrapredicción según la presente invención.
La figura 9 es un diagrama de flujo que ilustra un método de decodificación de parámetro de cuantificación según la presente invención.
[Modo para la invención]
A continuación, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones a modo de ejemplo dadas a conocer a continuación, sino que puede implementarse en diversos tipos. Por tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del alcance del concepto dado a conocer, la presente invención puede ponerse en práctica de manera distinta a la que se ha descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según la presente invención. Con referencia a la figura 1, el aparato de codificación de imágenes 100 según la presente invención incluye una unidad de división de imágenes 101, una unidad de transformación 103, una unidad de cuantificación 104, una unidad de barrido (sacanning unit) 105, una unidad de codificación entrópica 106, una unidad de cuantificación inversa 107, una unidad de transformación inversa 108, una unidad de procesamiento posterior 110, una unidad de almacenamiento de imágenes 111, una unidad de intra-predicción 112, una unidad de inter-predicción 113, un sustractor 102 y un adicionador 109.
La unidad de división de imágenes 101 divide una imagen o un segmento en una pluralidad de unidades de codificación más grandes (Largest Coding Units, LCU), y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 101 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción y un tamaño de unidad de transformación.
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura de árbol cuádruple recursivo para especificar una estructura de división. La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de codificación se incluye en un conjunto de parámetros de secuencia. La estructura de división se especifica mediante una o más banderas de unidad de codificación separada (split_cu_flags). La unidad de codificación tiene un tamaño de 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra-predicción, el tamaño de la unidad de predicción es de 2Nx2N o NxN. En la inter-predicción, el tamaño de la unidad de predicción es de 2Nx2N, 2NxN, Nx2N o NxN. Cuando la unidad de predicción es una partición asimétrica en la inter-predicción, el tamaño de la unidad de predicción también puede ser uno de hNx2N, (2-h)Nx2N, 2NxhN y 2Nx(2-h)N. El valor de h es de 1/2. Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura de árbol cuádruple recursivo para especificar una estructura de división. La estructura de división se especifica mediante una o más banderas de unidad de transformación separada (split_tu_flags). La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de transformación se incluye en un conjunto de parámetros de secuencia.
La unidad de intra-predicción 112 determina un modo de intra-predicción de una unidad de predicción actual y genera uno o más bloques de predicción usando el modo de intra-predicción. El bloque de predicción tiene el mismo tamaño que la unidad de transformación. La unidad de intra-predicción 112 genera píxeles de referencia si no hay píxeles de referencia disponibles de un bloque actual, filtra de manera adaptativa los píxeles de referencia del bloque actual según el tamaño del bloque actual y el modo de intra-predicción, y genera un bloque de predicción del bloque actual. El bloque actual tiene el mismo tamaño que el bloque de predicción.
La figura 2 es un diagrama conceptual que ilustra modos de intra-predicción según la presente invención. Tal como se muestra en la figura 2, el número de modos de intra-predicción es de 35. El modo DC y el modo plano son modos de intra-predicción no direccionales y los otros son modos de intra-predicción direccionales.
La unidad de inter-predicción 113 determina la información de movimiento de la unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 111, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento.
La unidad de transformación 103 transforma las señales residuales generadas usando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales se transforman en unidades de transformación. Un tipo de transformación está determinado por el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación es una transformación entera basada en DCT o una transformación entera basada en DST.
La unidad de cuantificación 104 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de escalón de cuantificación. El parámetro de cuantificación se determina por unidad de cuantificación que tiene un tamaño de unidad de codificación igual a o mayor que un tamaño de referencia. El tamaño de referencia es un tamaño mínimo de la unidad de cuantificación. Si un tamaño de la unidad de codificación es igual a o mayor que el tamaño mínimo de la unidad de cuantificación, la unidad de codificación se convierte en la unidad de cuantificación. Puede incluirse una pluralidad de unidades de codificación en la unidad de cuantificación mínima. El tamaño mínimo de la unidad de cuantificación es uno de los tamaños admisibles de la unidad de codificación.
La unidad 104 de cuantificación genera un predictor de parámetro de cuantificación y genera un parámetro de cuantificación diferencial sustrayendo el predictor de parámetro de cuantificación del parámetro de cuantificación. El parámetro de cuantificación diferencial se codifica y se transmite al decodificador. Si no hay señales residuales que han de transmitirse dentro de la unidad de codificación, el parámetro de cuantificación diferencial de la unidad de codificación puede no transmitirse.
Se genera el predictor de parámetro de cuantificación usando parámetros de cuantificación de unidades de codificación vecinas y/o un parámetro de cuantificación de la unidad de codificación anterior.
En un ejemplo, la unidad de cuantificación 104 recupera secuencialmente un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación superior izquierdo en este orden, y genera el predictor de parámetro de cuantificación usando uno o dos parámetros de cuantificación disponibles. Por ejemplo, se establece un promedio de los dos primeros parámetros de cuantificación disponibles recuperados en ese orden como el predictor de parámetro de cuantificación cuando están disponibles al menos dos parámetros de cuantificación. Cuando sólo hay disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. El parámetro de cuantificación izquierdo es un parámetro de cuantificación de una unidad de codificación vecina izquierda. El parámetro de cuantificación superior es un parámetro de cuantificación de una unidad de codificación vecina superior. El parámetro de cuantificación superior izquierdo es un parámetro de cuantificación de una unidad de codificación vecina superior izquierda.
En otro ejemplo, la unidad de cuantificación 104 recupera secuencialmente un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior en este orden, y genera el predictor de parámetro de cuantificación usando uno o dos parámetros de cuantificación disponibles. Se establece un promedio de los dos primeros parámetros de cuantificación disponibles recuperados en ese orden como el predictor de parámetro de cuantificación cuando están disponibles al menos dos parámetros de cuantificación. Cuando sólo hay disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. Es decir, si tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior están disponibles, se establece el promedio del parámetro de cuantificación izquierdo y el parámetro de cuantificación superior como el predictor de parámetro de cuantificación. Si está disponible uno del parámetro de cuantificación izquierdo y el parámetro de cuantificación superior, se establece el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior como el predictor de parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior no están disponibles, el parámetro de cuantificación anterior se establece como el predictor de parámetro de cuantificación. El parámetro de cuantificación anterior es un parámetro de cuantificación de una unidad de codificación anterior en orden de codificación. El promedio se redondea.
La unidad de cuantificación 104 cuantifica el bloque transformado usando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado se proporciona a la unidad de cuantificación inversa 107 y a la unidad de barrido 105.
La unidad de barrido 105 determina un patrón de barrido y aplica el patrón de barrido al bloque cuantificado. Cuando se usa CABAC (codificación aritmética binaria adaptativa al contexto) para la codificación entrópica, el patrón de barrido se determina de la siguiente manera.
En la intra-predicción, la distribución de los coeficientes de transformación cuantificados varía según el modo de intra-predicción y el tamaño de la unidad de transformación. Por tanto, el patrón de barrido está determinado por el modo de intra-predicción y el tamaño de la unidad de transformación. El patrón de barrido se selecciona entre un barrido diagonal, un barrido vertical y un barrido horizontal. Los coeficientes de transformación cuantificados del bloque cuantificado se separan en banderas significativas, signos de coeficiente y niveles de coeficiente. El patrón de barrido se aplica a las banderas significativas, los signos de coeficiente y niveles de coeficiente, respectivamente. Cuando el tamaño de la unidad de transformación es igual a o menor que un primer tamaño, se selecciona el barrido horizontal para el modo vertical y un número predeterminado de modos de intra-predicción vecinos del modo vertical, se selecciona el barrido vertical para el modo horizontal y el número predeterminado de modos de intrapredicción vecinos del modo horizontal, y se selecciona el barrido diagonal para los otros modos de intra-predicción. El primer tamaño es de 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona el barrido diagonal para todos los modos de intra-predicción.
En la inter-predicción, se usa el barrido diagonal.
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, el bloque cuantificado se divide en una pluralidad de subconjuntos y se barre. El segundo tamaño es de 4x4. El patrón de barrido para barrer los subconjuntos es el mismo que el patrón de barrido para barrer los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto se barren en el sentido inverso. Los subconjuntos también se barren en el sentido inverso.
La última posición distinta de cero se codifica y se transmite al decodificador. La última posición distinta de cero especifica la posición del último coeficiente de transformación cuantificado distinto de cero dentro de la unidad de transformación. Las banderas de subconjuntos distintos de cero se determinan y codifican. La bandera de subconjunto distinto de cero indica si el subconjunto contiene coeficientes distintos de cero o no. La bandera de subconjunto distinto de cero no está definida para un subconjunto que cubre un coeficiente DC y un subconjunto que cubre el último coeficiente distinto de cero.
La unidad de cuantificación inversa 107 somete a cuantificación inversa los coeficientes de transformación cuantificados del bloque cuantificado.
La unidad de transformación inversa 108 somete a transformación inversa el bloque sometido a cuantificación inversa para generar señales residuales del dominio espacial.
El adicionador 109 genera un bloque reconstruido añadiendo el bloque residual y el bloque de predicción.
La unidad de procesamiento posterior 110 realiza un proceso de filtrado de desbloqueo para eliminar el artefacto de bloqueo generado en una imagen reconstruida.
La unidad de almacenamiento de imágenes 111 recibe imágenes sometidas a procesamiento posterior desde la unidad de procesamiento posterior 110, y almacena la imagen en unidades de imagen. Una imagen puede ser una trama o un campo.
La unidad de codificación entrópica 106 somete a codificación entrópica la información de coeficiente unidimensional recibida desde la unidad de barrido 105, la información de intra-predicción recibida desde la unidad de intrapredicción 112, la información de movimiento recibida desde la unidad de inter-predicción 113, y así sucesivamente. La figura 3 es un diagrama de flujo que ilustra un método de codificación de parámetro de cuantificación según la presente invención.
Se determina un tamaño mínimo de la unidad de cuantificación (S110). El tamaño mínimo de la unidad de cuantificación es igual a un tamaño de LCU o un tamaño de subbloque de LCU. El tamaño mínimo de la unidad de cuantificación se determina por imagen.
Se determina un parámetro de cuantificación (S120). El parámetro de cuantificación se determina por unidad de cuantificación. Si el tamaño de la unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación, la unidad de codificación actual se convierte en la unidad de cuantificación. Si la unidad de cuantificación mínima incluye varias unidades de codificación, el parámetro de cuantificación se determina para todas las unidades de codificación dentro de la unidad de cuantificación mínima.
Se genera un predictor de parámetro de cuantificación (S130). El predictor de parámetro de cuantificación también se determina por unidad de cuantificación. Si el tamaño de la unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación, se genera el parámetro de cuantificación para la unidad de codificación actual. Si la unidad de cuantificación mínima incluye una pluralidad de unidades de codificación, se determina el predictor de parámetro de cuantificación para la primera unidad de codificación en el orden de codificación y se usa para las unidades de codificación restantes dentro de la unidad de cuantificación mínima. El parámetro de cuantificación se genera usando parámetros de cuantificación de unidades de codificación vecinas y el parámetro de cuantificación de la unidad de codificación anterior.
En un ejemplo, un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación superior izquierdo se recuperan secuencialmente en este orden, y se genera el predictor de parámetro de cuantificación usando uno o dos parámetros de cuantificación disponibles. Por ejemplo, se establece un promedio de los dos primeros parámetros de cuantificación disponibles recuperados en ese orden como el predictor de parámetro de cuantificación cuando están disponibles al menos dos parámetros de cuantificación. Cuando sólo hay disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. El parámetro de cuantificación izquierdo es un parámetro de cuantificación de una unidad de codificación vecina izquierda. El parámetro de cuantificación superior es un parámetro de cuantificación de una unidad de codificación vecina superior. El parámetro de cuantificación superior izquierdo es un parámetro de cuantificación de una unidad de codificación vecina superior izquierda.
En otro ejemplo, un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior se recuperan secuencialmente en este orden, y se genera el predictor de parámetro de cuantificación usando uno o dos parámetros de cuantificación disponibles. Se establece un promedio de los dos primeros parámetros de cuantificación disponibles recuperados en ese orden como el predictor de parámetro de cuantificación cuando están disponibles al menos dos parámetros de cuantificación. Cuando sólo hay disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. Es decir, si tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior están disponibles, se establece el promedio del parámetro de cuantificación izquierdo y el parámetro de cuantificación superior como el predictor de parámetro de cuantificación. Si está disponible uno del parámetro de cuantificación izquierdo y el parámetro de cuantificación superior, se establece el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior como el predictor de parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior no están disponibles, se establece el parámetro de cuantificación anterior como el predictor de parámetro de cuantificación. El parámetro de cuantificación anterior es un parámetro de cuantificación de una unidad de codificación anterior en orden de codificación. El promedio se redondea.
Se genera un parámetro de cuantificación diferencial (differential quantization parameter, dQP) usando el parámetro de cuantificación de la unidad de codificación actual y el predictor de parámetro de cuantificación de la unidad de codificación actual (S140).
El parámetro de cuantificación diferencial se somete a codificación entrópica (S150). El dQP se convierte en un valor absoluto del dQP y una bandera de signo que indica el signo del dQP. El valor absoluto de dQP se binariza como unario truncado. Entonces, el valor absoluto y la bandera de signo se someten a codificación aritmética. Si el valor absoluto es cero, la bandera de signo no existe.
Mientras tanto, el tamaño mínimo de la unidad de cuantificación también se señaliza a un aparato de decodificación. Se requieren dos etapas para señalizar el tamaño mínimo de la unidad de cuantificación en e1HM (modelo de prueba de HEVC) actual en construcción. En primer lugar, se determina si el parámetro de cuantificación se ajusta por LCU o subbloque de LCU en el nivel de secuencia, y si se determina que el parámetro de cuantificación se ajusta por subbloque de LCU en el nivel de secuencia, entonces el tamaño mínimo de la unidad de cuantificación se determina en el nivel de imagen. Un primer parámetro (cu_qp_delta_enabled_flag) que indica si el parámetro de cuantificación se ajusta por LCU o subbloque de LCU se incluye en el SPS (conjunto de parámetros de secuencia, por sus siglas en inglés). Si el primer parámetro indica que el parámetro de cuantificación se ajusta por subbloque de LCU, se incluye un segundo parámetro (max_cu_qp_delta-depth) en el PPS (conjunto de parámetros de imágenes, por sus siglas en inglés). El segundo parámetro especifica el tamaño mínimo de la unidad de cuantificación menor que el tamaño de la LCU. Por tanto, aumenta la complejidad del proceso de codificación y deben transmitirse dos parámetros si el tamaño mínimo de la unidad de cuantificación se usa al menos una imagen.
En la presente invención, se omite determinar si el tamaño mínimo de la unidad de cuantificación es menor que el tamaño de LCU o no en el nivel de secuencia. Es decir, el tamaño mínimo de la unidad de cuantificación se determina para cada imagen. Por tanto, puede usarse un parámetro (por ejemplo, cu_qp_delta_enabled_info) para especificar el tamaño mínimo de la unidad de cuantificación. El parámetro especifica la profundidad de la unidad de cuantificación mínima. El tamaño mínimo de la unidad de cuantificación puede ser igual a un tamaño de LCU o un tamaño de subbloque de LCU. Por consiguiente, disminuyen los bits de codificación requeridos para señalizar el tamaño mínimo de la unidad de cuantificación y también disminuye la complejidad del proceso de codificación. Puede usarse una matriz de cuantificación predeterminada y una matriz de cuantificación definida por el usuario para cuantificar el bloque transformado. Cuando se usan una o más matrices de cuantificación definidas por el usuario, la una o más matrices de cuantificación definidas por el usuario deben incluirse en el SPS o PPS. Para reducir los bits de señalización de la matriz de cuantificación definida por el usuario, los coeficientes de la matriz de cuantificación definida por el usuario se codifican usando DPCM (differential pulse code modulation). Se aplica un barrido diagonal a los coeficientes para DPCM.
Cuando un tamaño de la matriz de cuantificación definida por el usuario es mayor que un tamaño predeterminado, los coeficientes de la matriz de cuantificación definida por el usuario se someten a muestreo descendente para reducir los bits de señalización y entonces se codifican usando DPCM. El tamaño predeterminado puede ser de 8x8. Por ejemplo, si el tamaño de la matriz de cuantificación definida por el usuario es de 16x16, los coeficientes distintos del coeficiente DC de la matriz de cuantificación definida por el usuario se someten a muestreo descendente usando un muestreo descendente 4:1. El coeficiente DC se señaliza por separado de la matriz sometida a muestreo descendente.
La figura 4 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según la presente invención.
El aparato de decodificación de imágenes 200 según la presente invención incluye una unidad de decodificación entrópica 201, una unidad de barrido inversa 202, una unidad de cuantificación inversa 203, una unidad de transformación inversa 204, un adicionador 205, una unidad de procesamiento posterior 206, una unidad de almacenamiento de imágenes 207, una unidad de intra-predicción 208 y una unidad de inter-predicción 209.
La unidad de decodificación entrópica 201 extrae la información de intra-predicción, la información de inter­ predicción y la información de coeficiente unidimensional de un flujo de bits recibido. La unidad de decodificación entrópica 201 transmite la información de inter-predicción a la unidad de inter-predicción 209, la información de inter­ predicción a la unidad de inter-predicción 208 y la información de coeficiente a la unidad de barrido inversa 202. La unidad de barrido inversa 202 usa un patrón de barrido inverso para generar dos bloques cuantificados bidimensionales. Se supone que se usa CABAC como método de codificación entrópica. El patrón de barrido inverso es uno del barrido diagonal, el barrido vertical y el barrido horizontal.
En la intra-predicción, el patrón de barrido inverso está determinado por el modo de intra-predicción y el tamaño de la unidad de transformación. El patrón de barrido inverso se selecciona entre un barrido diagonal, un barrido vertical y un barrido horizontal. El patrón de barrido inverso seleccionado se aplica a las banderas significativas, los signos de coeficiente y los niveles de coeficiente generan, respectivamente, el bloque cuantificado.
Cuando el tamaño de la unidad de transformación es igual a o menor que el primer tamaño, se selecciona el barrido horizontal para el modo vertical y un número predeterminado de modos de intra-predicción vecinos del modo vertical, se selecciona el barrido vertical para el modo horizontal y el número predeterminado de modos de intrapredicción vecinos del modo horizontal, y se selecciona el barrido diagonal para los otros modos de intra-predicción. El primer tamaño es de 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona el barrido diagonal para todos los modos de intra-predicción.
En la inter-predicción, se usa el barrido diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, las banderas significativas, los signos de coeficiente y los niveles de coeficiente se someten a barrido inverso en la unidad del subconjunto para generar subconjuntos. Y los subconjuntos se someten a barrido inverso para generar el bloque cuantificado. El segundo tamaño es de 4x4.
El patrón de barrido inverso usado para generar cada subconjunto es el mismo que el patrón de barrido inverso usado para generar el bloque cuantificado. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente se barren en el sentido inverso. Los subconjuntos también se barren en el sentido inverso.
La última posición distinta de cero y las banderas de subconjuntos distintos de cero se reciben desde el codificador. La última posición distinta de cero se usa para determinar el número de subconjuntos que van a generarse. Las banderas de subconjuntos distintos de cero se usan para determinar los subconjuntos que van a generarse aplicando el patrón de barrido inverso. El subconjunto que cubre el coeficiente DC y el subconjunto que cubre el último coeficiente distinto de cero se generan usando el patrón de barrido inversa porque no se transmiten las banderas de subconjuntos distintos de cero para un subconjunto que cubre un coeficiente DC y un subconjunto que cubre el último coeficiente diferente de cero.
La unidad de cuantificación inversa 203 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación entrópica 201 y genera el predictor de parámetro de cuantificación. Se genera el predictor de parámetro de cuantificación a través de la misma operación de la unidad de cuantificación 104 de la figura 1. Entonces, la unidad de cuantificación inversa 203 añade el parámetro de cuantificación diferencial y el predictor de parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación actual. Si la unidad de codificación actual es igual a o mayor que la unidad de cuantificación mínima y el parámetro de cuantificación diferencial para la unidad de codificación actual no se recibe desde el codificador, el parámetro de cuantificación diferencial se establece en 0.
La unidad de cuantificación inversa 203 somete a cuantificación inversa el bloque cuantificado.
La unidad de transformación inversa 204 somete a transformación inversa el bloque sometido a cuantificación inversa para restaurar un bloque residual. El tipo de transformación inversa se determina de manera adaptativa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación entera basada en DCT o la transformación entera basada en DST.
La unidad de intra-predicción 208 restaura el modo de intra-predicción de la unidad de predicción actual usando la información de intra-predicción recibida, y genera un bloque de predicción según el modo de intra-predicción restaurado. El tamaño del bloque de predicción es el mismo que el de la unidad de transformación. La unidad de intra-predicción 208 genera píxeles de referencia si no hay píxeles de referencia disponibles de un bloque actual, y filtra de manera adaptativa los píxeles de referencia del bloque actual según el tamaño del bloque actual y el modo de intra-predicción. El tamaño del bloque actual es el mismo que el de la unidad de transformación.
La unidad de inter-predicción 209 restaura la información de movimiento de la unidad de predicción actual usando la información de predicción recibida, y genera un bloque de predicción usando la información de movimiento.
La unidad de procesamiento posterior 206 funciona igual que la unidad de procesamiento posterior 110 de la figura 1.
La unidad de almacenamiento de imágenes 207 recibe imágenes sometidas a procesamiento posterior desde la unidad de procesamiento posterior 206, y almacena la imagen en unidades de imagen. Una imagen puede ser una trama o un campo.
El adicionador 205 añade el bloque residual restaurado y un bloque de predicción para generar un bloque reconstruido.
La figura 5 es un diagrama de flujo que ilustra un método de decodificación de parámetro de cuantificación según la presente invención.
Se deriva el tamaño mínimo de la unidad de cuantificación (S210). El parámetro (cu_qp_delta_enabled_info) que especifica la profundidad de la unidad de cuantificación mínima se extrae de PPS. El tamaño mínimo de la unidad de cuantificación se deriva de la siguiente manera:
Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
MinQUSize es el tamaño mínimo de la unidad de cuantificación. MaxCUSize es el tamaño de LCU.
Se restaura el parámetro de cuantificación diferencial (dQP) de la unidad de codificación actual (S220). El dQP se restaura por unidad de cuantificación. Por ejemplo, si el tamaño de la unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación, el dQP se restaura para la unidad de codificación actual. Si la unidad de codificación actual no contiene un dQP codificado, el dQP se establece en cero. Si la unidad de cuantificación incluye varias unidades de codificación, una primera unidad de codificación que contiene al menos un coeficiente distinto de cero en el orden de decodificación contiene el dQP codificado.
El dQP codificado se somete a decodificación aritmética para generar un valor absoluto del dQP y una bandera de signo que indica el signo del dQP. El valor absoluto del dQP se somete a binarización de cadena de bins como unario truncado. Entonces, el dQP se restaura desde la cadena bin del valor absoluto y la bandera de signo. Si el valor absoluto es cero, la bandera de signo no existe.
Se genera el predictor de parámetro de cuantificación de la unidad de codificación actual (S230). Se genera el predictor de parámetro de cuantificación usando la misma operación de la etapa 130 de la figura 3. Si una unidad de cuantificación incluye varias unidades de codificación, se genera el predictor de parámetro de cuantificación de la primera unidad de codificación en el orden de decodificación, y el predictor de parámetro de cuantificación generado se usa para todas las unidades de codificación dentro de la unidad de cuantificación.
El parámetro de cuantificación se genera usando el dQP y el predictor de parámetro de cuantificación (S240).
Mientras tanto, las matrices de cuantificación definidas por el usuario también se restauran. Se recibe un conjunto de matrices de cuantificación definidas por el usuario desde el aparato de codificación a través del SPS o el PPS. La matriz de cuantificación definida por el usuario se restaura usando DPCM inverso. El barrido diagonal se usa para el DPCM. Cuando el tamaño de la matriz de cuantificación definida por el usuario es mayor que 8x8, la matriz de cuantificación definida por el usuario se restaura sobremuestreando los coeficientes de la matriz de cuantificación de 8x8 recibida. El coeficiente DC de la matriz de cuantificación definida por el usuario se extrae del SPS o el PPS. Por ejemplo, si el tamaño de la matriz de cuantificación definida por el usuario es de 16x16, los coeficientes de la matriz de cuantificación de 8x8 recibida se sobremuestrean con un sobremuestreo de 1: 4.
La figura 6 es un diagrama de flujo que ilustra un método de generación de un bloque de predicción en la intrapredicción según la presente invención.
La información de intra-predicción de la unidad de predicción actual se somete a decodificación entrópica (S310). La información de intra-predicción incluye un indicador de grupo de modos y un índice de modo de predicción. El indicador de grupo de modos es una bandera que indica si el modo de intra-predicción de la unidad de predicción actual pertenece al grupo de modos más probables (grupo de MPM; Most Probable Mode). Si la bandera es 1, la unidad de intra-predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra-predicción de la unidad de predicción actual pertenece a un grupo de modos residuales. El grupo de modos residuales incluye todos los modos de intra-predicción distintos de los modos de intra-predicción pertenecientes al grupo de MPM. El índice de modo de predicción especifica el modo de intra-predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
El modo de intra-predicción de la unidad de predicción actual se deriva usando la información de intra-predicción (S320).
La figura 7 es un diagrama de flujo que ilustra un procedimiento de derivación de modo de intra-predicción según la presente invención. El modo de intra-predicción de la unidad de predicción actual se restaura usando las siguientes etapas ordenadas.
El grupo de MPM se construye usando modos de intra-predicción de las unidades de predicción vecinas (S321). Los modos de intra-predicción del grupo de MPM se determinan de manera adaptativa mediante un modo de intrapredicción izquierda y un modo de intra-predicción superior. El modo de intra-predicción izquierda es el modo de intra-predicción de la unidad de predicción vecina izquierda, y el modo de intra-predicción superior es el modo de intra-predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intrapredicción.
Si la unidad de predicción vecina izquierda o superior no existe, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible. Por ejemplo, si la unidad de predicción actual está ubicada en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior está ubicada dentro de otro segmento u otra losa, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina izquierda o superior se somete a inter-codificación, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina superior está ubicada dentro de otra LCU, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior están disponibles y son diferentes entre sí, el modo de intra-predicción izquierda y el modo de intra-predicción superior se incluyen en el grupo de MPM y se añade un modo de intra-predicción adicional al grupo de m Pm . Se asigna el índice 0 a un modo de intra-predicción del número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra-predicción izquierda y se asigna el índice 1 al modo de intra-predicción superior. El modo de intra-predicción añadido se determina mediante los modos de intra-predicción izquierda y superior de la siguiente manera.
Si uno de los modos de intra-predicción izquierda y superior es un modo no direccional y el otro es un modo direccional, se añade el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intrapredicción izquierda y superior es el modo DC, se añade el modo plano al grupo de MPM. Si el primero de los modos de intra-predicción izquierda y superior es el modo plano, se añade el modo DC al grupo de MPM. Si ambos modos de intra-predicción izquierda y superior son modos no direccionales, se añade el modo vertical al grupo de MPM. Si ambos modos de intra-predicción izquierda y superior son modos direccionales, se añade el modo DC o el modo plano al grupo de MPM.
Cuando sólo está disponible uno del modo de intra-predicción izquierda y el modo de intra-predicción superior, el modo de intra-predicción disponible se incluye en el grupo de MPM y se añaden dos modos de intra-predicción adicionales al grupo de MPM. Los dos modos de intra-predicción añadidos están determinados por los modos de intra-predicción disponibles de la siguiente manera.
Si el modo de intra-predicción disponible es un modo no direccional, se añaden el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo DC, se añaden el modo plano y el modo vertical al grupo de MPM. Si el modo de intra-predicción disponible es el modo plano, se añaden el modo DC y el modo vertical al grupo de MPM. Si el modo de intra-predicción disponible es un modo direccional, se añaden dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior están disponibles y son iguales entre sí, el modo de intra-predicción disponible se incluye en el grupo de MPM y se añaden dos modos de intra-predicción adicionales al grupo de MPM. Los dos modos de intra-predicción añadidos están determinados por los modos de intra-predicción disponibles de la siguiente manera.
Si el modo de intra-predicción disponible es un modo direccional, se añaden dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo 23, se añaden el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra-predicción disponible es el modo 30, se añaden los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intrapredicción disponible es un modo no direccional, se añaden el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo DC, se añaden el modo plano y el modo vertical al grupo de MPM.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior no están disponibles, se añaden tres modos de intra-predicción adicionales al grupo de MPM. Los tres modos de intra-predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra-predicción en el orden del modo DC, el modo plano y el modo vertical o en el orden del modo plano, el modo DC y el modo vertical. Se determina si el indicador de grupo de modos indica el grupo de MPM (S322).
Si el indicador de grupo de modos indica el grupo de MPM, la intra-predicción del grupo de MPM especificada por el índice de modo de predicción se establece como el modo de intra-predicción de la unidad de predicción actual (S323).
Si el indicador de grupo de modos no indica el grupo de MPM, la intra-predicción del grupo de modos residuales especificado por el índice de modo de predicción se establece como el modo de intra-predicción de la unidad de predicción actual (S324). El modo de intra-predicción de la unidad actual se deriva usando el índice de modo de predicción y los modos de intra-predicción del grupo de MPM como las siguientes etapas ordenadas.
Entre los tres modos de intra-predicción del grupo de MPM, el modo de intra-predicción con el menor número de modo se establece como un primer candidato, el modo de intra-predicción con número de modo intermedio se establece como un segundo candidato y el modo de intra-predicción con el mayor número de modo se establece como un tercer candidato.
1) El índice de modo de predicción se compara con el primer candidato. Si el índice de modo de predicción es igual a o mayor que el primer candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
2) El índice de modo de predicción se compara con el segundo candidato. Si el índice de modo de predicción es igual a o mayor que el segundo candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
3) El índice de modo de predicción se compara con el tercer candidato. Si el índice de modo de predicción es igual a o mayor que el tercer candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
4) El valor del índice de modo de predicción final se establece como el número de modo del modo de intrapredicción de la unidad de predicción actual.
El tamaño del bloque de predicción se determina basándose en la información de tamaño de transformación que especifica el tamaño de la unidad de transformación (S330). La información de tamaño de transformación puede ser una o más split_transform_flags que especifican el tamaño de la unidad de transformación.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de predicción actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de transformación. En este caso, se realiza un proceso de generación de un bloque reconstruido en cada subbloque de la unidad de predicción actual. Es decir, se generan un bloque de predicción y un bloque residual de un subbloque actual y se genera un bloque reconstruido de cada subbloque añadiendo el bloque de predicción y el bloque residual. Entonces, se generan un bloque de predicción, un bloque residual y un bloque reconstruido del siguiente subbloque en orden de decodificación. El modo de intrapredicción restaurado se usa para generar todos los bloques de predicción de todos los subbloques. Algunos píxeles del bloque reconstruido del subbloque actual se usan como píxeles de referencia del siguiente subbloque. Por tanto, es posible generar un bloque de predicción que sea más similar al subbloque original.
A continuación, se determina si todos los píxeles de referencia del bloque actual están disponibles, y se generan píxeles de referencia si uno o más píxeles de referencia no están disponibles (S340). El bloque actual es la unidad de predicción actual o el subbloque actual. El tamaño del bloque actual es el tamaño de la unidad de transformación. La figura 8 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia del bloque actual según la presente invención. Tal como se muestra en la figura 8, los píxeles de referencia de los bloques actuales se componen de los píxeles de referencia superiores ubicados en (x = 0, ..., 2N-1, y = -1), los píxeles de referencia izquierdos ubicados en (x = 1-, y = 0, ..., 2M-1) y un píxel de esquina ubicado en (x = -1, y = -1). N es la anchura del bloque actual y M es la altura del bloque actual.
Si no existen píxeles reconstruidos en las posiciones correspondientes, o los píxeles reconstruidos están ubicados dentro de otro segmento, los píxeles de referencia se establecen como no disponibles. En el modo de intrapredicción restringida (modo CIP; Constrained Intra Prediction), los píxeles reconstruidos del modo inter también se configuran como no disponibles.
Si uno o más píxeles de referencia no están disponibles, se generan uno o más píxeles de referencia para el uno o más píxeles de referencia no disponibles de la siguiente manera.
Si todos los píxeles de referencia no están disponibles, el valor de 2L-1 se sustituye por los valores de todos los píxeles de referencia. El valor de L es el número de bits usados para representar el valor de píxel de luminancia. Si los píxeles de referencia disponibles están ubicados en un sólo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible se sustituye por el píxel de referencia no disponible.
Si los píxeles de referencia disponibles están ubicados a ambos lados del píxel de referencia no disponible, el valor promedio de los píxeles de referencia más cercanos al píxel no disponible a cada lado o el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada se sustituye por cada píxel de referencia no disponible.
A continuación, los píxeles de referencia se filtran de manera adaptativa según el modo de intra-predicción y el tamaño del bloque actual (S350). El tamaño del bloque actual es el tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no se filtran. En el modo vertical y el modo horizontal, los píxeles de referencia no se filtran. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de referencia son adaptables según el tamaño del bloque actual.
Si el tamaño del bloque actual es de 4x4, los píxeles de referencia no se filtran en todos los modos de intrapredicción. Para los tamaños de 8x8, 16x16 y 32x32, aumenta el número de modos de intra-predicción en los que se filtran los píxeles de referencia a medida que el tamaño del bloque actual se vuelve mayor. Por ejemplo, los píxeles de referencia no se filtran en el modo vertical y un número predeterminado de modos de intra-predicción vecinos del modo vertical. Los píxeles de referencia tampoco se filtran en el modo horizontal y el número predeterminado de modos de intra-predicción vecinos del modo horizontal. El número predeterminado es uno de 0~7 y disminuye a medida que aumenta el tamaño del bloque actual.
A continuación, se genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra-predicción restaurado (S360).
En el modo DC, se genera el píxel de predicción del bloque de predicción que no es adyacente al píxel de referencia promediando los N píxeles de referencia ubicados en (x = 0, ... N-1, y = -1) y los M píxeles de referencia ubicados en (x = -1, y = 0, ..M-1). El píxel de predicción adyacente al píxel de referencia se genera usando el valor promedio y uno o dos píxeles de referencia adyacentes.
En el modo vertical, los píxeles de predicción que no son adyacentes al píxel de referencia izquierdo se generan copiando el valor del píxel de referencia vertical. Los píxeles de predicción que son adyacentes al píxel de referencia izquierdo se generan mediante el píxel de referencia vertical y la variación entre el píxel de esquina y el píxel vecino izquierdo.
En el modo horizontal, se generan los píxeles de predicción usando el mismo método.
La figura 9 es un diagrama de bloques que ilustra un aparato de generación de un bloque de predicción en intrapredicción según la presente invención.
El aparato 300 según la presente invención incluye una unidad de análisis 310, una unidad de decodificación de modo de predicción 320, una unidad de determinación de tamaño de predicción 330, una unidad de verificación de disponibilidad de referencia 340, una unidad de generación de píxeles de referencia 350, una unidad de filtrado de píxeles de referencia 360 y una unidad de generación de bloque de predicción 370.
La unidad de análisis 310 restaura la información de intra-predicción de la unidad de predicción actual del flujo de bits.
La información de inter-predicción incluye el indicador de grupo de modos y un índice de modo de predicción. El indicador de grupo de modos es una bandera que indica si el modo de intra-predicción de la unidad de predicción actual pertenece al grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intrapredicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intrapredicción de la unidad de predicción actual pertenece a un grupo de modos residuales. El grupo de modos residuales incluye todos los modos de intra-predicción distintos de los modos de intra-predicción pertenecientes al grupo de MPM. El índice de modo de predicción especifica el modo de intra-predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
La unidad de decodificación de modo de predicción 320 incluye una unidad de construcción de grupo de MPM 321 y una unidad de restauración de modo de predicción 322.
La unidad de construcción de grupo de MPM 321 construye el grupo de MPM de la unidad de predicción actual. El grupo de MPM se construye usando modos de intra-predicción de las unidades de predicción vecinas. Los modos de intra-predicción del grupo de MPM se determinan de manera adaptativa mediante un modo de intra-predicción izquierda y un modo de intra-predicción superior. El modo de intra-predicción izquierda es el modo de intrapredicción de la unidad de predicción vecina izquierda, y el modo de intra-predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intrapredicción.
La unidad de construcción de grupo de MPM 321 verifica la disponibilidad del modo de intra-predicción izquierda y el modo de intra-predicción superior. Si la unidad de predicción vecina izquierda o superior no existe, el modo de intrapredicción de la unidad vecina izquierda o superior se establece como no disponible. Por ejemplo, si la unidad de predicción actual está ubicada en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior está ubicada dentro de otro segmento u otra losa, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina izquierda o superior se somete a inter-codificación, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible. Si la unidad vecina superior está ubicada dentro de otra LCU, el modo de intra-predicción de la unidad vecina izquierda o superior se establece como no disponible.
La unidad de construcción de grupo de MPM 321 construye el grupo de MPM de la siguiente manera.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior están disponibles y son diferentes entre sí, el modo de intra-predicción izquierda y el modo de intra-predicción superior se incluyen en el grupo de MPM y se añade un modo de intra-predicción adicional al grupo de m Pm . Se asigna el índice 0 a un modo de intra-predicción del número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra-predicción izquierda y se asigna el índice 1 al modo de intra-predicción superior. El modo de intra-predicción añadido se determina mediante los modos de intra-predicción izquierda y superior de la siguiente manera.
Si uno de los modos de intra-predicción izquierda y superior es un modo no direccional y el otro es un modo direccional, se añade el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intrapredicción izquierda y superior es el modo DC, se añade el modo plano al grupo de MPM. Si el primero de los modos de intra-predicción izquierda y superior es el modo plano, se añade el modo DC al grupo de MPM. Si ambos de los modos de intra-predicción izquierda y superior son modos no direccionales, se añade el modo vertical al grupo de MPM. Si ambos modos de intra-predicción izquierda y superior son modos direccionales, se añade el modo DC o el modo plano al grupo de MPM.
Cuando sólo está disponible uno del modo de intra-predicción izquierda y el modo de intra-predicción superior, el modo de intra-predicción disponible se incluye en el grupo de MPM y se añaden dos modos de intra-predicción adicionales al grupo de MPM. Los dos modos de intra-predicción añadidos están determinados por los modos de intra-predicción disponibles de la siguiente manera.
Si el modo de intra-predicción disponible es un modo no direccional, se añaden el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo DC, se añaden el modo plano y el modo vertical al grupo de MPM. Si el modo de intra-predicción disponible es el modo plano, se añaden el modo DC y el modo vertical al grupo de MPM. Si el modo de intra-predicción disponible es un modo direccional, se añaden dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior están disponibles y son iguales entre sí, el modo de intra-predicción disponible se incluye en el grupo de MPM y se añaden dos modos de intra-predicción adicionales al grupo de MPM. Los dos modos de intra-predicción añadidos están determinados por los modos de intra-predicción disponibles de la siguiente manera.
Si el modo de intra-predicción disponible es un modo direccional, se añaden dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo 23, se añaden el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra-predicción disponible es el modo 30, se añaden los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intrapredicción disponible es un modo no direccional, se añaden el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra-predicción disponible es el modo DC, se añaden el modo plano y el modo vertical al grupo de MPM.
Cuando tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior no están disponibles, se añaden tres modos de intra-predicción adicionales al grupo de MPM. Los tres modos de intra-predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra-predicción en el orden del modo DC, el modo plano y el modo vertical o en el orden del modo plano, el modo DC y el modo vertical. La unidad de restauración de modo de predicción 322 deriva el modo de intra-predicción de la unidad de predicción actual usando el indicador de grupo de modos y el índice de modo de predicción de la siguiente manera.
La unidad de restauración de modo de predicción 322 determina si el indicador de grupo de modos indica el grupo de MPM.
Si el indicador de grupo de modos indica el grupo de MPM, la unidad de restauración de modo de predicción 322 determina la intra-predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra-predicción de la unidad de predicción actual.
Si el indicador de grupo de modos no indica el grupo de MPM, la unidad de restauración de modo de predicción 322 determina la intra-predicción del grupo de modos residuales especificado por el índice de modo de predicción como el modo de intra-predicción de la unidad de predicción actual. El modo de intra-predicción de la unidad actual se deriva usando el índice de modo de predicción y los modos de intra-predicción del grupo de MPM como las siguientes etapas ordenadas.
Entre los tres modos de intra-predicción del grupo de MPM, el modo de intra-predicción con el menor número de modo se establece como un primer candidato, el modo de intra-predicción con número de modo intermedio se establece como un segundo candidato y el modo de intra-predicción con el mayor número de modo se establece como un tercer candidato.
1) El índice de modo de predicción se compara con el primer candidato. Si el índice de modo de predicción es igual a o mayor que el primer candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
2) El índice de modo de predicción se compara con el segundo candidato. Si el índice de modo de predicción es igual a o mayor que el segundo candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
3) El índice de modo de predicción se compara con el tercer candidato. Si el índice de modo de predicción es igual a o mayor que el tercer candidato del grupo de MPM, el valor del índice de modo de predicción se aumenta en uno. De lo contrario, se mantiene el valor del índice de modo de predicción.
4) El valor del índice de modo de predicción final se establece como el número de modo del modo de intrapredicción de la unidad de predicción actual.
La unidad de determinación de tamaño de predicción 330 determina el tamaño del bloque de predicción basándose en la información de tamaño de transformación que especifica el tamaño de la unidad de transformación. La información de tamaño de transformación puede ser uno o más split_transform_flags que especifican el tamaño de la unidad de transformación.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de predicción actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, el tamaño del bloque de predicción es igual al tamaño de la unidad de transformación. En este caso, se realiza un proceso de generación de un bloque reconstruido en cada subbloque de la unidad de predicción actual. Es decir, se generan un bloque de predicción y un bloque residual de un subbloque actual y se genera un bloque reconstruido de cada subbloque añadiendo el bloque de predicción y el bloque residual. Entonces, se generan un bloque de predicción, un bloque residual y un bloque reconstruido del siguiente subbloque en orden de decodificación. El modo de intrapredicción restaurado se usa para generar todos los bloques de predicción de todos los subbloques. Algunos píxeles del bloque reconstruido del subbloque actual se usan como píxeles de referencia del siguiente subbloque. Por tanto, es posible generar un bloque de predicción que sea más similar al subbloque original.
La unidad de verificación de disponibilidad de píxeles de referencia 340 determina si todos los píxeles de referencia del bloque actual están disponibles. El bloque actual es la unidad de predicción actual o el subbloque actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
La unidad de generación de píxeles de referencia 350 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles.
Si todos los píxeles de referencia no están disponibles, el valor de 2M se sustituye por los valores de todos los píxeles de referencia. El valor de L es el número de bits usados para representar el valor de píxel de luminancia. Si los píxeles de referencia disponibles están ubicados sólo en un lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible se sustituye por el píxel de referencia no disponible.
Si los píxeles de referencia disponibles están ubicados a ambos lados del píxel de referencia no disponible, el valor promedio de los píxeles de referencia más cercanos al píxel no disponible a cada lado o el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada se sustituye por cada píxel de referencia no disponible.
La unidad de filtrado de píxeles de referencia 360 filtra de manera adaptativa los píxeles de referencia basándose en el modo de intra-predicción y el tamaño del bloque actual.
En el modo DC, los píxeles de referencia no se filtran. En el modo vertical y el modo horizontal, los píxeles de referencia no se filtran. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de referencia son adaptables según el tamaño del bloque actual.
Si el tamaño del bloque actual es de 4x4, los píxeles de referencia no se filtran en todos los modos de intrapredicción. Para los tamaños de 8x8, 16x16 y 32x32, aumenta el número de modos de intra-predicción en los que se filtran los píxeles de referencia a medida que el tamaño del bloque actual se vuelve mayor. Por ejemplo, los píxeles de referencia no se filtran en el modo vertical y un número predeterminado de modos de intra-predicción vecinos del modo vertical. Los píxeles de referencia tampoco se filtran en el modo horizontal y el número predeterminado de modos de intra-predicción vecinos del modo horizontal. El número predeterminado es uno de 0~7 y disminuye a medida que aumenta el tamaño del bloque actual.
La unidad de generación de bloque de predicción 370 genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra-predicción restaurado.
En el modo DC, se genera el píxel de predicción del bloque de predicción que no es adyacente al píxel de referencia promediando los N píxeles de referencia ubicados en (x = 0, ... N-1, y = -1) y los M píxeles de referencia ubicados en (x = -1, y = 0, ..M-1). El píxel de predicción adyacente al píxel de referencia se genera usando el valor promedio y uno o dos píxeles de referencia adyacentes.
En el modo vertical, se generan los píxeles de predicción que no son adyacentes al píxel de referencia izquierdo copiando el valor del píxel de referencia vertical. Los píxeles de predicción que son adyacentes al píxel de referencia izquierdo se generan mediante el píxel de referencia vertical y la variación entre el píxel de esquina y el píxel vecino izquierdo.
En el modo horizontal, se generan los píxeles de predicción usando el mismo método.
Aunque la invención se ha mostrado y descrito con referencia a determinadas realizaciones a modo de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse diversos cambios en la forma y los detalles de la misma sin apartarse del alcance de la invención tal como se define en las reivindicaciones adjuntas.

Claims (1)

  1. REIVINDICACIONES
    Un aparato (300) para generar un bloque de predicción en intra-predicción, que comprende:
    un módulo de análisis (310) de restauración de un indicador de grupo de modos y un índice de modo de predicción, en el que el indicador de grupo de modos indica si un modo de intra-predicción de una unidad de predicción actual es uno de los modos de intra-predicción en un grupo de modos más probables, MPM, o no, y el índice de modo de predicción indica que un modo de intra-predicción es el modo de intra-predicción de la unidad de predicción actual;
    un módulo de construcción de grupo de MPM para construir el grupo de MPM que incluye tres modos de intra-predicción;
    un módulo de restauración de modo de predicción para determinar un modo de intra-predicción del grupo de MPM especificado por el índice de modo de predicción como el modo de intra-predicción de la unidad de predicción actual si el indicador de grupo de modos indica que el modo de intra-predicción de una unidad de predicción actual es uno de los modos de intra-predicción en el grupo de MPM, y derivar el modo de intrapredicción de la unidad de predicción actual usando el índice de modo de predicción y los tres modos de intra-predicción del grupo de MPM si el indicador de grupo de modos no indica que el modo de intrapredicción de una unidad de predicción actual es uno de los modos de intra-predicción en el grupo de MPM; un módulo de determinación de tamaño de predicción (330) para determinar un tamaño del bloque de predicción basándose en una información de tamaño de transformación, en el que la información de tamaño de transformación es el tamaño de una unidad de transformación;
    un módulo de verificación de disponibilidad de píxeles de referencia (340) para determinar si todos los píxeles de referencia de un bloque actual están disponibles, en el que el bloque actual es la unidad de predicción actual o un subbloque de la unidad de predicción actual;
    un módulo de generación de píxeles de referencia (350) para generar píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles;
    un módulo de filtrado de píxeles de referencia (360) para filtrar de manera adaptativa los píxeles de referencia basándose en el modo de intra-predicción y el tamaño del bloque actual; y
    un módulo de generación de bloque de predicción (370) para generar el bloque de predicción usando los píxeles de referencia basándose en el modo de intra-predicción restaurado,
    en el que cuando sólo está disponible uno de un modo de intra-predicción izquierda y un modo de intrapredicción superior, el grupo de MPM incluye el modo de intra-predicción disponible y dos modos de intrapredicción adicionales, y si el modo de intra-predicción disponible es uno de dos modos de intra-predicción no direccionales, los dos modos de intra-predicción adicionales son el otro de los dos modos de intrapredicción no direccionales y un modo vertical, y si el modo de intra-predicción disponible es uno de los modos de intra-predicción direccionales, los dos modos de intra-predicción adicionales son dos modos de intra-predicción no direccionales, y
    en el que si el indicador de grupo de modos no indica el grupo de MPM, la unidad de restauración de modo de predicción deriva el modo de intra-predicción de la unidad de predicción actual realizando las etapas ordenadas de:
    aumentar un valor del índice de modo de predicción en uno si el índice de modo de predicción es igual a o mayor que el primer modo de intra-predicción del grupo de MPM;
    aumentar el valor del índice de modo de predicción en uno si el índice de modo de predicción es igual a o mayor que un segundo modo de intra-predicción del grupo de MPM;
    aumentar el valor del índice de predicción si el índice de modo de predicción es igual a o mayor que un tercer modo de intra-predicción del grupo de MPM; y
    determinar el valor del índice de modo de predicción como el número de modo del modo de intra-predicción de la unidad de predicción actual,
    en el que el primer modo de intra-predicción es un modo de intra-predicción que tiene el menor número de modo, el segundo modo de intra-predicción es un modo de intra-predicción que tiene un número de modo intermedio y el tercer modo de intra-predicción es un modo de intra-predicción que tiene el mayor número de modo, y
    en el que los dos modos de intra-predicción no direccionales son un modo DC y un modo plano.
    El aparato (300) de la reivindicación 1, en el que cuando están disponibles tanto el modo de intra-predicción izquierda como el modo de intra-predicción superior, y el modo de intra-predicción izquierda es igual al modo de intra-predicción superior y el modo de intra-predicción izquierda es uno de los dos modos de intrapredicción no direccionales, el grupo de MPM incluye los dos modos de intra-predicción no direccionales y un modo vertical.
    El aparato (300) de la reivindicación 1, en el que si el tamaño del bloque actual es 4x4, los píxeles de referencia no se filtran, y si el tamaño del bloque actual es mayor que 4x4, el número del modo de intrapredicción donde los píxeles de referencia se filtran aumenta a medida que el tamaño del bloque actual se hace más grande, en el que el bloque actual es la unidad de predicción actual o un subbloque de la unidad de predicción actual.
    El aparato (300) de la reivindicación 1, en el que en el modo vertical, los píxeles de predicción del bloque de predicción que son adyacentes a los píxeles de referencia izquierdos se generan usando un píxel de referencia vertical y una variación entre un píxel de esquina y un píxel vecino izquierdo.
ES18181699T 2011-11-04 2012-11-02 Aparato de derivación de un modo de intra-predicción Active ES2784007T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20110114607A KR20130049523A (ko) 2011-11-04 2011-11-04 인트라 예측 블록 생성 장치

Publications (1)

Publication Number Publication Date
ES2784007T3 true ES2784007T3 (es) 2020-09-21

Family

ID=48191357

Family Applications (3)

Application Number Title Priority Date Filing Date
ES21156612T Active ES2984853T3 (es) 2011-11-04 2012-11-02 Método de derivación de un modo de intra-predicción
ES18181699T Active ES2784007T3 (es) 2011-11-04 2012-11-02 Aparato de derivación de un modo de intra-predicción
ES21156609T Active ES2984439T3 (es) 2011-11-04 2012-11-02 Método de derivación de un modo de intra-predicción

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES21156612T Active ES2984853T3 (es) 2011-11-04 2012-11-02 Método de derivación de un modo de intra-predicción

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES21156609T Active ES2984439T3 (es) 2011-11-04 2012-11-02 Método de derivación de un modo de intra-predicción

Country Status (16)

Country Link
US (11) US9264723B2 (es)
EP (6) EP3843392B1 (es)
JP (8) JP5841264B2 (es)
KR (6) KR20130049523A (es)
CN (8) CN108495133B (es)
BR (5) BR122020014038B1 (es)
CA (4) CA3217419A1 (es)
DK (2) DK3843393T3 (es)
ES (3) ES2984853T3 (es)
HU (3) HUE048753T2 (es)
MX (6) MX340480B (es)
PL (3) PL3843393T3 (es)
PT (2) PT3843393T (es)
SG (9) SG10202001287TA (es)
TW (10) TW202446074A (es)
WO (1) WO2013064095A1 (es)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102835114B (zh) 2010-04-13 2016-06-15 松下电器(美国)知识产权公司 图像解码方法及图像解码装置
KR20130049525A (ko) 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6120490B2 (ja) * 2011-11-07 2017-04-26 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
KR20130050407A (ko) 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
US10277915B2 (en) * 2011-11-07 2019-04-30 Qualcomm Incorporated Signaling quantization matrices for video coding
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP6064580B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに送信装置、送信方法及び送信プログラム
JP6064581B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに受信装置、受信方法及び受信プログラム
US11323747B2 (en) * 2013-06-05 2022-05-03 Qualcomm Incorporated Residual differential pulse code modulation (DPCM) extensions and harmonization with transform skip, rotation, and scans
JP6587046B2 (ja) * 2013-07-08 2019-10-09 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US20170155899A1 (en) * 2013-09-07 2017-06-01 Tongji University Image compression method and apparatus using matching
KR20170118728A (ko) * 2015-02-17 2017-10-25 엘지전자 주식회사 적응적 스캔 오더를 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
WO2016205999A1 (en) * 2015-06-23 2016-12-29 Mediatek Singapore Pte. Ltd. Adaptive coding group for image/video coding
JP6535744B2 (ja) 2015-08-20 2019-06-26 日本放送協会 画像符号化装置、画像復号化装置、及びこれらのプログラム
KR102631308B1 (ko) 2016-02-16 2024-01-30 삼성전자주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
CN113810706B (zh) * 2016-04-29 2025-02-28 世宗大学校产学协力团 用于对图像信号进行编码和解码的方法和装置
JP6660868B2 (ja) * 2016-11-15 2020-03-11 Kddi株式会社 動画像符号化装置及び動画像復号装置並びにプログラム
CN108805943B (zh) * 2017-04-27 2022-12-09 腾讯科技(深圳)有限公司 图片转码方法和装置
US11064201B2 (en) 2017-09-06 2021-07-13 Kaonmedia Co., Ltd. Method and device for image encoding/decoding based on effective transmission of differential quantization parameter
CN118631989A (zh) * 2017-10-18 2024-09-10 三星电子株式会社 视频解码方法、视频编码方法和装置
US11262088B2 (en) 2017-11-06 2022-03-01 International Business Machines Corporation Adjusting settings of environmental devices connected via a network to an automation hub
CN116233433A (zh) 2018-01-02 2023-06-06 三星电子株式会社 编码方法及其设备以及解码方法及其设备
US10491914B2 (en) * 2018-03-29 2019-11-26 Tencent America LLC Transform information prediction
US11350093B2 (en) 2018-06-11 2022-05-31 Hanwha Techwin Co., Ltd. Residual coefficient encoding/decoding method and device
KR102030384B1 (ko) 2018-06-19 2019-11-08 광운대학교 산학협력단 잔차 계수 부호화/복호화 방법 및 장치
JP7300187B2 (ja) 2018-06-30 2023-06-29 株式会社フジキン ダイヤフラムバルブおよびその監視方法
EP3818715B1 (en) * 2018-09-03 2024-04-03 Huawei Technologies Co., Ltd. Method and apparatus for intra prediction
US11516506B2 (en) * 2018-10-05 2022-11-29 Lg Electronics Inc. Method and apparatus for processing image service
CN111050169B (zh) * 2018-10-15 2021-12-14 华为技术有限公司 图像编码中量化参数的生成方法、装置及终端
CN109688409B (zh) * 2018-12-28 2021-03-02 北京奇艺世纪科技有限公司 一种视频编码方法及装置
CN109831670B (zh) * 2019-02-26 2020-04-24 北京大学深圳研究生院 一种反量化方法、系统、设备及计算机可读介质
CN118488193B (zh) 2019-04-10 2025-03-18 北京达佳互联信息技术有限公司 用于视频解码的方法和电子装置
WO2020213976A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 Bdpcm을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
JP7311626B2 (ja) 2019-04-24 2023-07-19 バイトダンス インコーポレイテッド 符号化映像の量子化残差差分パルス符号変調表現の制約
KR102707777B1 (ko) * 2019-05-01 2024-09-20 바이트댄스 아이엔씨 양자화된 잔차 차동 펄스 코드 변조 코딩을 사용하는 인트라 코딩된 비디오
CN113785568B (zh) 2019-05-02 2024-03-08 字节跳动有限公司 变换跳过模式下的信令通知
CN112004084B (zh) * 2019-05-27 2022-03-29 北京君正集成电路股份有限公司 一种利用量化参数排序的码率控制优化方法及系统
JP7564132B2 (ja) * 2019-06-21 2024-10-08 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 幾何学的分割モードのためのクロマサンプル重みの導出
WO2020263022A1 (ko) 2019-06-27 2020-12-30 삼성전자 주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
CN110464326B (zh) 2019-08-19 2022-05-10 上海联影医疗科技股份有限公司 一种扫描参数推荐方法、系统、装置及存储介质
US12126807B2 (en) * 2019-09-23 2024-10-22 Lg Electronics Inc. Image encoding/decoding method and apparatus using user-defined palette entry, and method for transmitting bitstream
US11800110B2 (en) * 2021-04-20 2023-10-24 Tencent America LLC Adaptive scanning with multiple transform selection
US12120335B2 (en) * 2021-08-24 2024-10-15 Tencent America LLC Hardware friendly design for intra mode coding
US11917144B2 (en) 2021-09-29 2024-02-27 Mediatek Inc. Efficient in-loop filtering for video coding
US20220109840A1 (en) * 2021-12-17 2022-04-07 Intel Corporation Methods and apparatus to encode and decode video using quantization matrices
CN116095316B (zh) * 2023-03-17 2023-06-23 北京中星微人工智能芯片技术有限公司 视频图像处理方法及装置、电子设备及存储介质

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8625665B2 (en) * 1996-09-20 2014-01-07 At&T Intellectual Property Ii, L.P. Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video
US6483947B1 (en) 1998-03-17 2002-11-19 Matsushita Electric Industrial Co., Ltd. Video signal processing apparatus
JP2001298368A (ja) * 2000-04-14 2001-10-26 Sakai Yasue 圧縮方法及び装置、伸長方法及び装置、圧縮伸長システム、記録媒体
JP3561485B2 (ja) * 2000-08-18 2004-09-02 株式会社メディアグルー 符号化信号分離・合成装置、差分符号化信号生成装置、符号化信号分離・合成方法、差分符号化信号生成方法、符号化信号分離・合成プログラムを記録した媒体および差分符号化信号生成プログラムを記録した媒体
CN100581253C (zh) * 2001-11-27 2010-01-13 三星电子株式会社 用于解码比特流的装置和方法
CN1206864C (zh) * 2002-07-22 2005-06-15 中国科学院计算技术研究所 结合率失真优化的码率控制的方法及其装置
EP1453004A2 (en) * 2003-02-28 2004-09-01 NTT DoCoMo, Inc. Image encoding apparatus and method
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
EP1905245A4 (en) * 2005-07-21 2011-03-16 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING AND DECODING A VIDEO SIGNAL BY EXTENDING THE APPLICATION OF DIRECTIONAL INTRAPREDICATION
JP2007089035A (ja) * 2005-09-26 2007-04-05 Toshiba Corp 動画像符号化方法、装置及びプログラム
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
EP1983759A1 (en) * 2007-04-19 2008-10-22 Matsushita Electric Industrial Co., Ltd. Estimation of separable adaptive interpolation filters for hybrid video coding
CN100493198C (zh) * 2007-05-31 2009-05-27 北京中星微电子有限公司 算术编码中的概率模型存储方法
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
CN100551075C (zh) * 2007-10-15 2009-10-14 中兴通讯股份有限公司 一种低复杂度的帧内预测模式选择方法
KR100940444B1 (ko) * 2007-12-18 2010-02-10 한국전자통신연구원 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법
US20090161757A1 (en) * 2007-12-21 2009-06-25 General Instrument Corporation Method and Apparatus for Selecting a Coding Mode for a Block
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
CN101262603B (zh) * 2008-03-27 2011-08-31 方春 一种自适应码率控制方法
CN100596202C (zh) * 2008-05-30 2010-03-24 四川虹微技术有限公司 一种快速帧内模式选择方法
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
BRPI0904324A2 (pt) * 2008-06-27 2015-06-30 Sony Corp Dispositivo de processamento de imagem, e, método de processamento de imagem
KR101501568B1 (ko) * 2008-07-04 2015-03-12 에스케이 텔레콤주식회사 영상 부호화 및 복호화 장치 및, 방법
CN101729886B (zh) * 2008-10-24 2011-09-28 安凯(广州)微电子技术有限公司 一种视频解码方法、系统和设备
CN101494776B (zh) * 2009-02-13 2011-01-05 北京邮电大学 一种h.264码率控制方法
JP5174737B2 (ja) 2009-05-05 2013-04-03 国立大学法人広島大学 画像配信システム、符号装置及び復号装置
KR101507344B1 (ko) * 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
JP5649296B2 (ja) * 2009-10-26 2015-01-07 キヤノン株式会社 画像符号化装置
KR101457894B1 (ko) * 2009-10-28 2014-11-05 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
JPWO2011052215A1 (ja) * 2009-10-30 2013-03-14 パナソニック株式会社 復号方法、復号装置、符号化方法、および符号化装置
KR101441905B1 (ko) 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588297B2 (en) * 2009-12-23 2013-11-19 Oracle America, Inc. Quantization parameter prediction
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
JP2011160359A (ja) * 2010-02-03 2011-08-18 Sharp Corp ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8929440B2 (en) * 2010-04-09 2015-01-06 Sony Corporation QP adaptive coefficients scanning and application
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
CN102238376B (zh) * 2010-04-28 2014-04-23 鸿富锦精密工业(深圳)有限公司 图像处理系统及方法
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
MY162191A (en) * 2010-06-10 2017-05-31 Thomson Licensing Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters
CN101888550A (zh) * 2010-06-28 2010-11-17 中兴通讯股份有限公司 一种slice头信息中量化参数编码方法和装置
KR101373814B1 (ko) * 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
KR20120012385A (ko) * 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
WO2012122495A1 (en) 2011-03-10 2012-09-13 Huawei Technologies Co., Ltd. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
CN102685478B (zh) * 2011-03-11 2015-04-29 华为技术有限公司 编码方法以及装置、解码方法以及装置
BR122020013613B1 (pt) 2011-03-11 2023-02-23 Sony Corporation Aparelho e método de processamento de imagem
CN102685483B (zh) * 2011-03-11 2014-12-03 华为技术有限公司 解码方法
CN102685484B (zh) 2011-03-11 2014-10-08 华为技术有限公司 编码方法以及装置、解码方法以及装置
CN102685485B (zh) 2011-03-11 2014-11-05 华为技术有限公司 编码方法以及装置、解码方法以及装置
CN102137258B (zh) * 2011-03-22 2013-04-24 宁波大学 一种立体视频码率控制方法
GB2491391B (en) * 2011-06-02 2014-09-03 Canon Kk Encoding mode values representing prediction modes
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US9860539B2 (en) * 2011-06-13 2018-01-02 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
US9112526B2 (en) * 2011-06-15 2015-08-18 Sony Corporation Binarization of DQP using separate absolute value and sign (SAVS) in CABAC
BR112013033699B1 (pt) * 2011-06-28 2020-01-14 Samsung Electronics Co Ltd método para decodificar dados de vídeo controlador por um processador
KR20110111339A (ko) * 2011-08-23 2011-10-11 한국전자통신연구원 화면내 예측 시스템에서 최적 모드를 예측하는 장치 및 방법
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
ES2762868T3 (es) 2011-09-13 2020-05-26 Hfi Innovation Inc Procedimiento y aparato para codificación de Intra modo en HEVC
CN107181962B (zh) 2011-10-07 2020-03-27 英迪股份有限公司 对当前块的帧内预测模式进行解码的方法
CN107087183B (zh) * 2011-10-24 2020-02-14 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
KR101947658B1 (ko) * 2011-10-24 2019-02-14 (주)대가람 영상 복호화 방법 및 장치
KR20130049523A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
KR20130050404A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
KR20130050405A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 시간 후보자 결정방법
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
AR092786A1 (es) * 2012-01-09 2015-05-06 Jang Min Metodos para eliminar artefactos de bloque
RU2602986C2 (ru) * 2012-01-17 2016-11-20 Инфобридж Пте. Лтд. Способ применения краевого смещения
CN102658478B (zh) 2012-05-11 2014-11-05 山东海华汽车部件有限公司 一种板簧流水装配线

Also Published As

Publication number Publication date
US10313671B2 (en) 2019-06-04
CA3085029C (en) 2023-12-12
JP2019071668A (ja) 2019-05-09
KR20140074349A (ko) 2014-06-17
JP7192045B2 (ja) 2022-12-19
CN108184119A (zh) 2018-06-19
HUE066920T2 (hu) 2024-09-28
US9912950B2 (en) 2018-03-06
US20150381983A1 (en) 2015-12-31
BR112014010639A2 (pt) 2017-04-25
JP2017130947A (ja) 2017-07-27
CA2989193C (en) 2020-08-18
EP3843393B1 (en) 2024-06-12
BR122020014035A2 (es) 2020-10-06
US20150381982A1 (en) 2015-12-31
US9712825B2 (en) 2017-07-18
CA3085029A1 (en) 2013-05-10
EP2774377A1 (en) 2014-09-10
JP6101774B2 (ja) 2017-03-22
JP2021177634A (ja) 2021-11-11
MX345037B (es) 2017-01-16
EP3843401A1 (en) 2021-06-30
TW202032979A (zh) 2020-09-01
BR112014010639B1 (pt) 2022-04-12
US9204151B2 (en) 2015-12-01
CA2853706C (en) 2018-01-23
CN108495133B (zh) 2021-06-18
US20150381985A1 (en) 2015-12-31
CN108259906B (zh) 2022-02-08
US11290719B2 (en) 2022-03-29
SG10201600414RA (en) 2016-02-26
JP2016036178A (ja) 2016-03-17
CN108259907A (zh) 2018-07-06
MX340478B (es) 2016-07-08
CN103096070A (zh) 2013-05-08
MX2014005327A (es) 2014-08-08
JP6648315B2 (ja) 2020-02-14
TWI803958B (zh) 2023-06-01
DK3843393T3 (da) 2024-08-05
JP6275897B2 (ja) 2018-02-07
TW201711460A (zh) 2017-03-16
TWI645708B (zh) 2018-12-21
TWI852511B (zh) 2024-08-11
CN108347614A (zh) 2018-07-31
SG10202002041XA (en) 2020-05-28
BR122020014038A8 (pt) 2022-10-04
US9699460B2 (en) 2017-07-04
KR20140074350A (ko) 2014-06-17
TW202450309A (zh) 2024-12-16
SG11201401926RA (en) 2014-05-29
TW202450310A (zh) 2024-12-16
EP2774377A4 (en) 2015-09-16
TW202333500A (zh) 2023-08-16
BR122020014037A2 (es) 2020-10-06
SG10201600413TA (en) 2016-02-26
CN108495133A (zh) 2018-09-04
MX340479B (es) 2016-07-08
CN108184120A (zh) 2018-06-19
SG10202001287TA (en) 2020-04-29
BR122020014035A8 (pt) 2022-10-04
PT3843392T (pt) 2024-09-16
US20180152706A1 (en) 2018-05-31
JP5841264B2 (ja) 2016-01-13
KR20140066239A (ko) 2014-05-30
CN108184119B (zh) 2022-06-17
TWI572189B (zh) 2017-02-21
KR20140066240A (ko) 2014-05-30
US20240048706A1 (en) 2024-02-08
EP3843393A1 (en) 2021-06-30
CN108366260B (zh) 2020-10-16
US9712824B2 (en) 2017-07-18
CN108366260A (zh) 2018-08-03
US11825092B2 (en) 2023-11-21
US20150117523A1 (en) 2015-04-30
SG10202002042VA (en) 2020-05-28
US9264723B2 (en) 2016-02-16
CN108184120B (zh) 2021-10-01
HUE066875T2 (hu) 2024-09-28
SG10201600412WA (en) 2016-02-26
US12244808B2 (en) 2025-03-04
BR122020014036A8 (pt) 2022-10-04
ES2984853T3 (es) 2024-10-31
BR122020014036A2 (es) 2020-10-06
US20200344477A1 (en) 2020-10-29
JP6469265B2 (ja) 2019-02-13
CN108259906A (zh) 2018-07-06
BR122020014035B1 (pt) 2023-12-12
TWI696380B (zh) 2020-06-11
US20220279182A1 (en) 2022-09-01
TWI615016B (zh) 2018-02-11
JP2014534749A (ja) 2014-12-18
EP3402191A1 (en) 2018-11-14
TW201907709A (zh) 2019-02-16
BR122020014037A8 (pt) 2022-10-04
TW201813381A (zh) 2018-04-01
BR112014010639A8 (pt) 2020-10-06
ES2984439T3 (es) 2024-10-29
CA2989193A1 (en) 2013-05-10
HUE048753T2 (hu) 2020-08-28
WO2013064095A1 (en) 2013-05-10
KR20130049523A (ko) 2013-05-14
TW202446074A (zh) 2024-11-16
SG10201600418XA (en) 2016-02-26
DK3843392T3 (da) 2024-09-02
TW202205859A (zh) 2022-02-01
EP3843400A1 (en) 2021-06-30
US20190253713A1 (en) 2019-08-15
SG10202001375VA (en) 2020-04-29
EP3843392A1 (en) 2021-06-30
BR122020014036B1 (pt) 2023-12-12
BR122020014038A2 (es) 2020-10-06
EP3402191B1 (en) 2020-01-01
MX339983B (es) 2016-06-20
EP3402191B8 (en) 2020-02-26
TWI742656B (zh) 2021-10-11
CA3217419A1 (en) 2013-05-10
JP2018078636A (ja) 2018-05-17
PL3843393T3 (pl) 2024-10-21
JP6906070B2 (ja) 2021-07-21
MX340480B (es) 2016-07-08
EP3843392B1 (en) 2024-06-19
CN103096070B (zh) 2018-02-27
JP2020074565A (ja) 2020-05-14
US20150381984A1 (en) 2015-12-31
PL3843392T3 (pl) 2024-10-28
US10742983B2 (en) 2020-08-11
BR122020014037B1 (pt) 2023-12-12
CN108347614B (zh) 2021-09-07
US20140301449A1 (en) 2014-10-09
PL3402191T3 (pl) 2020-10-05
KR101472974B1 (ko) 2014-12-19
JP7192044B2 (ja) 2022-12-19
JP2021177635A (ja) 2021-11-11
CA2853706A1 (en) 2013-05-10
PT3843393T (pt) 2024-08-02
CN108259907B (zh) 2021-09-03
BR122020014038B1 (pt) 2023-12-12
TW201334547A (zh) 2013-08-16
KR20140071438A (ko) 2014-06-11

Similar Documents

Publication Publication Date Title
ES2784007T3 (es) Aparato de derivación de un modo de intra-predicción
JP6636573B2 (ja) 映像復号化方法
ES2657908T3 (es) Procedimiento para decodificar una imagen de croma