[go: up one dir, main page]

ES2693905T3 - Aparato para descodificar un modo de intrapredicción - Google Patents

Aparato para descodificar un modo de intrapredicción Download PDF

Info

Publication number
ES2693905T3
ES2693905T3 ES16184586.2T ES16184586T ES2693905T3 ES 2693905 T3 ES2693905 T3 ES 2693905T3 ES 16184586 T ES16184586 T ES 16184586T ES 2693905 T3 ES2693905 T3 ES 2693905T3
Authority
ES
Spain
Prior art keywords
prediction
mode
intra
unit
intraprediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16184586.2T
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&K Holdings Inc
Original Assignee
M&K Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45605532&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2693905(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from KR1020110064301A external-priority patent/KR20120058384A/ko
Application filed by M&K Holdings Inc filed Critical M&K Holdings Inc
Application granted granted Critical
Publication of ES2693905T3 publication Critical patent/ES2693905T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Un aparato de descodificación de una imagen, que comprende: una unidad de descodificación por entropía (210) configurada para derivar información de intrapredicción e información de coeficiente cuantificada desde un flujo de bits recibido desde un dispositivo de codificación de imagen; una unidad de escaneo inverso (220) configurada para generar un bloque de transformada cuantificado escaneando de manera inversa la información de coeficiente cuantificada; una unidad de cuantificación inversa (230) configurada para generar un bloque de transformada cuantificando inversamente el bloque de transformada cuantificado; una unidad de transformada inversa (240) configurada para generar un bloque residual transformando de manera inversa el bloque de transformada; una unidad de intrapredicción (250) configurada para restaurar un modo de intrapredicción de un bloque de predicción actual basándose en la información de intrapredicción y para generar un bloque de predicción de acuerdo con el modo de intrapredicción; y un sumador (290) configurado para generar un bloque original sumando el bloque de predicción y el bloque residual, en el que, si se determina que un tamaño del bloque de transformada es más grande que un tamaño de referencia predeterminado, la unidad de escaneo inverso (220) escanea de manera inversa la información de coeficiente cuantificada en la unidad de un tamaño predeterminado de un subconjunto usando un patrón de escaneo inverso determinado de acuerdo con el modo de intrapredicción, en el que, la unidad de intrapredicción (250) restaura un indicador de grupo de modo de intrapredicción y un índice de modo de predicción de un bloque de predicción actual, genera un grupo de modo de intrapredicción usando los modos de intrapredicción disponibles de un bloque de predicción izquierdo y un bloque de predicción superior cerca del bloque de predicción actual, en el que el número de modos de intrapredicción que pertenece al grupo de modo de intrapredicción se fija en tres y, determina un modo de intrapredicción que está incluido en el grupo de modo de intrapredicción e indicado por el índice de modo de intrapredicción como el modo de intrapredicción del bloque de predicción actual cuando el indicador de grupo de modo de intrapredicción indica el grupo de modo de intrapredicción, en el que, cuando solo un modo de intrapredicción de los modos de intrapredicción de la unidad de predicción izquierda y la unidad de predicción superior está disponible, el grupo de modo de intrapredicción incluye el un modo de intrapredicción disponible de las respectivas unidades de predicción y dos modos de intrapredicción adicionales que se determinan de tal manera que cuando el un modo de intrapredicción disponible es un modo de intrapredicción no direccional, los dos modos de intrapredicción adicionales incluyen otro modo de intrapredicción no direccional y un modo vertical, en el que, cuando el un modo de intrapredicción disponible es un modo DC, los dos modos de intrapredicción adicionales incluyen un modo plano y un modo vertical, y en el que, cuando el un modo de intrapredicción disponible es un modo plano, los dos modos de intrapredicción adicionales incluyen un modo DC y el modo vertical.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Aparato para descodificar un modo de intraprediccion Campo tecnico
La presente invencion se refiere a un procedimiento de descodificacion de intraprediccion, y mas en concreto, a un procedimiento para restablecer un modo de intraprediccion, generar un bloque de prediccion muy similar a un bloque original, codificar un bloque residual y generar un bloque reconstruido usando el bloque de prediccion y el bloque residual.
Tecnica anterior
En procedimientos de compresion de imagen tales como Grupo de Expertos de Imagenes en Movimiento (MPEG, Motion Picture Experts Group)-1, MPEG-2, MPEG-4 y H.264/MPEG-4, Codificacion Avanzada de Audio (AVC, Advanced Video Coding), una imagen se divide en macrobloques para codificar una imagen. A continuacion, los macrobloques respectivos se codifican usando inter prediccion o intraprediccion.
En la intraprediccion, un bloque actual de una imagen se codifica no con el uso de una imagen de referencia, sino con el uso de los valores de pfxeles espacialmente adyacentes al bloque actual. Un modo de intraprediccion con poca distorsion se selecciona mediante la comparacion, con un macrobloque original, de un bloque de prediccion que se genera usando los valores de pfxeles adyacentes. A continuacion, usando el modo de intraprediccion seleccionado y los valores de pfxeles adyacentes, se calculan valores de prediccion del bloque actual. Las diferencias entre los valores de prediccion y los valores de pfxeles del bloque actual original se calculan y, a continuacion, se codifican a traves de codificacion de transformada, cuantificacion y codificacion por entropfa. El modo de intraprediccion tambien se codifica.
En la intraprediccion convencional de 4*4, hay nueve modos de un modo vertical, un modo horizontal, un modo DC, un modo descendente - izquierdo diagonal, un modo descendente - derecho diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo ascendente - horizontal y un modo descendente - horizontal.
De acuerdo con la norma H.264, un modo se selecciona de entre los nueve modos para generar un bloque de prediccion del bloque actual. De acuerdo con la norma HEVC en desarrollo, hay 17 o 34 modos de intraprediccion.
No obstante, cuando algunos o todos los valores de pfxeles adyacentes al bloque actual no existen o no se han codificado aun, es imposible aplicar algunos o la totalidad de los modos de intraprediccion al bloque actual. En el presente caso, si se realiza una intraprediccion mediante la seleccion de un modo de intraprediccion de entre los modos de intraprediccion disponibles, la distorsion entre un bloque de prediccion y un bloque original se vuelve grande. Por lo tanto, la eficiencia de codificacion se deteriora.
Asimismo, a medida que aumenta el numero de modos de intraprediccion, se requieren un nuevo procedimiento de codificacion del modo de intraprediccion mas eficaz que el procedimiento convencional, y un procedimiento mas eficaz de descodificacion del modo de intraprediccion y de generacion de un bloque reconstruido.
El documento WO 03/105070 divulga un procedimiento eficaz, de este tipo, de codificacion del modo de intraprediccion. El documento WO 03/105070 divulga, de forma espedfica, generar dos grupos de modos de intraprediccion en los que el primer grupo consiste en los modos de intraprediccion mas probables y el segundo grupo consiste en los modos de intraprediccion restantes. La probabilidad de cada modo de intraprediccion se determina de forma adaptativa de acuerdo con los modos de intraprediccion de los bloques vecinos. A continuacion, se senaliza si el modo de intraprediccion seleccionado pertenece al primer o al segundo grupo de modos de intraprediccion.
Divulgacion
Problema tecnico
La presente invencion se refiere a un procedimiento para generar un bloque de prediccion muy similar a un bloque original de acuerdo con un modo de intraprediccion, generar un bloque residual mediante la descodificacion de una senal residual y generar un bloque reconstruido usando el bloque de prediccion y el bloque residual.
Solucion tecnica
Un aspecto de la presente invencion proporciona un procedimiento de descodificacion de una intraprediccion, que comprende: demultiplexar una informacion de intraprediccion y una senal residual, restablecer un modo de intraprediccion de una unidad de prediccion actual usando la informacion de intraprediccion y los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual, generar unos pfxeles de referencia usando uno o mas pfxeles de referencia disponibles si existen pfxeles de referencia no disponibles de la unidad de prediccion, filtrar de forma adaptativa los pfxeles de referencia sobre la base del modo de intraprediccion restablecido, generar un bloque de prediccion usando el modo de intraprediccion restablecido y los pfxeles de
5
10
15
20
25
30
35
40
45
50
referencia, descodificar la senal residual que se ha demultiplexado para generar un bloque residual y generar un bloque reconstruido usando el bloque de prediccion y el bloque residual.
Efectos ventajosos
Un procedimiento de acuerdo con la presente invencion restablece un modo de intraprediccion de la unidad de prediccion actual, y filtra de forma adaptativa los pfxeles de referencia de acuerdo con el modo de intraprediccion restablecido con el fin de generar un bloque de prediccion que reduce al mmimo la diferencia entre un bloque de prediccion y un bloque original. El bloque residual se genera mediante la descodificacion, de forma adaptativa, de la senal residual de acuerdo con el modo de intraprediccion. Y, el bloque restablecido se genera mediante la combinacion del bloque de prediccion muy similar a un bloque original y el bloque residual. Por lo tanto, puede ser posible proporcionar un procedimiento de descodificacion de un modo de prediccion que se corresponde con un procedimiento de codificacion de un modo de prediccion que puede disminuir de forma eficaz la cantidad adicional de bits de acuerdo con un numero aumentado de modos de intraprediccion y que se requiere para codificar el bloque residual se reduce al mmimo. Asimismo, puede ser posible obtener un alto rendimiento de compresion y una alta eficiencia de reproduccion mediante la provision de un procedimiento de descodificacion que se corresponde con un procedimiento de codificacion que puede disminuir la cantidad de bits que se requiere para codificar mediante la generacion de un bloque de prediccion similar a una imagen original.
Descripcion de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 2 es un diagrama de bloques de una unidad de intraprediccion de un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 3 es un diagrama conceptual que muestra unas posiciones de pfxeles de referencia que se usan para una intraprediccion de acuerdo con la presente invencion.
La figura 4 es un diagrama conceptual que ilustra unos modos de intraprediccion direccionales de acuerdo con la presente invencion.
La figura 5 es un diagrama de bloques de un aparato de descodificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 6 es un diagrama de bloques de una unidad de intraprediccion de un aparato de descodificacion de imagenes en movimiento de acuerdo con la presente invencion.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificacion en un modo de intraprediccion de acuerdo con la presente invencion.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intraprediccion de acuerdo con la presente invencion cuando el numero de modos de prediccion en un primer grupo de modos de intraprediccion es variable.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento de un modo de intraprediccion de acuerdo con la presente invencion cuando el numero de modos de prediccion en un primer grupo de modos de intraprediccion esta fijado.
Modo de la invencion
En lo sucesivo en el presente documento, se describiran en detalle diversas realizaciones de la presente invencion con referencia a los dibujos adjuntos. No obstante, la presente invencion no esta limitada a las realizaciones a modo de ejemplo que se dan a conocer a continuacion, sino que se puede implementar en diversos tipos. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invencion y se debe entender que, dentro del ambito del concepto que se da a conocer, la presente invencion se puede poner en practica de una forma que no sea la que se ha descrito espedficamente.
La figura 1 es un diagrama de bloques de un aparato de codificacion de imagenes en movimiento de acuerdo con la presente invencion.
Haciendo referencia a la figura 1, un aparato de codificacion de imagenes en movimiento 100 de acuerdo con la presente invencion incluye una unidad de division de imagen 110, una unidad de transformada 120, una unidad de cuantificacion 130, una unidad de exploracion 131, una unidad de codificacion por entropfa 140, una unidad de intraprediccion 150, una unidad de inter prediccion 160, una unidad de cuantificacion inversa 135, una unidad de transformada inversa 125, una unidad de post procesamiento 170, una unidad de almacenamiento de imagenes 180, un sustractor 190 y un sumador 195.
5
10
15
20
25
30
35
40
45
50
55
60
La unidad de division de imagen 110 analiza una senal de v^deo de entrada para dividir cada unidad de codificacion mas grande (LCU, largest coding unit) de una imagen en una o mas unidades de codificacion, cada una de las cuales tiene un tamano previamente determinado, determina el modo de prediccion de cada unidad de codificacion, y determina el tamano de la unidad de prediccion por cada unidad de codificacion. La unidad de division de imagen 110 envfa la unidad de prediccion que se va a codificar a la unidad de intraprediccion 150 o la unidad de inter prediccion 160 de acuerdo con el modo de prediccion. Asimismo, la unidad de division de imagen 110 envfa las unidades de prediccion que se van a codificar al sustractor 190.
La unidad de transformada 120 transforma los bloques residuales entre un bloque original de una unidad de prediccion y un bloque de prediccion que se genera mediante la unidad de intraprediccion 150 o la unidad de inter prediccion 160. El bloque residual esta compuesto por una unidad de codificacion. El bloque residual se puede dividir en unas unidades de transformada optimas y transformarse. Un tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de prediccion (intra o inter). Debido a que las senales residuales de un modo de intraprediccion tienen directividades de acuerdo con los modos de intraprediccion, el tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de intraprediccion. La unidad de transformada se puede transformar mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la inter prediccion, se aplica un tipo de matriz de transformada previamente determinado. En la intraprediccion, hay una alta posibilidad de que los bloques residuales tengan una directividad vertical cuando el modo de intraprediccion de la unidad de prediccion actual sea horizontal. Por lo tanto, una matriz de numeros enteros basada en la transformada discreta del coseno (DCT, discrete cosine transform) se aplica a la direccion vertical, y una matriz de numeros enteros basada en la transformada discreta del seno (DST, discrete sine transform) o en la transformada de Karhunen Loeve (KLT, Karhunen Loeve transform) se aplica a la direccion horizontal. Cuando el modo de intraprediccion es vertical, una matriz de numeros enteros basada en DST o en KTL se aplica a la direccion vertical, y una matriz de numeros enteros basada en DCT se aplica a la direccion horizontal. Asimismo, en la intraprediccion, la matriz de transformada se puede determinar de forma adaptativa de acuerdo con un tamano de las unidades de transformada.
La unidad de cuantificacion 130 determina un tamano de paso de cuantificacion para cuantificar los coeficientes de transformada del bloque residual para cada unidad de codificacion. El tamano de paso de cuantificacion se determina por unidad de codificacion que tenga un tamano igual a o mas grande que un tamano previamente determinado. El tamano previamente determinado puede ser de 8 * 8 o de 16*16. Usando el tamano de paso de cuantificacion determinado y una matriz de cuantificacion que se determina de acuerdo con un modo de prediccion, los coeficientes de transformada se cuantifican. La unidad de cuantificacion 130 usa los tamanos de paso de cuantificacion de una o mas unidades de codificacion adyacentes a la unidad de codificacion actual para generar un predictor de tamano de paso de cuantificacion de la unidad de codificacion actual.
La unidad de cuantificacion 130 recupera de forma secuencial las unidades de codificacion en el siguiente orden de exploracion; 1) una unidad de codificacion izquierda de la unidad de codificacion actual, 2) una unidad de codificacion de arriba de la unidad de codificacion actual, y 3) una unidad de codificacion izquierda de arriba de la unidad de codificacion actual. Y la unidad de cuantificacion genera el predictor de tamano de paso de cuantificacion de la unidad de codificacion actual usando uno o dos tamanos de paso de cuantificacion validos. Por ejemplo, el primer tamano de paso de cuantificacion valido que es encontrado en el orden de exploracion se puede determinar como el predictor de tamano de paso de cuantificacion. Un promedio de los primeros dos tamanos de paso de cuantificacion validos que se recuperan en el orden de exploracion se puede determinar como el predictor de tamano de paso de cuantificacion, y un tamano de paso de cuantificacion valido se determina como el predictor de tamano de paso de cuantificacion cuando solo es valido un tamano de paso de cuantificacion. Cuando se determina el predictor de tamano de paso de cuantificacion, una diferencia entre el tamano de paso de cuantificacion y el predictor de tamano de paso de cuantificacion se transmite a la unidad de codificacion por entropfa 140.
Puede que no haya ninguna de una unidad de codificacion izquierda, una unidad de codificacion de arriba y una unidad de codificacion izquierda de arriba de la unidad de codificacion actual. Por otro lado, puede haber una unidad de codificacion previa de la unidad de codificacion actual en el orden de codificacion de la LCU. Por lo tanto, para unidades de codificacion adyacentes a la unidad de codificacion actual y la LCU, la unidad de codificacion previa de la unidad de codificacion actual en el orden de codificacion pueden ser candidatas. En el presente caso, el orden de exploracion anterior se puede cambiar al siguiente orden de exploracion; 1) la unidad de codificacion izquierda de la unidad de codificacion actual, 2) la unidad de codificacion de arriba de la unidad de codificacion actual, 3) la unidad de codificacion izquierda de arriba de la unidad de codificacion actual y 4) la unidad de codificacion previa de la unidad de codificacion actual. El orden de exploracion puede variar, o la unidad de codificacion izquierda de arriba se puede omitir en el orden de exploracion. El bloque de transformada cuantificado se proporciona a la unidad de cuantificacion inversa 135 y la unidad de exploracion 131.
La unidad de exploracion 131 explora los coeficientes de transformada cuantificados del bloque de transformada cuantificado, convirtiendo de ese modo los coeficientes de transformada cuantificados en unos coeficientes de transformada cuantificados 1D. Un patron de exploracion se determina de acuerdo con el modo de intraprediccion debido a que la distribucion de los coeficientes de transformada cuantificados depende del modo de intraprediccion. El patron de exploracion tambien se puede determinar de acuerdo con el tamano de la unidad de transformada. El patron de exploracion se puede determinar dependiendo del modo de intraprediccion direccional. Los coeficientes de
5
10
15
20
25
30
35
40
45
50
55
transformada cuantificados se exploran en el sentido inverso.
Cuando los coeficientes de transformada cuantificados se dividen en una pluralidad de subconjuntos, se aplica el mismo patron de exploracion a cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o mas subconjuntos restantes. El subconjunto principal esta situado en un lado izquierdo superior e incluye un coeficiente de DC. Los uno o mas subconjuntos residuales cubren una region que no sea el subconjunto principal.
Se puede aplicar una exploracion en zigzag para explorar los subconjuntos. Los subconjuntos se pueden explorar comenzando con el subconjunto principal para los subconjuntos residuales en una direccion hacia delante, o se pueden explorar en el sentido inverso. Un patron de exploracion para explorar los subconjuntos se puede establecer como el mismo que un patron de exploracion para explorar los coeficientes de transformada cuantificados en los subconjuntos. En el presente caso, el patron de exploracion para explorar los subconjuntos se determina de acuerdo con el modo de intraprediccion. El codificador transmite una informacion que es capaz de indicar una posicion del ultimo coeficiente cuantificado no nulo de la unidad de transformada a un descodificador. El codificador tambien transmite una informacion que es capaz de indicar una posicion del ultimo coeficiente cuantificado no nulo de cada subconjunto al descodificador.
La unidad de cuantificacion inversa 135 cuantifica de forma inversa los coeficientes de transformada cuantificados. La unidad de transformada inversa 125 restablece los bloques residuales del dominio espacial a partir de los coeficientes de transformada cuantificados de forma inversa. El sumador 195 genera un bloque reconstruido mediante la suma del bloque residual que es reconstruido por la unidad de transformada inversa 125 y el bloque de prediccion a partir de la unidad de intraprediccion 150 o la unidad de inter prediccion 160.
La unidad de post procesamiento 170 realiza un proceso de filtrado de desbloqueo para eliminar los artefactos de bloqueo que se generan en una imagen reconstruida, un proceso de aplicacion de desplazamiento adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por pixel, y un proceso de filtro de lazo adaptativo (ALF, adaptive loop filter) para complementar una diferencia entre la imagen reconstruida y la imagen original en una unidad de codificacion.
El proceso de filtrado de desbloqueo se puede aplicar a un lfmite entre unidades de prediccion que tienen un tamano previamente determinado o mas y entre unidades de transformada. El tamano previamente determinado puede ser de 8*8. El proceso de filtrado de desbloqueo incluye una etapa de determinacion de un lfmite a filtrar, una etapa de determinacion de la intensidad de filtrado de lfmite a aplicar al lfmite, una etapa de determinacion de si aplicar, o no, un filtro de desbloqueo, y una etapa de seleccion de un filtro a aplicar al lfmite cuando se determina la aplicacion del filtro de desbloqueo.
Si aplicar, o no, el filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtrado de lfmite es, o no, mas grande que 0 y ii) si un valor que indica la diferencia entre pfxeles de lfmite del bloque P y el bloque Q que se encuentran adyacentes al lfmite a filtrar es, o no, mas pequeno que un primer valor de referencia que se determina de acuerdo con un parametro de cuantificacion.
Pueden existir dos o mas filtros. Cuando el valor absoluto de una diferencia entre dos pfxeles adyacentes al lfmite de bloque es igual a o mas grande que un segundo valor de referencia, se selecciona un filtro debil. El segundo valor de referencia se determina mediante el parametro de cuantificacion y la intensidad de filtrado de lfmite.
El proceso de aplicacion de desplazamiento adaptativo tiene por objeto reducir una diferencia (distorsion) entre un pixel que se somete al filtro de desbloqueo y el pixel original. Se puede determinar si realizar, o no, el proceso de aplicacion de desplazamiento adaptativo en la unidad de una imagen o un fragmento. Una imagen o fragmento se puede dividir en una pluralidad de regiones de desplazamiento, y un modo de desplazamiento se puede determinar segun la region de desplazamiento. Puede haber un numero previamente determinado de modos de desplazamiento de borde (por ejemplo, cuatro modos de desplazamiento de borde), dos modos de desplazamiento de banda. En el caso del modo de desplazamiento de borde, se determina un modo de borde al que pertenece cada pixel y se aplica un desplazamiento que se corresponde con el modo de borde determinado. El modo de borde se determina sobre la base de una distribucion de valores de pixel de dos pfxeles adyacentes al pixel actual.
El proceso de filtro de lazo adaptativo se puede realizar en funcion de un valor que se obtiene mediante la comparacion de una imagen original y una imagen reconstruida a la que se aplica el proceso de filtrado de desbloqueo o el proceso de aplicacion de desplazamiento adaptativo. El ALF determinado se puede aplicar a todos los pfxeles que se incluyen en un bloque de 4*4 o un bloque de 8*8. Si aplicar, o no, un ALF se puede determinar para cada unidad de codificacion. El tamano y los coeficientes de un filtro de lazo pueden variar de acuerdo con cada unidad de codificacion. La informacion que indica si se aplica un ALF a cada unidad de codificacion se puede incluir en un encabezamiento de fragmento. En el caso de una senal de crominancia, si aplicar, o no, el ALF se puede determinar para cada unidad de imagen. A diferencia de la luminancia, el filtro de lazo puede tener una forma rectangular.
El proceso de filtro de lazo adaptativo se realiza en funcion del fragmento. Por lo tanto, la informacion que indica si el proceso de filtro de lazo adaptativo se aplica, o no, a un fragmento actual, se incluye en un encabezamiento de
5
10
15
20
25
30
35
40
45
50
55
fragmento o un encabezamiento de imagen. Si el proceso de filtro de lazo adaptativo se aplica al fragmento actual, el encabezamiento de fragmento o la imagen incluye una informacion que indica una longitud de filtro horizontal y/o una longitud de filtro vertical de las componentes de luminancia que se usa en el proceso de filtro de lazo adaptativo. En el caso de usar un procedimiento de prediccion, el encabezamiento de fragmento o la imagen incluye unos coeficientes de filtro predichos.
Las componentes de crominancia tambien se pueden filtrar de forma adaptativa. El encabezamiento de fragmento o el encabezamiento de imagen puede incluir una informacion acerca de si se filtra, o no, cada componente de crominancia. Para reducir la cantidad de bits, la informacion que indica si se filtra la componente de Cr y la informacion que indica si se filtra la componente de Cb se pueden codificar de forma conjunta. Un mdice lo mas bajo se asigna al caso en el que no se filtra ninguna de las componentes de Cr y de Cb debido a que la probabilidad de que ninguna de las componentes de Cr y de Cb no se haya filtrado con el fin de reducir la complejidad es alta y se realiza la codificacion por entropfa. Un mdice lo mas alto se asigna al caso en el que se filtran ambas de las componentes de Cr y de Cb.
La unidad de almacenamiento de imagenes 180 recibe una imagen post procesada a partir de la unidad de post procesamiento 160, y almacena la imagen restablecida en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad de almacenamiento de imagenes 180 tiene una memoria intermedia (que no se muestra) que es capaz de almacenar una pluralidad de imagenes.
La unidad de inter prediccion 160 realiza una estimacion de movimiento usando una o mas imagenes de referencia que estan almacenadas en la unidad de almacenamiento de imagenes 180, y determina uno o mas indices de imagen de referencia que indican las imagenes de referencia y uno o mas vectores de movimiento. De acuerdo con el mdice de imagen de referencia y el vector de movimiento, la unidad de inter prediccion 160 extrae un bloque de prediccion que se corresponde con una unidad de prediccion que se va a codificar a partir de una imagen de referencia que se selecciona de entre una pluralidad de imagenes de referencia que estan almacenadas en la unidad de almacenamiento de imagenes 180 y emite el bloque de prediccion extrafdo.
La unidad de intraprediccion 150 realiza una intraprediccion usando pfxeles de referencia reconstruidos en una imagen que incluye una unidad de prediccion actual. La unidad de intraprediccion 150 recibe la unidad de prediccion actual que se va a codificar de forma predictiva, selecciona uno de un numero previamente determinado de modos de intraprediccion, y realiza una intraprediccion. El numero previamente determinado de modos de intraprediccion depende de un tamano de la unidad de prediccion actual. La unidad de intraprediccion filtra de forma adaptativa los pfxeles de referencia para generar el bloque de intraprediccion. Cuando algunos de los pfxeles de referencia no se encuentran disponibles, es posible generar los pfxeles de referencia en las posiciones no disponibles usando pfxeles de referencia disponibles.
La unidad de codificacion por entropfa 140 codifica por entropfa los coeficientes de transformada cuantificados que son cuantificados por la unidad de cuantificacion 130, la informacion de intraprediccion que se recibe a partir de la unidad de intraprediccion 150, una informacion de movimiento que se recibe a partir de la unidad de inter prediccion 160, y asf sucesivamente.
La figura 2 es un diagrama de bloques de la unidad de intraprediccion 150 de una unidad de codificacion de imagenes en movimiento 100 de acuerdo con la presente invencion.
Haciendo referencia a la figura 2, la unidad de intraprediccion 150 incluye una unidad de generacion de pfxeles de referencia 151, una unidad de filtrado de pfxeles de referencia 152, una unidad de generacion de bloques de prediccion 153, una unidad de determinacion de modo de prediccion 154 y una unidad de codificacion de modo de prediccion 155.
La unidad de generacion de pfxeles de referencia 151 determina que es necesario generar pfxeles de referencia para una intraprediccion y genera pfxeles de referencia si es necesario generar los pfxeles de referencia.
La figura 3 es un diagrama conceptual que muestra unas posiciones de pfxeles de referencia que se usan para una intraprediccion de acuerdo con la presente invencion. Tal como se muestra en la figura 3, los pfxeles de referencia de la prediccion actual consisten en unos pfxeles de referencia de arriba, unos pfxeles de referencia izquierdos y un pixel de referencia de esquina. Los pfxeles de referencia de arriba de la unidad de prediccion actual son unos pfxeles (las regiones C y D) que se encuentran presentes a lo largo del doble de la anchura de la unidad de prediccion actual, y los pfxeles de referencia izquierdos de la unidad de prediccion actual son unos pfxeles (las regiones A y B) que se encuentran presentes a lo largo del doble de la altura de la unidad de prediccion actual. El pixel de referencia de esquina esta situado en (x = -1, y = -1).
La unidad de generacion de pfxeles de referencia 151 determina si los pfxeles de referencia se encuentran, o no, disponibles. Si uno o mas pfxeles de referencia no se encuentran disponibles, la unidad de generacion de pfxeles de referencia 151 genera pfxeles de referencia en las posiciones no disponibles usando pfxeles de referencia disponibles.
Cuando la unidad de prediccion actual esta situada en el lfmite superior de una imagen o un fragmento, los pfxeles
5
10
15
20
25
30
35
40
45
50
55
de referencia de arriba (las regiones C y D) y el pixel de referencia de esquina de la unidad de prediccion actual no existen. Cuando la unidad de prediccion actual esta situada en el Kmite izquierdo de una imagen o un fragmento, los p^xeles de referencia izquierdos (las regiones A y B) y el pixel de referencia de esquina no existen. En esos casos, los pfxeles de referencia se generan al copiar el valor de un pixel disponible lo mas cerca del pixel no disponible. Es decir, cuando la unidad de prediccion actual esta situada en el lfmite superior de una imagen o un fragmento, los pfxeles de referencia de arriba se pueden generar al copiar el pixel de referencia izquierdo de mas arriba (es decir, un pixel de referencia que esta situado en la posicion de mas arriba de la region A). Cuando la unidad de prediccion actual esta situada en el lfmite izquierdo de una imagen o un fragmento, los pfxeles de referencia izquierdos se pueden generar al copiar el pixel de referencia de arriba mas a la izquierda (es decir, un pixel de referencia que esta situado en la posicion mas a la izquierda de la region C).
A continuacion, se describira un caso en el que algunos de los pfxeles de referencia en unos pfxeles de referencia de arriba o izquierdos de una unidad de prediccion actual que se va a codificar se encuentran no disponibles. Hay dos casos en los que 1) se encuentran presentes pfxeles de referencia disponibles en solo una direccion con respecto a los pfxeles de referencia no disponibles, y 2) se encuentran presentes pfxeles de referencia disponibles en ambas direcciones con respecto a los pfxeles de referencia no disponibles.
En primer lugar, se describira un caso en el que se encuentran presentes pfxeles de referencia disponibles en solo una direccion con respecto a los pfxeles de referencia no disponibles.
Puede ser posible que los pfxeles de referencia adyacentes al lfmite de arriba de la unidad de prediccion actual (la region C) se encuentren disponibles, pero los pfxeles de referencia de arriba izquierdos (la region D) pueden no encontrarse disponibles. Cuando la unidad de prediccion actual esta situada en el lfmite derecho de un fragmento o una LCU, los pfxeles de referencia en la region D no se encuentran disponibles. En el presente caso, los pfxeles de referencia de arriba izquierdos (la region D) se generan usando uno o mas pfxeles de referencia de arriba disponibles. Los pfxeles de referencia de arriba izquierdos se generan al copiar un pixel de arriba mas a la derecha o mediante el uso de dos o mas pfxeles de referencia de arriba disponibles.
Cuando los pfxeles de referencia (la region A) adyacentes al lado izquierdo del bloque de prediccion actual se encuentran disponibles, pero los pfxeles de referencia de debajo izquierdos (la region B) pueden no encontrarse disponibles. Cuando la unidad de prediccion actual esta situada en el lfmite de debajo de un fragmento o una LCU, los pfxeles de referencia en la region B no se encuentran disponibles. En el presente caso, los pfxeles de referencia de debajo izquierdos (la region B) se generan usando uno o mas pfxeles de referencia izquierdos disponibles. Los pfxeles de referencia de debajo izquierdos se generan al copiar un pixel mas bajo izquierdo o mediante el uso de dos o mas pfxeles de referencia izquierdos disponibles.
Tal como se ha descrito en lo que antecede, si el pixel de referencia disponible existe en solo una direccion a partir de los pfxeles no disponibles, el pixel de referencia se genera al copiar el valor de un pixel disponible lo mas cerca del pixel no disponible. Como alternativa, los pfxeles de referencia se pueden generar usando dos o mas pfxeles disponibles lo mas cerca del pixel no disponible.
A continuacion, se describira un caso en el que se encuentran presentes pfxeles de referencia disponibles en ambas direcciones con respecto a los pfxeles de referencia no disponibles.
Por ejemplo, cuando la unidad de prediccion actual esta situada en el lfmite superior de un fragmento y la unidad de prediccion de arriba derecha de la unidad de prediccion actual se encuentra disponible, los pfxeles de referencia que se corresponden con la region C de la unidad de prediccion actual no se encuentran disponibles, pero los pfxeles de referencia que estan situados en las regiones A y D se encuentran disponibles. En el presente caso en el que se encuentran disponibles pfxeles de referencia que se encuentran presentes en ambas direcciones, los pfxeles de referencia se generan mediante la seleccion de los pfxeles de referencia disponibles lo mas cerca de cada direccion y mediante el uso de los mismos (es decir, el pixel de referencia mas hacia arriba en la region A y el pixel de referencia mas hacia la izquierda en la region D).
Los pfxeles de referencia se generan mediante el redondeo del promedio de los pfxeles de referencia que se han mencionado en lo que antecede (es decir, los pfxeles lo mas cerca de cada direccion). Sin embargo, se puede usar una interpolacion lineal para generar los pfxeles de referencia debido a que la diferencia entre los valores de los pfxeles de referencia que se han mencionado en lo que antecede puede ser grande. Con el fin de concretar, puede ser posible generar unos pfxeles de referencia no disponibles de la ubicacion actual al considerar la ubicacion frente a los dos pfxeles de referencia disponibles.
La unidad de filtrado de pfxeles de referencia 152 filtra de forma adaptativa los pfxeles de referencia de la unidad de prediccion actual.
Haciendo referencia a la figura 4, se describe el funcionamiento de la unidad de filtrado de pfxeles de referencia 152. La figura 4 es un diagrama conceptual que ilustra unos modos de intraprediccion direccionales de acuerdo con la presente invencion.
La unidad de filtrado de pfxeles de referencia 152 filtra de forma adaptativa los pfxeles de referencia de acuerdo con
5
10
15
20
25
30
35
40
45
50
55
el modo de intraprediccion y la posicion del pixel de referencia.
En el modo vertical (el modo 0), el modo horizontal (el modo 1) y el modo DC (el modo 2), los pfxeles de referencia no se filtran. Sin embargo, en los modos de intraprediccion direccionales que no sean los modos 0, 1 y 2, los pfxeles de referencia se filtran de forma adaptativa. El pixel mas a la derecha de los pfxeles de referencia de arriba que estan situados en (x = 2 N -1, y = -1) y el pixel mas bajo de los pfxeles de referencia izquierdos que estan situados en (x = -1, y = 2 N-1) no se filtran. Los otros pfxeles de referencia se filtran usando dos pfxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar las diferencias entre los pfxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
La aplicacion del filtro de paso bajo se determina mediante un tamano de la unidad de prediccion actual y el modo de intraprediccion.
Un filtro se aplica de forma adaptativa a los pfxeles de referencia en los modos de intraprediccion direccionales 3, 6 y 9 que tienen una direccion de 45° con referencia a la direccion horizontal o vertical de acuerdo con el tamano de la unidad de prediccion. Si el tamano de la unidad de prediccion es mas pequeno que un tamano previamente determinado, se aplica un primer filtro. Si el tamano de la unidad de prediccion es igual a o mas grande que el tamano previamente determinado, se puede aplicar un segundo filtro mas fuerte que el primer filtro. El tamano previamente determinado puede ser de 16 * 16.
En los modos de intraprediccion direccionales que existen entre el modo de intraprediccion 3, 6 o 9 y el modo de intraprediccion horizontal o vertical, el filtro se puede aplicar de forma adaptativa a los pfxeles de referencia de acuerdo con el tamano de la unidad de prediccion. El filtro se puede aplicar en un numero previamente determinado de modos de intraprediccion adyacentes al modo 3, 6 o 9. Para las unidades de prediccion que tienen el mismo numero de modos de intraprediccion direccionales, el numero previamente determinado se puede aumentar a medida que aumenta el tamano del bloque de prediccion. Por ejemplo, el filtro se aplica a un primer numero de modos de intraprediccion adyacentes al modo 3, 6 o 9 para las unidades de prediccion de 8*8, a un segundo numero de modos de intraprediccion adyacentes al modo 3, 6 o 9 para la unidad de prediccion de 16 * 16, y a un tercer numero de modos de intraprediccion adyacentes al modo 3, 6 o 9 para la unidad de prediccion de 32 * 32. El primer numero es igual a o mas pequeno que el segundo numero, y el segundo numero es igual a o mas pequeno que el tercer numero.
La unidad de generacion de bloques de prediccion 153 genera un bloque de prediccion que se corresponde con el modo de intraprediccion.
En el modo DC, el bloque de prediccion consiste en unos promedios de los pfxeles de referencia, y puede tener lugar una diferencia de paso entre pfxeles en un bloque de prediccion adyacente a los pfxeles de referencia. Por lo tanto, los pfxeles de prediccion de la lmea superior y la lmea izquierda que se encuentran adyacentes a los pfxeles de referencia se filtran usando los pfxeles de referencia. El pixel de prediccion superior izquierdo adyacente a dos pfxeles de referencia (el pixel de referencia superior y el pixel de referencia izquierdo) se filtra mediante un filtro de 3 coeficientes. Los otros pfxeles de prediccion (los pfxeles de la lmea superior y los pfxeles de la lmea izquierda en el bloque de prediccion) y adyacentes a un pixel de referencia se filtran mediante un filtro de 2 coeficientes.
En el modo plano, los pfxeles de prediccion se generan usando un pixel de referencia de esquina, unos pfxeles de referencia izquierdos y unos pfxeies de referencia de arriba. Un pixel de prediccion que esta situado en (a, b) se genera usando un pixel de referencia de esquina que esta situado en (x = -1, y = -1), un pixel de referencia de arriba que esta situado en (x = a, y = -1) y un pixel de referencia izquierdo que esta situado en (x = -1, y = b). En el modo plano, los pfxeles de prediccion no se filtran mediante un pixel de referencia.
Cuando se generan los pfxeles de prediccion copiando un pixel de referencia anterior correspondiente en el modo vertical (modo 0), una correlacion entre un pixel de referencia izquierdo en el bloque de prediccion y un pixel adyacente al pixel de referencia izquierdo disminuye conforme la posicion del pixel de prediccion va hacia debajo. Cuando los pfxeles de prediccion se generan copiando un pixel de referencia izquierdo correspondiente en el modo horizontal (modo 1), una correlacion entre un pixel de referencia superior en el bloque de prediccion y un pixel de prediccion adyacente al pixel de referencia superior disminuye conforme la posicion del pixel de prediccion va a la derecha. Por esta razon, en el modo vertical, la diferencia entre el bloque de prediccion y una unidad de prediccion original aumenta conforme la posicion del pixel va hacia debajo.
Por lo tanto, en el modo vertical, los pfxeles izquierdos en el bloque de prediccion pueden filtrarse usando pfxeles de referencia izquierdos no usados cuando el bloque de prediccion se genera con el fin de disminuir la diferencia. En el modo horizontal, los pfxeles superiores en el bloque de prediccion pueden filtrarse usando los pfxeles de referencia superiores no usados cuando se genera el bloque de prediccion.
En los modos de intraprediccion direccional (numeros de modo 22, 12, 23, 5, 24, 13 y 25) existentes entre el modo 0 y el modo 6 y, el modo 6, cuando el bloque de prediccion se genera usando solo los pfxeles de referencia superiores de la unidad de prediccion actual, la diferencia entre un pixel y los pfxeles en una lmea izquierda del bloque de
5
10
15
20
25
30
35
40
45
50
55
prediccion generado y adyacente al p^xel de referencia aumenta conforme la posicion del pixel de prediccion va hacia debajo.
En los modos de intraprediccion direccional (numeros de modo 30, 16, 31, 8, 32, 17, 33) existentes entre el modo 1 y el modo 9, y el modo 9, cuando el bloque de prediccion se genera usando solo los pfxeles de referencia izquierdos de la unidad de prediccion actual, la diferencia entre un pixel de referencia y los pfxeles en una lmea superior del bloque de prediccion generado y adyacente al pixel de referencia aumenta conforme la posicion del pixel de prediccion va hacia la derecha.
Por lo tanto, algunos pfxeles del bloque de prediccion pueden filtrarse de manera adaptativa para el modo de intraprediccion direccional, excepto el modo DC, con el fin de compensar la diferencia. Por otro lado, para compensar la diferencia, el bloque de prediccion puede generarse usando tanto los pfxeles de referencia superior como izquierdo.
Primero, se describira un procedimiento para filtrar algunos pfxeles del bloque de prediccion.
En el modo 6, el bloque de prediccion se genera usando los pfxeles de referencia superiores y los pfxeles de prediccion izquierdos adyacente a un pixel de referencia se filtran. El area de pfxeles en el bloque de prediccion a filtrar puede variar de acuerdo con un tamano de la unidad de prediccion. Es decir, el numero de lmeas y la relacion de pfxeles en una lmea a filtrar puede variar de acuerdo con el tamano de la unidad de prediccion. El numero de lmeas puede aumentar o permanecer sin alterar o, la relacion puede disminuir conforme el tamano de la unidad de prediccion disminuye. Y, la resistencia del filtro puede disminuir conforme una distancia desde el pixel de referencia aumenta.
Por ejemplo, los pfxeles de la primera lmea izquierda (x=0, y=0, ..., 3), en el bloque de prediccion se filtran en unidad de prediccion 4x4. Todos los pfxeles de prediccion de la primera lmea izquierda y algunos pfxeles de prediccion de la segunda lmea se filtran en unidad de prediccion 8x8. Los algunos pfxeles de prediccion pueden ubicarse en (x=1, y=4, ..., 7). Todos los pfxeles de prediccion de la primera lmea izquierda, un primer numero de pfxeles de prediccion de la segunda lmea y un segundo numero de pfxeles de prediccion de la tercera lmea se filtran en unidad de prediccion 16x16. El primer numero de pfxeles de prediccion puede ubicarse en (x=1, y=4, ..., 15). Todos los pfxeles de prediccion de la primera lmea izquierda, un primer numero de pfxeles de prediccion de la segunda lmea, un segundo numero de pfxeles de prediccion de la tercera lmea y un tercer numero de pfxeles de prediccion de la cuarta lmea se filtran en unidad de prediccion 32x32. El tercer numero de pfxeles de prediccion puede ubicarse en (x=3, y=16, ..., 31).
En un numero predeterminado de modos de intraprediccion mas cercano al modo 6 y que existe entre el modo 0 y el modo 6, los pfxeles de prediccion pueden filtrarse usando el mismo procedimiento que en el modo 6. Un numero de pfxeles de prediccion a filtrar puede disminuir o permanecer sin alterar conforme una direccion del modo de intraprediccion va mas alla de la direccion del modo 6. En un numero predeterminado de modos de intraprediccion mas cerca al modo 0 y que existe entre el modo de prediccion 0 y el modo de prediccion 6, los pfxeles de prediccion pueden filtrarse usando el mismo procedimiento que en el modo vertical.
En el modo 9, los pfxeles de prediccion pueden filtrarse usando el mismo procedimiento que en el modo 6. En los modos de intraprediccion que existen entre el modo 1 y el modo 9, los pfxeles de prediccion pueden filtrarse usando el mismo procedimiento que en los modos de intraprediccion que existen entre el modo 0 y el modo 6.
Mientras tanto, en el modo 6 y un numero de modos de intraprediccion adyacentes al modo 6, el bloque de prediccion puede generarse usando todos los pfxeles de referencia superiores e izquierdos, no usando el procedimiento anteriormente mencionado que filtra algunos pfxeles en el bloque de prediccion. En el modo 9 y un numero predeterminado de modos de intraprediccion adyacentes al modo 9, se aplica el mismo procedimiento.
La unidad de determinacion de modo de intraprediccion 154 determina el modo de intraprediccion de la unidad de prediccion actual. La unidad de determinacion de modo de intraprediccion 154 selecciona un modo de intraprediccion en el que la cantidad de bits de codificacion de un bloque residual se reduce al mmimo para cada modo de intraprediccion como el modo de intraprediccion de la unidad de prediccion actual.
La unidad de codificacion de modo de intraprediccion 155 codifica el modo de intraprediccion de la unidad de prediccion actual que se determina mediante la unidad de determinacion de modo de intraprediccion 154. La unidad de codificacion de modo de intraprediccion 155 se puede integrar en la unidad de intraprediccion 150 o en la unidad de codificacion por entropfa 140.
La unidad de codificacion de modo de intraprediccion 155 codifica el modo de intraprediccion de la unidad de prediccion actual usando los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual. La unidad de codificacion de modo de intraprediccion 155 clasifica los modos de intraprediccion (por ejemplo, 35 modos) admisibles para la unidad de prediccion actual en una pluralidad de grupos de modos de intraprediccion, codifica un mdice que se corresponde con un grupo al que pertenece el modo de intraprediccion actual y un mdice que se corresponde con el modo de intraprediccion de la unidad de prediccion actual en el grupo al que pertenece el modo de intraprediccion actual. Cada grupo incluye al menos un modo de intraprediccion.
5
10
15
20
25
30
35
40
45
50
55
Preferentemente, el numero de los grupos de modos de intraprediccion es de 2 o 3.
En lo sucesivo en el presente documento, se describira un caso en el que el numero de los grupos de modos de intraprediccion es 2.
En primer lugar, se obtienen los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual. Los modos de intraprediccion pueden ser unos modos de intraprediccion de una unidad de prediccion izquierda y una unidad de prediccion de arriba de la unidad de prediccion actual. Cuando existe una pluralidad de unidades de prediccion de arriba de la unidad de prediccion actual, la pluralidad de unidades de prediccion de arriba se explora en una direccion previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion de arriba. Asimismo, cuando existe una pluralidad de unidades de prediccion izquierda de la unidad de prediccion actual, la pluralidad de unidades de prediccion izquierda se explora en una direccion previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion izquierda. Como alternativa, de entre una pluralidad de unidades de prediccion disponibles, el modo de intraprediccion de una unidad de prediccion disponible que tiene el numero de modo de intraprediccion mas bajo se puede establecer como un modo de intraprediccion de arriba.
A continuacion, el modo de intraprediccion obtenido se puede convertir en uno de los modos admisibles para la unidad de prediccion actual cuando el numero de modo de intraprediccion obtenido es igual a o mas grande que el numero de modos de intraprediccion admisibles para la unidad de prediccion actual.
A continuacion, un primer grupo de modos de intraprediccion se construye usando el modo de intraprediccion obtenido o convertido.
Los modos de intraprediccion obtenidos o convertidos y uno o mas candidatos de modo de intraprediccion que se determinan en un orden previamente determinado por los modos de intraprediccion obtenidos o convertidos se usan para construir el primer grupo de modos de intraprediccion. Cuando el modo de intraprediccion obtenido o convertido es un modo direccional, los candidatos de modo de intraprediccion pueden ser uno o mas modos de intraprediccion direccionales lo mas cerca del modo de intraprediccion obtenido o convertido.
A continuacion, se determina si el modo de intraprediccion de la unidad de prediccion actual pertenece, o no, al primer grupo de modos de intraprediccion.
Cuando el modo de intraprediccion de la unidad de prediccion actual pertenece al primer grupo de modos de intraprediccion, se codifican una informacion que indica el primer grupo de modos de intraprediccion y un mdice que se corresponde con el modo de intraprediccion de la unidad de prediccion actual en el primer grupo de modos de intraprediccion.
Sin embargo, cuando el modo de intraprediccion de la unidad de prediccion actual no pertenece al primer grupo de modos de intraprediccion, se codifican una informacion que indica un segundo grupo de modos de intraprediccion y un mdice que se corresponde con el modo de intraprediccion de la unidad de codificacion actual en el segundo grupo de modos de intraprediccion. El segundo grupo de modos de intraprediccion incluye los modos de intraprediccion que no sean los modos de intraprediccion que pertenecen al primer grupo de modos de intraprediccion.
Cuando no se encuentra disponible ninguno del modo de intraprediccion de arriba y el modo de intraprediccion izquierda, se anaden uno o mas modos de intraprediccion al primer grupo de modos de intraprediccion. Por ejemplo, se puede anadir un modo DC o un modo plano cuando se anade un modo de intraprediccion. Se pueden anadir un modo DC y un modo plano o vertical cuando se anaden dos modos de intraprediccion. Un modo DC, un modo plano y uno del modo vertical y el modo horizontal se pueden anadir cuando se anaden tres modos de intraprediccion.
Cuando se encuentra disponible uno del modo de intraprediccion de arriba y el modo de intraprediccion izquierda o cuando el modo de intraprediccion de arriba y el modo de intraprediccion izquierda son el mismo, se puede anadir uno o dos modos de intraprediccion al primer grupo de modos de intraprediccion. Por ejemplo, se puede anadir un modo DC o un modo plano cuando se anade un modo de intraprediccion. Cuando se anaden dos modos de intraprediccion, los modos de intraprediccion que se van a anadir vanan de acuerdo con si el modo de intraprediccion disponible es, o no, un modo de intraprediccion direccional. Si el modo de intraprediccion disponible es uno de los modos de intraprediccion no direccional (es decir, un modo DC y un modo plano), se pueden anadir un modo vertical y un modo horizontal o se pueden anadir el otro modo de intraprediccion direccional y un modo vertical. Si el modo de intraprediccion disponible es un modo de intraprediccion direccional, se pueden anadir dos modos de intraprediccion lo mas cerca del modo de intraprediccion direccional en ambos lados. Sin embargo, si existe el modo de intraprediccion adyacente en solo un lado del modo de intraprediccion disponible (es decir, el modo de intraprediccion disponible es el modo 6 o 9), el modo de intraprediccion adyacente (el modo 25 o 33) y se puede anadir uno de un modo DC o un modo plano.
Cuando el modo de intraprediccion de la unidad de prediccion actual pertenece al segundo grupo de modos de intraprediccion, el mdice se corresponde con un numero reordenado del modo de intraprediccion de la unidad de
5
10
15
20
25
30
35
40
45
50
55
codificacion actual en el segundo grupo de modos de intraprediccion. En el presente caso, se puede usar una tabla de VLC.
Se presenta el caso en el que el numero de los grupos de modos de intraprediccion es de 2, pero el numero de los grupos de modos de intraprediccion puede ser de 3. Cuando el numero de los grupos de modos de intraprediccion es de 3, si el modo de intraprediccion de la unidad de prediccion actual no pertenece al primer grupo de modos de intraprediccion, se determina si el modo de intraprediccion de la unidad de prediccion actual pertenece al segundo grupo de modos de intraprediccion. Si el modo de intraprediccion de la unidad de prediccion actual pertenece al segundo grupo de modos de intraprediccion, se codifican una informacion que indica el segundo grupo de modos de intraprediccion y un mdice que se corresponde con el modo de intraprediccion de la unidad de codificacion actual en el segundo grupo de modos de intraprediccion. Si el modo de intraprediccion de la unidad de prediccion actual no pertenece al segundo grupo de modos de intraprediccion, se codifican una informacion que indica el tercer grupo de modos de intraprediccion y un mdice que se corresponde con el modo de intraprediccion de la unidad de codificacion actual en el tercer grupo de modos de intraprediccion. El segundo grupo de modos de intraprediccion se genera sobre la base de los modos de intraprediccion de la unidad de prediccion izquierda y la unidad de prediccion de arriba de la unidad de prediccion actual.
Como alternativa, la unidad de codificacion de modo de prediccion 155 puede codificar el modo de intraprediccion del modo de prediccion actual tal como sigue. En primer lugar, se determina si el modo de intraprediccion de la unidad de prediccion actual es igual a uno de los modos de intraprediccion del bloque previo adyacente a las unidades de prediccion actual. Si el modo de intraprediccion de la unidad de prediccion actual es igual a uno de los modos de intraprediccion del bloque previo adyacente a las unidades de prediccion actual, una etiqueta que indica esto (pred_flag) se establece en 1 y el modo de intraprediccion de la unidad de prediccion actual se codifica usando el modo de intraprediccion izquierda o de arriba disponible. De lo contrario, la etiqueta (pred_flag) se establece en 0 y se codifica un mdice que indica el numero ordenado del modo de intraprediccion de la unidad de codificacion actual de entre los modos de intraprediccion que no sean los modos de intraprediccion izquierda y de arriba.
Mientras tanto, los modos de intraprediccion de componente de crominancia pueden incluir un modo que usa el modo de intraprediccion correspondiente de la componente de luminancia. En el presente caso, tal informacion se puede incluir en un conjunto de parametros de secuencia (SPS, sequence parameter set), un conjunto de parametros de imagen (PPS, picture parameter set) o un encabezamiento de fragmento. El numero de modos de intraprediccion de componente de crominancia puede variar de acuerdo con un tamano de la unidad de prediccion. Los modos de intraprediccion de componente de crominancia se pueden codificar usando los modos de intraprediccion del bloque adyacente. En el presente caso, el procedimiento de codificacion es el mismo que se ha descrito en lo que antecede. De lo contrario, los modos de intraprediccion de componente de crominancia se pueden codificar sin usar informacion de modo de intraprediccion del bloque adyacente. En el presente caso, se puede usar una tabla de VLC.
La unidad de transmision de bloques de prediccion 156 transmite el bloque de prediccion generado que se corresponde con el modo de intraprediccion al sustractor 190.
La figura 5 es un diagrama de bloques de un aparato de descodificacion de imagenes en movimiento de acuerdo con la presente invencion.
El aparato de descodificacion de imagenes en movimiento de acuerdo con la presente invencion incluye una unidad de descodificacion por entropfa 210, una unidad de exploracion inversa 220, una unidad de cuantificacion inversa 230, una unidad de transformada inversa 240, una unidad de intraprediccion 250, una unidad de inter prediccion 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imagenes 280, un sumador 290 y un conmutador de cambio de intra/inter 295.
La unidad de descodificacion por entropfa 210 extrae la informacion de intraprediccion, una informacion de inter prediccion y una informacion de coeficientes cuantificados a partir de un flujo de bits recibido. La unidad de descodificacion por entropfa 210 transmite la informacion de inter prediccion a la unidad de inter prediccion 260, la informacion de intraprediccion a la unidad de intraprediccion 250 y la informacion de coeficientes cuantificados a la unidad de exploracion inversa 220.
La unidad de exploracion inversa 220 convierte la informacion de coeficientes cuantificados en un bloque de transformada cuantificado bidimensional. Uno de una pluralidad de patrones de exploracion inversa se selecciona para la conversion. El patron de exploracion inversa se selecciona sobre la base del modo de intraprediccion. Si un tamano de una unidad de transformada que se va a descodificar es mas grande que el tamano de referencia previamente determinado, una unidad de transformada cuantificada se genera mediante la exploracion, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de un tamano previamente determinado del subconjunto. Si el tamano de una unidad de transformada que se va a descodificar es igual al tamano de referencia previamente determinado, la unidad de transformada cuantificada se genera mediante la exploracion, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de la unidad de transformada. Si los coeficientes de transformada cuantificados se exploran de forma inversa en la unidad del subconjunto, un mismo patron de exploracion inversa se aplica a los coeficientes de transformada cuantificados en cada subconjunto. La
5
10
15
20
25
30
35
40
45
50
55
pluralidad de subconjuntos consiste en un subconjunto principal y uno o mas subconjuntos restantes. El subconjunto principal esta situado en un lado izquierdo superior e incluye un coeficiente de DC, y los uno o mas subconjuntos restantes cubren una region que no sea el subconjunto principal.
Un patron de exploracion a aplicar a los subconjuntos puede ser una exploracion en zigzag. Los subconjuntos se pueden explorar de forma inversa comenzando con el subconjunto principal para los subconjuntos residuales en una direccion hacia delante, o se pueden explorar en el sentido inverso. Un patron de exploracion inversa para explorar los subconjuntos se puede establecer como el mismo que un patron de exploracion inversa para explorar los coeficientes de transformada cuantificados. La unidad de exploracion inversa 220 realiza un procedimiento de exploracion inversa usando una informacion que indica una posicion del ultimo coeficiente cuantificado no nulo de la unidad de transformada.
La unidad de cuantificacion inversa 230 determina un predictor de tamano de paso de cuantificacion de una unidad de codificacion actual. La operacion para determinar el predictor de tamano de paso de cuantificacion es la misma que la del procedimiento de la unidad de cuantificacion 130 de la figura 1. La unidad de cuantificacion inversa suma el predictor de tamano de paso de cuantificacion determinado y un tamano de paso de cuantificacion residual recibido para generar un tamano de paso de cuantificacion de la unidad de codificacion actual. La unidad de cuantificacion inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificacion que se determina mediante el tamano de paso de cuantificacion. La matriz de cuantificacion vana de acuerdo con el tamano del bloque actual que se va a restablecer. La matriz de cuantificacion se puede seleccionar para un bloque que tiene el mismo tamano en funcion de al menos uno de un modo de prediccion y un modo de intraprediccion del bloque actual.
La unidad de cuantificacion inversa 230 determina un predictor de tamano de paso de cuantificacion de una unidad de codificacion actual. La operacion de determinacion del predictor de tamano de paso de cuantificacion es la misma que la operacion de la unidad de cuantificacion 130 de la figura 1. La unidad de cuantificacion inversa suma el predictor de tamano de paso de cuantificacion determinado y un tamano de paso de cuantificacion residual recibido para generar un tamano de paso de cuantificacion de la unidad de codificacion actual. La unidad de cuantificacion inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificacion que se determina mediante el tamano de paso de cuantificacion. La matriz de cuantificacion vana de acuerdo con el tamano del bloque actual o la matriz de cuantificacion vana para un bloque de acuerdo con al menos uno del modo de prediccion y el modo de intraprediccion.
La unidad de transformada inversa 240 transforma de forma inversa el bloque cuantificado de forma inversa para restablecer un bloque residual. La matriz de transformada inversa a aplicar al bloque cuantificado de forma inversa se determina de forma adaptativa de acuerdo con el modo de prediccion (intra o inter) y el modo de intraprediccion. El procedimiento de determinacion de la matriz de transformada inversa es el mismo que el procedimiento en la unidad de transformada 120 de la figura 1.
El sumador 290 suma el bloque residual restablecido que es restablecido por la unidad de transformada inversa 240 y un bloque de prediccion que se genera mediante la unidad de intraprediccion 250 o la unidad de inter prediccion 260 para generar un bloque de imagen reconstruido.
La unidad de intraprediccion 250 restablece el modo de intraprediccion del bloque actual sobre la base de la informacion de intraprediccion que se recibe a partir de la unidad de descodificacion por entropfa 210 y genera un bloque de prediccion de acuerdo con el modo de intraprediccion restablecido.
La unidad de inter prediccion 260 restablece los indices de imagen de referencia y los vectores de movimiento sobre la base de la informacion de inter prediccion que se recibe a partir de la unidad de descodificacion por entropfa 210 y genera un bloque de prediccion usando los indices de imagen de referencia y los vectores de movimiento. Cuando se aplica una compensacion de movimiento con una precision fraccionaria, el bloque de prediccion se genera usando un filtro de interpolacion.
La unidad de post procesamiento 270 opera del mismo modo que la unidad de post procesamiento 160 de la figura 3.
La unidad de almacenamiento de imagenes 280 almacena la imagen reconstruida post procesada mediante la unidad de post procesamiento 270.
La figura 6 es un diagrama de bloques de la unidad de intraprediccion 250 de un aparato de descodificacion de imagenes en movimiento 200 de acuerdo con la presente invencion.
La unidad de intraprediccion 250 de acuerdo con la presente invencion incluye una unidad de descodificacion de modos de intraprediccion 251, una unidad de generacion de pfxeles de referencia 252, una unidad de filtrado de pfxeles de referencia 253, una unidad de generacion de bloques de prediccion 254 y una unidad de transmision de bloques de prediccion 255.
La unidad de descodificacion de modos de intraprediccion 251 recibe la informacion de intraprediccion a partir de la
5
10
15
20
25
30
35
40
45
50
55
unidad de descodificacion por entropfa 210 y restablece el modo de intraprediccion de la unidad de prediccion actual. La informacion de intraprediccion incluye una informacion que indica el grupo de modos de intraprediccion al cual pertenece la unidad de prediccion actual que se va a descodificar, y el mdice de modos de intraprediccion.
La unidad de descodificacion de modos de intraprediccion 251 obtiene los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual. Los modos de intraprediccion pueden ser el modo de intraprediccion de una unidad de intraprediccion izquierda y una unidad de intraprediccion de arriba de la unidad de prediccion actual. Cuando existe una pluralidad de unidades de prediccion de arriba de la unidad de prediccion actual, la pluralidad de unidades de prediccion de arriba se explora en una direccion previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion de arriba. Asimismo, cuando existe una pluralidad de unidades de prediccion izquierda de la unidad de prediccion actual, la pluralidad de unidades de prediccion izquierda se explora en una direccion previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion izquierda. Como alternativa, de entre una pluralidad de unidades de prediccion disponibles, el modo de intraprediccion de una unidad de prediccion disponible que tiene el numero de modo de intraprediccion mas bajo se puede establecer como un modo de intraprediccion de arriba.
El modo de intraprediccion de arriba o el modo de intraprediccion izquierda se convierte en uno de los modos admisibles cuando el numero de modos de intraprediccion de arriba o el numero de modos de intraprediccion izquierda es igual a o mas grande que el numero de modos de intraprediccion admisibles para la unidad de prediccion actual.
Un primer grupo de modos de intraprediccion se construye usando el modo de intraprediccion obtenido o convertido. Los modos de intraprediccion obtenidos o convertidos y uno o mas candidatos de modo de intraprediccion que se determinan en un orden previamente determinado por los modos de intraprediccion obtenidos o convertidos se pueden incluir en el primer grupo de modos de intraprediccion. Cuando el modo de intraprediccion obtenido o convertido es un modo direccional, los uno o mas candidatos de modo de intraprediccion pueden ser al menos un modo de intraprediccion direccional lo mas cerca del modo de intraprediccion obtenido o convertido.
La unidad de descodificacion de modos de intraprediccion 251 determina si la informacion que indica el grupo de modos de intraprediccion indica, o no, el primer grupo de modos de intraprediccion.
Si la informacion que indica el grupo de modos de intraprediccion indica el primer grupo de modos de intraprediccion, el modo de intraprediccion que se corresponde con el mdice de modo de intraprediccion recibido se selecciona de entre el primer grupo de modos de intraprediccion, y el modo de intraprediccion seleccionado se establece como el modo de intraprediccion de la unidad de prediccion actual.
Si la informacion que indica el grupo de modos de intraprediccion indica el segundo grupo de modos de intraprediccion, el modo de intraprediccion que se corresponde con el mdice de modo de intraprediccion recibido se selecciona de entre el segundo grupo de modos de intraprediccion, y el modo de intraprediccion seleccionado se establece como el modo de intraprediccion de la unidad de prediccion actual. El segundo grupo de modos de intraprediccion incluye unos modos de intraprediccion que no sean los modos de intraprediccion que pertenecen al primer grupo de modos de intraprediccion. Los modos de intraprediccion del segundo modo de intraprediccion se pueden reordenar con referencia al mdice de modo de intraprediccion. Asimismo, los modos de intraprediccion del segundo modo de intraprediccion se pueden reordenar con referencia al modo de intraprediccion de la unidad de prediccion de arriba e izquierda de la unidad de prediccion actual, asf como el mdice de modo de intraprediccion.
Cuando no se encuentra disponible ninguno del modo de intraprediccion de arriba y el modo de intraprediccion izquierda, se anaden uno o mas modos de intraprediccion al primer grupo de modos de intraprediccion. Por ejemplo, se puede anadir un modo DC o un modo plano cuando se anade un modo de intraprediccion. Se pueden anadir un modo DC y un modo plano o vertical cuando se anaden dos modos de intraprediccion. Un modo DC, un modo plano, y uno del modo vertical y el modo horizontal se pueden anadir cuando se anaden tres modos de intraprediccion.
Cuando se encuentra disponible uno del modo de intraprediccion de arriba y el modo de intraprediccion izquierda o cuando el modo de intraprediccion de arriba y el modo de intraprediccion izquierda son el mismo, se puede anadir uno o dos modos de intraprediccion al primer grupo de modos de intraprediccion. Por ejemplo, se puede anadir un
modo DC o un modo plano cuando se anade un modo de intraprediccion. Cuando se anaden dos modos de
intraprediccion, los modos de intraprediccion que se van a anadir vanan de acuerdo con si el modo de
intraprediccion disponible es, o no, un modo de intraprediccion direccional. Si el modo de intraprediccion disponible es uno de los modos de intraprediccion no direccional (es decir, un modo DC o un modo plano), se pueden anadir un modo vertical y un modo horizontal o se pueden anadir el otro modo de intraprediccion no direccional (es decir, un modo plano o un modo DC) y un modo vertical. Si el modo de intraprediccion disponible es un modo de intraprediccion direccional, se pueden anadir dos modos de intraprediccion lo mas cerca del modo de intraprediccion disponible en ambos lados. Sin embargo, para un cierto modo (por ejemplo, el modo 6 o el modo 9) que tiene el modo de intraprediccion adyacente en solo un lado del modo de intraprediccion disponible, el modo de
intraprediccion adyacente (el modo 25 o el modo 33) y se puede anadir uno de un modo DC y un modo plano.
5
10
15
20
25
30
35
40
45
50
55
Como alternativa, la unidad de descodificacion de modo de prediccion 251 puede descodificar el modo de intraprediccion del modo de prediccion actual tal como sigue. En primer lugar, se analiza sintacticamente una etiqueta (pred_flag) que indica si el modo de intraprediccion de la unidad de prediccion actual es igual a uno de los modos de intraprediccion de las unidades de intraprediccion previas (por ejemplo, las unidades de prediccion de arriba e izquierda). Si la etiqueta (pred_flag) es 1, el modo de intraprediccion de la unidad de prediccion actual se determina usando el modo de intraprediccion izquierda disponible y el modo de intraprediccion de arriba disponible. Si la etiqueta (pred_flag) es 0, el modo de intraprediccion de la unidad de prediccion actual se determina usando la informacion de modo de prediccion restante (rem_pred_mode). La informacion de modo de prediccion restante (rem_pred_mode) indica el orden de los modos de intraprediccion de la unidad de intraprediccion actual de entre los modos de intraprediccion disponibles que no sean el modo de intraprediccion izquierda disponible y el modo de intraprediccion de arriba disponible.
La unidad de generacion de pfxeles de referencia 252 genera pfxeles de referencia usando el mismo procedimiento que se describe en la unidad de generacion de pfxeles de referencia 151 del aparato de codificacion 100. Sin embargo, la unidad de generacion de pfxeles de referencia 252 puede generar de forma adaptativa los pfxeles de referencia de acuerdo con el modo de intraprediccion restablecido solo cuando los pfxeles de referencia que se usan para generar un bloque de prediccion y que se determinan mediante el modo de intraprediccion no se encuentran disponibles.
La unidad de filtrado de pfxeles de referencia 253 filtra de forma adaptativa los pfxeles de referencia sobre la base del modo de intraprediccion restablecido y un tamano de la unidad de prediccion actual. El procedimiento y la condicion de filtrado y son los mismos que los de la unidad de filtrado de pfxeles de referencia 152 del aparato de codificacion 100.
La unidad de generacion de bloques de prediccion 254 genera un bloque de prediccion usando los pfxeles de referencia sobre la base del modo de intraprediccion restablecido. Un procedimiento para generar el bloque de prediccion es el mismo procedimiento que se usa en la unidad de generacion de bloques de prediccion 154 del aparato de codificacion 100.
La unidad de transmision de bloques de prediccion 255 transmite el bloque de prediccion que se recibe a partir del generador de bloques de prediccion 254 al sumador 290.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificacion en un modo de intraprediccion de acuerdo con la presente invencion.
En primer lugar, la informacion de intraprediccion y las senales residuales se demultiplexan a partir de un flujo de bits recibido en la etapa S100. La etapa S100 se realiza en la unidad de una unidad de codificacion. La informacion de intraprediccion se extrae a partir de una sintaxis de unidad de prediccion en la unidad de codificacion. Las senales residuales se extraen a partir de una sintaxis de unidad de transformada en la unidad de codificacion.
El modo de intraprediccion de una unidad de prediccion actual se restablece usando la informacion de intraprediccion que se obtiene a partir de la sintaxis de unidad de prediccion en la etapa S110. La informacion de intraprediccion incluye el indicador de grupo de modos de intraprediccion (pred_mode) y el mdice de modo de intraprediccion. Si la informacion de intraprediccion no incluye el mdice de modo de intraprediccion, la informacion de intraprediccion se establece en 0. El indicador de grupo de modos de intraprediccion indica el grupo de modos de intraprediccion al cual pertenece el modo de intraprediccion de la unidad de prediccion actual. Si el numero de los grupos de modos de intraprediccion es de 2, el indicador de grupo de modos de intraprediccion (pred_mode) puede ser una etiqueta de un bit. El numero de los grupos de modos de intraprediccion puede ser de 2 o 3.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intraprediccion de acuerdo con la presente invencion. El numero de modos de intraprediccion que pertenecen al primer grupo de modos de intraprediccion vana. Se describira un caso en el que el numero de los grupos de modos de intraprediccion es de 2.
En primer lugar, un primer grupo de modos de intraprediccion se construye usando los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual en la etapa S111.
Por ejemplo, el primer grupo de modos de intraprediccion esta compuesto por los modos de intraprediccion disponibles de las unidades de intraprediccion de arriba y las de izquierda de la unidad de prediccion actual. Si ambos de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda se encuentran no disponibles, se puede anadir un modo DC o un modo plano al primer grupo de modos de intraprediccion. El primer grupo de modos de intraprediccion puede incluir al menos un modo de intraprediccion adicional que es un primer modo de intraprediccion disponible que es encontrado cuando se recupera un modo de intraprediccion derecha de arriba, un modo de intraprediccion izquierda de debajo, un modo de intraprediccion izquierda de arriba de la unidad de prediccion actual.
Cuando existe una pluralidad de unidades de prediccion de arriba de la unidad de prediccion actual, la pluralidad de unidades de prediccion de arriba se explora en una direccion previamente determinada (por ejemplo, de izquierda a
5
10
15
20
25
30
35
40
45
50
55
derecha) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion de arriba. Asimismo, cuando existe una pluralidad de unidades de prediccion izquierda de la unidad de prediccion actual, la pluralidad de unidades de prediccion izquierda se explora en una direccion previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion izquierda.
Si el modo de intraprediccion disponible no es igual a uno de los modos de intraprediccion admisibles de la unidad de prediccion actual, el modo de intraprediccion disponible se convierte en uno de los modos de intraprediccion admisibles de la unidad de prediccion actual. Se determina si el modo de intraprediccion de la unidad de prediccion actual pertenece, o no, al primer grupo de modos de intraprediccion, sobre la base del indicador de grupo de modos de intraprediccion en la etapa S112.
Si el modo de intraprediccion de la unidad de prediccion actual pertenece al primer grupo de modos de intraprediccion, se determina si el mdice de modo de intraprediccion existe, o no, en la etapa S113.
Si el mdice de modo de intraprediccion existe, el modo de intraprediccion del primer grupo de modos de intraprediccion que se corresponde con el mdice de modo de intraprediccion se determina como el modo de intraprediccion de la unidad de prediccion actual en la etapa S114.
Si el mdice de modo de intraprediccion no existe, el mdice de modo de intraprediccion se establece en 0 y el modo de intraprediccion del primer grupo de modos de intraprediccion que se corresponde con el mdice de modo de intraprediccion 0 se determina como el modo de intraprediccion de la unidad de prediccion actual en la etapa S115. Es decir, si el mdice de modo de intraprediccion no existe, solo se incluye un modo de intraprediccion en el primer grupo de modos de intraprediccion.
Si el modo de intraprediccion de la unidad de prediccion actual no pertenece al primer grupo de modos de intraprediccion, el modo de intraprediccion del segundo grupo de modos de intraprediccion que se corresponde con el mdice de modo de intraprediccion se determina como el modo de intraprediccion de la unidad de prediccion actual en la etapa S116. El segundo grupo de modos de intraprediccion incluye la totalidad de los modos de intraprediccion que no sean los modos de intraprediccion que pertenecen al primer grupo de modos de intraprediccion. El mdice de modo de intraprediccion se puede asignar en el orden del numero de modo del modo de intraprediccion del segundo grupo de modos de intraprediccion.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento del modo de intraprediccion de acuerdo con la presente invencion. El numero de modos de intraprediccion que pertenecen a un primer grupo de modos de intraprediccion esta fijado.
En primer lugar, un primer grupo de modos de intraprediccion se construye usando los modos de intraprediccion de las unidades de prediccion adyacentes a la unidad de prediccion actual en la etapa S211.
Cuando el primer grupo de modos de intraprediccion incluye dos modos de intraprediccion, el primer grupo de modos de intraprediccion se construye tal como sigue.
Se determina si los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda de la unidad de prediccion actual se encuentran, o no, disponibles. Si el modo de intraprediccion disponible no es uno de los modos de intraprediccion admisibles de la unidad de prediccion actual, el modo de intraprediccion disponible se convierte en uno de los modos de intraprediccion admisibles. Cuando se encuentran disponibles ambos de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda y no son el mismo, el primer grupo de modos de intraprediccion esta compuesto por los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda. Cuando solo se encuentra disponible uno de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda o cuando los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda son el mismo, el primer grupo de modos de intraprediccion esta compuesto por el modo de intraprediccion disponible y un modo de intraprediccion adicional. Si el modo de intraprediccion disponible no es un modo DC, el modo de intraprediccion adicional puede ser un modo DC. Si el modo de intraprediccion disponible es un modo DC, el modo de intraprediccion adicional puede ser un modo plano o un modo vertical.
Cuando el primer grupo de modos de intraprediccion incluye tres modos de intraprediccion, el primer grupo de modos de intraprediccion se construye tal como sigue.
Se determina si los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda de la unidad de prediccion actual se encuentran, o no, disponibles. Si el modo de intraprediccion disponible no es uno de los modos de intraprediccion admisibles de la unidad de prediccion actual, el modo de intraprediccion disponible se puede convertir en uno de los modos de intraprediccion admisibles.
Cuando ambos de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda se encuentran disponibles y no son el mismo uno que otro, el primer grupo de modos de intraprediccion esta compuesto por los dos modos de intraprediccion disponibles y un modo de intraprediccion adicional. El modo de
5
10
15
20
25
30
35
40
45
50
55
intraprediccion adicional es diferente de los dos modos de intraprediccion disponibles y es uno de un modo vertical, un modo horizontal y un modo DC. El modo de intraprediccion adicional es el primer modo de intraprediccion que se puede anadir en el orden del modo DC, el modo vertical y el modo horizontal.
Cuando solo se encuentra disponible uno de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda o cuando los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda son el mismo, el primer grupo de modos de intraprediccion esta compuesto por el modo de intraprediccion disponible y dos modos de intraprediccion adicionales. Los dos modos de intraprediccion adicionales se determinan de forma adaptativa de acuerdo con los modos de intraprediccion disponibles y un tamano de la unidad de prediccion. Si el tamano de la unidad de prediccion es igual a o mas pequeno que un tamano previamente determinado y el modo de intraprediccion disponible es un modo direccional, dos modos de intraprediccion que tienen una direccion lo mas cerca de la direccion del modo de intraprediccion disponible se seleccionan como los dos modos de intraprediccion adicionales. Sin embargo, si el modo de intraprediccion disponible es el modo 6 o 9, el modo 6 o 9 se selecciona como el otro modo de intraprediccion adicional. Si el modo de intraprediccion disponible es un modo de intraprediccion no direccional, los dos modos de intraprediccion adicionales son un modo vertical y un modo horizontal, o el otro modo de intraprediccion no direccional y un modo vertical.
Cuando la totalidad de los modos de intraprediccion de las unidades de intraprediccion de arriba y las de izquierda se encuentran no disponibles, el primer grupo de modos de intraprediccion esta compuesto por tres modos de intraprediccion adicionales. Los tres modos de intraprediccion adicionales pueden ser un modo DC, un modo vertical y un modo horizontal, o un modo DC, un modo plano y un modo vertical.
Cuando existe una pluralidad de unidades de prediccion de arriba de la unidad de prediccion actual, la pluralidad de unidades de prediccion de arriba se explora en una direccion previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion de arriba. Asimismo, cuando existe una pluralidad de unidades de prediccion izquierda de la unidad de prediccion actual, la pluralidad de unidades de prediccion izquierda se explora en una direccion previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intraprediccion de una primera unidad de prediccion disponible como un modo de intraprediccion izquierda.
A continuacion, se determina si el modo de intraprediccion de la unidad de prediccion actual pertenece, o no, al primer grupo de modos de intraprediccion, sobre la base del indicador de grupo de modos de intraprediccion en la etapa S212.
Si el modo de intraprediccion de la unidad de prediccion actual pertenece al primer grupo de modos de intraprediccion, el modo de intraprediccion del primer grupo de modos de intraprediccion que se corresponde con el mdice de modo de intraprediccion se determina como el modo de intraprediccion de la unidad de prediccion actual en la etapa S213.
Si el modo de intraprediccion de la unidad de prediccion actual no pertenece al primer grupo de modos de intraprediccion, el modo de intraprediccion del segundo grupo de modos de intraprediccion que se corresponde con el mdice de modo de intraprediccion se determina como el modo de intraprediccion de la unidad de prediccion actual en la etapa S214. El segundo grupo de modos de intraprediccion incluye la totalidad de los modos de intraprediccion que no sean los modos de intraprediccion que pertenecen al primer grupo de modos de intraprediccion.
El mdice del candidato de modo de intraprediccion en el segundo grupo de modos de intraprediccion se asigna en el orden del numero de modo del modo de intraprediccion del segundo grupo de modos de intraprediccion.
A continuacion, los pfxeles de referencia se generan de forma adaptativa sobre la base del modo de intraprediccion restablecido de la unidad de prediccion actual en la etapa S120.
Cuando hay pfxeles de referencia disponibles en solo un lado de la posicion del pixel de referencia no disponible, los pfxeles de referencia se generan al copiar el valor de un pixel disponible lo mas cerca del pixel no disponible. Como alternativa, los pfxeles de referencia se generan usando dos pfxeles disponibles lo mas cerca del pixel no disponible. Cuando el pixel de referencia no disponible existe entre los pfxeles disponibles, el pixel de referencia se genera usando dos pfxeles de referencia disponibles lo mas cerca del pixel no disponible en ambos lados. El valor del pixel de referencia generado puede ser un promedio de los dos pfxeles de referencia disponibles lo mas cerca del pixel no disponible en ambos lados. Se puede usar un procedimiento de interpolacion lineal para generar los pfxeles de referencia cuando una diferencia entre los dos pfxeles de referencia disponibles es grande.
A continuacion, los pfxeles de referencia se filtran de forma adaptativa sobre la base del modo de intraprediccion restablecido (S130). Cuando el modo de intraprediccion restablecido es un modo vertical (el modo 0), un modo horizontal (el modo 1) o un modo DC (el modo 2), los pfxeles de referencia no se filtran. En un modo de intraprediccion direccional que no sea el modo vertical y el modo horizontal, los pfxeles de referencia se filtran de forma adaptativa. El pixel de referencia mas a la derecha de los pfxeles de referencia de arriba que estan situados en (x = 2 N -1, y = -1) y el pixel de referencia mas bajo de los pfxeles de referencia izquierdos que estan situados en (x = -1, y = 2 N-1) no se filtran. Los pfxeles de referencia restantes se filtran usando dos pfxeles de referencia adyacentes.
5
10
15
20
25
30
35
40
45
50
55
Se aplica un filtro de paso bajo para suavizar la diferencia entre p^xeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
Un filtro se aplica de forma adaptativa a los pfxeles de referencia de acuerdo con el tamano de la unidad de prediccion en los modos de intraprediccion direccionales que existen entre un modo horizontal o vertical y el modo de intraprediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical. El filtro se puede aplicar de forma adaptativa a los modos que existen entre el modo horizontal y los modos que tienen una direccion de 45° con referencia al modo horizontal, o los modos que existen entre el modo vertical y los modos que tienen una direccion de 45° con referencia al modo vertical de acuerdo con el tamano de la unidad de prediccion. El numero previamente determinado se puede aumentar a medida que aumenta el tamano de la unidad de prediccion. Por ejemplo, el filtro se aplica al modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical y un primer numero de modos de intraprediccion lo mas cerca del modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical para una unidad de prediccion de 8 * 8. Y el filtro se aplica al modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical y un segundo numero de modos de intraprediccion lo mas cerca del modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical para una unidad de prediccion de 16 * 16. Y el filtro se aplica al modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical y un tercer numero de modos de intraprediccion lo mas cerca del modo de prediccion que tiene una direccion de 45° con referencia a la direccion horizontal o vertical para una unidad de prediccion de 32 * 32. El primer numero es igual a o mas pequeno que el segundo numero, y el segundo numero es igual a o mas pequeno que el tercer numero.
A continuacion, un bloque de prediccion se genera usando los pfxeles de referencia de acuerdo con el modo de intraprediccion restablecido en la etapa S140. El procedimiento de generacion de un bloque de prediccion es el mismo que el de la unidad de generacion de bloques de intraprediccion de la figura 6.
Las senales residuales se descodifican por entropfa en la etapa S150.
Las senales residuales se exploran de forma inversa en la etapa S160. Es decir, las senales residuales se convierten en un bloque de transformada cuantificado bidimensional. Un patron de exploracion inversa se selecciona de entre una pluralidad de patrones de exploracion inversa para esta conversion. El patron de exploracion inversa se determina de acuerdo con el modo de intraprediccion. Si el tamano de la unidad de transformada es mas grande que un tamano previamente determinado, las senales residuales se exploran de forma inversa en la unidad del subconjunto y se genera una unidad de transformada cuantificado. Si el tamano de la unidad de transformada es igual al tamano previamente determinado, las senales residuales se exploran de forma inversa en la unidad de la unidad de transformada y se genera una unidad de transformada cuantificado.
El bloque de transformada cuantificado bidimensional se cuantifica de forma inversa en la etapa S170. El predictor de tamano de paso de cuantificacion de la unidad de codificacion actual se determina para la cuantificacion inversa. El predictor de tamano de paso de cuantificacion se determina usando el mismo procedimiento que el de la unidad de cuantificacion inversa 230 de la figura 5. El predictor de tamano de paso de cuantificacion determinado y un tamano de paso de cuantificacion residual recibido se suman para generar un tamano de paso de cuantificacion a aplicar al bloque de transformada. Y los coeficientes de cuantificacion inversa se restablecen usando la matriz de cuantificacion que se determina mediante el tamano de paso de cuantificacion.
A continuacion, el bloque cuantificado de forma inversa se transforma de forma inversa en la etapa S180. Una matriz de transformada inversa se puede determinar de forma adaptativa de acuerdo con el modo de intraprediccion restablecido. La unidad de transformada se puede transformar de forma inversa mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la intraprediccion, hay una alta posibilidad de que las senales residuales tengan una directividad vertical cuando el modo de intraprediccion sea horizontal. Por lo tanto, la matriz de numeros enteros basada en DCT se aplica a la direccion vertical, y la matriz de numeros enteros basada en DST o en KTL se aplica a la direccion horizontal. Cuando el modo de intraprediccion es vertical, una matriz de numeros enteros basada en DST o en KTL inversa se aplica a la direccion vertical, y una matriz de numeros enteros basada en DCT inversa se aplica a la direccion horizontal. Cuando el modo de intraprediccion es un modo DC, una matriz de numeros enteros basada en DCT inversa se aplica en ambas de las direcciones.
El bloque de prediccion generado y el bloque transformado de forma inversa se suman para generar una imagen reconstruida en la etapa S190. Las senales residuales restablecidas y las senales de prediccion restablecidas se pueden sumar en la unidad de la unidad de codificacion.
Mientras que la invencion se ha mostrado y descrito con referencia a ciertas realizaciones ejemplares de la misma, se entendera por aquellos expertos en la materia que diversos cambios en la forma y en los detalles pueden realizarse en la misma sin alejarse del alcance de la invencion segun se define en las reivindicaciones adjuntas.

Claims (2)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    REIVINDICACIONES
    1. Un aparato de descodificacion de una imagen, que comprende:
    una unidad de descodificacion por entropfa (210) configurada para derivar informacion de intraprediccion e informacion de coeficiente cuantificada desde un flujo de bits recibido desde un dispositivo de codificacion de imagen;
    una unidad de escaneo inverso (220) configurada para generar un bloque de transformada cuantificado escaneando de manera inversa la informacion de coeficiente cuantificada;
    una unidad de cuantificacion inversa (230) configurada para generar un bloque de transformada cuantificando inversamente el bloque de transformada cuantificado;
    una unidad de transformada inversa (240) configurada para generar un bloque residual transformando de manera inversa el bloque de transformada;
    una unidad de intraprediccion (250) configurada para restaurar un modo de intraprediccion de un bloque de prediccion actual basandose en la informacion de intraprediccion y para generar un bloque de prediccion de acuerdo con el modo de intraprediccion; y
    un sumador (290) configurado para generar un bloque original sumando el bloque de prediccion y el bloque residual,
    en el que, si se determina que un tamano del bloque de transformada es mas grande que un tamano de referencia predeterminado, la unidad de escaneo inverso (220) escanea de manera inversa la informacion de coeficiente cuantificada en la unidad de un tamano predeterminado de un subconjunto usando un patron de escaneo inverso determinado de acuerdo con el modo de intraprediccion,
    en el que, la unidad de intraprediccion (250) restaura un indicador de grupo de modo de intraprediccion y un mdice de modo de prediccion de un bloque de prediccion actual, genera un grupo de modo de intraprediccion usando los modos de intraprediccion disponibles de un bloque de prediccion izquierdo y un bloque de prediccion superior cerca del bloque de prediccion actual, en el que el numero de modos de intraprediccion que pertenece al grupo de modo de intraprediccion se fija en tres y, determina un modo de intraprediccion que esta incluido en el grupo de modo de intraprediccion e indicado por el mdice de modo de intraprediccion como el modo de intraprediccion del bloque de prediccion actual cuando el indicador de grupo de modo de intraprediccion indica el grupo de modo de intraprediccion,
    en el que, cuando solo un modo de intraprediccion de los modos de intraprediccion de la unidad de prediccion izquierda y la unidad de prediccion superior esta disponible, el grupo de modo de intraprediccion incluye el un modo de intraprediccion disponible de las respectivas unidades de prediccion y dos modos de intraprediccion adicionales que se determinan de tal manera que cuando el un modo de intraprediccion disponible es un modo de intraprediccion no direccional, los dos modos de intraprediccion adicionales incluyen otro modo de intraprediccion no direccional y un modo vertical,
    en el que, cuando el un modo de intraprediccion disponible es un modo DC, los dos modos de intraprediccion adicionales incluyen un modo plano y un modo vertical, y
    en el que, cuando el un modo de intraprediccion disponible es un modo plano, los dos modos de intraprediccion adicionales incluyen un modo DC y el modo vertical.
  2. 2. El aparato de la reivindicacion 1, en el que la unidad de escaneo inverso (220) escanea la pluralidad de subconjuntos en una direccion inversa que termina con un subconjunto principal que se ubica en un lado izquierdo superior y que incluye un coeficiente DC que usa el patron de escaneo inverso.
ES16184586.2T 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción Active ES2693905T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100079529 2010-08-17
KR20100079529 2010-08-17
KR20110064301 2011-06-30
KR1020110064301A KR20120058384A (ko) 2010-08-17 2011-06-30 인트라 프리딕션 방법

Publications (1)

Publication Number Publication Date
ES2693905T3 true ES2693905T3 (es) 2018-12-14

Family

ID=45605532

Family Applications (11)

Application Number Title Priority Date Filing Date
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184586.2T Active ES2693905T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184568.0T Active ES2670325T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184578T Active ES2696931T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción

Family Applications Before (5)

Application Number Title Priority Date Filing Date
ES16184574T Active ES2696898T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES11818362.3T Active ES2602779T3 (es) 2010-08-17 2011-08-12 Procedimiento de descodificación de intra-predicciones
ES16184557.3T Active ES2670324T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción
ES16184577.1T Active ES2685669T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184616.7T Active ES2670327T3 (es) 2010-08-17 2011-08-12 Procedimiento de restablecimiento de un modo de intra predicción

Family Applications After (5)

Application Number Title Priority Date Filing Date
ES16184568.0T Active ES2670325T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción
ES16184578T Active ES2696931T3 (es) 2010-08-17 2011-08-12 Procedimiento para codificar un modo de intrapredicción
ES16184569.8T Active ES2685668T3 (es) 2010-08-17 2011-08-12 Aparato para codificar un modo de intrapredicción
ES16184582.1T Active ES2693903T3 (es) 2010-08-17 2011-08-12 Aparato para descodificar un modo de intrapredicción
ES16184572.2T Active ES2670326T3 (es) 2010-08-17 2011-08-12 Procedimiento de codificación de un modo de intra predicción

Country Status (19)

Country Link
US (4) US9491478B2 (es)
EP (11) EP2608541B1 (es)
JP (12) JP5982612B2 (es)
KR (16) KR20180039750A (es)
CN (12) CN104602004B (es)
CY (5) CY1118382T1 (es)
DK (5) DK3125555T3 (es)
ES (11) ES2696898T3 (es)
HR (5) HRP20170053T1 (es)
HU (9) HUE039205T2 (es)
LT (5) LT2608541T (es)
NO (1) NO3125552T3 (es)
PL (11) PL3125558T3 (es)
PT (5) PT3125561T (es)
RS (5) RS57165B1 (es)
SI (5) SI3125555T1 (es)
SM (5) SMT201800301T1 (es)
TR (2) TR201806128T4 (es)
WO (1) WO2012023762A2 (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
SG10201503179VA (en) * 2010-04-23 2015-06-29 M&K Holdings Inc Image encoding apparatus
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
PL3125558T3 (pl) * 2010-08-17 2019-04-30 M&K Holdings Inc Sposób kodowania trybu intra-predykcji
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
CN107181950B (zh) 2010-12-08 2020-11-06 Lg 电子株式会社 一种执行内预测的编码装置和解码装置
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
CN102595124B (zh) 2011-01-14 2014-07-16 华为技术有限公司 图像编码解码方法、处理图像数据方法及其设备
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
PL4224844T3 (pl) * 2011-04-25 2024-09-30 Lg Electronics Inc. Sposób predykcji wewnątrzramkowej do dekodowania wideo i kodowania wideo
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
BR112013033699B1 (pt) * 2011-06-28 2020-01-14 Samsung Electronics Co Ltd método para decodificar dados de vídeo controlador por um processador
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
LT2773117T (lt) 2011-10-24 2018-12-27 Infobridge Pte. Ltd. Vaizdo dekodavimo aparatas
CN104883571B (zh) * 2011-10-24 2018-04-03 英孚布瑞智有限私人贸易公司 图像解码设备
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
CN109413429B (zh) * 2012-01-20 2022-05-17 杜比实验室特许公司 解码方法、视频解码设备及编码方法
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
WO2014005924A1 (en) * 2012-07-05 2014-01-09 Thomson Licensing Video coding and decoding method with adaptation of coding modes
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
US9426473B2 (en) * 2013-02-01 2016-08-23 Qualcomm Incorporated Mode decision simplification for intra prediction
JP6212890B2 (ja) * 2013-03-22 2017-10-18 富士通株式会社 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR102294830B1 (ko) 2014-01-03 2021-08-31 삼성전자주식회사 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법
CN105338365B (zh) * 2014-05-27 2018-11-20 富士通株式会社 视频编码方法和视频编码装置
US10856009B2 (en) 2014-09-04 2020-12-01 Mediatek Inc. Method of block vector clipping and coding for screen content coding and video coding
CN106797475B (zh) * 2014-10-08 2019-12-10 联发科技股份有限公司 视频编码方法
CN106375768B (zh) * 2015-07-23 2019-05-17 中国科学院信息工程研究所 基于帧内预测模式校准的视频隐写分析方法
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
CN105354526B (zh) * 2015-09-28 2018-03-20 西安中颖电子有限公司 提高一维条码解码效率的方法以及一维条码的解码系统
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6740534B2 (ja) * 2016-07-04 2020-08-19 日本放送協会 符号化装置、復号装置及びプログラム
CN116634140A (zh) 2016-08-03 2023-08-22 株式会社Kt 用于对视频进行编码和解码的方法和装置
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018068744A1 (en) * 2016-10-14 2018-04-19 Mediatek Inc. Method and apparatus of smoothing filter for ringing artefact removal
WO2018124653A1 (ko) * 2016-12-27 2018-07-05 삼성전자 주식회사 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
US10863198B2 (en) 2017-01-03 2020-12-08 Lg Electronics Inc. Intra-prediction method and device in image coding system for 360-degree video
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
EP4114007A1 (en) * 2017-07-10 2023-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bit-plane coding
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
CN116389734A (zh) * 2017-12-22 2023-07-04 数码士有限公司 视频信号处理方法和设备
WO2019199093A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR102252323B1 (ko) * 2018-05-10 2021-05-14 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN110650337B (zh) * 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
KR20240007716A (ko) * 2018-09-13 2024-01-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 아핀 선형 가중 인트라 예측
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
MX2021003467A (es) 2018-09-28 2021-06-18 Jvckenwood Corp Dispositivo de decodificacion de imagenes, metodo de decodificacion de imagenes y programa de decodificacion de imagenes.
CN112887719B (zh) 2018-09-28 2022-03-15 Jvc建伍株式会社 图像解码装置、图像解码方法以及图像解码程序
CN116132667A (zh) * 2018-11-26 2023-05-16 华为技术有限公司 对图像中的块进行帧内预测的方法,编码设备,解码设备和计算机可读介质
EP3697094A1 (en) 2019-02-13 2020-08-19 InterDigital VC Holdings, Inc. Intra prediction mode extension
CN111193934A (zh) * 2020-04-10 2020-05-22 杭州雄迈集成电路技术股份有限公司 一种帧内预测方法、系统、计算机设备及可读存储介质
JP7104101B2 (ja) * 2020-06-24 2022-07-20 日本放送協会 符号化装置、復号装置及びプログラム
CN114466238B (zh) * 2020-11-09 2023-09-29 华为技术有限公司 帧解复用方法、电子设备及存储介质
CN114554195B (zh) * 2020-11-25 2024-06-25 腾讯科技(深圳)有限公司 图像处理方法、设备及存储介质
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835207B2 (ja) * 2001-06-27 2006-10-18 ソニー株式会社 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
CN100380984C (zh) * 2002-06-11 2008-04-09 诺基亚有限公司 基于空间预测的帧内编码
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR100982514B1 (ko) * 2003-11-14 2010-09-16 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 장치
KR20050121627A (ko) 2004-06-22 2005-12-27 삼성전자주식회사 동영상 코덱의 필터링 방법 및 필터링 장치
US20060013320A1 (en) * 2004-07-15 2006-01-19 Oguz Seyfullah H Methods and apparatus for spatial error concealment
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
BRPI0517069A (pt) * 2004-11-04 2008-09-30 Thomson Licensing previsão rápida intra modo para um codificador de vìdeo
KR100679025B1 (ko) * 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
WO2006106935A1 (ja) * 2005-04-01 2006-10-12 Matsushita Electric Industrial Co., Ltd. 画像復号化装置及び画像復号化方法
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20080165849A1 (en) * 2005-07-22 2008-07-10 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20080137744A1 (en) * 2005-07-22 2008-06-12 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080123947A1 (en) * 2005-07-22 2008-05-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein
US20080130990A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
CN101385356B (zh) * 2006-02-17 2011-01-19 汤姆森许可贸易公司 采用帧内预测模式的图像编码方法
KR20060027842A (ko) 2006-02-24 2006-03-28 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
US8000390B2 (en) * 2006-04-28 2011-08-16 Sharp Laboratories Of America, Inc. Methods and systems for efficient prediction-mode selection
CN101502124B (zh) * 2006-07-28 2011-02-23 株式会社东芝 图像编码和解码的方法以及装置
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
BRPI0715772A2 (pt) * 2006-09-29 2013-07-16 Thomson Licensing prediÇço intra geomÉtrica
BRPI0717639A2 (pt) * 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
KR100856392B1 (ko) * 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
EP2145482A1 (en) * 2007-04-19 2010-01-20 Thomson Licensing Adaptive reference picture data generation for intra prediction
EP2166769B1 (en) * 2007-06-29 2017-04-05 Sharp Kabushiki Kaisha Image encoding device, image encoding method, image decoding device, image decoding method, program, and recording medium
KR101479263B1 (ko) * 2007-07-09 2015-01-06 삼성전자주식회사 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
JP2009081576A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動画像復号装置、および動画像復号方法
CN101884219B (zh) * 2007-10-16 2014-08-20 Lg电子株式会社 处理视频信号的方法和装置
WO2009080133A1 (en) * 2007-12-21 2009-07-02 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive intra mode selection
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
CN101500161B (zh) * 2008-01-31 2012-03-21 华为技术有限公司 基于自适应块变换的帧内预测方法及装置
KR20090095316A (ko) * 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
EP2288163B1 (en) * 2008-05-07 2015-07-01 Lg Electronics Inc. Method and apparatus for decoding video signal
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
JP5238523B2 (ja) 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
WO2010087157A1 (ja) * 2009-01-29 2010-08-05 パナソニック株式会社 画像符号化方法及び画像復号方法
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) * 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
CN101605263B (zh) * 2009-07-09 2012-06-27 杭州士兰微电子股份有限公司 帧内预测的方法和装置
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8463059B2 (en) * 2010-04-23 2013-06-11 Futurewei Technologies, Inc. Two-layer prediction method for multiple predictor-set intra coding
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
PL3125558T3 (pl) * 2010-08-17 2019-04-30 M&K Holdings Inc Sposób kodowania trybu intra-predykcji
PH12015501605A1 (en) 2010-12-23 2022-08-08 Samsung Electronics Co Ltd Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
ES2762868T3 (es) * 2011-09-13 2020-05-26 Hfi Innovation Inc Procedimiento y aparato para codificación de Intra modo en HEVC
CN107087183B (zh) * 2011-10-24 2020-02-14 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
CN104883571B (zh) 2011-10-24 2018-04-03 英孚布瑞智有限私人贸易公司 图像解码设备
KR101947658B1 (ko) * 2011-10-24 2019-02-14 (주)대가람 영상 복호화 방법 및 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6320911B2 (ja) * 2014-12-26 2018-05-09 サントリーホールディングス株式会社 食物繊維
JP6694635B2 (ja) * 2014-12-26 2020-05-20 国立大学法人大阪大学 マイクロrnaにおけるメチル化修飾部位を計測する方法
JP2016123339A (ja) * 2014-12-26 2016-07-11 ユニーテック株式会社 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物
JP6441072B2 (ja) * 2014-12-26 2018-12-19 ミヨシ油脂株式会社 食用油脂中のクロロプロパノール類を低減する方法
JP2016123333A (ja) * 2014-12-26 2016-07-11 味の素株式会社 新規調味料用組成物
JP2016123340A (ja) * 2014-12-26 2016-07-11 株式会社エバンス 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤
JP6481365B2 (ja) * 2014-12-26 2019-03-13 井関農機株式会社 苗移植機
JP2016123336A (ja) * 2014-12-26 2016-07-11 大日本印刷株式会社 細胞培養容器
JP6472242B2 (ja) * 2014-12-26 2019-02-20 亀田製菓株式会社 焼き菓子
JP6447125B2 (ja) * 2014-12-26 2019-01-09 大日本印刷株式会社 細胞培養容器

Also Published As

Publication number Publication date
JP5982612B2 (ja) 2016-08-31
CN103168472B (zh) 2016-11-09
ES2670327T3 (es) 2018-05-30
CN104602004B (zh) 2016-05-11
EP3125559B1 (en) 2018-08-08
HRP20170053T1 (hr) 2017-03-10
HUE040410T2 (hu) 2019-03-28
PL3125560T3 (pl) 2019-01-31
SMT201800312T1 (it) 2018-07-17
EP3125558B1 (en) 2018-10-17
CN104602005A (zh) 2015-05-06
EP3125556A1 (en) 2017-02-01
EP3125552A1 (en) 2017-02-01
PT2608541T (pt) 2016-12-20
HUE031186T2 (hu) 2017-07-28
EP3125552B1 (en) 2018-04-11
HRP20181147T1 (hr) 2018-09-21
CN106851284A (zh) 2017-06-13
NO3125552T3 (es) 2018-09-08
JP2016213853A (ja) 2016-12-15
PT3125552T (pt) 2018-06-04
DK2608541T3 (en) 2017-01-23
KR101854489B1 (ko) 2018-05-03
RS57112B1 (sr) 2018-06-29
EP3125554A1 (en) 2017-02-01
HUE042510T2 (hu) 2019-07-29
CN106851285A (zh) 2017-06-13
US20160301929A1 (en) 2016-10-13
CY1120813T1 (el) 2019-12-11
CY1120815T1 (el) 2019-12-11
JP2016213850A (ja) 2016-12-15
SMT201800314T1 (it) 2018-07-17
PT3125561T (pt) 2018-05-08
LT3125555T (lt) 2018-07-25
US9924186B2 (en) 2018-03-20
US20170302948A9 (en) 2017-10-19
JP2016213852A (ja) 2016-12-15
KR20180039753A (ko) 2018-04-18
TR201806128T4 (tr) 2018-06-21
JP2016187212A (ja) 2016-10-27
KR20180039754A (ko) 2018-04-18
CY1118382T1 (el) 2017-06-28
ES2670324T3 (es) 2018-05-30
ES2670326T3 (es) 2018-05-30
EP2608541A4 (en) 2014-05-14
CN107071426A (zh) 2017-08-18
SI3125553T1 (en) 2018-07-31
LT2608541T (lt) 2017-01-10
PT3125555T (pt) 2018-05-28
DK3125553T3 (en) 2018-06-18
KR20130091800A (ko) 2013-08-19
PL3125553T3 (pl) 2018-09-28
ES2670325T3 (es) 2018-05-30
KR20180039756A (ko) 2018-04-18
CN104602004A (zh) 2015-05-06
PL3125554T3 (pl) 2019-02-28
CN103168472A (zh) 2013-06-19
KR101373819B1 (ko) 2014-03-17
JP2016197880A (ja) 2016-11-24
KR20180039752A (ko) 2018-04-18
PL3125555T3 (pl) 2018-09-28
SI3125561T1 (en) 2018-06-29
ES2693903T3 (es) 2018-12-14
HUE040601T2 (hu) 2019-03-28
US9491478B2 (en) 2016-11-08
CY1120190T1 (el) 2018-12-12
JP6371798B2 (ja) 2018-08-08
HUE038963T2 (hu) 2018-12-28
KR20140071507A (ko) 2014-06-11
KR20130091799A (ko) 2013-08-19
KR20140057673A (ko) 2014-05-13
JP6371796B2 (ja) 2018-08-08
KR20140057672A (ko) 2014-05-13
US9918087B2 (en) 2018-03-13
ES2696898T3 (es) 2019-01-18
JP6371794B2 (ja) 2018-08-08
CN106851287B (zh) 2019-07-12
RS57166B1 (sr) 2018-07-31
EP3125557A1 (en) 2017-02-01
PL3125561T3 (pl) 2018-09-28
PL3125552T3 (pl) 2018-09-28
CN106851284B (zh) 2019-05-10
SMT201600449B (it) 2017-01-10
LT3125552T (lt) 2018-07-10
US20160309166A1 (en) 2016-10-20
HRP20181098T1 (hr) 2018-09-07
PL2608541T3 (pl) 2017-06-30
JP2016197881A (ja) 2016-11-24
KR101474987B1 (ko) 2014-12-24
HUE039248T2 (hu) 2018-12-28
EP3125555B1 (en) 2018-04-18
CN106231308A (zh) 2016-12-14
EP3125557B1 (en) 2018-08-01
KR20180039750A (ko) 2018-04-18
EP3125560A1 (en) 2017-02-01
EP3125555A1 (en) 2017-02-01
EP2608541B1 (en) 2016-10-12
JP6322231B2 (ja) 2018-05-09
EP3125553A1 (en) 2017-02-01
EP3125553B1 (en) 2018-04-18
WO2012023762A2 (ko) 2012-02-23
LT3125561T (lt) 2018-05-25
JP6371800B2 (ja) 2018-08-08
EP3125561A1 (en) 2017-02-01
EP3125558A1 (en) 2017-02-01
JP6371795B2 (ja) 2018-08-08
EP2608541A2 (en) 2013-06-26
JP2016213851A (ja) 2016-12-15
CN107105234B (zh) 2019-11-01
EP3125561B1 (en) 2018-03-28
SI3125552T1 (en) 2018-07-31
HRP20180834T1 (hr) 2018-07-13
CN106851286B (zh) 2019-11-01
PL3125556T3 (pl) 2019-03-29
ES2685668T3 (es) 2018-10-10
CN107105234A (zh) 2017-08-29
EP3125556B1 (en) 2018-10-17
JP2016187211A (ja) 2016-10-27
US20170302947A9 (en) 2017-10-19
JP6371799B2 (ja) 2018-08-08
SI3125555T1 (en) 2018-07-31
US20170272747A9 (en) 2017-09-21
CN104602005B (zh) 2017-10-20
KR20140057674A (ko) 2014-05-13
CN106851285B (zh) 2019-10-11
DK3125561T3 (en) 2018-06-14
WO2012023762A3 (ko) 2012-04-12
CN107071425B (zh) 2019-07-12
RS57165B1 (sr) 2018-07-31
CY1120795T1 (el) 2019-12-11
EP3125559A1 (en) 2017-02-01
JP6371801B2 (ja) 2018-08-08
ES2602779T3 (es) 2017-02-22
EP3125560B1 (en) 2018-08-08
RS57233B1 (sr) 2018-07-31
KR20130051443A (ko) 2013-05-20
SMT201800301T1 (it) 2018-07-17
PL3125559T3 (pl) 2019-01-31
CN107071426B (zh) 2019-07-12
US9924187B2 (en) 2018-03-20
PL3125558T3 (pl) 2019-04-30
JP6322230B2 (ja) 2018-05-09
PL3125557T3 (pl) 2019-03-29
JP2016213855A (ja) 2016-12-15
CN107105250B (zh) 2019-07-12
KR20180039751A (ko) 2018-04-18
EP3125554B1 (en) 2018-08-01
JP2016213856A (ja) 2016-12-15
US20130016780A1 (en) 2013-01-17
HRP20181145T1 (hr) 2018-09-21
TR201807094T4 (tr) 2018-06-21
RS55325B1 (sr) 2017-03-31
HUE039205T2 (hu) 2018-12-28
JP6371797B2 (ja) 2018-08-08
KR20140075020A (ko) 2014-06-18
HUE040604T2 (hu) 2019-03-28
DK3125555T3 (en) 2018-06-18
HUE039207T2 (hu) 2018-12-28
US20160301928A1 (en) 2016-10-13
CN106851286A (zh) 2017-06-13
LT3125553T (lt) 2018-07-25
JP6322232B2 (ja) 2018-05-09
ES2696931T3 (es) 2019-01-18
ES2685669T3 (es) 2018-10-10
SI2608541T1 (sl) 2017-01-31
CN107105250A (zh) 2017-08-29
JP2016213854A (ja) 2016-12-15
KR20180039757A (ko) 2018-04-18
DK3125552T3 (en) 2018-06-14
CN106231308B (zh) 2019-04-12
SMT201800313T1 (it) 2018-07-17
PT3125553T (pt) 2018-06-06
KR20180039755A (ko) 2018-04-18
CN106851287A (zh) 2017-06-13
CN107071425A (zh) 2017-08-18
JP2013537771A (ja) 2013-10-03

Similar Documents

Publication Publication Date Title
ES2693905T3 (es) Aparato para descodificar un modo de intrapredicción
ES2952359T3 (es) Aparato para decodificar un fotograma en movimiento
ES2692842T3 (es) Aparato para codificar una imagen