ES2951960T3 - Procedimiento de construcción de una lista de fusión - Google Patents
Procedimiento de construcción de una lista de fusión Download PDFInfo
- Publication number
- ES2951960T3 ES2951960T3 ES20216553T ES20216553T ES2951960T3 ES 2951960 T3 ES2951960 T3 ES 2951960T3 ES 20216553 T ES20216553 T ES 20216553T ES 20216553 T ES20216553 T ES 20216553T ES 2951960 T3 ES2951960 T3 ES 2951960T3
- Authority
- ES
- Spain
- Prior art keywords
- block
- quantization parameter
- fusion
- candidate
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004927 fusion Effects 0.000 claims abstract description 155
- 230000002123 temporal effect Effects 0.000 claims abstract description 43
- 238000000638 solvent extraction Methods 0.000 claims abstract description 21
- 238000013139 quantization Methods 0.000 claims description 141
- 239000013598 vector Substances 0.000 claims description 31
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000005192 partition Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000009466 transformation Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 16
- 238000012805 post-processing Methods 0.000 description 7
- 238000011002 quantification Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Control Of Motors That Do Not Use Commutators (AREA)
- Electrotherapy Devices (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
- Nonmetallic Welding Materials (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Se proporciona un método que verifica la disponibilidad de candidatos de fusión espacial y un candidato de fusión temporal, construye una lista de candidatos de fusión usando candidatos de fusión espacial y temporal disponibles, y agrega uno o más candidatos si el número de candidatos de fusión espacial y temporal disponibles es menor que un predeterminado. número. El candidato de fusión espacial es información de movimiento de un bloque candidato de fusión espacial, el bloque candidato de fusión espacial es un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque izquierdo-abajo o un bloque superior izquierdo del bloque actual. y si el bloque actual es una segunda unidad de predicción dividida por partición asimétrica, el candidato de fusión espacial correspondiente a una primera unidad de predicción dividida por partición asimétrica se establece como no disponible. Por lo tanto, la eficiencia de codificación de la información de movimiento se mejora eliminando candidatos de fusión no disponibles y agregando nuevos candidatos de fusión de la lista de fusión. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Procedimiento de construcción de una lista de fusión
[Campo técnico]
La presente invención se refiere a un procedimiento de construcción de una lista de fusión y, más en concreto, a un procedimiento de derivación de candidatos de fusión espacial en base a un tamaño y un índice de partición de una unidad de predicción y derivación de un candidato de fusión temporal.
[Técnica anterior]
Procedimientos para comprimir datos de vídeo incluyen MPEG-2, MPEG-4 y H.264/MPEG-4 AVC. Según estos procedimientos, una imagen se divide en macro bloques para codificar una imagen, los respectivos macro bloques son codificados generando un bloque de predicción utilizando inter predicción o intra predicción. La diferencia entre un bloque original y el bloque de predicción es transformada para generar un bloque transformado, y el bloque transformado es cuantificado utilizando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. Los coeficientes cuantificados del bloque cuantificado son explorados (scanned) por un tipo de exploración predeterminado y a continuación codificados por entropía. El parámetro de cuantificación es ajustado por cada macro bloque y codificado utilizando un parámetro de cuantificación anterior.
En el estándar H.264/MPEG-4 AVC, se utiliza una estimación de movimiento para eliminar una redundancia temporal entre imágenes consecutivas. Para detectar la redundancia temporal, se utiliza una o más imágenes de referencia para estimar un movimiento de un bloque actual, y se realiza una compensación de movimiento para generar un bloque de predicción utilizando información de movimiento. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento. El vector de movimiento de la información de movimiento es codificado de forma predictiva utilizando vectores de movimiento vecinos, y los índices de imagen de referencia son codificados sin índices de imagen de referencia vecinos.
Sin embargo, si se utilizan diversos tamaños para la inter predicción, la correlación entre información de movimiento de un bloque actual e información de movimiento de uno o más bloques vecinos aumenta. Además, si un movimiento de un bloque actual es similar o igual al de uno de los bloques vecinos, es más eficaz codificar de forma predictiva la información de movimiento utilizando información de movimiento de los bloques vecinos.
[Divulgación]
[Problema técnico]
La presente invención está dirigida a un procedimiento de derivación de candidatos de fusión espacial en base a un tamaño y a un índice de partición de una unidad de predicción y derivación de un candidato de fusión temporal para construir una lista de fusión.
SUGIO T ET AL, "Parsing Robustness for Merge/AMVP", 6. REUNION JCT-VC; 97. REUNION MPEG; 14-7-2011 - 22-7 2011; TURÍN; (EQUIPO COLABORATIVO CONJUNTO SOBRE CODIFICACIÓN DE VIDEO DE ISO/IEC JTC1/SC29/WG11 e ITU-T SG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE divulga un enfoque para resolver el problema de análisis relacionado con Fusión/Predicción avanzada de vector de movimiento (AMVP: advanced motion vector prediction) en HM3.0. El enfoque propuesto utiliza una longitud de lista fija de candidatos de fusión/Predicción avanzada de vector de movimiento para desacoplar la derivación de la lista de candidatos de Fusión/Predicción avanzada de vector de movimiento y el análisis de índices de Fusión/Predicción avanzada de vector de movimiento. Además, con el fin de compensar la pérdida de rendimiento de la codificación causada por la longitud de lista fija, se asignan unos candidatos adicionales de Fusión/Predicción avanzada de vector de movimiento a las posiciones vacías en la lista.
I-K KIM ET AL: "CE2: Test result of asymmetric motion partition (AMP)", 6. REUNIÓN JCT-VC; 97. REUNIÓN MPEG; 14 7-2011 - 22-7-2011; TURÍN; (EQUIPO COLABORATIVO CONJUNTO SOBRE CODIFICACIÓN DE VÍDEO DE ISO/IEC JTC1/SC29/WG11 e ITU-T SG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE divulga unos resultados de prueba de una partición de movimiento asimétrica (AMP: Asymmetric Motion Partition). Con aceleración de codificación, la ganancia promedio es del 0,6% con una disminución de tiempo de codificación del 12% y de decodificación del 1%.
El objeto de la invención reivindicada es, por lo tanto, proporcionar un procedimiento mejorado de construir una lista de candidatos de fusión para codificación de video.
La materia de las reivindicaciones independientes resuelve este objeto.
Las reivindicaciones dependientes definen formas de realización preferidas.
Un aspecto de la presente invención proporciona un procedimiento de construir una lista de candidatos de fusión, que comprende: verificar una disponibilidad de candidatos de fusión espacial, verificar una disponibilidad de un candidato de fusión temporal, construir la lista de candidatos de fusión utilizando candidatos de fusión espacial y temporal disponibles, y añadir uno o más más candidatos si el número de candidatos de fusión espacial y temporal disponibles es menor que un número predeterminado. El candidato de fusión espacial es información de movimiento de un bloque candidato de fusión espacial, el bloque candidato de fusión espacial es un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque inferior izquierdo o un bloque superior izquierdo del bloque actual, y si el bloque actual es una segunda unidad de predicción dividida por partición asimétrica, el candidato de fusión espacial que corresponde a una primera unidad de predicción dividida por partición asimétrica se establece como no disponible.
[Efectos ventajosos]
Un procedimiento según la presente invención comprueba una disponibilidad de candidatos de fusión espacial y temporal y construye la lista de candidatos de fusión utilizando candidatos de fusión espacial y temporal disponibles, y agrega uno o más candidatos si el número de candidatos de fusión espacial y temporal disponibles es menor que un número predeterminado. El candidato de fusión espacial es información de movimiento de un bloque candidato de fusión espacial, el bloque candidato de fusión espacial es un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque inferior izquierdo o un bloque superior izquierdo del bloque actual, y si el bloque actual es una segunda unidad de predicción particionada por medio de un particionado asimétrico, el candidato de fusión espacial que corresponde a una primera unidad de predicción particionada por medio del particionado asimétrico se establece como no disponible. Además, se mejora la eficiencia de codificación de un bloque residual ajustando de forma adaptativa un parámetro de cuantificación por cada unidad de cuantificación y generando un predictor de parámetro de cuantificación utilizando múltiples parámetros de cuantificación vecinos.
[Descripción de los dibujos]
La Figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según la presente invención.
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de codificación de datos de vídeo según la presente invención.
La Figura 3 es un diagrama de flujo que ilustra un procedimiento de codificación de información de movimiento en el modo de fusión según la presente invención.
La Figura 4 es un diagrama conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
La Figura 5 es un diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
La Figura 6 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
La Figura 7 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
La Figura 8 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
La Figura 9 es un diagrama conceptual que ilustra una posición de bloque candidato de fusión temporal según la presente invención.
La Figura 10 es un diagrama de bloques de un aparato de decodificación de imágenes según la presente invención.
La Figura 11 es un diagrama de flujo que ilustra un procedimiento de decodificación de una imagen en un modo de inter predicción según la presente invención.
La Figura 12 es un diagrama de flujo que ilustra un procedimiento de derivación de información de movimiento en un modo de fusión.
La Figura 13 es un diagrama de flujo que ilustra un procedimiento de generación de un bloque residual en un modo de inter predicción según la presente invención.
La Figura 14 es un diagrama de flujo que ilustra un procedimiento de derivación de un parámetro de cuantificación según la presente invención.
De aquí en adelante, se describirán en detalle diversas formas de realización de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las formas de realización de ejemplo que se divulgan más adelante, sino que se puede implementar de diversas formas. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y se entenderá que dentro del alcance del concepto que se divulga, se puede poner en práctica la presente invención de otro modo al que se ha descrito específicamente.
Un aparato de codificación de imágenes y un aparato de decodificación de imágenes según la presente invención puede ser un terminal de usuario tal como un dispositivo informático personal, un terminal móvil personal, un reproductor móvil multimedia, un teléfono inteligente o un terminal de comunicación inalámbrica. El aparato de codificación de imágenes y el aparato de decodificación de imágenes pueden incluir una unidad de comunicación para comunicarse con diversos dispositivos, una memoria para almacenar diversos programas y datos utilizados para codificar o decodificar imágenes.
La Figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según la presente invención.
Con respecto a la Figura 1, el aparato de codificación de imágenes 100 según la presente invención incluye una unidad de división de imagen 110, una unidad de intra predicción 120, una unidad de inter predicción 130, una unidad de transformación 140, una unidad de cuantificación 150, una unidad de exploración 160, una unidad de codificación de entropía 170, una unidad de cuantificación/transformación inversa 180, una unidad de post procesamiento 190 y una unidad de almacenamiento de imágenes 195.
La unidad de división de imagen 110 divide una imagen o un corte (slice) en una pluralidad de unidades de codificación más grandes (LCU: largest coding units), y divide cada unidad LCU en una o más unidades de codificación. El tamaño de la unidad LCU puede ser de 32x32, 64x64 o 128x128. La unidad de división de imagen 110 determina un modo de predicción y un modo de particionado de cada unidad de codificación.
Una unidad LCU incluye una o más unidades de codificación. La unidad LCU tiene una estructura de árbol cuádruple recursivo (recursive quad tree structure) para especificar una estructura de división de la unidad LCU. Se incluyen en un conjunto de parámetros de secuencia unos parámetros para especificar el tamaño máximo y el tamaño mínimo de la unidad de codificación. La estructura de división se especifica por medio de uno o más indicadores de unidad de codificación de división (split_cu_flags). El tamaño de una unidad de codificación es de 2Nx2N. Si el tamaño de la unidad LCU es de 64x64 y el tamaño de una unidad de codificación más pequeña (SCU: smallest coding unit) es de 8x8, el tamaño de la unidad de codificación puede ser de 64x64, 32x32, 16x16 u 8x8.
Una unidad de codificación incluye una o más unidades de predicción. En intra predicción, el tamaño de la unidad de predicción es de 2Nx2N o NxN. En inter predicción, el tamaño de la unidad de predicción es especificado por el modo de particionado. El modo de particionado es uno de entre 2Nx2N, 2NxN, Nx2N y NxN si la unidad de codificación es particionada simétricamente. El modo de particionado es uno de entre 2NxnU, 2NxnD, nLx2N y nRx2N si la unidad de codificación es particionada asimétricamente. Los modos de particionado son permitidos en base al tamaño de la unidad de codificación para reducir la complejidad del hardware. Si la unidad de codificación tiene un tamaño mínimo, puede que no se permita el particionado asimétrico. Además, si la unidad de codificación tiene el tamaño mínimo, puede que no se permita el modo de particionado NxN.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura de árbol cuádruple recursivo para especificar una estructura de división de la unidad de codificación. La estructura de división es especificada por medio de uno o más indicadores de unidad de transformación de división (split_tu_flags). Se incluyen en un conjunto de parámetros de secuencia unos parámetros para especificar el tamaño máximo y el tamaño mínimo de la unidad de transformación de luma.
La unidad de intra predicción 120 determina un modo de intra predicción de una unidad de predicción actual y genera un bloque de predicción utilizando el modo de intra predicción.
La unidad de inter predicción 130 determina información de movimiento de una unidad de predicción actual utilizando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 195, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de imagen de referencia y uno o más vectores de movimiento.
La unidad de transformación 140 transforma un bloque residual para generar un bloque transformado. El bloque residual tiene el mismo tamaño que la unidad de transformación. Si la unidad de predicción es más grande que la unidad de transformación, las señales residuales entre el bloque actual y el bloque de predicción son particionadas en múltiples bloques residuales.
La unidad de cuantificación 150 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación se determina por cada unidad de cuantificación. El tamaño de la unidad de cuantificación puede variar y ser uno de entre unos tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual a o mayor que el tamaño mínimo de la unidad de cuantificación, la unidad de codificación pasa a ser la unidad de cuantificación. Una pluralidad de
unidades de codificación puede ser incluida en una unidad de cuantificación de tamaño mínimo. El tamaño mínimo de la unidad de cuantificación se determina porcada imagen y se incluye en un conjunto de parámetros de imagen un parámetro para especificar el tamaño mínimo de la unidad de cuantificación.
La unidad de cuantificación 150 genera un predictor de parámetro de cuantificación y genera un parámetro de cuantificación diferencial sustrayendo el predictor de parámetro de cuantificación al parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía.
El predictor de parámetro de cuantificación se genera utilizando unos parámetros de cuantificación de unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior según se indica a continuación.
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Cuando dos o más parámetros de cuantificación se encuentran disponibles, se establece como el predictor de parámetro de cuantificación un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en este orden, y cuando sólo un parámetro de cuantificación se encuentra disponible, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. Es decir, si los parámetros de cuantificación izquierdo y superior se encuentran disponibles, se establece un promedio de los parámetros de cuantificación izquierdo y superior como el predictor de parámetro de cuantificación. Si sólo uno de los parámetros de cuantificación izquierdo y superior se encuentra disponible, se establece un promedio del parámetro de cuantificación disponible y de los parámetros de cuantificación anteriores como el predictor de parámetro de cuantificación. Si ninguno de los parámetros de cuantificación izquierdo y superior se encuentran disponibles, se establece el parámetro de cuantificación anterior como el predictor de parámetro de cuantificación. El promedio es redondeado.
El parámetro de cuantificación diferencial es convertido a binarios (bins) para el valor absoluto del parámetro de cuantificación diferencial y a un binario (bin) para indicar el signo del parámetro de cuantificación diferencial a través de un proceso de binarización, y los binarios son codificados aritméticamente. Si el valor absoluto del parámetro de cuantificación diferencial es igual a 0, se puede omitir el binario (bin) para indicar el signo. Se utiliza unario truncado para la binarización del absoluto.
La unidad de cuantificación 150 cuantifica el bloque transformado utilizando una matriz de cuantificación y el parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado es proporcionado a la unidad de cuantificación/transformación inversa 180 y a la unidad de exploración 160.
La unidad de exploración 160 determina que aplica un patrón de exploración al bloque cuantificado.
En inter predicción, se utiliza una exploración en diagonal como patrón de exploración si se utiliza una codificación CABAC para codificación de entropía. Los coeficientes cuantificados del bloque cuantificado son divididos en componentes de coeficiente. Los componentes de coeficiente son indicadores significativos, signos de coeficiente y niveles de coeficiente. La exploración en diagonal se aplica a cada uno de los componentes de coeficiente. El coeficiente significativo indica si el correspondiente coeficiente cuantificado es o no es igual a cero. El signo de coeficiente indica un signo de coeficiente cuantificado distinto de cero, y el nivel de coeficiente indica un valor absoluto de coeficiente cuantificado distinto de cero.
Cuando el tamaño de la unidad de transformación es mayor que un tamaño predeterminado, el bloque cuantificado se divide en múltiples subconjuntos y se aplica la exploración en diagonal a cada subconjunto. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados respectivamente según la exploración en diagonal. El tamaño predeterminado es de 4x4. El subconjunto es un bloque de 4x4 que contiene 16 coeficientes de transformación.
El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los componentes de coeficiente. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
Un parámetro que indica una posición de último coeficiente distinto de cero es codificado y transmitido a una parte de decodificación. El parámetro que indica una posición de último coeficiente distinto de cero especifica una posición de último coeficiente cuantificado distinto de cero dentro del bloque cuantificado. Se define un indicador de subconjunto distinto de cero para cada subconjunto distinto del primer subconjunto y del último subconjunto y es transmitido a la parte de decodificación. El primer subconjunto cubre un coeficiente DC. El último subconjunto cubre el último coeficiente distinto de cero. El indicador de subconjunto distinto de cero indica si el subconjunto contiene o no contiene coeficientes distintos de cero.
La unidad de codificación de entropía 170 codifica por entropía el componente explorado por la unidad de exploración 160, la información de intra predicción recibida procedente de la unidad de intra predicción 120, la información de movimiento recibida procedente de la unidad de inter predicción 130, y así sucesivamente.
La unidad de cuantificación/transformación inversa 180 cuantifica inversamente los coeficientes cuantificados del bloque cuantificado y transforma inversamente el bloque cuantificado inversamente para generar el bloque residual.
La unidad de post procesamiento 190 realiza un proceso de filtrado de desbloqueo para eliminar un artefacto de bloqueo generado en una imagen reconstruida.
La unidad de almacenamiento de imágenes 195 recibe la imagen post procesada procedente de la unidad de post procesamiento 190, y almacena la imagen en unidades de imagen. Una imagen puede ser un fotograma (frame) o un campo.
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de codificación de datos de vídeo en un modo de inter predicción según la presente invención.
Se determina información de movimiento de un bloque actual (S110). El bloque actual es una unidad de predicción. El tamaño del bloque actual es determinado por un tamaño y un modo de particionado de la unidad de codificación.
La información de movimiento varía según un tipo de predicción. Si el tipo de predicción es una predicción unidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista de referencia 0, y un vector de movimiento. Si el tipo de predicción es una predicción bidireccional, la información de movimiento incluye dos índices de referencia que especifican una imagen de una lista de referencia 0 y una imagen de una lista de referencia 1, y un vector de movimiento de la lista 0 y un vector de movimiento de la lista 1.
Se genera un bloque de predicción del bloque actual utilizando la información de movimiento (S120). Si el vector de movimiento indica una posición de píxel, el bloque de predicción se genera copiando un bloque de la imagen de referencia especificado por el vector de movimiento. Si el vector de movimiento indica una posición de subpíxel, el bloque de predicción se genera interpolando los píxeles de la imagen de referencia.
Se genera un bloque residual utilizando el bloque actual y el bloque de predicción (S130). El bloque residual tiene el mismo tamaño de la unidad de transformación. Si la unidad de predicción es más grande que la unidad de transformación, se convierten las señales residuales entre el bloque actual y el bloque de predicción en múltiples bloques residuales.
Se codifica el bloque residual (S140). El bloque residual es codificado por la unidad de transformación 140, la unidad de cuantificación 150, la unidad de exploración 160 y la unidad de codificación de entropía 170 de la Figura 1.
Se codifica la información de movimiento (S150). La información de movimiento se puede codificar de forma predictiva utilizando candidatos espaciales y un candidato temporal del bloque actual. La información de movimiento es codificada en un modo de salto, un modo de fusión o un modo de predicción avanzada de vector de movimiento (AMVP: advanced motion vector prediction). En el modo de salto, la unidad de predicción tiene el tamaño de la unidad de codificación y la información de movimiento se codifica utilizando el mismo procedimiento que el del modo de fusión. En el modo de fusión, la información de movimiento de la unidad de predicción actual es igual a la información de movimiento de un candidato. En el modo de predicción avanzada de vector de movimiento (AMVP), el vector de movimiento de la información de movimiento es codificado de forma predictiva utilizando uno o más candidatos de vector de movimiento.
La Figura 3 es un diagrama de flujo que ilustra un procedimiento de codificación de información de movimiento en el modo de fusión según la presente invención.
Se derivan candidatos de fusión espacial (S210). La Figura 4 es un diagrama conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
Según se muestra en la Figura 4, el bloque candidato de fusión es un bloque izquierdo (bloque A), un bloque superior (bloque B), un bloque superior derecho (bloque C), un bloque inferior izquierdo (bloque D) o un bloque superior izquierdo (bloque E) del bloque actual. Los bloques son bloques de predicción. El bloque superior izquierdo (bloque E) se establece como bloque candidato de fusión cuando uno o más de los bloques A, B, C y D no se encuentran disponibles. La información de movimiento de un bloque candidato de fusión disponible N se establece como un candidato de fusión espacial N. N es A, B, C, D o E.
El candidato de fusión espacial se puede establecer como no disponible según la forma del bloque actual y la posición del bloque actual. Por ejemplo, si la unidad de codificación se divide en dos unidades de predicción (bloque P0 y bloque P1) utilizando un particionado asimétrico, es probable que la información de movimiento del bloque P0 no sea igual a la información de movimiento del bloque P1. Por lo tanto, si el bloque actual es el bloque asimétrico P1, se establece el bloque P0 como bloque candidato no disponible según se muestra en las Figuras 5 - 8.
La Figura 5 es un diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
Según se muestra en la Figura 5, una unidad de codificación es particionada en dos bloques de predicción asimétricos P0 y P1 y el modo de particionado es un modo nLx2N. El tamaño del bloque P0 es de hNx2N y el tamaño del bloque P1
es de (2-h)Nx2N. El valor de h es igual a 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial A.
En la presente invención, se establece el candidato de fusión espacial A como no disponible para que no se encuentre en la lista de candidatos de fusión. Además, se establece como no disponible el bloque candidato de fusión espacial B, C, D o E que tiene la misma información de movimiento del bloque candidato de fusión espacial A.
La Figura 6 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
Según se muestra en la Figura 6, una unidad de codificación es particionada en dos bloques de predicción asimétricos P0 y P1 y el modo de particionado es un modo nRx2N. El tamaño del bloque P0 es de (2-h)Nx2N y el tamaño del bloque P1 es de hNx2N. El valor de h es igual a 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial A.
En la presente invención, se establece como no disponible el candidato de fusión espacial A para que no se encuentre en la lista de candidatos de fusión. Además, se establece como no disponible el bloque candidato de fusión espacial B, C, D o E que tiene la misma información de movimiento del bloque candidato de fusión espacial A.
La Figura 7 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
Según se muestra en la Figura 7, una unidad de codificación es particionada en dos bloques de predicción asimétricos P0 y P1 y el modo de particionado es un modo 2NxnU. El tamaño del bloque P0 es de 2NxhN y el tamaño del bloque P1 es de 2Nx(2-h)N. El valor de h es igual a 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial B.
En la presente invención, se establece como no disponible el candidato de fusión espacial B para que no se encuentre en la lista de candidatos de fusión. Además, se establece como no disponible el bloque candidato de fusión espacial C, D o E que tiene la misma información de movimiento del bloque candidato de fusión espacial B.
La Figura 8 es otro diagrama de bloques conceptual que ilustra unas posiciones de bloques candidatos de fusión espacial según la presente invención.
Según se muestra en la Figura 8, una unidad de codificación es particionada en dos bloques de predicción asimétricos P0 y P1 y el modo de particionado es un modo 2NxnD. El tamaño del bloque P0 es de 2Nx(2-h)N y el tamaño del bloque P1 es de 2NxhN. El valor de h es igual a 1/2. El bloque actual es el bloque P1. Los bloques A, B, C, D y E son bloques candidatos de fusión espacial. El bloque P0 es el bloque candidato de fusión espacial B.
En la presente invención, se establece como no disponible el candidato de fusión espacial B para que no se encuentre en la lista de candidatos de fusión. Además, se establece como no disponible el bloque candidato de fusión espacial C, D o E que tiene la misma información de movimiento del bloque candidato de fusión espacial B.
El candidato de fusión espacial también se puede establecer como no disponible en función del área de fusión. Si el bloque actual y el bloque candidato de fusión espacial pertenecen a la misma área de fusión, se establece como no disponible el bloque candidato de fusión espacial. El área de fusión es un área unitaria en la que se realiza una estimación de movimiento y se incluye información que especifica el área de fusión en un flujo de bits (bit stream).
Se deriva un candidato de fusión temporal (S220). El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento del candidato de fusión temporal.
El índice de imagen de referencia del candidato de fusión temporal se puede derivar utilizando uno o más índices de imagen de referencia de un bloque vecino. Por ejemplo, uno de los índices de imagen de referencia de un bloque vecino izquierdo, un bloque vecino superior y un bloque vecino de esquina se establece como el índice de imagen de referencia del candidato de fusión temporal. El bloque vecino de esquina es uno de entre un bloque vecino superior derecho, un bloque inferior izquierdo y un bloque superior izquierdo. Alternativamente, el índice de imagen de referencia del candidato de fusión temporal se puede establecer igual a cero para reducir la complejidad.
El vector de movimiento del candidato de fusión temporal se puede derivar de la siguiente manera.
Primero, se determina una imagen candidata de fusión temporal. La imagen candidata de fusión temporal incluye un bloque candidato de fusión temporal. Se utiliza una imagen candidata de fusión temporal dentro de un corte (slice). Un índice de imagen de referencia de la imagen candidata de fusión temporal se puede establecer igual a cero.
Si el corte actual es un corte de tipo P, se establece una de las imágenes de referencia de la lista 0 de imágenes de referencia como la imagen candidata de fusión temporal. Si el corte actual es un corte de tipo B, se establece una de las
imágenes de referencia de las listas 0 y 1 de imágenes de referencia como la imagen candidata de fusión temporal. Se incluye un indicador de lista que especifica si la imagen candidata de fusión temporal pertenece a las listas 0 o 1 de imágenes de referencia en un encabezado de corte si el corte actual es un corte de tipo B. Se puede incluir el índice de imagen de referencia que especifica la imagen candidata de fusión temporal en el encabezado de corte.
A continuación, se determina el bloque candidato de fusión temporal. El bloque candidato de fusión temporal puede ser un primer bloque candidato o un segundo bloque candidato. Si el primer bloque candidato se encuentra disponible, se establece el primer bloque candidato como el bloque candidato de fusión temporal. Si el primer bloque candidato no se encuentra disponible, se establece el segundo bloque candidato como el bloque candidato de fusión temporal. Si el segundo bloque candidato no se encuentra disponible, se establece el bloque candidato de fusión temporal como no disponible.
La Figura 9 es un diagrama conceptual que ilustra una posición de bloque candidato de fusión temporal según la presente invención. Según se muestra en la Figura 9, el primer bloque candidato de fusión puede ser un bloque de esquina inferior derecho (bloque H) del bloque C. El bloque C tiene el mismo tamaño y la misma ubicación del bloque actual y se encuentra ubicado dentro de la imagen candidata de fusión temporal. El segundo bloque candidato de fusión es un bloque que cubre un píxel superior izquierdo del centro del bloque C.
Si se determina el bloque candidato de fusión temporal, el vector de movimiento del bloque candidato de fusión temporal se establece como el vector de movimiento del candidato de fusión temporal.
Se construye una lista de candidatos de fusión (S230). Los candidatos espaciales disponibles y el candidato temporal disponible son incluidos en la lista en un orden predeterminado. Los candidatos de fusión espacial son incluidos en la lista hasta cuatro en el orden de A, B, C, D y E. El candidato de fusión temporal puede ser incluido en la lista entre B y C o después de los candidatos espaciales.
Se determina si se genera o no se genera uno o más candidatos de fusión (S240). La determinación se realiza comparando el número de candidatos de fusión que se encuentran en la lista de candidatos de fusión con un número predeterminado de los candidatos de fusión. El número predeterminado puede ser determinado por cada imagen o corte.
Si el número de candidatos de fusión que se encuentran en la lista de candidatos de fusión es menor que un número predeterminado de los candidatos de fusión, se genera uno o más candidatos de fusión (S250). El candidato de fusión generado es incluido en la lista después del último candidato de fusión disponible.
Si el número de candidatos de fusión disponibles es igual a o mayor que 2, uno de los dos candidatos de fusión disponibles tiene información de movimiento de la lista 0 y el otro tiene información de movimiento de la lista 1, el candidato de fusión se puede generar combinando la información de movimiento de la lista 0 y la información de movimiento de la lista 1. Se pueden generar múltiples candidatos de fusión si hay múltiples combinaciones.
Se puede agregar a la lista uno o más candidatos de fusión cero. Si el tipo de corte es P, el candidato de fusión cero sólo tiene información de movimiento de la lista 0. Si el tipo de corte es B, el candidato de fusión cero tiene información de movimiento de la lista 0 e información de movimiento de la lista 1.
Se selecciona un predictor de fusión de entre los candidatos de fusión de la lista de fusión, se codifica un índice de fusión que especifica el predictor de fusión (S260).
La Figura 10 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según la presente invención.
El aparato de decodificación de imágenes 200 según la presente invención incluye una unidad de decodificación de entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformación inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280 y un agregador 290.
La unidad de decodificación de entropía 210 extrae la información de intra predicción, la información de inter predicción y los componentes de coeficiente cuantificado de un flujo de bits recibido utilizando un procedimiento de decodificación aritmética binaria adaptativa al contexto.
La unidad de exploración inversa 220 aplica un patrón de exploración inversa a los componentes de coeficiente cuantificado para generar un bloque cuantificado. En inter predicción, el patrón de exploración inversa es una exploración en diagonal. Los componentes de coeficiente cuantificado incluyen los indicadores significativos, los signos de coeficiente y los niveles de coeficiente.
Cuando el tamaño de la unidad de transformación es mayor que un tamaño predeterminado, los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos utilizando la exploración en diagonal para generar subconjuntos, y los subconjuntos son explorados inversamente utilizando la exploración en diagonal para generar el bloque cuantificado. El subconjunto es un bloque de 4 x 4 que incluye 16
coeficientes de transformación. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
Se extrae del flujo de bits un parámetro que indica una posición de último coeficiente distinto de cero y los indicadores de subconjunto distinto de cero. El número de subconjuntos codificados se determina en base a la posición de último coeficiente distinto de cero. El indicador de subconjunto distinto de cero se utiliza para determinar si el correspondiente subconjunto tiene al menos un coeficiente distinto de cero. Si el indicador de subconjunto distinto de cero es igual a 1, se genera el subconjunto utilizando la exploración en diagonal. El primer subconjunto y el último subconjunto se generan utilizando el patrón de exploración inversa.
La unidad de cuantificación inversa 230 recibe el parámetro de cuantificación diferencial procedente de la unidad de decodificación de entropía 210 y genera el predictor de parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación. El funcionamiento de la generación del predictor de parámetro de cuantificación es el mismo que el funcionamiento de la unidad de cuantificación 150 de la Figura 1. A continuación, se genera el parámetro de cuantificación de la unidad de codificación actual agregando el parámetro de cuantificación diferencial y el predictor de parámetro de cuantificación. Si el parámetro de cuantificación diferencial no es transmitido desde una parte de codificación, se establece el parámetro de cuantificación diferencial igual a cero.
La unidad de cuantificación inversa 230 cuantifica inversamente el bloque cuantificado.
La unidad de transformación inversa 240 transforma inversamente el bloque cuantificado inversamente para generar un bloque residual. Se determina de forma adaptativa una matriz de transformación inversa según el modo de predicción y el tamaño de la unidad de transformación. La matriz de transformación inversa es una matriz de transformación entera basada en DCT o una matriz de transformación entera basada en DST. En inter predicción, se utilizan las transformaciones enteras basadas en DCT.
La unidad de intra predicción 250 deriva un modo de intra predicción de una unidad de predicción actual utilizando la información de intra predicción recibida, y genera un bloque de predicción según el modo de intra predicción derivado.
La unidad de inter predicción 260 deriva la información de movimiento de la unidad de predicción actual utilizando la información de inter predicción recibida, y genera un bloque de predicción utilizando la información de movimiento.
La unidad de post procesamiento 270 funciona igual que la unidad de post procesamiento 180 de la Figura 1.
La unidad de almacenamiento de imágenes 280 recibe la imagen post procesada procedente de la unidad de post procesamiento 270 y almacena la imagen en unidades de imagen. Una imagen puede ser un fotograma (frame) o un campo.
El agregador290 agrega el bloque residual restaurado y un bloque de predicción para generar un bloque reconstruido.
La Figura 11 es un diagrama de flujo que ilustra un procedimiento de decodificación de una imagen en un modo de inter predicción según la presente invención.
Se deriva información de movimiento de un bloque actual (S310). El bloque actual es una unidad de predicción. Un tamaño del bloque actual es determinado por el tamaño de la unidad de codificación y el modo de particionado.
La información de movimiento varía según el tipo de predicción. Si el tipo de predicción es una predicción unidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista de referencia 0, y un vector de movimiento. Si el tipo de predicción es una predicción bidireccional, la información de movimiento incluye un índice de referencia que especifica una imagen de una lista de referencia 0, un índice de referencia que especifica una imagen de una lista de referencia 1, y un vector de movimiento de la lista 0 y un vector de movimiento de la lista 1.
La información de movimiento es decodificada de forma adaptativa según el modo de codificación de la información de movimiento. El modo de codificación de la información de movimiento es determinado por un indicador de salto y un indicador de fusión. Si el indicador de salto es igual a 1, el indicador de fusión no existe y el modo de codificación es un modo de salto. Si el indicador de salto es igual a 0 y el indicador de fusión es igual a 1, el modo de codificación es un modo de fusión. Si el indicador de salto y el indicador de fusión son iguales a 0, el modo de codificación es un modo de predicción avanzada de vector de movimiento (AMVP).
Se genera un bloque de predicción del bloque actual utilizando la información de movimiento (S320).
Si el vector de movimiento indica una posición de píxel, el bloque de predicción se genera copiando un bloque de la imagen de referencia especificada por el vector de movimiento. Si el vector de movimiento indica una posición de subpíxel, el bloque de predicción se genera interpolando los píxeles de la imagen de referencia.
Se genera un bloque residual (S330). El bloque residual es generado por la unidad de decodificación de entropía 210, la unidad de exploración inversa 220, la unidad de cuantificación inversa 230 y la unidad de transformación inversa 240 de la Figura 10.
Se genera un bloque reconstruido utilizando el bloque de predicción y el bloque residual (S340).
El bloque de predicción tiene el mismo tamaño de la unidad de predicción, y el bloque residual tiene el mismo tamaño de la unidad de transformación. Por lo tanto, se agregan las señales residuales y las señales de predicción del mismo tamaño para generar señales reconstruidas.
La Figura 12 es un diagrama de flujo que ilustra un procedimiento de derivación de información de movimiento en un modo de fusión.
Se extrae un índice de fusión de un flujo de bits (S410). Si el índice de fusión no existe, el número de candidatos de fusión se establece igual a uno.
Se derivan candidatos de fusión espacial (S420). Los candidatos de fusión espacial disponibles son los mismos que se describen en la etapa S210 de la Figura 3.
Se deriva un candidato de fusión temporal (S430). El candidato de fusión temporal incluye un índice de imagen de referencia y un vector de movimiento del candidato de fusión temporal. El índice de referencia y el vector de movimiento del candidato de fusión temporal son los mismos que se describen en la etapa S220 de la Figura 3.
Se construye una lista de candidatos de fusión (S440). La lista de fusión es la misma que se describe en la etapa S230 de la Figura 3.
Se determina si se genera o no se genera uno o más candidatos de fusión (S450). La determinación se realiza comparando el número de candidatos de fusión que se encuentran en la lista de candidatos de fusión con un número predeterminado de los candidatos de fusión. El número predeterminado es determinado por cada imagen o corte.
Si el número de candidatos de fusión que se encuentran en la lista de candidatos de fusión es menor que un número predeterminado de los candidatos de fusión, se genera uno o más candidatos de fusión (S460). El candidato de fusión generado se incluye en la lista después del último candidato de fusión disponible. El candidato de fusión se genera con el mismo procedimiento que se describe en la etapa S250 de la Figura 3.
El candidato de fusión especificado por el índice de fusión se establece como la información de movimiento del bloque actual (S470).
La Figura 13 es un diagrama de flujo que ilustra un procedimiento de generación de un bloque residual en un modo de inter predicción según la presente invención.
Los componentes de coeficiente cuantificado son generados por la unidad de decodificación de entropía (S510).
Se genera un bloque cuantificado explorando inversamente los componentes de coeficiente cuantificado según la exploración en diagonal (S520). Los componentes de coeficiente cuantificado incluyen los indicadores significativos, los signos de coeficiente y los niveles de coeficiente.
Cuando el tamaño de la unidad de transformación es mayor que un tamaño predeterminado, los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos utilizando la exploración en diagonal para generar subconjuntos, y los subconjuntos son explorados inversamente utilizando la exploración en diagonal para generar el bloque cuantificado. El tamaño predeterminado es igual al tamaño del subconjunto. El subconjunto es un bloque de 4 x 4 que incluye 16 coeficientes de transformación. Los indicadores significativos, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
El parámetro que indica una posición de último coeficiente distinto de cero y los indicadores de subconjunto distinto de cero son extraídos del flujo de bits. El número de subconjuntos codificados se determina en base a la posición de último coeficiente distinto de cero. El indicador de subconjunto distinto de cero se utiliza para determinar si el correspondiente subconjunto tiene al menos un coeficiente distinto de cero. Si el indicador de subconjunto distinto de cero es igual a 1, el subconjunto se genera utilizando la exploración en diagonal. El primer subconjunto y el último subconjunto se generan utilizando el patrón de exploración inversa.
El bloque cuantificado es cuantificado inversamente utilizando una matriz de cuantificación inversa y un parámetro de cuantificación (S530).
La Figura 14 es un diagrama de flujo que ilustra un procedimiento de derivación de un parámetro de cuantificación según la presente invención.
Se determina un tamaño mínimo de unidad de cuantificación (S531). Se extrae de un flujo de bits un parámetro cu_qp_delta_enabled_info que especifica el tamaño mínimo, y se determina el tamaño mínimo de la unidad de cuantificación mediante la siguiente ecuación.
Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
El MinQUSize indica el tamaño mínimo de la unidad de cuantificación, el MaxCUSize indica el tamaño de la unidad LCU. El parámetro cu_qp_delta_enabled_info es extraído de un conjunto de parámetros de imagen.
Se deriva un parámetro de cuantificación diferencial de la unidad de codificación actual (5532) . El parámetro de cuantificación diferencial es incluido por cada unidad de cuantificación. Por lo tanto, si el tamaño de la unidad de codificación actual es igual a o mayor que el tamaño mínimo, se recupera el parámetro de cuantificación diferencial para la unidad de codificación actual. Si el parámetro de cuantificación diferencial no existe, el parámetro de cuantificación diferencial se establece igual a cero. Si múltiples unidades de codificación pertenecen a una unidad de cuantificación, la primera unidad de codificación que contiene al menos un coeficiente distinto de cero en el orden de decodificación contiene la unidad de cuantificación diferencial.
Un parámetro de cuantificación diferencial codificado es decodificado aritméticamente para generar una secuencia binaria (bin string) que indica el valor absoluto del parámetro de cuantificación diferencial y un binario (bin) que indica el signo del parámetro de cuantificación diferencial. La secuencia binaria (bin string) puede ser un código unario truncado. Si el valor absoluto del parámetro de cuantificación diferencial es igual a cero, el binario que indica el signo no existe. El parámetro de cuantificación diferencial se deriva utilizando la secuencia binaria (bin string) que indica el valor absoluto y el binario (bin) que indica el signo.
Se deriva un predictor de parámetro de cuantificación de la unidad de codificación actual (S533) . El predictor de parámetro de cuantificación se genera utilizando parámetros de cuantificación de unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Cuando se encuentran disponibles dos o más parámetros de cuantificación, se establece como el predictor de parámetro de cuantificación un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden, y cuando sólo se encuentra disponible un parámetro de cuantificación, se establece el parámetro de cuantificación disponible como el predictor de parámetro de cuantificación. Es decir, si se encuentran disponibles los parámetros de cuantificación izquierdo y superior, se establece el promedio de los parámetros de cuantificación izquierdo y superior como el predictor de parámetro de cuantificación. Si sólo se encuentra disponible uno de los parámetros de cuantificación izquierdo y superior, se establece como el predictor de parámetro de cuantificación el promedio del parámetro de cuantificación disponible y del parámetro de cuantificación anterior. Si no se encuentra disponible ninguno de los parámetros de cuantificación izquierdo y superior, se establece el parámetro de cuantificación anterior como el predictor de parámetro de cuantificación.
Si múltiples unidades de codificación pertenecen a una unidad de cuantificación de tamaño mínimo, se deriva el predictor de parámetro de cuantificación para la primera unidad de codificación en orden de decodificación y se utiliza para las otras unidades de codificación.
El parámetro de cuantificación de la unidad de codificación actual se genera utilizando el parámetro de cuantificación diferencial y el predictor de parámetro de cuantificación (S534).
Se genera un bloque residual mediante una transformación inversa del bloque cuantificado inversamente (S540). Se utilizan transformaciones inversas unidimensionales horizontales y verticales basadas en DCT.
Si bien la invención ha sido mostrada y se ha descrito con referencia a ciertas formas de realización de ejemplo de la misma, los expertos en la técnica entenderán que se pueden realizar diversos cambios en la forma y en detalles sin apartarse del alcance de la invención según definen las siguientes reivindicaciones.
Claims (10)
1. Un procedimiento de construcción de una lista de candidatos de fusión para codificación de video, que comprende: construir una lista de candidatos de fusión utilizando candidatos de fusión espacial y temporal disponibles, y derivar información de movimiento utilizando un índice de fusión y la lista de candidatos de fusión;
generar un bloque de predicción utilizando la información de movimiento;
generar un bloque de cuantificación explorando inversamente componentes de coeficiente cuantificados según una exploración en diagonal, cuantificando inversamente el bloque de cuantificación utilizando un parámetro de cuantificación y una matriz de cuantificación, y transformando inversamente el bloque de cuantificación cuantificado inversamente para generar un bloque residual;
derivar un bloque reconstruido utilizando el bloque de predicción y el bloque residual,
en el que los candidatos de fusión espacial son información de movimiento de bloques candidatos de fusión espacial, y los bloques candidatos de fusión espacial son un bloque izquierdo, un bloque superior, un bloque superior derecho, un bloque inferior izquierdo o un bloque superior izquierdo del bloque actual,
en el que el candidato de fusión espacial correspondiente a una primera unidad de predicción dividida por partición asimétrica se establece como no disponible si una unidad de predicción actual es una segunda unidad de predicción dividida por la partición asimétrica,
en el que el parámetro de cuantificación se genera utilizando un parámetro de cuantificación diferencial y un predictor de parámetro de cuantificación,
en el que el predictor de parámetro de cuantificación se genera utilizando un promedio de un parámetro de cuantificación izquierdo y un parámetro de cuantificación superior cuando tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior están disponibles, y
en el que cuando solo uno de entre el parámetro de cuantificación izquierdo y el parámetro de cuantificación superior está disponible, el parámetro de cuantificación se genera utilizando un promedio del parámetro de cuantificación disponible y un parámetro de cuantificación anterior.
2. El procedimiento de la reivindicación 1, en el que si el tamaño de la unidad de predicción actual es (3/2)Nx2N, el candidato de fusión espacial izquierdo se establece como no disponible.
3. El procedimiento de la reivindicación 2, en el que el candidato de fusión espacial izquierdo es información de movimiento de la unidad de predicción izquierda de la unidad de predicción actual.
4. El procedimiento de la reivindicación 2, en el que si un candidato de fusión espacial superior tiene la misma información de movimiento que la del candidato de fusión espacial izquierdo, el candidato de fusión espacial superior se establece como no disponible.
5. El procedimiento de la reivindicación 1, en el que el tamaño de la unidad de predicción actual se determina en base a un modo de partición y un tamaño de la unidad de codificación.
6. El procedimiento de la reivindicación 1, en el que si una unidad de codificación actual tiene un tamaño mínimo permitido, no se permite la partición asimétrica.
7. El procedimiento de la reivindicación 1, en el que un bloque superior izquierdo disponible se establece como un bloque candidato de fusión cuando al menos uno de entre el bloque izquierdo, el bloque superior, el bloque superior derecho y el bloque inferior izquierdo no está disponible.
8. El procedimiento de la reivindicación 1, en el que un vector de movimiento del candidato de fusión temporal es un vector de movimiento de un bloque candidato de fusión temporal dentro de una imagen candidata de fusión temporal.
9. El procedimiento de la reivindicación 1, en el que un vector de movimiento del candidato de fusión temporal es un vector de movimiento de un bloque candidato de fusión temporal dentro de una imagen candidata de fusión temporal, y las imágenes candidatas de fusión temporal son las mismas en un corte.
10. El procedimiento de la reivindicación 1, en el que el parámetro de cuantificación anterior se establece como el predictor de parámetro de cuantificación cuando tanto el parámetro de cuantificación izquierdo como el parámetro de cuantificación superior no están disponibles.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110115219A KR20130050406A (ko) | 2011-11-07 | 2011-11-07 | 머지 모드에서의 움직임 정보 생성 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2951960T3 true ES2951960T3 (es) | 2023-10-26 |
Family
ID=48208141
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20216553T Active ES2951960T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES20216550T Active ES2951959T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES20216558T Active ES2951961T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES12848743T Active ES2859550T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES20216547T Active ES2951910T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20216550T Active ES2951959T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES20216558T Active ES2951961T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES12848743T Active ES2859550T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
ES20216547T Active ES2951910T3 (es) | 2011-11-07 | 2012-11-07 | Procedimiento de construcción de una lista de fusión |
Country Status (20)
Country | Link |
---|---|
US (7) | US8917772B2 (es) |
EP (6) | EP3829174B1 (es) |
JP (6) | JP5823628B2 (es) |
KR (5) | KR20130050406A (es) |
CN (7) | CN108347610B (es) |
BR (5) | BR122020013719B1 (es) |
CY (1) | CY1123872T1 (es) |
DK (5) | DK3829172T3 (es) |
ES (5) | ES2951960T3 (es) |
HR (1) | HRP20210659T1 (es) |
HU (5) | HUE062196T2 (es) |
IN (1) | IN2014CN03913A (es) |
LT (1) | LT2752006T (es) |
MX (6) | MX336816B (es) |
PL (5) | PL3829172T3 (es) |
PT (5) | PT2752006T (es) |
RS (1) | RS61740B1 (es) |
SI (1) | SI2752006T1 (es) |
TW (1) | TWI537881B (es) |
WO (1) | WO2013067938A1 (es) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2012270359B2 (en) * | 2011-06-14 | 2014-10-30 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
KR20130050406A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 머지 모드에서의 움직임 정보 생성 방법 |
KR101615662B1 (ko) * | 2011-11-08 | 2016-04-26 | 한국전자통신연구원 | 영상 복호화 방법 및 장치 |
EP2942961A1 (en) | 2011-11-23 | 2015-11-11 | HUMAX Holdings Co., Ltd. | Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions |
JP5561348B2 (ja) * | 2011-12-16 | 2014-07-30 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム |
PL3703371T3 (pl) | 2011-12-16 | 2021-12-06 | Jvckenwood Corporation | Urządzenie do dynamicznego kodowania obrazu, sposób dynamicznego kodowania obrazu, program do dynamicznego kodowania obrazu, urządzenie do dynamicznego dekodowania obrazu, sposób dynamicznego dekodowania obrazu i program do dynamicznego dekodowania obrazu |
JP5900308B2 (ja) * | 2011-12-16 | 2016-04-06 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
CN102883163B (zh) * | 2012-10-08 | 2014-05-28 | 华为技术有限公司 | 用于运动矢量预测的运动矢量列表建立的方法、装置 |
US9832478B2 (en) | 2013-05-14 | 2017-11-28 | Mediatek Inc. | Video encoding method and apparatus for determining size of parallel motion estimation region based on encoding related information and related video decoding method and apparatus |
CN104159106B (zh) * | 2013-05-14 | 2017-12-01 | 联发科技股份有限公司 | 视频编码方法和视频解码方法及其装置 |
EP3028466B1 (en) | 2013-07-24 | 2022-01-26 | Qualcomm Incorporated | Simplified advanced motion prediction for 3d-hevc |
US9948915B2 (en) | 2013-07-24 | 2018-04-17 | Qualcomm Incorporated | Sub-PU motion prediction for texture and depth coding |
US9554150B2 (en) * | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
JP6386466B2 (ja) * | 2013-10-17 | 2018-09-05 | 日本電信電話株式会社 | 映像符号化装置及び方法、及び、映像復号装置及び方法 |
CN104768012B (zh) * | 2014-01-03 | 2018-04-20 | 华为技术有限公司 | 非对称运动分割方式编码的方法和编码设备 |
WO2015131387A1 (en) * | 2014-03-07 | 2015-09-11 | Qualcomm Incorporated | Simplified sub-prediction unit (sub-pu) motion parameter inheritence (mpi) |
WO2015180014A1 (en) * | 2014-05-26 | 2015-12-03 | Mediatek Singapore Pte. Ltd. | An improved merge candidate list construction method for intra block copy |
WO2016003074A1 (ko) * | 2014-06-30 | 2016-01-07 | 한국전자통신연구원 | 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법 |
KR102378459B1 (ko) | 2014-06-30 | 2022-03-24 | 한국전자통신연구원 | 움직임 병합 모드에서 시점 합성 예측 후보의 중복성 제거 장치 및 방법 |
US10757437B2 (en) | 2014-07-17 | 2020-08-25 | Apple Inc. | Motion estimation in block processing pipelines |
US9762919B2 (en) | 2014-08-28 | 2017-09-12 | Apple Inc. | Chroma cache architecture in block processing pipelines |
US11477477B2 (en) | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
KR20180085714A (ko) | 2015-12-17 | 2018-07-27 | 삼성전자주식회사 | 머지 후보 리스트를 이용한 비디오 복호화 방법 및 비디오 복호화 장치 |
US11206401B2 (en) * | 2016-02-11 | 2021-12-21 | Samsung Electronics Co., Ltd. | Video encoding method and device and video decoding method and device |
KR20180021941A (ko) * | 2016-08-22 | 2018-03-06 | 광운대학교 산학협력단 | 부호화 유닛들의 병합을 사용하는 비디오 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치 |
WO2018066959A1 (ko) * | 2016-10-04 | 2018-04-12 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
EP3306927A1 (en) * | 2016-10-05 | 2018-04-11 | Thomson Licensing | Encoding and decoding methods and corresponding devices |
US11172203B2 (en) * | 2017-08-08 | 2021-11-09 | Mediatek Inc. | Intra merge prediction |
US11064217B2 (en) | 2017-09-18 | 2021-07-13 | Intellectual Discovery Co., Ltd. | Method and apparatus for coding video using merging candidate list according to block division |
US10694188B2 (en) * | 2017-12-18 | 2020-06-23 | Arris Enterprises Llc | System and method for constructing a plane for planar prediction |
CN118200549A (zh) | 2018-03-19 | 2024-06-14 | 株式会社Kt | 对图像进行解码或编码的方法以及非暂态计算机可读介质 |
WO2019194653A1 (ko) * | 2018-04-06 | 2019-10-10 | 가온미디어 주식회사 | 움직임 정보의 복합적 머지 모드 처리를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치 |
CN112166612A (zh) | 2018-05-23 | 2021-01-01 | 株式会社Kt | 用于处理视频信号的方法和设备 |
CA3100970A1 (en) | 2018-05-24 | 2019-11-28 | Kt Corporation | Method and apparatus for processing video signal |
WO2020004990A1 (ko) | 2018-06-27 | 2020-01-02 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
CN110662057B (zh) | 2018-06-29 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、设备以及存储比特流的方法 |
CN110662043B (zh) | 2018-06-29 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
WO2020003280A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Which lut to be updated or no updating |
EP4325860A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Update of look up table: fifo, constrained fifo |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
JP7100200B2 (ja) | 2018-06-29 | 2022-07-12 | 北京字節跳動網絡技術有限公司 | マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング |
KR20240005240A (ko) | 2018-06-29 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
CN110677661B (zh) * | 2018-07-02 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 用于视频处理的方法、装置和存储介质 |
CN112544077B (zh) * | 2018-07-16 | 2023-12-08 | Lg电子株式会社 | 用于子块单元中的时间运动信息预测的帧间预测方法及其装置 |
WO2020053798A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | Conditions for starting checking hmvp candidates depend on total number minus k |
WO2020056143A1 (en) * | 2018-09-12 | 2020-03-19 | Beijing Dajia Internet Information Technology Co., Ltd. | Modifications of the construction of the merge candidate list |
US20220038734A1 (en) * | 2018-09-20 | 2022-02-03 | Lg Electronics Inc. | Method and device for processing image signal |
DE102018217090A1 (de) * | 2018-10-05 | 2020-04-09 | Robert Bosch Gmbh | Verfahren, künstliches neuronales Netz, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur semantischen Segmentierung von Bilddaten |
EP3861737A4 (en) * | 2018-10-05 | 2022-07-13 | OP Solutions, LLC | Methods and systems for constructing merge candidate list including adding a non- adjacent diagonal spatial merge candidate |
CN116634170A (zh) * | 2018-10-10 | 2023-08-22 | 华为技术有限公司 | 帧间预测方法及装置 |
CN113273186B (zh) | 2019-01-10 | 2025-01-10 | 北京字节跳动网络技术有限公司 | Lut更新的调用 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
KR20200108799A (ko) | 2019-03-11 | 2020-09-21 | 주식회사 엑스리스 | 영상 신호 부호화/복호화 방법 및 이를 위한 장치 |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
WO2021055126A1 (en) * | 2019-09-19 | 2021-03-25 | Alibaba Group Holding Limited | Methods for constructing a merge candidate list |
US11145614B2 (en) | 2019-10-18 | 2021-10-12 | Taiwan Semiconductor Manufacturing Company, Ltd. | Semiconductor device and method of manufacture |
WO2024106750A1 (ko) * | 2022-11-18 | 2024-05-23 | 삼성전자 주식회사 | 비디오 코딩 방법 및 이를 위한 장치 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6232786A (ja) * | 1985-08-05 | 1987-02-12 | Fujitsu Ltd | 平均値予測形ベクトル量子化方式 |
ES2170745T3 (es) * | 1996-05-28 | 2002-08-16 | Matsushita Electric Ind Co Ltd | Dispositivo de prediccion y de decodificado de imagen. |
JP3662171B2 (ja) * | 2000-06-05 | 2005-06-22 | 三菱電機株式会社 | 符号化装置及び符号化方法 |
EP1453004A2 (en) * | 2003-02-28 | 2004-09-01 | NTT DoCoMo, Inc. | Image encoding apparatus and method |
US8625680B2 (en) * | 2003-09-07 | 2014-01-07 | Microsoft Corporation | Bitstream-controlled post-processing filtering |
KR100631768B1 (ko) * | 2004-04-14 | 2006-10-09 | 삼성전자주식회사 | 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더 |
EP1817914B1 (en) * | 2004-12-03 | 2018-02-07 | Thomson Licensing | Method for scalable video coding |
US20070025441A1 (en) * | 2005-07-28 | 2007-02-01 | Nokia Corporation | Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding |
US20070274385A1 (en) * | 2006-05-26 | 2007-11-29 | Zhongli He | Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame |
EP2106666B1 (en) | 2007-01-08 | 2019-06-12 | Nokia Technologies Oy | Improved inter-layer prediction for extended spatial scalability in video coding |
US8031267B2 (en) | 2007-02-12 | 2011-10-04 | Intel Corporation | Motion adaptive upsampling of chroma video signals |
US20080240242A1 (en) * | 2007-03-27 | 2008-10-02 | Nokia Corporation | Method and system for motion vector predictions |
JP4325708B2 (ja) * | 2007-07-05 | 2009-09-02 | ソニー株式会社 | データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム |
TWI392372B (zh) * | 2007-09-12 | 2013-04-01 | Sony Corp | Image processing apparatus and image processing method |
US8908765B2 (en) * | 2007-11-15 | 2014-12-09 | General Instrument Corporation | Method and apparatus for performing motion estimation |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
JPWO2009157581A1 (ja) * | 2008-06-27 | 2011-12-15 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
CN101617638B (zh) | 2008-07-04 | 2011-08-31 | 中国科学院海洋研究所 | 一种三疣梭子蟹抗病品系的构建方法 |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
US8514942B2 (en) * | 2008-12-31 | 2013-08-20 | Entropic Communications, Inc. | Low-resolution video coding content extraction |
KR20110106394A (ko) * | 2009-01-27 | 2011-09-28 | 톰슨 라이센싱 | 비디오 인코딩 및 디코딩에서 변환 선택을 위한 방법 및 장치 |
CN102577389A (zh) | 2009-10-16 | 2012-07-11 | 夏普株式会社 | 运动图像编码装置和运动图像解码装置 |
US8418387B2 (en) | 2009-11-13 | 2013-04-16 | Manufacturing Resources International, Inc. | Isolated access assembly for back-to-back electronic display and static display |
US20110274162A1 (en) * | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
US8588297B2 (en) * | 2009-12-23 | 2013-11-19 | Oracle America, Inc. | Quantization parameter prediction |
KR101768207B1 (ko) | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
CN101917615A (zh) * | 2010-06-03 | 2010-12-15 | 北京邮电大学 | 一种混合视频编码框架中的增强型双向运动矢量预测方法 |
MY162191A (en) * | 2010-06-10 | 2017-05-31 | Thomson Licensing | Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters |
CN101888550A (zh) * | 2010-06-28 | 2010-11-17 | 中兴通讯股份有限公司 | 一种slice头信息中量化参数编码方法和装置 |
PL2924995T3 (pl) * | 2010-07-09 | 2018-11-30 | Samsung Electronics Co., Ltd | Sposób dekodowania wideo wykorzystujący łączenie bloków |
US9137544B2 (en) * | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
US10992958B2 (en) * | 2010-12-29 | 2021-04-27 | Qualcomm Incorporated | Video coding using mapped transforms and scanning modes |
US20120170648A1 (en) * | 2011-01-05 | 2012-07-05 | Qualcomm Incorporated | Frame splitting in video coding |
US10171813B2 (en) * | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
EP2698999B1 (en) * | 2011-04-12 | 2017-01-04 | Sun Patent Trust | Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus |
AU2012270359B2 (en) * | 2011-06-14 | 2014-10-30 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
KR101590243B1 (ko) * | 2011-06-29 | 2016-01-29 | 모토로라 모빌리티 엘엘씨 | 인트라 코딩 동안에 스캔 코딩 패턴을 이용하기 위한 방법 및 시스템 |
KR20130050406A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 머지 모드에서의 움직임 정보 생성 방법 |
-
2011
- 2011-11-07 KR KR1020110115219A patent/KR20130050406A/ko not_active Application Discontinuation
-
2012
- 2012-11-07 CN CN201810045657.8A patent/CN108347610B/zh active Active
- 2012-11-07 RS RS20210490A patent/RS61740B1/sr unknown
- 2012-11-07 PT PT128487436T patent/PT2752006T/pt unknown
- 2012-11-07 EP EP20216550.2A patent/EP3829174B1/en active Active
- 2012-11-07 US US14/350,013 patent/US8917772B2/en active Active
- 2012-11-07 KR KR1020147009946A patent/KR20140074946A/ko not_active Ceased
- 2012-11-07 DK DK20216547.8T patent/DK3829172T3/da active
- 2012-11-07 JP JP2014539242A patent/JP5823628B2/ja active Active
- 2012-11-07 KR KR1020147009934A patent/KR101496961B1/ko not_active Ceased
- 2012-11-07 EP EP23176701.3A patent/EP4224855A1/en active Pending
- 2012-11-07 MX MX2015010509A patent/MX336816B/es unknown
- 2012-11-07 HU HUE20216550A patent/HUE062196T2/hu unknown
- 2012-11-07 CN CN201210442102.XA patent/CN103096073B/zh active Active
- 2012-11-07 EP EP20216558.5A patent/EP3829176B1/en active Active
- 2012-11-07 SI SI201231897T patent/SI2752006T1/sl unknown
- 2012-11-07 MX MX2015010510A patent/MX336815B/es unknown
- 2012-11-07 EP EP12848743.6A patent/EP2752006B1/en active Active
- 2012-11-07 TW TW101141395A patent/TWI537881B/zh active
- 2012-11-07 CN CN201810045668.6A patent/CN108134934B/zh active Active
- 2012-11-07 BR BR122020013719-3A patent/BR122020013719B1/pt active IP Right Grant
- 2012-11-07 HU HUE20216547A patent/HUE062049T2/hu unknown
- 2012-11-07 KR KR1020147009947A patent/KR20140071433A/ko not_active Ceased
- 2012-11-07 MX MX2015010507A patent/MX336814B/es unknown
- 2012-11-07 PL PL20216547.8T patent/PL3829172T3/pl unknown
- 2012-11-07 CN CN201810045222.3A patent/CN108111853B/zh active Active
- 2012-11-07 BR BR122020013723-1A patent/BR122020013723B1/pt active IP Right Grant
- 2012-11-07 EP EP20216547.8A patent/EP3829172B1/en active Active
- 2012-11-07 DK DK12848743.6T patent/DK2752006T3/da active
- 2012-11-07 DK DK20216553.6T patent/DK3829175T3/da active
- 2012-11-07 LT LTEP12848743.6T patent/LT2752006T/lt unknown
- 2012-11-07 ES ES20216553T patent/ES2951960T3/es active Active
- 2012-11-07 CN CN201810044642.XA patent/CN108347609B/zh active Active
- 2012-11-07 CN CN201810044636.4A patent/CN108282661B/zh active Active
- 2012-11-07 HU HUE20216553A patent/HUE062197T2/hu unknown
- 2012-11-07 WO PCT/CN2012/084240 patent/WO2013067938A1/en active Application Filing
- 2012-11-07 PL PL20216553.6T patent/PL3829175T3/pl unknown
- 2012-11-07 BR BR112014007871-8A patent/BR112014007871B1/pt active IP Right Grant
- 2012-11-07 HU HUE20216558A patent/HUE062027T2/hu unknown
- 2012-11-07 DK DK20216558.5T patent/DK3829176T3/da active
- 2012-11-07 PL PL20216550.2T patent/PL3829174T3/pl unknown
- 2012-11-07 BR BR122020013720-7A patent/BR122020013720B1/pt active IP Right Grant
- 2012-11-07 MX MX2014004003A patent/MX2014004003A/es active IP Right Grant
- 2012-11-07 ES ES20216550T patent/ES2951959T3/es active Active
- 2012-11-07 ES ES20216558T patent/ES2951961T3/es active Active
- 2012-11-07 PL PL20216558.5T patent/PL3829176T3/pl unknown
- 2012-11-07 ES ES12848743T patent/ES2859550T3/es active Active
- 2012-11-07 IN IN3913CHN2014 patent/IN2014CN03913A/en unknown
- 2012-11-07 PT PT202165502T patent/PT3829174T/pt unknown
- 2012-11-07 PT PT202165585T patent/PT3829176T/pt unknown
- 2012-11-07 PL PL12848743T patent/PL2752006T3/pl unknown
- 2012-11-07 ES ES20216547T patent/ES2951910T3/es active Active
- 2012-11-07 HU HUE12848743A patent/HUE054509T2/hu unknown
- 2012-11-07 PT PT202165536T patent/PT3829175T/pt unknown
- 2012-11-07 BR BR122020013725-8A patent/BR122020013725B1/pt active IP Right Grant
- 2012-11-07 CN CN201810045212.XA patent/CN108134933B/zh active Active
- 2012-11-07 PT PT202165478T patent/PT3829172T/pt unknown
- 2012-11-07 DK DK20216550.2T patent/DK3829174T3/da active
- 2012-11-07 EP EP20216553.6A patent/EP3829175B1/en active Active
- 2012-11-07 KR KR1020147009948A patent/KR20140076583A/ko not_active Withdrawn
-
2014
- 2014-04-02 MX MX2015010508A patent/MX340481B/es unknown
- 2014-04-02 MX MX2016009076A patent/MX345047B/es unknown
- 2014-11-12 US US14/539,976 patent/US9338460B2/en active Active
- 2014-11-12 US US14/539,969 patent/US9338459B2/en active Active
-
2015
- 2015-10-07 JP JP2015199314A patent/JP6138885B2/ja active Active
- 2015-10-07 JP JP2015199312A patent/JP6138883B2/ja active Active
- 2015-10-07 JP JP2015199313A patent/JP6138884B2/ja active Active
- 2015-10-07 JP JP2015199311A patent/JP6140237B2/ja active Active
-
2016
- 2016-04-19 US US15/132,901 patent/US10158857B2/en active Active
- 2016-04-19 US US15/132,926 patent/US9912953B2/en active Active
-
2017
- 2017-04-28 JP JP2017090267A patent/JP6291613B2/ja active Active
-
2018
- 2018-01-24 US US15/879,125 patent/US10362312B2/en active Active
-
2019
- 2019-06-25 US US16/452,105 patent/US11089307B2/en active Active
-
2021
- 2021-03-05 CY CY20211100171T patent/CY1123872T1/el unknown
- 2021-04-26 HR HRP20210659TT patent/HRP20210659T1/hr unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2951960T3 (es) | Procedimiento de construcción de una lista de fusión | |
ES2947709T3 (es) | Procedimiento de derivación de información de movimiento | |
KR101484058B1 (ko) | 영상 복호화 방법 | |
KR101472975B1 (ko) | Amvp 모드에서의 영상 복호화 방법 | |
KR20140060578A (ko) | 영상 복호화 장치 |