[go: up one dir, main page]

ES2976723T3 - Método y dispositivo de codificación de imagen/vídeo - Google Patents

Método y dispositivo de codificación de imagen/vídeo Download PDF

Info

Publication number
ES2976723T3
ES2976723T3 ES20885608T ES20885608T ES2976723T3 ES 2976723 T3 ES2976723 T3 ES 2976723T3 ES 20885608 T ES20885608 T ES 20885608T ES 20885608 T ES20885608 T ES 20885608T ES 2976723 T3 ES2976723 T3 ES 2976723T3
Authority
ES
Spain
Prior art keywords
information
segment
picture
intra
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20885608T
Other languages
English (en)
Inventor
Seethal Paluri
Hendry Hendry
Seunghwan Kim
Jie Zhao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2976723T3 publication Critical patent/ES2976723T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un método de decodificación de vídeo realizado por un dispositivo de decodificación de vídeo según el presente documento comprende las etapas de: adquirir información de imagen de un flujo de bits, incluyendo la información de imagen un encabezado de imagen asociado con la imagen actual que incluye una pluralidad de cortes; analizar, a partir del encabezado de imagen, un primer indicador que indica si la información necesaria para una operación de interpredicción para un proceso de decodificación está presente en el encabezado de imagen; analizar, a partir del encabezado de imagen, un segundo indicador que indica si la información necesaria para una operación de intrapredicción para el proceso de decodificación está presente en el encabezado de imagen; y generar muestras de predicción realizando al menos una de intra-predicción o inter-predicción para los cortes en la imagen actual en base al primer indicador o al segundo indicador. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método y dispositivo de codificación de imagen/vídeo
Antecedentes de la descripción
Campo de la descripción
La presente tecnología se refiere a un método y un aparato para codificar imagen/vídeo.
Técnica relacionada
Recientemente, la demanda de imagen/vídeo de alta resolución y alta calidad, como imagen/video de Ultra Alta Definición (UHD) 4K, 8K o más, está aumentando en varios campos. A medida que la resolución o calidad de la imagen/vídeo aumenta, se transmite relativamente más cantidad de información o bits que para los datos de imagen/vídeo convencionales. Por lo tanto, si los datos de imagen/vídeo se transmiten a través de un medio tal como una línea de banda ancha cableada/inalámbrica existente o se almacenan en un medio de almacenamiento heredado, los costes de transmisión y almacenamiento aumentan fácilmente.
Además, están creciendo el interés y la demanda de contenidos de realidad virtual (VR) y realidad artificial (AR), y medios inmersivos como los hologramas; y también está aumentando la difusión de imágenes/vídeos que presentan características de imagen/vídeo diferentes de las de una imagen/vídeo real, como imágenes/vídeos de juegos. Por lo tanto, se requiere una técnica de compresión de imágenes/vídeo altamente eficaz para comprimir y transmitir, almacenar o reproducir de forma eficaz imágenes/vídeos de alta resolución y alta calidad que muestren diversas características como se describió anteriormente.
El documento ("AHG15: cu_qp_delta_subdiv and cu_chroma_qp_offset_subdiv syntax dependency removal ", n.° JVET-P0407, m50374, XP030217217) describe un problema de dependencia de sintaxis de cu_qp_delta_subdiv y cu_chroma_qp_offset_subdiv tanto en SPS como en información a nivel de segmento y una propuesta para mover estos elementos de sintaxis a la cabecera de segmento.
El documento ("AHG17: Text for picture header", n.° JVET-P1006, m51445, XP030218400) revela una sintaxis RBSP de cabecera de imagen que incluye una partition_constraints_override_flag.
El documento EP 4035396 A1 describe un método de codificación implementado por un dispositivo de decodificación. En el documento, se describe que el método incluye el análisis de un flujo de bits para obtener un indicador de una cabecera de imagen del flujo de bits, en donde el indicador indica si una imagen actual es una imagen I, y cuando el indicador indica que la imagen actual es una imagen I, el elemento de sintaxis diseñado para la predicción inter se infiere a un valor predeterminado, o cuando el indicador indica que la imagen actual es una imagen P o B, se obtiene un elemento de sintaxis diseñado para la predicción inter a partir de la cabecera de la imagen.
Compendio
Según la invención, se proporciona un método de decodificación como se establece en la reivindicación 1, se proporciona un método de codificación como se establece en la reivindicación 6, se proporciona un medio de almacenamiento que almacena un flujo de bits como se establece en la reivindicación 9, y se proporciona un método de transmisión como se establece en la reivindicación 10.
Breve descripción de los dibujos
La FIG. 1 muestra esquemáticamente un ejemplo de un sistema de codificación de vídeo/imagen al que se pueden aplicar realizaciones de la presente descripción.
La FIG. 2 es un diagrama que ilustra esquemáticamente una configuración de un aparato de codificación de vídeo/imagen al que se pueden aplicar realizaciones de la presente descripción.
La FIG. 3 es un diagrama que ilustra esquemáticamente una configuración de un aparato de decodificación de vídeo/imagen al que se pueden aplicar realizaciones de la presente descripción.
La FIG. 4 muestra un ejemplo de un método de codificación de vídeo/imagen basado en intrapredicción.
La FIG. 5 muestra un ejemplo de un método de decodificación de vídeo/imagen basado en intrapredicción. La FIG. 6 ilustra un ejemplo de un método de codificación de vídeo/imagen basado en interpredicción.
La FIG. 7 ilustra un ejemplo de un método de decodificación de vídeo/imagen basado en interpredicción.
Las FIG. 8 y 9 ilustran esquemáticamente un método de codificación de vídeo/imagen y un ejemplo de componentes relacionados según una realización del presente documento.
Las FIGS. 10 y 11 ilustran esquemáticamente un método de decodificación de vídeo/imagen y un ejemplo de componentes relacionados según una realización del presente documento.
La FIG. 12 ilustra un ejemplo de un sistema de transmisión de contenido al que son aplicables las realizaciones descritas en el presente documento.
Descripción de realizaciones ejemplares
La descripción de la presente descripción puede modificarse de varias formas, y realizaciones específicas de la misma se describirán e ilustrarán en los dibujos. Los términos usados en la presente descripción se usan simplemente para describir realizaciones específicas, pero no pretenden limitar el método descrito en la presente descripción. Una expresión de un número singular incluye una expresión de "al menos uno", siempre que se lea claramente de manera diferente. Los términos como "incluir" y "tener" pretenden indicar que existen características, números, pasos, operaciones, elementos, componentes o combinaciones de los mismos usados en el documento y, por lo tanto, debe entenderse que no se excluye la posibilidad de existencia o adición de una o más diferentes características, números, pasos, operaciones, elementos, componentes o combinaciones de los mismos.
Además, cada configuración de los dibujos descritos en el presente documento es una ilustración independiente para explicar funciones como características que son diferentes entre sí, y no significa que cada configuración se implemente mediante hardware o software diferentes entre sí. Por ejemplo, dos o más de las configuraciones se pueden combinar para formar una configuración, y una configuración también se puede dividir en múltiples configuraciones.
De aquí en adelante, se describirán en detalle realizaciones de la presente descripción con referencia a los dibujos adjuntos. Además, se usan números de referencia similares para indicar elementos similares en todos los dibujos, y se pueden omitir las mismas descripciones en elementos similares.
La FIG. 1 ilustra un ejemplo de un sistema de codificación de vídeo/imagen al que se pueden aplicar las realizaciones de la presente descripción.
Haciendo referencia a la FIG. 1, un sistema de codificación de vídeo/imagen puede incluir un primer dispositivo (un dispositivo fuente) y un segundo dispositivo (un dispositivo receptor). El dispositivo fuente puede transmitir información o datos de vídeo/imagen codificados al dispositivo receptor a través de un medio o red de almacenamiento digital en forma de archivo o transmisión.
El dispositivo fuente puede incluir una fuente de vídeo, un aparato de codificación y un transmisor. El dispositivo receptor puede incluir un receptor, un aparato decodificador y un procesador. El aparato de codificación puede denominarse aparato de codificación de vídeo/imagen, y el aparato de decodificación puede denominarse aparato de decodificación de vídeo/imagen. El transmisor puede estar incluido en el aparato de codificación. El receptor puede estar incluido en el aparato decodificador. El renderizador puede incluir un elemento de visualización, y el elemento de visualización puede configurarse como un dispositivo separado o un componente externo.
La fuente de vídeo puede adquirir vídeo/imagen a través de un proceso de captura, síntesis o generación del vídeo/imagen. La fuente de vídeo puede incluir un dispositivo de captura de vídeo/imagen y/o un dispositivo generador de vídeo/imagen. El dispositivo de captura de vídeo/imágenes puede incluir, por ejemplo, una o más cámaras, archivos de vídeo/imágenes que incluyen vídeos/imágenes capturados previamente y similares. El dispositivo generador de vídeo/imágenes puede incluir, por ejemplo, ordenadores, tabletas y teléfonos inteligentes, y puede generar (electrónicamente) vídeos/imágenes. Por ejemplo, se puede generar un vídeo/imagen virtual a través de una computadora o similar. En este caso, el proceso de captura de vídeo/imagen puede sustituirse por un proceso de generación de datos relacionados.
El aparato de codificación puede codificar vídeo/imagen de entrada. El aparato de codificación puede realizar una serie de procedimientos tales como predicción, transformación y cuantificación para la compactación y la eficiencia de la codificación. Los datos codificados (información de vídeo/imagen codificada) pueden emitirse en forma de un flujo de bits.
El transmisor puede transmitir la imagen codificada/información de imagen o salida de datos en forma de un flujo de bits al receptor del dispositivo receptor a través de un medio de almacenamiento digital o una red en forma de un archivo o transmisión. El medio de almacenamiento digital puede incluir varios medios de almacenamiento tales como USB, SD, CD, DVD, Blu-ray, HDD, SSD y similares. El transmisor puede incluir un elemento para generar un archivo multimedia a través de un formato de archivo predeterminado y puede incluir un elemento para la transmisión a través de una red de difusión/comunicación. El receptor puede recibir/extraer el flujo de bits y transmitir el flujo de bits recibido al aparato de decodificación.
El aparato decodificador puede decodificar el vídeo/imagen realizando una serie de procedimientos tales como descuantificación, transformación inversa y predicción correspondientes al funcionamiento del aparato de codificación.
El renderizador puede renderizar el vídeo/imagen decodificado. El vídeo/imagen renderizado se puede mostrar a través del elemento de visualización.
El presente documento se refiere a la codificación de vídeo/imagen. Por ejemplo, un método/realización descrito en el presente documento se puede aplicar a un método descrito en un estándar de codificación de vídeo versátil (VVC). Además, el método/realización descrito en el presente documento se puede aplicar a un método descrito en un estándar de codificación de vídeo esencial (EVC), el estándar AOMedia Video 1 (AV1), el estándar de codificación de audio y vídeo de 2a generación (AVS2), o un estándar de codificación de video/imagen de próxima generación (por ejemplo, H.267, H.268, etc.).
En el presente documento se presentan varias realizaciones relacionadas con la codificación de vídeo/imagen, y las realizaciones pueden combinarse entre sí a menos que se indique lo contrario.
En el presente documento, un vídeo puede hacer referencia a una serie de imágenes a lo largo del tiempo. Una imagen generalmente se refiere a la unidad que representa una imagen en un período de tiempo particular, y un segmento/mosaico se refiere a la unidad que constituye una parte de la imagen en términos de codificación. Un segmento/mosaico puede incluir una o más unidades de árbol de codificación (CTU). Una imagen puede constar de uno o más segmentos/mosaicos. Una imagen puede constar de uno o más grupos de mosaicos. Un grupo de mosaicos puede incluir uno o más mosaicos. Un bloque puede representar una región rectangular de filas CTU dentro de un mosaico en una imagen). Un mosaico puede dividirse en múltiples bloques, cada uno de los cuales consta de una o más filas CTU dentro del mosaico. Un mosaico que no está dividido en varios bloques también puede denominarse bloque. Un escaneo de bloque es un orden secuencial específico de CTU que divide una imagen en donde las CTU se ordenan consecutivamente en un escaneo de trama de CTU en un bloque, los bloques dentro de un mosaico se ordenan consecutivamente en un escaneo de trama de los bloques del mosaico y los mosaicos se ordenan consecutivamente en un escaneo de trama de los mosaicos de la imagen. Un mosaico es una región rectangular de CTU dentro de una columna de mosaicos particular y una fila de mosaicos particular en una imagen. La columna de mosaico es una región rectangular de CTU que tiene una altura igual a la altura de la imagen y una anchura especificada por elementos de sintaxis en el conjunto de parámetros de imagen. La fila de mosaico es una región rectangular de CTU que tiene una altura especificada por elementos de sintaxis en el conjunto de parámetros de imagen y un ancho igual al ancho de la imagen). Un escaneo de mosaico es un ordenamiento secuencial específico de CTU que dividen una imagen en donde las CTU se ordenan consecutivamente en un escaneo de trama de CTU en un mosaico, mientras que los mosaicos de una imagen se ordenan consecutivamente en un escaneo de trama de los mosaicos de la imagen. Un segmento incluye un número entero de bloques de una imagen que pueden estar contenidos exclusivamente en una única unidad NAL. Un segmento puede estar compuesto por varios mosaicos completos o solo por una secuencia consecutiva de bloques completos de un mosaico. En el presente documento, grupo de mosaicos y segmento se pueden usar indistintamente. Por ejemplo, en el presente documento, un grupo de mosaicos/cabecera de grupo de mosaicos puede denominarse segmento/cabecera de segmento.
Un píxel o un pel puede significar una unidad más pequeña que constituye una fotografía (o imagen). Además, se puede usar "muestra" como término correspondiente a un píxel. Una muestra generalmente puede representar un píxel o un valor de un píxel, y puede representar solo un píxel/valor de píxel de un componente de luma o solo un píxel/valor de píxel de un componente de croma.
Una unidad puede representar una unidad básica de procesamiento de imágenes. La unidad puede incluir al menos una de una región específica de la imagen e información relacionada con la región. Una unidad puede incluir un bloque de luma y dos bloques de croma (por ejemplo, Cb, cr). En algunos casos, la unidad puede usarse indistintamente con términos como bloque o área. En un caso general, un bloque MxN puede incluir muestras (o matrices de muestras) o un conjunto (o matriz) de coeficientes de transformación de M columnas y N filas. Alternativamente, la muestra puede significar un valor de píxel en el dominio espacial, y cuando dicho valor de píxel se transforma al dominio de frecuencia, puede significar un coeficiente de transformación en el dominio de frecuencia.
En el presente documento, los términos "/" y "," deben interpretarse en el sentido de que indican "y/o". Por ejemplo, la expresión "A/B" puede significar "A y/o B". Además, "A, B" puede significar "A y/o B". Además, "A/B/C" puede significar "al menos uno de A, B y/o C". Además, "A/B/C" puede significar "al menos uno de A, B y/o C".
"Además, en el documento, el término "o" debe interpretarse en el sentido de que indica "y/o". Por ejemplo, la expresión "A o B" puede comprender 1) sólo A, 2) sólo B, y/o 3) tanto A como B. En otras palabras, el término "o" en el presente documento debe interpretarse en el sentido de que indica "adicional o alternativamente".
Además, los paréntesis usados en la presente memoria descriptiva pueden significar "por ejemplo". En concreto, en el caso de que se exprese "predicción (intrapredicción)", se podrá indicar que se propone "intrapredicción" como ejemplo de "predicción". En otras palabras, el término "predicción" en la presente memoria descriptiva no se limita a "intrapredicción", y puede indicarse que "intrapredicción" se propone como ejemplo de "predicción". Además, incluso en el caso de que se exprese "predicción (es decir, intrapredicción)", se puede indicar que se propone "intrapredicción" como ejemplo de "predicción".
En la presente memoria descriptiva, las características técnicas explicadas individualmente en un dibujo pueden implementarse individualmente o simultáneamente.
La FIG. 2 es un diagrama que ilustra esquemáticamente la configuración de un aparato de codificación de vídeo/imagen al que se pueden aplicar las realizaciones de la presente descripción. En lo sucesivo, lo que se denomina aparato de codificación de vídeo puede incluir un aparato de codificación de imágenes.
Haciendo referencia a la FIG. 2, el aparato 200 de codificación puede incluir y configurarse con un divisor 210 de imágenes, un predictor 220, un procesador 230 residual, un codificador 240 de entropía, un sumador 250, un filtro 260 y una memoria 270. El predictor 220 puede incluir un interpredictor 221 y un intrapredictor 222. El procesador residual 230 puede incluir un transformador 232, un cuantificador 233, un descuantificador 234 y un transformador 235 inverso. El procesador 230 residual puede incluir además un restador 231. El sumador 250 puede denominarse un reconstructor o generador de bloques reconstruidos. El divisor 210 de imágenes, el predictor 220, el procesador 230 residual, el codificador 240 de entropía, el sumador 250 y el filtro 260, que se han descrito anteriormente, pueden configurarse mediante uno o más componentes de hardware (por ejemplo, conjuntos de chips codificadores o procesadores) según una realización. Además, la memoria 270 puede incluir una memoria intermedia de imágenes decodificadas (DPB) y también puede configurarse mediante un medio de almacenamiento digital. El componente de hardware puede incluir además la memoria 270 como componente interno/externo.
El divisor 210 de imágenes puede dividir una imagen de entrada (o imagen, trama) ingresada al aparato 200 de codificación en una o más unidades de procesamiento. Como ejemplo, la unidad de procesamiento puede denominarse unidad de codificación (CU). En este caso, la unidad de codificación puede dividirse recursivamente según una estructura de árbol ternario árbol binario árbol cuádruple (QTBTTT) a partir de una unidad de árbol de codificación (CTU) o la unidad de codificación más grande (LCU). Por ejemplo, una unidad de codificación puede dividirse en una pluralidad de unidades de codificación de una profundidad más profunda con base en una estructura de árbol cuádruple, una estructura de árbol binario y/o una estructura de árbol ternario. En este caso, por ejemplo, primero se aplica la estructura de árbol cuádruple y posteriormente se puede aplicar la estructura de árbol binario y/o la estructura de árbol ternario. Alternativamente, también se puede aplicar en primer lugar la estructura de árbol binario. Se puede realizar un procedimiento de codificación según la presente descripción con base en una unidad de codificación final que ya no está dividida. En este caso, con base en la eficiencia de codificación según las características de la imagen o similares, la unidad de codificación máxima puede usarse directamente como la unidad de codificación final, o según sea necesario, la unidad de codificación puede dividirse recursivamente en unidades de codificación de una profundidad más profunda, tales como que se puede usar una unidad de codificación que tenga un tamaño óptimo como unidad de codificación final. Aquí, el procedimiento de codificación puede incluir un procedimiento tal como predicción, transformación y reconstrucción que se describirá más adelante. Como otro ejemplo, la unidad de procesamiento puede incluir además una unidad de predicción (PU) o una unidad de transformación (TU). En este caso, cada una de la unidad de predicción y la unidad de transformación puede dividirse o particionarse a partir de la unidad de codificación final antes mencionada. La unidad de predicción puede ser una unidad de predicción de muestra, y la unidad de transformación puede ser una unidad para inducir un coeficiente de transformación y/o una unidad para inducir una señal residual a partir del coeficiente de transformación.
La unidad puede usarse indistintamente con el término tal como bloque o área en algunos casos. Generalmente, un bloque MxN puede representar muestras compuestas por M columnas y N filas o un grupo de coeficientes de transformación. La muestra puede representar generalmente un píxel o un valor del píxel, y también puede representar solo el valor de píxel/píxel de un componente de luma, y también representar solo el valor de píxel/píxel de un componente de croma. La muestra puede usarse como el término correspondiente a un píxel o un pel que configura una fotografía (o imagen).
El aparato 200 de codificación puede restar la señal de predicción (bloque predicho, matriz de muestra de predicción) emitida desde el interpredictor 221 o el intrapredictor 222 de la señal de imagen de entrada (bloque original, matriz de muestra original) para generar una señal residual (bloque residual, matriz de muestra residual), y la señal residual generada se transmite al transformador 232. En este caso, como se ilustra, una unidad para restar la señal de predicción (bloque de predicción, matriz de muestra de predicción) de una señal de imagen de entrada (bloque original, matriz de muestra original) en el codificador 200 puede denominarse restador 231. El predictor 220 puede realizar la predicción en un bloque objetivo de procesamiento (en lo sucesivo, denominado bloque actual) y generar un bloque predicho que incluye muestras de predicción para el bloque actual. El predictor 220 puede determinar si se aplica la intrapredicción o la interpredicción en unidades de un bloque o CU actual. El predictor 220 puede generar diversa información sobre la predicción, tal como información del modo de predicción, y transmitir la información generada al codificador de entropía 240, como se describe a continuación en la descripción de cada modo de predicción. La información sobre la predicción puede codificarse mediante el codificador de entropía 240 y emitirse en forma de un flujo de bits.
El intrapredictor 222 puede predecir un bloque actual con referencia a muestras dentro de una imagen actual. Las muestras referenciadas pueden estar ubicadas vecinas al bloque actual, o también pueden estar ubicadas lejos del bloque actual según el modo de predicción. Los modos de predicción en la intrapredicción pueden incluir una pluralidad de modos no direccionales y una pluralidad de modos direccionales. El modo no direccional puede incluir, por ejemplo, un modo DC o un modo planar. El modo direccional puede incluir, por ejemplo, 33 modos de predicción direccional o 65 modos de predicción direccional según el grado fino de la dirección de predicción. Sin embargo, esto es ilustrativo y los modos de predicción direccional que sean mayores o menores que el número anterior se pueden usar según la configuración. El intrapredictor 222 también puede determinar el modo de predicción aplicado al bloque actual usando el modo de predicción aplicado al bloque vecino.
El interpredictor 221 puede inducir un bloque predicho del bloque actual con base en un bloque de referencia (matriz de muestras de referencia) especificado por un vector de movimiento en una imagen de referencia. En este momento, para disminuir la cantidad de información de movimiento transmitida en el modo de interpredicción, la información de movimiento se puede predecir en unidades de un bloque, un subbloque o una muestra con base en la correlación de la información de movimiento entre el bloque vecino y el bloque actual. La información de movimiento puede incluir un vector de movimiento y un índice de imagen de referencia. La información de movimiento puede incluir además información de dirección de interpredicción (predicción L0, predicción L1, predicción Bi o similar). En el caso de la interpredicción, el bloque vecino puede incluir un bloque vecino espacial existente dentro de la imagen actual y un bloque vecino temporal existente en la imagen de referencia. La imagen de referencia que incluye el bloque de referencia y la imagen de referencia que incluye el bloque vecino temporal también pueden ser iguales entre sí y también pueden ser diferentes entre sí. El bloque vecino temporal puede denominarse con un nombre tal como bloque de referencia coubicado, CU coubicada (colCU), o similar, y la imagen de referencia que incluye el bloque vecino temporal también puede denominarse imagen coubicada (colPic). Por ejemplo, el interpredictor 221 puede configurar una lista de candidatos de información de movimiento con base en los bloques vecinos y generar información que indique qué candidato se usa para derivar el vector de movimiento y/o el índice de imagen de referencia del bloque actual. La interpredicción se puede realizar con base en varios modos de predicción y, por ejemplo, en el caso de un modo de salto y un modo de combinación, el interpredictor 221 puede usar la información de movimiento del bloque vecino como la información de movimiento del bloque actual. En el caso del modo de salto, es posible que la señal residual no se transmita a diferencia del modo de combinación. Un modo de predicción del vector de movimiento (MVP) puede indicar el vector de movimiento del bloque actual usando el vector de movimiento del bloque vecino como predictor del vector de movimiento y señalizando una diferencia del vector de movimiento.
El predictor 220 puede generar una señal de predicción con base en varios métodos de predicción que se describirán a continuación. Por ejemplo, el predictor 220 puede aplicar intrapredicción o interpredicción para la predicción de un bloque y puede aplicar simultáneamente intrapredicción e interpredicción. Esto puede denominarse inter e intrapredicción combinada (CIIP). Además, el predictor puede basarse en un modo de predicción de copia intrabloque (IBC) o en un modo de paleta para la predicción de un bloque. El modo de predicción IBC o el modo de paleta se pueden usar para codificación de imagen/vídeo de contenido tal como juegos, por ejemplo, codificación de contenido de pantalla (SCC). Básicamente, IBC realiza una predicción dentro de la imagen actual, pero se puede realizar de manera similar a la interpredicción en el sentido de que se deriva un bloque de referencia dentro de la imagen actual. Es decir, IBC puede usar al menos una de las técnicas de interpredicción descritas en el presente documento. El modo de paleta puede verse como un ejemplo de intracodificación o intrapredicción. Cuando se aplica el modo paleta, se puede señalizar un valor de muestra en la imagen con base en la información de la tabla de paleta y el índice de paleta.
La señal de predicción generada por el predictor (incluido el interpredictor 221 y/o el intrapredictor 222) puede usarse para generar una señal reconstruida o puede usarse para generar una señal residual.
El transformador 232 puede generar coeficientes de transformación aplicando una técnica de transformación a la señal residual. Por ejemplo, la técnica de transformación puede incluir al menos una de una transformada de coseno discreta (DCT), una transformada de seno discreta (DST), una transformada basada en gráficos (GBT) o una transformada condicionalmente no lineal (CNT). Aquí, GBT se refiere a la transformación obtenida de un gráfico cuando se expresa información de relación entre píxeles en el gráfico. CNT se refiere a la transformación obtenida con base en una señal de predicción generada usando todos los píxeles previamente reconstruidos. Además, el proceso de transformación puede aplicarse a un bloque de píxeles que tenga el mismo tamaño que un cuadrado o puede aplicarse a un bloque de tamaño variable que no sea un cuadrado.
El cuantificador 233 cuantifica los coeficientes de transformación y los transmite al codificador 240 de entropía, y el codificador 240 de entropía codifica la señal cuantificada (información sobre los coeficientes de transformación cuantificados) y genera la señal codificada como un flujo de bits. La información sobre los coeficientes de transformación cuantificados puede denominarse información residual. El cuantificador 233 puede reorganizar los coeficientes de transformación cuantificados en forma de bloque en una forma vectorial unidimensional con base en un orden de exploración de coeficientes y puede generar información sobre los coeficientes de transformación con base en los coeficientes de transformación cuantificados en la forma vectorial unidimensional.
El codificador 240 de entropía puede realizar diversos métodos de codificación tales como, por ejemplo, Golomb exponencial, codificación de longitud variable adaptativa al contexto (CAVLC) y codificación aritmética binaria adaptativa al contexto (CABAC). El codificador 240 de entropía puede codificar información necesaria para la reconstrucción de vídeo/imagen (por ejemplo, valores de elementos de sintaxis, etc.) distinta de los coeficientes de transformación cuantificados juntos o por separado. La información codificada (por ejemplo, información de vídeo/imagen codificada) puede transmitirse o almacenarse en unidades de una unidad de capa de abstracción de red (NAL) en forma de un flujo de bits. La información de vídeo/imagen puede incluir además información sobre diversos conjuntos de parámetros, tales como un conjunto de parámetros de adaptación (APS), un conjunto de parámetros de imagen (PPS), un conjunto de parámetros de secuencia (SPS) o un conjunto de parámetros de vídeo (VPS). Además, la información de vídeo/imagen puede incluir además información de restricción general. En el presente documento, la información y/o los elementos de sintaxis transmitidos/señalizados desde el aparato de codificación al aparato de decodificación pueden incluirse en la información de vídeo/imagen. La información de vídeo/imagen puede codificarse mediante el procedimiento de codificación descrito anteriormente e incluirse en el flujo de bits. El flujo de bits puede transmitirse a través de una red o puede almacenarse en un medio de almacenamiento digital. En este caso, la red puede incluir una red de transmisión y/o una red de comunicación, y el medio de almacenamiento digital puede incluir varios medios de almacenamiento tales como USB, SD, CD, DVD, Blu-ray, HDD y SSD. Una unidad de transmisión (no mostrada) y/o una unidad de almacenamiento (no mostrada) para transmitir o almacenar una salida de señal desde el codificador 240 de entropía pueden configurarse como elementos internos/externos del aparato 200 de codificación, o la unidad de transmisión puede estar incluida en el codificador 240 de entropía.
Los coeficientes de transformación cuantificados emitidos desde el cuantificador 233 pueden usarse para generar una señal de predicción. Por ejemplo, la señal residual (bloque residual o muestras residuales) se puede reconstruir aplicando descuantificación y transformación inversa a los coeficientes de transformación cuantificados a través del descuantificador 234 y la unidad 235 de transformación inversa. El sumador 250 puede agregar la señal residual reconstruida a la señal de predicción emitida desde el interpredictor 221 o el intrapredictor 222 para generar una señal reconstruida (imagen reconstruida, bloque reconstruido, matriz de muestras reconstruida). Cuando no hay residuos para el bloque objetivo de procesamiento, como cuando se aplica el modo de omisión, el bloque predicho puede usarse como un bloque reconstruido. El sumador 250 puede denominarse unidad de restauración o generador de bloques de restauración. La señal reconstruida generada puede usarse para la intrapredicción de un siguiente bloque objetivo de procesamiento en la imagen actual, o puede usarse para la interpredicción de la siguiente imagen después de filtrarse como se describe a continuación.
Mientras tanto, la correspondencia de luma con escala de croma (LMCS) se puede aplicar durante un proceso de codificación y/o reconstrucción de imágenes.
El filtro 260 puede mejorar la calidad de la imagen subjetiva/objetiva aplicando filtrado a la señal reconstruida. Por ejemplo, el filtro 260 puede generar una imagen reconstruida modificada aplicando varios métodos de filtrado a la imagen reconstruida, y almacenar la imagen reconstruida modificada en la memoria 270, específicamente, en un DPB de la memoria 270. Los diversos métodos de filtrado pueden incluir, por ejemplo, filtrado de desbloqueo, un desplazamiento adaptativo de muestra, un filtro de bucle adaptativo, un filtro bilateral y similares. El filtro 260 puede generar varios tipos de información relacionada con el filtrado y transferir la información generada al codificador 240 de entropía como se describe más adelante en la descripción de cada método de filtrado. La información relacionada con el filtrado puede codificarse mediante el codificador 240 de entropía y emitirse en forma de un flujo de bits.
La imagen reconstruida modificada transmitida a la memoria 270 puede usarse como imagen de referencia en el interpredictor 221. Cuando se aplica la interpredicción a través del aparato de codificación, se puede evitar la falta de correspondencia de predicción entre el aparato 200 de codificación y el aparato de decodificación y puede mejorarse la eficiencia de codificación.
El DPB de la memoria 270 puede almacenar la imagen reconstruida modificada para usar como imagen de referencia en el interpredictor 221. La memoria 270 puede almacenar información de movimiento de un bloque del cual se deriva (o codifica) la información de movimiento en la imagen actual y /o información de movimiento de bloques en la imagen, que ya han sido reconstruidos. La información de movimiento almacenada puede transferirse al interpredictor 221 para ser utilizada como información de movimiento del bloque vecino espacial o información de movimiento del bloque vecino temporal. La memoria 270 puede almacenar muestras reconstruidas de bloques reconstruidos en la imagen actual y puede transferir las muestras reconstruidas al intrapredictor 222.
La FIG. 3 es un diagrama para explicar esquemáticamente la configuración de un aparato de decodificación de vídeo/imagen al que se pueden aplicar las realizaciones de la presente descripción.
Haciendo referencia a la FIG. 3, el aparato de decodificación 300 puede incluir y configurarse con un decodificador 310 de entropía, un procesador 320 residual, un predictor 330, un sumador 340, un filtro 350 y una memoria 360. El predictor 330 puede incluir un interpredictor 331 y un intrapredictor 332. El procesador 320 residual puede incluir un descuantificador 321 y un transformador 322 inverso. El decodificador 310 de entropía, el procesador 320 residual, el predictor 330, el sumador 340 y el filtro 350, que se han descrito anteriormente, pueden configurarse por uno o más componentes de hardware (por ejemplo, conjuntos de chips decodificadores o procesadores) según una realización. Además, la memoria 360 puede incluir una memoria intermedia de imágenes decodificadas (DPB) y puede configurarse mediante un medio de almacenamiento digital. El componente de hardware puede incluir además la memoria 360 como un componente interno/externo.
Cuando se introduce el flujo de bits que incluye la información de vídeo/imagen, el aparato 300 de decodificación puede reconstruir la imagen en respuesta a un proceso en donde la información de vídeo/imagen se procesa en el aparato de codificación ilustrado en la FIG. 2. Por ejemplo, el aparato 300 de decodificación puede derivar las unidades/bloques con base en información relacionada con la división de bloques adquirida del flujo de bits. El aparato 300 de decodificación puede realizar la decodificación usando la unidad de procesamiento aplicada al aparato de codificación. Por lo tanto, la unidad de procesamiento para la decodificación puede ser, por ejemplo, una unidad de codificación, y la unidad de codificación puede dividirse según la estructura de árbol cuádruple, la estructura de árbol binario y/o la estructura de árbol ternario de la unidad de árbol de codificación o la unidad máxima de codificación.
Una o más unidades de transformación pueden derivarse de la unidad de codificación. Además, la señal de imagen reconstruida decodificada y emitida a través del aparato 300 de decodificación puede reproducirse a través de un aparato de reproducción.
El aparato 300 de decodificación puede recibir una salida de señal del aparato de codificación de la Figura 2 en forma de un flujo de bits, y la señal recibida puede decodificarse a través del decodificador 310 de entropía. Por ejemplo, el decodificador 310 de entropía puede analizar el flujo de bits para derivar información (por ejemplo, información de vídeo/imagen) necesaria para la reconstrucción de imágenes (o reconstrucción de fotografías). La información de vídeo/imagen puede incluir además información sobre diversos conjuntos de parámetros tales como un conjunto de parámetros de adaptación (APS), un conjunto de parámetros de imagen (PPS), un conjunto de parámetros de secuencia (SPS) o un conjunto de parámetros de vídeo (VPS). Además, la información de vídeo/imagen puede incluir además información de restricción general. El aparato de decodificación puede decodificar además una imagen con base en la información del conjunto de parámetros y/o la información de restricción general. La información señalizada/recibida y/o los elementos de sintaxis descritos más adelante en el presente documento pueden decodificarse, pueden decodificarse mediante el procedimiento de decodificación y obtenerse del flujo de bits. Por ejemplo, el decodificador 310 de entropía decodifica la información en el flujo de bits con base en un método de codificación tal como codificación Golomb exponencial, codificación de longitud variable adaptativa al contexto (CAVLC), o codificación aritmética adaptativa al contexto (CABAC), y elementos de sintaxis de salida necesarios para reconstrucción de imágenes y valores cuantificados de coeficientes de transformación para residuos. Más específicamente, el método de decodificación de entropía CABAC puede recibir un contenedor correspondiente a cada elemento de sintaxis en el flujo de bits, determinar un modelo de contexto usando información de un elemento de sintaxis objetivo de decodificación, información de decodificación de un bloque objetivo de decodificación o información de un símbolo/bin decodificado en una etapa anterior, y realizar una decodificación aritmética en el contenedor prediciendo una probabilidad de ocurrencia de un contenedor según el modelo de contexto determinado, y generar un símbolo correspondiente al valor de cada elemento de sintaxis. En este caso, el método de decodificación de entropía CABAC puede actualizar el modelo de contexto usando la información del símbolo/bin decodificado para un modelo de contexto de un siguiente símbolo/bin después de determinar el modelo de contexto. La información relacionada con la predicción entre la información decodificada por el decodificador de entropía 310 se puede proporcionar al predictor (interpredictor 332 e intrapredictor 331), y los valores residuales en donde se ha realizado la decodificación de entropía en el decodificador 310 de entropía, es decir, los coeficientes de transformación cuantificados y la información de parámetros relacionados pueden introducirse en el procesador 320 residual.
El procesador 320 residual puede derivar una señal residual (bloque residual, muestras residuales y matriz de muestras residuales). Además, se puede proporcionar al filtro 350 información sobre el filtrado entre la información decodificada por el decodificador 310 de entropía. Mientras tanto, se puede configurar además una unidad de recepción (no mostrada) para recibir una salida de señal desde el aparato de codificación como un elemento interno/externo del aparato 300 de decodificación, o la unidad receptora puede ser un componente del decodificador 310 de entropía. Mientras tanto, el aparato de decodificación según el presente documento puede denominarse aparato de decodificación de vídeo/imagen/imagen, y el aparato de decodificación puede dividirse en un decodificador de información (decodificador de información de vídeo/imagen/fotografía) y un decodificador de muestra (decodificador de muestra de vídeo/imagen/fotografía). El decodificador de información puede incluir el decodificador 310 de entropía, y el decodificador de muestra puede incluir al menos uno del descuantificador 321, el transformador 322 inverso, el sumador 340, el filtro 350, la memoria 360, un interpredictor 332 y un intrapredictor 331.
El descuantificador 321 puede descuantificar los coeficientes de transformación cuantificados para generar los coeficientes de transformación. El descuantificador 321 puede reorganizar los coeficientes de transformación cuantificados en forma de bloque bidimensional. En este caso, la reordenación se puede realizar con base en un orden de exploración de coeficientes realizado por el aparato de codificación. El descuantificador 321 puede realizar la descuantificación de los coeficientes de transformación cuantificados usando un parámetro de cuantificación (por ejemplo, información del tamaño del paso de cuantificación) y adquirir los coeficientes de transformación.
El transformador 322 inverso transforma inversamente los coeficientes de transformación para adquirir la señal residual (bloque residual, matriz de muestra residual).
El predictor 330 puede realizar la predicción del bloque actual y generar un bloque predicho que incluye las muestras de predicción del bloque actual. El predictor puede determinar si se aplica la intrapredicción o la interpredicción al bloque actual con base en la información sobre la salida de predicción del descodificador 310 de entropía, y determinar un modo de intra/interpredicción específico.
El predictor 330 puede generar una señal de predicción basada en varios métodos de predicción que se describirán más adelante. Por ejemplo, el predictor puede aplicar intrapredicción o interpredicción para la predicción de un bloque, y puede aplicar simultáneamente intrapredicción e interpredicción. Esto puede denominarse inter e intrapredicción combinada (CIIP). Además, el predictor puede basarse en un modo de predicción de copia intrabloque (IBC) o en un modo de paleta para la predicción de un bloque. El modo de predicción IBC o el modo de paleta se pueden usar para codificación de imágenes/vídeo de contenido tal como juegos, por ejemplo, codificación de contenido de pantalla (SCC). Básicamente, IBC puede realizar predicción dentro de la imagen actual, pero puede realizarse de manera similar a la interpredicción en el sentido de que se deriva un bloque de referencia dentro de la imagen actual. Es decir, IBC puede usar al menos una de las técnicas de interpredicción descritas en el presente documento. El modo de paleta puede considerarse como un ejemplo de intracodificación o intrapredicción. Cuando se aplica el modo de paleta, la información sobre la tabla de paleta y el índice de paleta se puede incluir en la información de vídeo/imagen y señalarse.
El intrapredictor 331 puede predecir el bloque actual haciendo referencia a las muestras en la imagen actual. Las muestras referidas pueden estar ubicadas en las proximidades del bloque actual, o pueden estar ubicadas aparte del bloque actual según el modo de predicción. En la intrapredicción, los modos de predicción pueden incluir una pluralidad de modos no direccionales y una pluralidad de modos direccionales. El intrapredictor 331 puede determinar el modo de predicción que se aplicará al bloque actual utilizando el modo de predicción aplicado al bloque vecino.
El interpredictor 332 puede derivar un bloque predicho para el bloque actual con base en un bloque de referencia (matriz de muestras de referencia) especificado por un vector de movimiento en una imagen de referencia. En este caso, para reducir la cantidad de información de movimiento que se transmite en el modo de interpredicción, la información de movimiento se puede predecir en la unidad de bloques, subbloques o muestras con base en la correlación de la información de movimiento entre el bloque vecino y el bloque actual. La información de movimiento puede incluir un vector de movimiento y un índice de imagen de referencia. La información de movimiento puede incluir además información sobre la dirección de interpredicción (predicción L0, predicción L1, predicción Bi y similares). En caso de interpredicción, el bloque vecino puede incluir un bloque vecino espacial existente en la imagen actual y un bloque vecino temporal existente en la imagen de referencia. Por ejemplo, el interpredictor 332 puede construir una lista de candidatos de información de movimiento con base en bloques vecinos, y derivar un vector de movimiento del bloque actual y/o un índice de imagen de referencia con base en la información de selección de candidatos recibida. La interpredicción se puede realizar con base en varios modos de predicción, y la información sobre la predicción puede incluir información que indique un modo de interpredicción para el bloque actual.
El sumador 340 puede generar una señal reconstruida (imagen reconstruida, bloque reconstruido o matriz de muestras reconstruida) añadiendo la señal residual obtenida a la señal de predicción (bloque predicho o matriz de muestra predicha) emitida desde el predictor (incluido el interpredictor 332 y/o el intrapredictor 331). Si no hay ningún residuo para el bloque objetivo de procesamiento, como en el caso de que se aplique un modo de omisión, el bloque predicho puede usarse como bloque reconstruido.
El sumador 340 puede denominarse reconstructor o generador de bloques reconstruidos. La señal reconstruida generada se puede usar para la intrapredicción de un siguiente bloque a procesar en la imagen actual y, como se describe más adelante, también se puede generar mediante filtrado o también se puede usar para la interpredicción de una siguiente imagen.
Mientras tanto, también se puede aplicar una correspondencia de luma con escala de croma (LMCS) en el proceso de decodificación de imágenes.
El filtro 350 puede mejorar la calidad de la imagen subjetiva/objetiva aplicando filtrado a la señal reconstruida. Por ejemplo, el filtro 350 puede generar una imagen reconstruida modificada aplicando varios métodos de filtrado a la imagen reconstruida, y almacenar la imagen reconstruida modificada en la memoria 360, específicamente, en un DPB de la memoria 360. Los diversos métodos de filtrado pueden incluir, por ejemplo, filtrado de desbloqueo, una compensación adaptativa de muestra, un filtro de bucle adaptativo, un filtro bilateral y similares.
La imagen reconstruida (modificada) almacenada en el DPB de la memoria 360 se puede usar como imagen de referencia en el interpredictor 332. La memoria 360 puede almacenar la información de movimiento del bloque del cual se deriva la información de movimiento en la imagen actual (o decodificada) y/o la información de movimiento de los bloques en la imagen ya ha sido reconstruida. La información de movimiento almacenada puede transferirse al interpredictor 332 para ser usada como información de movimiento del bloque vecino espacial o información de movimiento del bloque vecino temporal. La memoria 360 puede almacenar muestras reconstruidas de bloques reconstruidos en la imagen actual y transferir las muestras reconstruidas al intrapredictor 331.
En el presente documento, las realizaciones descritas en el filtro 260, el interpredictor 221 y el intrapredictor 222 del aparato 200 de codificación pueden aplicarse por igual o para corresponder al filtro 350, el interpredictor 332 y el intrapredictor 331.
El método de codificación de vídeo/imagen según el presente documento se puede realizar con base en la siguiente estructura de división. Específicamente, los procedimientos de predicción, procesamiento residual (transformación (inversa) y (des)cuantización), codificación de elementos de sintaxis y filtrado que se describirán más adelante se pueden realizar con base en CTU y CU (y/o TU y PU) derivadas con base en la estructura de división. El divisor 210 de imágenes del aparato de codificación descrito anteriormente puede realizar un procedimiento de división de bloques, y la información relacionada con la división puede ser procesada (codificada) por el codificador 240 de entropía, y puede transferirse al aparato de decodificación en forma de un flujo de bits. El decodificador 310 de entropía del aparato de decodificación puede derivar la estructura de división de bloques de la imagen actual con base en la información relacionada con la división obtenida del flujo de bits, y con base en esto, puede realizar una serie de procedimientos para decodificar imágenes (por ejemplo, predicción, procesamiento residual, reconstrucción de bloques/imágenes y filtrado en bucle). El tamaño de CU y el tamaño de TU pueden ser iguales entre sí, o pueden estar presentes una pluralidad de TU en el área de CU. Mientras tanto, el tamaño de CU puede representar generalmente un tamaño de bloque de codificación (CB) de componente luma (muestra). El tamaño de TU puede representar generalmente un tamaño de bloque de transformación (TB) de componente luma (muestra). Se puede derivar un tamaño de CB o TB del componente cromático (muestra) con base en el tamaño de CB o TB del componente luma (muestra) según una relación de componentes según un formato de color (formato cromático, por ejemplo, 4:4:4, 4: 2:2, 4:2:0 y similares) de la imagen/fotografía. El tamaño de TU se puede derivar con base en maxTbSize. Por ejemplo, si el tamaño de CU es mayor que maxTbSize, se pueden derivar una pluralidad de TU (TB) de maxTbSize, y la transformación/transformación inversa se puede realizar en la unidad de TU (TB). Además, por ejemplo, en caso de que se aplique la intrapredicción, el modo/tipo de intrapredicción se puede derivar en la unidad de CU (o CB), y se puede realizar la derivación de una muestra de referencia vecina y la generación de una muestra de predicción. en la unidad de TU (o TB). En este caso, una o una pluralidad de TU (o TB) pueden estar presentes en un área de CU (o CB), y en este caso, la pluralidad de TU (o TB) pueden compartir el mismo modo/tipo de intrapredicción.
Además, en la codificación de vídeo/imagen según el presente documento, la unidad de procesamiento de imágenes puede tener una estructura jerárquica. Una imagen se puede dividir en uno o más mosaicos, bloques, segmentos y/o grupos de mosaicos. Una parte puede incluir uno o más bloques. Un bloque puede incluir una o más filas de CTU en un mosaico. El segmento puede incluir un número entero de bloques de la imagen. Un grupo de mosaicos puede incluir uno o más mosaicos. Un mosaico es una región rectangular de CTU dentro de una columna de mosaicos particular y una fila de mosaicos particular en una imagen. El grupo de mosaicos puede incluir un número entero de mosaicos según el escaneo de trama de mosaicos en la imagen. Una cabecera de segmento puede contener información/parámetros que se pueden aplicar al segmento correspondiente (bloques denle el segmento). En caso de que el aparato de codificación/decodificación tenga un procesador multinúcleo, los procedimientos de codificación/decodificación para el grupo de mosaico, segmento, bloque y/o mosaico se pueden procesar en paralelo. En el presente documento, la parte o el grupo de mosaicos pueden usarse indistintamente. Es decir, la cabecera del grupo de mosaicos puede denominarse cabecera de segmento. Aquí, el segmento puede tener uno de los tipos de segmento que incluyen un segmento intra (I), un segmento predictivo (P) y un segmento bipredictivo (B). Para la predicción de bloques en un segmento I, no se puede usar la predicción inter, sino sólo la predicción intra. Incluso en este caso, el valor de la muestra original puede codificarse y señalarse sin la predicción. Para bloques en el segmento P, se puede usar la intrapredicción o la interpredicción, y en caso de usar la interpredicción, solo se puede usar la unipredicción. Mientras tanto, para los bloques en el segmento B, se puede usar la intrapredicción o la interpredicción, y en caso de usar la interpredicción, se puede usar como máximo hasta la bipredicción.
Según las características (por ejemplo, resolución) de la imagen de vídeo, o teniendo en cuenta la eficiencia de codificación o el procesamiento paralelo, el codificador puede determinar los tamaños de unidad de codificación máximo y mínimo, bloque/grupo de mosaicos, bloque, segmento, y la información correspondiente. o información capaz de inducir lo mismo puede incluirse en el flujo de bits.
El decodificador puede obtener información que representa si el mosaico/grupo de mosaicos, bloque, segmento o CTU en el mosaico de la imagen actual se ha dividido en una pluralidad de unidades de codificación. Al obtener (transmitir) dicha información sólo bajo una condición específica, se puede mejorar la eficiencia.
Mientras tanto, como se describió anteriormente, una imagen puede incluir una pluralidad de segmentos , y un segmento puede incluir una cabecera de segmento y datos de segmento. En este caso, se puede añadir además una cabecera de imagen para la pluralidad de segmentos (conjunto de cabecera de segmento y datos de segmento) en una imagen. La cabecera de imagen (sintaxis de cabecera de imagen) puede incluir información/parámetros capaces de aplicarse comúnmente a la imagen. La cabecera de segmento (sintaxis de cabecera de segmento) puede incluir información/parámetros capaces de aplicarse comúnmente al segmento. Un conjunto de parámetros de adaptación (APS) o un conjunto de parámetros de imagen (PPS) puede incluir información/parámetros capaces de aplicarse comúnmente a una o más imágenes. Un conjunto de parámetros de secuencia (SPS) puede incluir información/parámetros capaces de aplicarse comúnmente a una o más secuencias. Un conjunto de parámetros de vídeo (VPS) puede incluir información/parámetros capaces de aplicarse comúnmente a múltiples capas. Un conjunto de parámetros de decodificación (DPS) puede incluir información/parámetros capaces de aplicarse comúnmente al vídeo general. El DPS puede incluir información/parámetros relacionados con la concatenación de una secuencia de vídeo codificada (CVS).
En el presente documento, una sintaxis de capa superior puede incluir al menos una de la sintaxis APS, sintaxis PPS, sintaxis SPS, sintaxis VPS, sintaxis DPS, sintaxis de cabecera de imagen y sintaxis de cabecera de segmento.
Además, por ejemplo, la información sobre la división y la configuración de la losa/grupo de losas/ladrillo/segmento puede ser configurada por el extremo de codificación a través de la sintaxis de nivel superior, y puede transferirse al aparato de decodificación en forma de un flujo de bits.
En el presente documento, se puede omitir al menos uno de cuantificación/descuantificación y/o transformación/transformación inversa. Cuando se omite la cuantificación/descuantificación, el coeficiente de transformación cuantificado puede denominarse coeficiente de transformación. Cuando se omite la transformación/transformación inversa, el coeficiente de transformación puede denominarse coeficiente o coeficiente residual o aún puede denominarse coeficiente de transformación para uniformidad de expresión.
En el presente documento, el coeficiente de transformación cuantificado y el coeficiente de transformación pueden denominarse coeficiente de transformación y coeficiente de transformación escalado, respectivamente. En este caso, la información residual puede incluir información sobre el coeficiente o coeficientes de transformación, y la información sobre el coeficiente o coeficientes de transformación puede señalizarse mediante sintaxis de codificación residual. Los coeficientes de transformación se pueden derivar con base en la información residual (o información sobre el coeficiente o coeficientes de transformación), y los coeficientes de transformación escalados se pueden derivar mediante transformación inversa (escalamiento) en los coeficientes de transformación. Se pueden derivar muestras residuales con base en la transformada inversa (transformación) de los coeficientes de transformación escalados. Esto también puede aplicarse/expresarse en otras partes del presente documento.
Como los contenidos descritos anteriormente, el aparato de codificación puede realizar varios métodos de codificación, por ejemplo, tales como Golomb exponencial, codificación de longitud variable adaptativa al contexto (CAVLC) y codificación aritmética binaria adaptativa al contexto (CABAC). Además, el aparato de decodificación puede decodificar información en el flujo de bits con base en el método de codificación, tal como el Golomb exponencial, CAVLC o CABAC, y puede generar un valor de un elemento de sintaxis y valores cuantificados de coeficientes de transformación para residuos, siendo necesarios para la imagen. reconstrucción. Por ejemplo, los métodos de codificación descritos anteriormente se pueden realizar como en los contenidos que se describirán más adelante.
En el presente documento, la intrapredicción puede representar la predicción que genera las muestras de predicción para el bloque actual con base en las muestras de referencia en la imagen (en adelante, imagen actual) a la que pertenece el bloque actual. En caso de que la intrapredicción se aplique al bloque actual, se pueden derivar las muestras de referencia vecinas que se usarán para la intrapredicción del bloque actual. Las muestras de referencia vecinas del bloque actual pueden incluir una muestra adyacente al límite izquierdo del bloque actual que tiene el tamaño de nWxnH y un total de 2xnH muestras vecinas a la parte inferior izquierda, una muestra adyacente al límite superior del bloque actual y un total de 2xnW. muestras vecinas a la parte superior derecha y una muestra vecina a la parte superior izquierda del bloque actual. Además, las muestras de referencia vecinas del bloque actual pueden incluir una pluralidad de columnas de muestras vecinas superiores y una pluralidad de filas de muestras vecinas izquierdas. Además, las muestras de referencia vecinas del bloque actual pueden incluir muestras totales de nH adyacentes al límite derecho del bloque actual que tienen el tamaño de nWxnH, muestras totales de nW adyacentes al límite inferior del bloque actual y una muestra vecina al límite inferior derecho del bloque actual.
Sin embargo, es posible que algunas de las muestras de referencia vecinas del bloque actual aún no se hayan decodificado o habilitado. En este caso, el aparato de decodificación puede configurar las muestras de referencia vecinas que se usarán para la predicción a través de la subestación de muestras habilitadas para muestras no habilitadas. Además, las muestras de referencia vecinas que se usarán para la predicción se pueden configurar mediante la interpolación de las muestras habilitadas.
En caso de que se deriven las muestras de referencia vecinas, (i) la muestra de predicción puede inducirse con base en un promedio o interpolación de las muestras de referencia vecinas del bloque actual, y (ii) la muestra de predicción puede inducirse con base en la muestra de referencia que está presente en una dirección (predicción) específica para la muestra de predicción entre las muestras de referencia vecinas del bloque actual. El caso de (i) puede denominarse modo no direccional o modo no angular, y el caso de (ii) puede denominarse modo direccional o modo angular. Además, la muestra de predicción se puede generar mediante la interpolación de la primera muestra vecina con la segunda muestra vecina ubicada en una dirección opuesta a la dirección de predicción del modo de intrapredicción del bloque actual con base en la muestra de predicción del bloque actual entre los vecinos. muestras de referencia. El caso descrito anteriormente puede denominarse intrapredicción por interpolación lineal (LIP). Además, se pueden generar muestras de predicción de croma con base en muestras de luma usando un modelo lineal. Este caso puede denominarse modo LM. Además, se puede derivar una muestra de predicción temporal del bloque actual con base en las muestras de referencia vecinas filtradas, y se puede derivar una muestra de predicción del bloque actual calculando una suma ponderada de la muestra de predicción temporal y al menos una muestra de referencia derivada en según el modo de intrapredicción entre las muestras de referencia vecinas existentes, es decir, muestras de referencia vecinas no filtradas. El caso descrito anteriormente puede denominarse intrapredicción dependiente de la posición (PDPC). Además, la muestra de predicción se puede derivar usando una muestra de referencia ubicada en una dirección de predicción en una línea de muestra de referencia que tiene la precisión de predicción más alta entre las múltiples líneas de muestra de referencia vecinas del bloque actual mediante la selección de la línea correspondiente y, en este caso, La codificación de intrapredicción se puede realizar en un método para indicar (señalizar) la línea de muestra de referencia usada al aparato de decodificación. El caso descrito anteriormente puede denominarse intrapredicción de líneas de referencia múltiple (MRL) o intrapredicción basada en MRL. Además, la intrapredicción se puede realizar con base en el mismo modo de intrapredicción mediante la división del bloque actual en subdivisiones verticales u horizontales, y las muestras de referencia vecinas se pueden derivar y usar en la unidad de una subdivisión. Es decir, en este caso, dado que el modo de intrapredicción para el bloque actual se aplica igualmente a las subdivisiones, y las muestras de referencia vecinas se derivan y usan en la unidad de la subdivisión, el rendimiento de intrapredicción se puede mejorar en algunos casos. Un método de predicción de este tipo puede denominarse intrasubdivisiones (ISP) o intrapredicción basada en ISP. El método de intrapredicción descrito anteriormente puede denominarse tipo de intrapredicción a diferencia del modo de intrapredicción. El tipo de intrapredicción puede denominarse mediante varios términos, tales como una técnica de intrapredicción o un modo de intrapredicción adicional. Por ejemplo, el tipo de intrapredicción (o modo de intrapredicción adicional) puede incluir al menos uno de LIP, PDPC, MRL o ISP descritos anteriormente. Un método de intrapredicción general que excluye un tipo de intrapredicción específico, tal como LIP, PDPC, MRL o ISP, puede denominarse tipo de intrapredicción normal. El tipo de intrapredicción normal puede aplicarse generalmente en caso de que no se aplique el tipo de intrapredicción específico, y la predicción puede realizarse con base en el modo de intrapredicción descrito anteriormente. Mientras tanto, según sea necesario, se puede realizar un postfiltrado para la muestra de predicción derivada.
Específicamente, el procedimiento de intrapredicción puede incluir pasos de determinación de modo/tipo de intrapredicción, derivación de muestra de referencia vecina y derivación de muestra de predicción basada en modo/tipo de intrapredicción. Además, según sea necesario, se puede realizar un paso de postfiltrado para la muestra de predicción derivada.
Mientras tanto, además de los tipos de predicción descritos anteriormente, se puede usar una intrapredicción ponderada lineal afín (ALWIP). La ALWIP puede denominarse intrapredicción ponderada lineal (LWIP) o intrapredicción ponderada matricial (MIP) o intrapredicción basada en matriz. En caso de que se aplique la MIP para el bloque actual, i) usando las muestras de referencia vecinas para las cuales se ha realizado un procedimiento de promediado ii) se puede realizar un procedimiento de multiplicación de matriz-vector, y iii) según sea necesario, las muestras de predicción para el bloque actual se pueden obtener realizando además una interpolación horizontal/vertical. Los modos de intrapredicción que se usan para la MIP pueden configurarse de manera diferente a la intrapredicción LIP, PDPC, MRL o ISP descrita anteriormente, o los modos de intrapredicción que se usan para la intrapredicción normal. El modo de intrapredicción para la MIP puede denominarse modo de intrapredicción MIP, modo de predicción MIP o modo MIP. Por ejemplo, según el modo de intrapredicción para la MIP, una matriz y una compensación que se usan para la multiplicación de vectores de matrices pueden configurarse de manera diferente. Aquí, la matriz puede denominarse matriz ponderada (MIP) y la compensación puede denominarse vector de compensación (MIP) o vector de sesgo (MIP).
Esquemáticamente, por ejemplo, el procedimiento de codificación de vídeo/imagen basado en intrapredicción puede incluir lo siguiente.
La FIG. 4 ilustra un ejemplo de un método de codificación de vídeo/imagen con base en intrapredicción.
Haciendo referencia a la FIG. 4, S400 puede ser realizado por el intrapredictor 222 del aparato de codificación, y del S410 al S430 pueden ser realizados por el procesador 230 residual del aparato de codificación. Específicamente, S410 puede realizarse mediante el restador 231 del aparato de codificación, S420 puede realizarse mediante el transformador 232 y el cuantificador 233 del aparato de codificación, y S430 puede realizarse mediante el descuantificador 234 y el transformador 235 inverso del aparato de codificación. En S400, la información de predicción puede derivarse mediante el intrapredictor 222 y puede codificarse mediante el codificador 240 de entropía. A través de S410 y S420, puede derivarse información residual y puede codificarse mediante el codificador de entropía 240. La información residual es información sobre las muestras residuales. La información residual puede incluir información sobre los coeficientes de transformación cuantificados para las muestras residuales. Como se describió anteriormente, las muestras residuales pueden derivarse como coeficientes de transformación a través del transformador 232 del aparato de codificación, y los coeficientes de transformación pueden derivarse como coeficientes de transformación cuantificados a través del cuantificador 233. La información sobre los coeficientes de transformación cuantificados puede codificarse mediante el codificador 240 de entropía a través del procedimiento de codificación residual.
El aparato de codificación realiza intrapredicción para el bloque actual (S400). El aparato de codificación puede derivar un modo de intrapredicción para el bloque actual, derivar muestras de referencia vecinas del bloque actual y generar muestras de predicción en el bloque actual con base en el modo de intrapredicción y las muestras de referencia vecinas. Aquí, los procedimientos para determinar el modo de intrapredicción, derivar las muestras de referencia vecinas y generar las muestras de predicción se pueden realizar simultáneamente, y cualquier procedimiento se puede realizar antes de otro procedimiento. Por ejemplo, el intrapredictor 222 del aparato de codificación puede incluir un determinador de modo/tipo de predicción, un derivador de muestras de referencia y un derivador de muestras de predicción, y el determinador de modo/tipo de predicción puede determinar el modo/tipo de intrapredicción para el bloque actual, el derivador de muestras de referencia puede derivar las muestras de referencia vecinas del bloque actual, y el derivador de muestras de predicción puede derivar muestras de movimiento del bloque actual. Mientras tanto, en caso de que se realice un procedimiento de filtrado de muestras de predicción que se describirá más adelante, el intrapredictor 222 puede incluir además un filtro de muestras de predicción. El aparato de codificación puede determinar un modo que se aplica para el bloque actual entre una pluralidad de modos de intrapredicción. El aparato de codificación puede comparar los costes de RD para los modos de intrapredicción y puede determinar el modo de intrapredicción óptimo para el bloque actual.
Mientras tanto, el aparato de codificación puede realizar el procedimiento de filtrado de muestras de predicción. El filtrado de muestras de predicción puede denominarse postfiltrado. Algunas o todas las muestras de predicción pueden filtrarse mediante el procedimiento de filtrado de muestras de predicción. En algunos casos, se puede omitir el procedimiento de filtrado de muestras de predicción.
El aparato de codificación deriva muestras residuales para el bloque actual con base en las muestras de predicción (S410). El aparato de codificación puede comparar las muestras de predicción con las muestras originales del bloque actual con base en la fase, y puede derivar las muestras residuales.
El aparato de codificación puede derivar coeficientes de transformación cuantificados a través de la transformación/cuantización de las muestras residuales (S420), y luego puede derivar las muestras residuales (modificadas) realizando de nuevo la descuantificación/transformación inversa de los coeficientes de transformación cuantificados (S430). La razón por la que realizar la descuantificación/transformación inversa nuevamente después de la transformación/cuantización es derivar las mismas muestras residuales que las muestras residuales obtenidas por el aparato de decodificación como se describió anteriormente.
El aparato de codificación puede generar un bloque reconstruido que incluye muestras reconstruidas para el bloque actual con base en las muestras de predicción y las muestras residuales (modificadas) (S440). Con base en el bloque reconstruido, se puede generar una imagen reconstruida para la imagen actual.
Como se describió anteriormente, el aparato de codificación puede codificar información de imagen que incluye información de predicción sobre la intrapredicción (por ejemplo, información del modo de predicción que representa el modo de predicción) y la información residual sobre las muestras intra/residuales, y puede generar la información de imagen codificada en la forma de flujo de bits. La información residual puede incluir una sintaxis de codificación residual. El aparato de codificación puede derivar coeficientes de transformación cuantificados mediante transformación/cuantización de las muestras residuales. La información residual puede incluir información sobre los coeficientes de transformación cuantificados.
Esquemáticamente, por ejemplo, el procedimiento de decodificación de vídeo/imagen basado en intrapredicción puede incluir lo siguiente.
La FIG. 5 ilustra un ejemplo de un método de decodificación de vídeo/imagen basado en intrapredicción.
El aparato decodificador puede realizar una operación correspondiente a la operación realizada por el aparato codificador.
Haciendo referencia a la FIG. 5, S500 a 510 puede realizarse mediante el intrapredictor 331 del aparato de decodificación, y la información de predicción de S500 y la información residual de S530 pueden obtenerse de un flujo de bits mediante el decodificador 310 de entropía del aparato de decodificación. El procesador 320 residual del aparato de decodificación puede derivar muestras residuales para el bloque actual con base en la información residual. Específicamente, el descuantificador 321 del procesador 320 residual puede derivar coeficientes de transformación realizando una descuantificación basada en los coeficientes de transformación cuantificados derivados con base en la información residual, y el transformador 322 inverso del procesador residual puede derivar las muestras residuales para el bloque actual realizando la descuantificación de los coeficientes de transformación. S540 puede ser realizado por el sumador 340 o el reconstructor del aparato de decodificación.
Específicamente, el aparato de decodificación puede derivar el modo de intrapredicción para el bloque actual con base en la información de predicción recibida (S500). El aparato de decodificación puede derivar muestras de referencia vecinas del bloque actual (S510). El aparato de decodificación genera muestras de predicción en el bloque actual realizando la intrapredicción con base en el modo de intrapredicción y las muestras de referencia vecinas (S520). En este caso, el aparato de decodificación puede realizar el procedimiento de filtrado de muestras de predicción. El filtrado de muestras de predicción puede denominarse postfiltrado. Algunas o todas las muestras de predicción pueden filtrarse mediante el procedimiento de filtrado de muestras de predicción.
El aparato de decodificación genera las muestras residuales para el bloque actual con base en la información residual recibida (S530). El aparato de decodificación puede generar muestras reconstruidas para el bloque actual con base en las muestras de predicción y las muestras residuales, y puede derivar un bloque reconstruido que incluya las muestras reconstruidas (S540). Se puede generar una imagen reconstruida para la imagen actual con base en el bloque reconstruido.
Aquí, el intrapredictor 331 del aparato de decodificación puede incluir un determinante de modo/tipo de predicción, un derivador de muestras de referencia y un derivador de muestras de predicción. El determinador de modo/tipo de predicción puede determinar el modo de intrapredicción para el bloque actual con base en la información del modo de predicción obtenida por el decodificador 310 de entropía del aparato de decodificación, el derivador de muestras de referencia puede derivar las muestras de referencia vecinas del bloque actual, y el derivador de muestras de predicción puede derivar la muestra de predicción del bloque actual. Mientras tanto, en caso de que se realice el procedimiento de filtrado de muestra de predicción descrito anteriormente, el intrapredictor 331 puede incluir además un filtro de muestras de predicción.
La información de predicción puede incluir información de modo de intrapredicción y/o información de tipo de intrapredicción. Por ejemplo, la información del modo de intrapredicción puede incluir información de indicador (por ejemplo, intra_luma_mpm_flag) que representa si se aplica un modo más probable (MPM) o un modo restante al bloque actual, y en caso de que el MPM se aplique al bloque actual, la información del modo de predicción puede incluir además información de índice (por ejemplo, intra_luma_mpm_idx) que representa uno de los candidatos al modo de intrapredicción (candidatos MPM). Los candidatos del modo de intrapredicción (candidatos MPM) pueden constituir una lista de candidatos MPM o una lista MPM. Además, en caso de que el MPM no se aplique al bloque actual, la información del modo de intrapredicción puede incluir además información del modo restante (por ejemplo, intra_luma_mpm_remainder) que indica uno de los modos de intrapredicción restantes excluyendo los candidatos al modo de intrapredicción (candidatos de MPM). El aparato de decodificación puede determinar el modo de intrapredicción del bloque actual con base en la información del modo de intrapredicción. Para el MIP descrito anteriormente, se puede configurar una lista de MPM separada.
Además, la información de tipo de intrapredicción se puede implementar de diversas formas. Como ejemplo, la información de tipo de intrapredicción puede incluir información de índice de tipo de intrapredicción que indica uno de los tipos de intrapredicción. Como otro ejemplo, la información de tipo de intrapredicción puede incluir al menos una información de línea de muestra de referencia (por ejemplo, intra_luma_ref_idx) que representa si el LMR se aplica al bloque actual y qué línea de muestra de referencia se usa en caso de que se aplique el LMR, ISP. información de marca (por ejemplo, intra_subpartitions_mode_flag) que representa si el ISP se aplica al bloque actual, información de tipo de ISP (por ejemplo, intra_subpartitions_split_flag) que indica el tipo de división de las subdivisiones en caso de que se aplique el ISP, información de marca que representa si se aplica el PDCP, o información del indicador que representa si se aplica el LIP. Además, la información del tipo de intrapredicción puede incluir un indicador MIP que representa si la MIP se aplica al bloque actual.
La información del modo de intrapredicción y/o la información del tipo de intrapredicción se pueden codificar/descodificar mediante el método de codificación descrito en el presente documento. Por ejemplo, la información del modo de intrapredicción y/o la información del tipo de intrapredicción se pueden codificar/descodificar mediante codificación entrópica (por ejemplo, CABAC o CAVLC) basada en un código binario truncado (rice).
Mientras tanto, esquemáticamente por ejemplo, el procedimiento de codificación de vídeo/imagen con base en la interpredicción puede incluir lo siguiente.
La FIG. 6 ilustra un ejemplo de método de codificación de vídeo/imagen con base en interpredicción.
Haciendo referencia a la FIG. 6, el aparato de codificación realiza interpredicción para el bloque actual (S600). El aparato de codificación puede derivar un modo de interpredicción e información de movimiento del bloque actual, y puede generar muestras de predicción del bloque actual. Aquí, los procedimientos para determinar el modo de interpredicción, derivar información de movimiento y generar las muestras de predicción se pueden realizar simultáneamente, y cualquier procedimiento se puede realizar antes de otro procedimiento. Por ejemplo, el interpredictor del aparato de codificación puede incluir un determinador del modo de predicción, un derivador de información de movimiento y un derivador de muestras de predicción, y el determinador de modo de predicción puede determinar el modo de predicción para el bloque actual, el derivador de información de movimiento puede derivar la información de movimiento del bloque actual, y el derivador de muestras de predicción puede derivar las muestras de predicción para el bloque actual. Por ejemplo, el interpredictor del aparato de codificación puede buscar un bloque similar al bloque actual en un área específica (área de búsqueda) de las imágenes de referencia mediante estimación de movimiento, y puede derivar el bloque de referencia que tiene una diferencia con respecto al bloque actual que es el mínimo o igual o inferior a un nivel predeterminado. Con base en esto, se deriva un índice de imagen de referencia que indica una imagen de referencia en donde está situado el bloque de referencia, y se deriva un vector de movimiento con base en una diferencia de ubicación entre el bloque de referencia y el bloque actual. El aparato de codificación puede determinar un modo que se aplica para el bloque actual entre varios modos de predicción. El aparato de codificación puede comparar los costos de distorsión de velocidad (RD) para los diversos modos de predicción y puede determinar el modo de predicción óptimo para el bloque actual.
Por ejemplo, en caso de que se aplique un modo de salto o un modo de combinación al bloque actual, el aparato de codificación puede configurar una lista de candidatos de combinación y puede derivar el bloque de referencia que tiene la diferencia con el bloque actual que es mínima o igual a o inferior al nivel predeterminado entre los bloques de referencia indicados por los candidatos de combinación incluidos en la lista de candidatos de combinación. En este caso, se puede seleccionar un candidato de combinación relacionado con el bloque de referencia derivado, y se puede generar y señalar al aparato de decodificación información de índice de combinación que indique el candidato de combinación seleccionado. La información de movimiento del bloque actual se puede derivar usando la información de movimiento del candidato de combinación seleccionado.
Como otro ejemplo, en caso de que se aplique un modo (A)MVP al bloque actual, el aparato de codificación puede configurar una lista de candidatos (A)MVP y puede usar el vector de movimiento del candidato mvp seleccionado entre los candidatos del predictor de vector de movimiento (mvp) incluidos en la lista de candidatos (A)MVP como mvp del bloque actual. En este caso, por ejemplo, el vector de movimiento que indica el bloque de referencia derivado de la estimación de movimiento descrita anteriormente puede usarse como el vector de movimiento del bloque actual, y el candidato mvp que tiene el vector de movimiento que tiene la diferencia más pequeña con respecto al vector de movimiento del bloque actual entre los candidatos a mvp puede ser el candidato mvp seleccionado. Se puede derivar una diferencia de vector de movimiento (MVD), que es la diferencia obtenida restando el mvp del vector de movimiento del bloque actual. En este caso, se puede enviar información sobre la MVD al aparato de decodificación. Además, en caso de que se aplique el modo (A)MVP, el valor del índice de imagen de referencia puede configurarse como la información del índice de imagen de referencia, y puede señalizarse por separado al aparato de decodificación.
El aparato de codificación puede derivar muestras residuales con base en las muestras de predicción (S610). El aparato de codificación puede derivar las muestras residuales mediante la comparación de las muestras de predicción con las muestras originales del bloque actual.
El aparato de codificación codifica información de imagen que incluye información de predicción e información residual (S620). El aparato de codificación puede generar la información de la imagen codificada en forma de un flujo de bits. La información de predicción puede ser información relacionada con el procedimiento de predicción y puede incluir información relacionada con la información del modo de predicción (por ejemplo, indicador de salto, indicador de combinación o índice de modo) y la información de movimiento. La información sobre la información de movimiento puede incluir información de selección de candidatos (por ejemplo, índice de combinación, indicador mvp o índice mvp) que es la información para derivar el vector de movimiento. Además, la información sobre la información de movimiento puede incluir información sobre la MVD descrita anteriormente y/o la información del índice de imágenes de referencia. Además, la información sobre la información de movimiento puede incluir información que represente si se aplica la predicción L0, la predicción L1 o la bipredicción. La información residual es información sobre las muestras residuales. La información residual puede incluir información sobre coeficientes de transformación cuantificados para las muestras residuales.
El flujo de bits de salida puede almacenarse en un medio de almacenamiento (digital) para transferirse al aparato decodificador, o puede transferirse al aparato decodificador a través de una red.
Mientras tanto, como se describió anteriormente, el aparato de codificación puede generar una imagen reconstruida (incluyendo muestras reconstruidas y bloques reconstruidos) con base en las muestras de referencia y las muestras residuales. Esto es para que el aparato de codificación obtenga el mismo resultado de predicción que el realizado en el aparato de decodificación y, a través de esto, se puede mejorar la eficiencia de la codificación. En consecuencia, el aparato de codificación puede almacenar la imagen reconstruida (o muestras reconstruidas o bloque reconstruido) en una memoria, y puede usar la misma como imagen de referencia para la interpredicción. Como se describió anteriormente, se puede aplicar además un procedimiento de filtrado en bucle a la imagen reconstruida.
Esquemáticamente, por ejemplo, un procedimiento de decodificación de vídeo/imagen con base en interpredicción puede incluir lo siguiente.
La FIG. 7 ilustra un ejemplo de un método de decodificación de vídeo/imagen con base en interpredicción.
El aparato de decodificación puede realizar una operación correspondiente a la operación realizada por el aparato de codificación. El aparato de decodificación puede realizar una predicción para el bloque actual con base en la información de predicción recibida y puede derivar muestras de predicción.
Específicamente, haciendo referencia a la FIG. 7, el aparato de decodificación puede determinar un modo de predicción para el bloque actual con base en la información de predicción recibida de un flujo de bits (S700). El aparato de decodificación puede determinar qué modo de interpredicción se aplica al bloque actual con base en la información del modo de predicción en la información de predicción.
Por ejemplo, se puede determinar si se aplica un modo de combinación al bloque actual con base en un indicador de combinación, o si se determina un modo (A)MVP. Además, se puede seleccionar uno de varios candidatos de modo de interpredicción con base en el índice de combinación. Los candidatos al modo de interpredicción pueden incluir varios modos de interpredicción, tales como un modo de salto, un modo de combinación y/o un modo (A)MVP.
El aparato de decodificación deriva información de movimiento del bloque actual con base en el modo de interpredicción determinado (S710). Por ejemplo, en caso de que se aplique un modo de omisión o un modo de combinación al bloque actual, el aparato de decodificación puede configurar una lista de candidatos de combinación que se describirá más adelante, y puede seleccionar uno de los candidatos de combinación incluidos en la lista de candidatos de combinación. La selección se puede realizar con base en la información de selección descrita anteriormente (índice de combinación). La información de movimiento del bloque actual se puede derivar usando la información de movimiento del candidato de combinación seleccionado. La información de movimiento del candidato de combinación seleccionado se puede usar como información de movimiento del bloque actual.
Como otro ejemplo, en caso de que el modo (A)MVP se aplique al bloque actual, el aparato de decodificación puede configurar la lista de candidatos (A)MVP y puede usar el vector de movimiento del candidato mvp seleccionado entre los candidatos de predictor de vector de movimiento (mvp) incluidos en la lista de candidatos (A)MVP. La selección se puede realizar con base en la información de selección descrita anteriormente (indicador mvp o índice mvp). En este caso, la MVD del bloque actual puede derivarse con base en información sobre la MVD, y el vector de movimiento del bloque actual puede derivarse con base en el mvp y la MVD del bloque actual. Además, el índice de imagen de referencia del bloque actual puede derivarse con base en la información del índice de imagen de referencia. La imagen indicada por el índice de imágenes de referencia en la lista de imágenes de referencia para el bloque actual puede derivarse como la imagen de referencia a la que se hace referencia para la interpredicción del bloque actual.
Mientras tanto, la información de movimiento del bloque actual se puede derivar sin la configuración de la lista de candidatos y, en este caso, se puede omitir la configuración de la lista de candidatos descrita anteriormente.
El aparato de decodificación puede generar muestras de predicción para el bloque actual con base en la información de movimiento del bloque actual (S720). En este caso, la imagen de referencia puede derivarse con base en el índice de imagen de referencia del bloque actual, y el vector de movimiento del bloque actual puede derivar las muestras de predicción del bloque actual usando muestras del bloque de referencia indicado en la imagen de referencia. En este caso, que se describirá más adelante, el procedimiento de filtrado de muestras de predicción se puede realizar además para todas o algunas de las muestras de predicción del bloque actual según sea necesario.
Por ejemplo, el interpredictor del aparato de decodificación puede incluir un determinador de modo de predicción, un derivador de información de movimiento y un derivador de muestras de predicción, y el determinador de modo de predicción puede determinar el modo de predicción para el bloque actual con base en la información del modo de predicción recibida, el derivador de información de movimiento puede derivar la información de movimiento (vector de movimiento y/o índice de imagen de referencia) del bloque actual con base en la información sobre la información de movimiento recibida, y el derivador de muestras de predicción puede derivar las muestras de predicción del bloque actual.
El aparato de decodificación genera muestras residuales para el bloque actual con base en la información residual recibida (S730). El aparato de decodificación puede generar muestras reconstruidas para el bloque actual con base en las muestras de predicción y las muestras residuales (S740). A partir de entonces, el procedimiento de filtrado en bucle se puede aplicar adicionalmente a la imagen reconstruida como se describe anteriormente.
Mientras tanto, como se describió anteriormente, se puede codificar/señalizar una sintaxis de alto nivel (HLS) para codificación de vídeo/imagen. La imagen codificada puede estar compuesta de uno o más segmentos. Un parámetro que describe la imagen codificada se señaliza en la cabecera de la imagen y un parámetro que describe el segmento se señaliza en la cabecera del segmento. La cabecera de la imagen se presenta en forma de unidad NAL. La cabecera del segmento está presente en una parte inicial de la unidad NAL que incluye una carga útil del segmento (es decir, datos de segmento).
Cada imagen está relacionada con una cabecera de imagen. La imagen puede estar compuesta de diferentes tipos de segmentos (segmento intracodificado (es decir, segmento I) y segmento intercodificado (es decir, segmento P y segmento B)). En consecuencia, la cabecera de la imagen puede incluir elementos de sintaxis necesarios para el segmento intra de la imagen y el segmento inter de la imagen. Por ejemplo, la sintaxis de la cabecera de imagen puede ser como en la siguiente Tabla 1.
[Tabla 1]
Entre los elementos de sintaxis de la Tabla 1, los elementos de sintaxis que incluyen "intra_slice" en sus títulos (por ejemplo, pic_log2_diff_min_qt_min_cb_intra_slice_luma) son elementos de sintaxis que se usan en un segmento de la imagen correspondiente, y elementos de sintaxis (por ejemplo, pic_temporal_mvp_enabled_flag) relacionados con elementos de sintaxis que incluyen "inter_slice" en sus títulos (por ejemplo, pic_log2_diff_min_qt_min_cb_inter_slice, mvp, mvd, mmvd y merge) son elementos de sintaxis que se usan en el segmento P y/o B de la imagen correspondiente.
Es decir, la cabecera de imagen incluye todos los elementos de sintaxis necesarios para el segmento intracodificado y los elementos de sintaxis necesarios para el segmento intercodificado para cada imagen individual. Sin embargo, esto es útil sólo con respecto a la imagen que incluye segmentos de tipo mixto (imagen que incluye todos los segmentos intracodificados e intercodificados). En general, dado que la imagen no incluye los segmentos de tipo mixto (es decir, la imagen general incluye sólo los segmentos intracodificados o sólo los segmentos intercodificados), no es necesario realizar la señalización de todos los datos (los elementos de sintaxis se usan en el segmento intracodificado y los elementos de sintaxis que se utilizan en el segmento intercodificado).
Los siguientes dibujos han sido preparados para explicar un ejemplo detallado del presente documento. Dado que el nombre de un dispositivo detallado o el nombre de una señal/información detallada se presenta a modo de ejemplo, las características técnicas del presente documento no se limitan a los nombres detallados usados en el siguiente dibujo.
El presente documento proporciona los siguientes métodos para resolver el problema descrito anteriormente. Los elementos de cada método se pueden aplicar individualmente o en combinación.
1. Se puede señalizar una bandera en la cabecera de imagen para especificar si en la cabecera de imagen están presentes elementos de sintaxis que son necesarios sólo para los segmentos intracodificados. El indicador puede denominarse intra_signaling_present_flag.
a) Cuando intra_signaling_present_flag es igual a 1, los elementos de sintaxis necesarios para los segmentos intracodificados están presentes en la cabecera de imagen. Del mismo modo, cuando intra_signaling_present_flag es igual a 0, los elementos de sintaxis necesarios para los segmentos intracodificados no están presentes en la cabecera de imagen.
b) El valor de intra_signling_present_flag en una cabecera de imagen será igual a 1 si la imagen asociada con la cabecera de imagen tiene al menos un segmento intracodificado.
c) El valor de intra_signaling_present_flag en una cabecera de imagen puede ser igual a 1 incluso cuando la imagen asociada con la cabecera de imagen no tiene un segmento intracodificado.
d) Cuando una imagen tiene una o más subimagen o subimágenes que contienen únicamente segmentos intracodificados y se prevé que una o más de la subimagen o subimágenes puedan extraerse y combinarse con subimágenes que contengan uno o más segmentos intercodificados, el valor de intra_signaling_present_flag debe establecerse en 1.
2. Se puede señalizar un indicador en la cabecera de la imagen para especificar si en la cabecera de la imagen están presentes elementos de sintaxis que sólo son necesarios para los segmentos intercodificados. El indicador puede denominarse inter_signaling_present_flag.
a) Cuando inter_signaling_present_flag es igual a 1, los elementos de sintaxis necesarios para los segmentos intercodificados están presentes en la cabecera de la imagen. Del mismo modo, cuando inter_signaling_present_flag es igual a 0, los elementos de sintaxis necesarios para los segmentos intercodificados no están presentes en la cabecera de imagen.
b) El valor de inter_signaling_present_flag en una cabecera de imagen será igual a 1 si la imagen asociada con la cabecera de imagen tiene al menos un segmento intercodificado.
c) El valor de inter_signaling_present_flag en una cabecera de imagen puede ser igual a 1 incluso cuando la imagen asociada con la cabecera de imagen no tiene un segmento intercodificado.
d) Cuando una imagen tiene una o más subimagen o subimágenes que contienen únicamente segmentos intercodificados y se prevé que una o más de la subimagen o subimágenes puedan extraerse y combinarse con subimágenes que contengan uno o más segmentos intracodificados, el valor de inter_signaling_present_flag debe establecerse en 1.
3. Los indicadores anteriores (intra_signaling_present_flag e inter_signaling_present_flag) pueden señalizarse en otro conjunto de parámetros, como el conjunto de parámetros de imagen (PPS) en lugar de en la cabecera de imagen).
4. Otra alternativa para señalizar los indicadores anteriores puede ser la siguiente.
a) Dos variables IntraSignalingPresentFlag e InterSignalingPresentFlag que especifican si se pueden definir los elementos de sintaxis necesarios para los segmentos intracodificados y los elementos de sintaxis necesarios para los segmentos intercodificados, respectivamente, presentes o no en la cabecera de imagen.
b) Puede señalizarse un indicador denominado mixed_slice_types_present_flag en la cabecera de la imagen. Cuando mixed_slice_types_present_flag es igual a 1, el valor de IntraSignalingPresentFlag e InterSignalingPresentFlag se establece para ser igual a 1.
c) Cuando mixed_slice_types_present_flag es igual a 0, se puede señalizar un indicador adicional denominado intra_slice_only_flag en la cabecera de la imagen y se aplica lo siguiente. Si intra_slice_only_flag es igual a 1, el valor de IntraSignalingPresentFlag se establece en 1 y el valor de InterSignalingPresentFlag se establece en 0. De lo contrario, el valor de IntraSignalingPresentFlag se establece en 0 y el valor de InterSignalingPresentFlag se establece en 1.
5. Se puede señalizar un elemento de sintaxis de longitud fija en la cabecera de imagen, que puede denominarse slice_types_idc, y que especifica la siguiente información.
a) Si la imagen asociada con la cabecera de imagen contiene únicamente segmentos intracodificados. Para este tipo, el valor de slice_types_idc se puede establecer en 0.
b) Si la imagen asociada con la cabecera de imagen contiene únicamente segmentos intercodificados. El valor de slice_types_idc se puede establecer en 1.
c) Si la imagen asociada con la cabecera de imagen puede contener segmentos intracodificados y segmentos intercodificados. El valor de slice_types_idc se puede establecer en 2. Tenga en cuenta que cuando slice_types_idc tiene un valor igual a 2, aún es posible que la imagen contenga solo segmentos intracodificados o intercodificados.
d) Se pueden reservar otros valores de slice_types_idc para uso futuro.
6. Para la semántica de slice_types_idc en una cabecera de imagen, se pueden especificar con más detalle las siguientes restricciones.
a) Cuando la imagen asociada con la cabecera de imagen tiene uno o más segmentos intracodificados, el valor de slice_types_idc no será igual a 1.
b) Cuando la imagen asociada con la cabecera de imagen tiene uno o más segmentos intercodificados, el valor de slice_types_idc no será igual a 0.
7. slice_types_idc se puede señalizar en otro conjunto de parámetros, como el conjunto de parámetros de imagen (PPS), en lugar de en la cabecera de imagen.
Como realización, el aparato de codificación y el aparato de decodificación pueden usar las siguientes Tablas 2 y 3 como sintaxis y semántica de la cabecera de imagen con base en los métodos de 1 y 2 como se describió anteriormente.
[Tabla 2]
[Tabla 3]
Con referencia a la Tabla 2 y la Tabla 3, si el valor de intra_signaling_present_flag es 1, esto puede representar que el elemento de sintaxis que se usa sólo en el segmento intracodificado está presente en la cabecera de la imagen. Si el valor de intra_signaling_present_flag es 0, esto puede representar que el elemento de sintaxis que se usa sólo en el segmento intracodificado no está presente en la cabecera de imagen. En consecuencia, si la imagen relacionada con la cabecera de imagen incluye uno o más segmentos que tienen el tipo de segmento I, el valor de intra_signaling_present_flag pasa a ser 1. Además, si la imagen relacionada con la cabecera de imagen no incluye los segmentos que tienen el tipo de segmento de segmento I, el valor de intra_signaling_present_flag pasa a ser 0.
Si el valor de inter_signaling_present_flag es 1, esto puede representar que el elemento de sintaxis que se usa sólo en el segmento intercodificado está presente en la cabecera de imagen. Si el valor de inter_signaling_present_flag es 0, esto puede representar que el elemento de sintaxis que se usa sólo en el segmento intercodificado no está presente en la cabecera de imagen. En consecuencia, si la imagen relacionada con la cabecera de imagen incluye uno o más segmentos que tienen el tipo de segmento P y/o B, el valor de intra_signaling_present_flag pasa a ser 1. Además, si la imagen relacionada con la cabecera de imagen no incluye los segmentos que tienen el tipo de segmento de segmento P y/o segmento B, el valor de intra_signaling_present_flag pasa a ser 0.
Además, en el caso de que la imagen incluya una o más subimágenes que incluyan los segmentos intracodificados que puedan combinarse con una o más subimágenes que incluyan los segmentos intercodificados, tanto el valor de intra_signaling_present_flag como el valor de inter_signaling_present_flag se establecen en 1.
Por ejemplo, en el caso de que sólo los segmentos intercodificados (segmento P y/o segmento B) estén incluidos en la imagen actual, el aparato de codificación puede determinar el valor de inter_signaling_present_flag como 1, y el valor de intra_signaling_present_flag como 0.
Como otro ejemplo, en caso de que solo se incluya el segmento intracodificado (segmento I) en la imagen actual, el aparato de codificación puede determinar el valor de inter_signaling_present_flag como 0, y el valor de intra_signaling_present_flag como 1.
Como otro ejemplo más, en el caso de que al menos un segmento intercodificado o al menos un segmento intracodificado esté incluido en la imagen actual, el aparato de codificación puede determinar el valor de inter_signaling_present_flag y el valor de intra_signaling_present_flag como 1 en todos.
En caso de que el valor del intra_signaling_present_flag se determine como 0, el aparato de codificación puede generar información de imagen en donde los elementos de sintaxis necesarios para el segmento intra se excluyen u omiten, y solo se incluyen los elementos de sintaxis necesarios para el segmento inter en la cabecera de la imagen. Si el valor de inter_signaling_present_flag se determina como 0, el aparato de codificación puede generar la información de imagen en donde se excluyen u omiten los elementos de sintaxis necesarios para el segmento inter, y solo se incluyen en la cabecera de la imagen los elementos de sintaxis necesarios para el segmento intra.
Si el valor de inter_signaling_present_flag obtenido de la cabecera de imagen en la información de imagen es 1, el aparato de decodificación puede determinar que al menos un segmento intercodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la intrapredicción de la cabecera de imagen. Si el valor de inter_signaling_present_flag es 0, el aparato de decodificación puede determinar que sólo el segmento intracodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la intrapredicción a partir de la cabecera de la imagen. Si el valor de intra_signaling_present_flag obtenido de la cabecera de imagen en la información de imagen es 1, el aparato de decodificación puede determinar que al menos un segmento intracodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la intrapredicción de la cabecera de imagen. Si el valor de intra_signaling_present_flag es 0, el aparato de decodificación puede determinar que sólo el segmento intercodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la interpredicción a partir de la cabecera de imagen.
Como otra realización, el aparato de codificación y el aparato de decodificación pueden usar las siguientes Tablas 4 y 5 como sintaxis y semántica de la cabecera de imagen con base en los métodos 5 y 6 anteriores.
[Tabla 4]
[Tabla 5]
Con referencia a la Tabla 4 y la Tabla 5, si el valor de slice_types_idc es 0, esto representa que el tipo de todos los segmentos en la imagen relacionados con la cabecera de imagen es segmento I. Si el valor de slice_types_idc es 1, esto representa que el tipo de todos los segmentos en la imagen relacionados con la cabecera de imagen es un segmento P o B. Si el valor de slice_types_idc es 2, esto representa que el tipo de segmento de los segmentos en la imagen relacionada con la cabecera de imagen es segmento I, P y/o B.
Por ejemplo, si solo se incluye el segmento intracodificado en la imagen actual, el aparato de codificación puede determinar el valor de slice_types_idc como 0, y puede incluir solo los elementos de sintaxis necesarios para decodificar el segmento intra en la cabecera de imagen. Es decir, en este caso, los elementos de sintaxis necesarios para el segmento inter no están incluidos en la cabecera de imagen.
Como otro ejemplo, si solo se incluye el segmento intercodificado en la imagen actual, el aparato de codificación puede determinar el valor de slice_types_idc como 1, y puede incluir solo los elementos de sintaxis necesarios para decodificar el segmento intercodificado en la cabecera de imagen. Es decir, en este caso, los elementos de sintaxis necesarios para el segmento intra no están incluidos en la cabecera de imagen.
Como otro ejemplo más, si se incluyen al menos un segmento intercodificado y al menos un segmento intracodificado en la imagen actual, el aparato de codificación puede determinar el valor de slice_types_idc como 2, y puede incluir todos los elementos de sintaxis necesarios. para la decodificación del segmento inter y los elementos de sintaxis necesarios para la decodificación del segmento intra en la cabecera de imagen.
Si el valor de slice_types_idc obtenido de la cabecera de imagen en la información de imagen es 0, el aparato de decodificación puede determinar que sólo el segmento intracodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la decodificación del segmento intracodificado de la cabecera de imagen. Si el valor de slice_types_idc es 1, el aparato de decodificación puede determinar que sólo el segmento intercodificado está incluido en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la decodificación del segmento intercodificado de la cabecera de imagen. Si el valor de slice_types_idc es 2, el aparato de decodificación puede determinar que al menos un segmento intracodificado y al menos un segmento intercodificado están incluidos en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la decodificación del segmento intracodificado. segmento codificado y los elementos de sintaxis necesarios para la decodificación del segmento intercodificado de la cabecera de imagen.
Como otra realización más, el aparato de codificación y el aparato de decodificación pueden usar un indicador que representa si la imagen incluye los cortes intra e intercodificados. Si la bandera es verdadera, es decir, si el valor de la bandera es 1, todos los segmentos intra y entre segmentos pueden incluirse en la imagen correspondiente. En este caso, se pueden usar la Tabla 6 y Tabla 7 siguientes como sintaxis y semántica de la cabecera de imagen.
[Tabla 6]
[Tabla 7]
Con referencia a la Tabla 6 y la Tabla 7, si el valor de mixed_slice_signaling_present_flag es 1, esto puede representar que la imagen relacionada con la cabecera de imagen correspondiente tiene uno o más segmentos que tienen diferentes tipos. Si el valor de mixed_slice_signaling_present_flag es 0, esto puede significar que la imagen relacionada con la cabecera de imagen correspondiente incluye datos relacionados con un solo tipo de segmento.
Las variables InterSignalingPresentFlag e IntraSignalingPresentFlag representan si el elemento de sintaxis necesario para el segmento intracodificado y el elemento de sintaxis necesario para el segmento intercodificado están presentes en la cabecera de imagen correspondiente, respectivamente. Si el valor de mixed_slice_signaling_present_flag es 1, los valores de IntraSignalingPresentFlag e InterSignalingPresentFlag se establecen en 1.
Si el valor de intra_slice_only_flag se establece en 1, representa que el valor de IntraSignalingPresentFlag se establece en 1 y el valor de InterSignalingPresentFlag se establece en 0. Si el valor de intra_slice_only_flag es 0, representa que el valor de IntraSignalingPresentFlag se establece en 0 y el valor de InterSignalingPresentFlag se establece en 1.
Si la imagen relacionada con la cabecera de imagen tiene uno o más segmentos que tienen el tipo de segmento de segmento I, el valor de IntraSignalingPresentFlag se establece en 1. Si la imagen relacionada con la cabecera de imagen tiene uno o más segmentos que tienen el tipo de segmento de segmento P o B, el valor de InterSignalingPresentFlag se establece en 1.
Por ejemplo, si solo se incluye el segmento intracodificado en la imagen actual, el aparato de codificación puede determinar el valor de mixed_slice_signaling_present_flag como 0, puede determinar el valor de intra_slice_only_flag como 1, puede determinar el valor de IntraSignalingPresentFlag como 1 y puede determinar el valor de InterSignalingPresentFlag como 0.
Como otro ejemplo, si solo se incluye el segmento intercodificado en la imagen actual, el aparato de codificación puede determinar el valor de mixed_slice_signaling_present_flag como 0, puede determinar el valor de intra_slice_only_flag como 0, puede determinar el valor de IntraSignalingPresentFlag como 0 y puede determinar el valor de InterSignalingPresentFlag como 1.
Como otro ejemplo más, si se incluyen al menos un segmento intracodificado y al menos un segmento intercodificado en la imagen actual, el aparato de codificación puede determinar los valores de mixed_slice_signaling_present_flag, IntraSignalingPresentFlag y InterSignalingPresentFlag como 1, respectivamente.
Si el valor de mixed_slice_signaling_present_flag obtenido de la cabecera de imagen en la información de imagen es 0, el aparato de decodificación puede determinar que sólo el segmento intracodificado o el segmento intercodificado está incluido en la imagen correspondiente. En este caso, si el valor de intra_slice_only_flag obtenido de la cabecera de imagen es 0, el aparato de decodificación puede analizar sólo los elementos de sintaxis necesarios para decodificar el segmento intercodificado de la cabecera de imagen. Si el valor de intra_slice_only_flag es 1, el aparato de decodificación puede analizar sólo el elemento de sintaxis necesario para decodificar el segmento intracodificado de la cabecera de imagen.
Si el valor de mixed_slice_signaling_present_flag obtenido de la cabecera de imagen en la información de imagen es 1, el aparato de decodificación puede determinar que al menos un segmento intracodificado y al menos un segmento intercodificado están incluidos en la imagen correspondiente, y puede analizar los elementos de sintaxis necesarios para la decodificación del segmento intercodificado y los elementos de sintaxis necesarios para la decodificación del segmento intracodificado a partir de la cabecera de imagen.
Las FIG. 8 y 9 ilustran esquemáticamente un método de codificación de vídeo/imagen y un ejemplo de componentes relacionados según una realización del presente documento.
El método de codificación de vídeo/imagen descrito en la FIG. 8 puede realizarse mediante el aparato 200 de codificación (vídeo/imagen) descrito en las FIG. 2 y 9. Específicamente, por ejemplo, S800 de la FIG. 8 puede realizarse mediante el predictor 220 del aparato de codificación 200, y S810 a S830 puede realizarse mediante el codificador 240 de entropía del aparato 200 de codificación. El método de codificación de vídeo/imagen descrito en la FIG. 8 puede incluir las realizaciones descritas anteriormente del presente documento.
Específicamente, haciendo referencia a las FIG. 8 y 9, el predictor 220 del aparato de codificación puede determinar el modo de predicción del bloque actual en la imagen actual (S800). La imagen actual puede incluir una pluralidad de segmentos. El predictor 220 del aparato de codificación puede generar muestras de predicción (bloque predicho) para el bloque actual con base en el modo de predicción. Aquí, el modo de predicción puede incluir un modo de interpredicción y un modo de intrapredicción. Si el modo de predicción del bloque actual es el modo de interpredicción, las muestras de predicción pueden generarse mediante el interpredictor 221 del predictor 220. Si el modo de predicción del bloque actual es el modo de intrapredicción, las muestras de predicción pueden generarse por el intrapredictor 222 del predictor 220.
El procesador 230 residual del aparato de codificación puede generar muestras residuales e información residual con base en las muestras de predicción y la imagen original (bloque original y muestras originales). Aquí, la información residual es información sobre las muestras residuales y puede incluir información sobre los coeficientes de transformación (cuantizados) para las muestras residuales.
El sumador (o reconstructor) del aparato de codificación puede generar muestras reconstruidas (imagen reconstruida, bloque reconstruido o matriz de muestras reconstruida) sumando las muestras residuales generadas por el procesador 230 residual y las muestras de predicción generadas por el interpredictor 221 o el intrapredictor 222 entre sí.
Mientras tanto, el codificador 240 de entropía del aparato de codificación puede generar una primera información que represente si la información necesaria para la operación de interpredicción para el proceso de decodificación está presente en la cabecera de imagen relacionada con la imagen actual (S810). Además, el codificador 240 de entropía del aparato de codificación puede generar una segunda información que representa si la información necesaria para la operación de intrapredicción para el proceso de decodificación está presente en la cabecera de imagen relacionada con la imagen actual (S820). Aquí, la primera información y la segunda información son información incluida en la cabecera de imagen de la información de imagen, y pueden corresponder a intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra_slice_only_flag, IntraSignalingPresentFlag y/o InterSignalingPresentFlag.
Como ejemplo, en caso de que la información necesaria para la operación de interpredicción para el proceso de decodificación se incluya en la cabecera de imagen relacionada con la imagen actual como el segmento intercodificado se incluye en la imagen actual, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la primera información como 1. Además, en caso de que la información necesaria para la operación de intrapredicción para el proceso de decodificación se incluya en la cabecera de imagen correspondiente como el segmento intracodificado se incluye en la imagen actual, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la segunda información como 1. En este caso, la primera información puede corresponder al indicador inter_signaling_present_flag, y la segunda información puede corresponder a la intra_signaling_present_flag. La primera información puede denominarse primer indicador, información sobre si los elementos de sintaxis que se usan para los segmentos inter están presentes en la cabecera de imagen, un indicador para saber si los elementos de sintaxis que se usan para los segmentos inter están presentes en la cabecera de imagen, información sobre si los segmentos en la imagen actual son segmentos inter, o una bandera que indica si los segmentos son segmentos inter. La segunda información puede denominarse segundo indicador, información sobre si los elementos de sintaxis que se usan para los segmentos intra están presentes en la cabecera de imagen, un indicador para saber si los elementos de sintaxis que se usan para los segmentos intra están presentes en la cabecera de imagen, información sobre si los segmentos en la imagen actual son segmentos intra, o un indicador que indica si los segmentos son segmentos intra.
Mientras tanto, en el caso de que sólo se incluya la información necesaria para la operación de intrapredicción en la cabecera de imagen correspondiente, ya que sólo se incluye el segmento intracodificado en la imagen, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la primera información. como 0, y puede determinar el valor de la segunda información como 1. Además, en caso de que sólo se incluya la información necesaria para la operación de interpredicción en la cabecera de imagen correspondiente ya que sólo se incluye el segmento intercodificado en la imagen, el valor de la primera información se puede determinar como 1, y el valor de la segunda información se puede determinar como 0. En consecuencia, si el valor de la primera información es 0, todos los segmentos de la imagen actual pueden tener el tipo de segmento I. Si el valor de la segunda información es 0, todos los segmentos de la imagen actual pueden tener el tipo de segmentos P o el tipo de segmento B. Aquí, la información necesaria para la operación de intrapredicción puede incluir el elemento de sintaxis que se usa para decodificar el segmento intra, y la información necesaria para la operación de interpredicción puede incluir el elemento de sintaxis que se usa para decodificar el segmento inter.
Como otro ejemplo, si todos los segmentos de la imagen actual tienen el tipo de segmento I, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre el tipo de segmento como 0, y si todos los segmentos de la imagen actual tienen el tipo de segmento P o el tipo de segmento B, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre el tipo de segmento como 1. Si todos los segmentos en la imagen actual tienen un tipo de segmento I, un tipo de segmento P y /o tipo de segmento B (es decir, los tipos de segmento de los segmentos en la imagen se mezclan), el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre el tipo de segmento como 2. En este caso, la información sobre el tipo de segmento puede corresponder a slice_type_idc.
Como otro ejemplo más, si todos los segmentos de la imagen actual tienen el mismo tipo de segmento, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre el tipo de segmento como 0, y si los segmentos de la imagen actual tienen diferentes tipos de segmentos, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre el tipo de segmento como 1. En este caso, la información sobre el tipo de segmento puede corresponder a mixed_slice_signaling_present_flag.
Si el valor de la información sobre el tipo de segmento se determina como 0, la información sobre si el segmento intra está incluido en los segmentos puede incluirse en la cabecera de imagen correspondiente. La información sobre si el segmento intra está incluido en los segmentos puede corresponder a intra_slice_only_flag. Si todos los segmentos en la imagen tienen el tipo de segmento I, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre si el segmento intra está incluido en los segmentos como 1, determinar el valor de la información sobre si los elementos de sintaxis que se usan para el segmento intra están presentes en la cabecera de imagen como 1 y determinar el valor de la información sobre si los elementos de sintaxis que se usan para el segmento inter están presentes en la cabecera de imagen como 0. Si el tipo de segmento de todos los segmentos en la imagen son el tipo de segmento P y/o segmento B, el codificador 240 de entropía del aparato de codificación puede determinar el valor de la información sobre si el segmento intra está incluido en los segmentos como 0, determinar el valor de la información sobre si los elementos de sintaxis que se usan para el segmento intra están presentes en la cabecera de imagen como 0, y determinar el valor de la información sobre si los elementos de sintaxis que se usan para el segmento inter están presentes en la cabecera de imagen como 1.
El codificador 240 de entropía del aparato de codificación puede codificar la información de la imagen, incluida la primera información, la segunda información y la información sobre el tipo de segmento junto con la información residual y la información relacionada con la predicción (S830). Por ejemplo, la información de la imagen puede incluir información relacionada con la división, información sobre el modo de predicción, información residual, información relacionada con el filtrado en bucle, primera información, segunda información e información sobre el tipo de segmento, y puede incluir varios elementos de sintaxis de los mismos. Como ejemplo, la información de la imagen puede incluir información sobre varios conjuntos de parámetros, tales como un conjunto de parámetros de adaptación (APS), un conjunto de parámetros de imagen (PPS), un conjunto de parámetros de secuencia (SPS) o un conjunto de parámetros de vídeo (VPS). Además, la información de imagen puede incluir diversas piezas de información, tales como sintaxis de cabecera de imagen, sintaxis de estructura de cabecera de imagen, sintaxis de cabecera de segmento y sintaxis de unidad de codificación. La primera información, la segunda información, la información sobre el tipo de segmento, la información necesaria para la operación de intrapredicción y la información necesaria para la operación de interpredicción descritas anteriormente pueden incluirse en la sintaxis de la cabecera de imagen.
La información codificada por el codificador 240 de entropía del aparato de codificación puede emitirse en forma de un flujo de bits. El flujo de bits puede transmitirse a través de una red o un medio de almacenamiento.
Las FIG. 10 y 11 ilustran esquemáticamente un método de decodificación de vídeo/imagen y un ejemplo de componentes relacionados según una realización del presente documento.
El método de decodificación de vídeo/imagen descrito en la FIG. 10 puede realizarse mediante el aparato 300 de decodificación (vídeo/imagen) descrito en las FIG. 3 y 11. Específicamente, por ejemplo, S1000 a S1020 de la FIG.
10 puede realizarse mediante el decodificador 310 de entropía del aparato de decodificación, y S1030 puede realizarse mediante el predictor 330 del aparato de decodificación 300. El método de decodificación de vídeo/imagen descrito en la FIG. 10 puede incluir las realizaciones descritas anteriormente del presente documento.
Haciendo referencia a las FIG. 10 y 11, el decodificador 310 de entropía del aparato de decodificación puede obtener información de imagen de un flujo de bits (S1000). La información de la imagen puede incluir una cabecera de imagen relacionada con la imagen actual. La imagen actual puede incluir una pluralidad de segmentos.
Mientras tanto, el decodificador 310 de entropía del aparato de decodificación puede analizar, a partir de la cabecera de imagen, un primer indicador que representa si la información necesaria para una operación de interpredicción para un proceso de decodificación está presente en la cabecera de imagen relacionada con la imagen actual (S1010). Además, el decodificador 310 de entropía del aparato de decodificación puede analizar, a partir de la cabecera de imagen, un segundo indicador que representa si la información necesaria para una operación de intrapredicción para el proceso de decodificación está presente en la cabecera de imagen relacionada con la imagen actual (S1020). Aquí, el primer indicador y el segundo indicador pueden corresponder al indicador intra_signaling_present_flag, inter_signaling_present_flag, slice_type_idc, mixed_slice_signaling_present_flag, intra slice_only_flag, IntraSignalingPresentFlag y/o InterSignalingPresentFlag descritos anteriormente. El decodificador 310 de entropía del aparato de decodificación puede analizar elementos de sintaxis incluidos en la cabecera de imagen de la información de imagen con base en cualquier sintaxis de cabecera de imagen en las Tablas 2, 4 y 6 como se describió anteriormente.
El aparato de decodificación puede generar muestras de predicción realizando al menos una de intrapredicción o interpredicción para segmentos en la imagen actual con base en el primer indicador, el segundo indicador y la información sobre el tipo de segmento (S1030).
Específicamente, el decodificador 310 de entropía del aparato de decodificación puede analizar (u obtener) al menos una de la información necesaria para la operación de intrapredicción y/o la información necesaria para la operación de interpredicción para el proceso de decodificación a partir de la cabecera de imagen relacionada con la imagen actual con base en el primer indicador, el segundo indicador y/o la información sobre el tipo de segmento. El predictor 330 del aparato de decodificación puede generar muestras de predicción realizando intrapredicción y/o interpredicción con base en al menos una de la información necesaria para la operación de intrapredicción o la información para la interpredicción. Aquí, la información necesaria para la operación de intrapredicción puede incluir un elemento de sintaxis que se usa para decodificar un segmento intra, y la información necesaria para la operación de interpredicción puede incluir un elemento de sintaxis que se usa para decodificar un segmento inter.
Como ejemplo, si el valor del primer indicador es 0, el decodificador 310 de entropía del aparato de decodificación puede determinar (o decidir) que los elementos de sintaxis que se usan para la interpredicción no están presentes en la cabecera de imagen, y puede analizar únicamente la información necesaria para la operación de intrapredicción desde la cabecera de imagen. Si el valor del primer indicador es 1, el decodificador 310 de entropía del aparato de decodificación puede determinar (o decidir) que los elementos de sintaxis que se utilizan para la interpredicción están presentes en la cabecera de imagen, y puede analizar la información necesaria para la operación de interpredicción desde la cabecera de imagen. En este caso, el primer indicador puede corresponder al indicador inter_signaling_present_flag.
Además, si el valor del segundo indicador es 0, el decodificador 310 de entropía del aparato de decodificación puede determinar (o decidir) que los elementos de sintaxis que se utilizan para la intrapredicción no están presentes en la cabecera de la imagen, y puede analizar sólo la información. necesario para la operación de interpredicción desde la cabecera de la imagen. Si el valor del segundo indicador es 1, el decodificador 310 de entropía del aparato de decodificación puede determinar (o decidir) que los elementos de sintaxis que se usan para la intrapredicción están presentes en la cabecera de imagen, y puede analizar la información necesaria para la operación de intrapredicción desde la cabecera de la imagen. En este caso, el segundo indicador puede corresponder a intra_signaling_present_flag.
Si el valor del primer indicador es 0, el aparato de decodificación puede determinar que todos los segmentos de la imagen actual tienen el tipo de segmento I. Si el valor del primer indicador es 1, el aparato de decodificación puede determinar que 0 o más segmentos en la imagen actual tienen el tipo de segmento P o segmento B. En otras palabras, si el valor del primer indicador es 1, el segmento que tiene el tipo de segmento P o segmento B puede incluirse o no en la imagen actual.
Además, si el valor del segundo indicador es 0, el aparato de decodificación puede determinar que todos los segmentos de la imagen actual tienen el tipo de segmento P o segmento B. Si el valor del segundo indicador es 1, el aparato de decodificación puede determinar que 0 o más segmentos en la imagen actual tienen el tipo de segmento I. En otras palabras, si el valor del segundo indicador es 1, el segmento que tiene el tipo de segmento I puede incluirse o no en la imagen actual.
Como otro ejemplo, si el valor de la información sobre el tipo de segmento es 0, el decodificador 310 de entropía del aparato de decodificación puede determinar que todos los segmentos en la imagen actual tienen un tipo de segmento I, y puede analizar solo la información necesaria para la operación de intrapredicción. Si la información sobre el tipo de segmento es 1, el decodificador 310 de entropía del aparato de decodificación puede determinar que todos los segmentos en la imagen correspondiente tienen el tipo de segmento P o el tipo de segmento B, y puede analizar solo la información necesaria para la operación de interpredicción desde la cabecera de imagen. Si el valor de la información para el tipo de segmento es 2, el decodificador 310 de entropía del aparato de decodificación puede determinar que los segmentos en la imagen correspondiente tienen el tipo de segmento en donde el tipo de segmento I, el tipo de segmento P y/o el tipo de segmento B están mezclados, y puede analizar toda la información necesaria para la operación de interpredicción y la información necesaria para la operación de intrapredicción desde la cabecera de imagen. En este caso, la información sobre el tipo de segmento puede corresponder a slice_type_idc.
Como otro ejemplo más, el decodificador 310 de entropía del aparato de decodificación puede determinar que todos los segmentos en la imagen actual tienen el mismo tipo de segmento si el valor de la información sobre el tipo de segmento se determina como 0, y puede determinar que los segmentos en la imagen actual tienen diferentes tipos de segmento si el valor de la información sobre el tipo de segmento se determina como 1. En este caso, la información sobre el tipo de segmento puede corresponder a mixed_slice_signaling_present_flag.
Si el valor de la información sobre el tipo de segmento se determina como 0, el decodificador 310 de entropía del aparato de decodificación puede analizar información sobre si el segmento intra está incluido en los segmentos de la cabecera de imagen. La información sobre si el segmento intra está incluido en los segmentos puede corresponder a intra_slice_only_flag como se describió anteriormente. Si la información sobre si el segmento intra está incluido en los segmentos es 1, todos los segmentos en la imagen pueden tener el tipo de segmento I.
Si el valor de la información sobre si el segmento intra está incluido en los segmentos es 1, el decodificador 310 de entropía del aparato de codificación puede analizar sólo la información necesaria para la operación de predicción intra de la cabecera de imagen. Si el valor de la información sobre si el segmento intra está incluido en los segmentos es 0, el decodificador 310 de entropía del aparato de decodificación puede analizar sólo la información necesaria para la operación de interpredicción de la cabecera de imagen.
Si el valor de la información sobre el tipo de segmento es 1, el decodificador 310 de entropía del aparato de decodificación puede analizar toda la información necesaria para la operación de interpredicción y la información necesaria para la operación de intrapredicción de la cabecera de imagen.
Mientras tanto, el procesador 320 residual del aparato de decodificación puede generar muestras residuales con base en la información residual obtenida por el decodificador 310 de entropía.
El sumador 340 del aparato de decodificación puede generar muestras reconstruidas con base en las muestras de predicción generadas por el predictor 330 y las muestras residuales generadas por el procesador 320 residual. Además, el sumador 340 del aparato de decodificación puede generar una imagen reconstruida (bloque reconstruido) con base en las muestras reconstruidas.
Posteriormente, según sea necesario, para mejorar la calidad de la imagen subjetiva/objetiva, se pueden aplicar a la imagen reconstruida procedimientos de filtrado en bucle, tales como filtrado de desbloqueo, procedimientos SAO y/o AFL.
Aunque los métodos se han descrito sobre la base de un diagrama de flujo en donde los pasos o bloques se enumeran en secuencia en las realizaciones descritas anteriormente, los pasos de la presente descripción no se limitan a un orden determinado, y un determinado paso se puede realizar en un paso diferente o en un orden diferente o concurrentemente con respecto al descrito anteriormente. Además, los expertos habituales en la técnica entenderán que los pasos de los diagramas de flujo no son exclusivos, y se puede incluir otro paso en los mismos o se pueden eliminar uno o más pasos en el diagrama de flujo sin ejercer una influencia en el alcance del presente descripción.
El método mencionado anteriormente según la presente descripción puede tener la forma de software, y el aparato de codificación y/o aparato decodificador según la presente descripción puede incluirse en un dispositivo para realizar procesamiento de imágenes, por ejemplo, un televisor, una computadora, un teléfono inteligente, un decodificador, un dispositivo de visualización o similar.
Cuando las realizaciones de la presente descripción se implementan mediante software, el método antes mencionado puede implementarse mediante un módulo (proceso o función) que realiza la función antes mencionada. El módulo puede almacenarse en una memoria y ejecutarse mediante un procesador. La memoria puede instalarse dentro o fuera del procesador y puede conectarse al procesador mediante diversos medios bien conocidos. El procesador puede incluir un Circuito Integrado de Aplicación Específica (ASIC), otros conjuntos de chips, un circuito lógico y/o un dispositivo de procesamiento de datos. La memoria puede incluir una Memoria de Sólo Lectura (ROM), una Memoria de Acceso Aleatorio (RAM), una memoria flash, una tarjeta de memoria, un medio de almacenamiento y/u otro dispositivo de almacenamiento. En otras palabras, las realizaciones según la presente descripción pueden implementarse y ejecutarse en un procesador, un microprocesador, un controlador o un chip. Por ejemplo, las unidades funcionales ilustradas en las figuras respectivas pueden implementarse y ejecutarse en un ordenador, un procesador, un microprocesador, un controlador o un chip. En este caso, la información sobre la implementación (por ejemplo, información sobre instrucciones) o algoritmos puede almacenarse en un medio de almacenamiento digital.
Además, el aparato de decodificación y el aparato de codificación a los que se aplica la realización o realizaciones de la presente descripción pueden incluirse en un transceptor de radiodifusión multimedia, un terminal de comunicación móvil, un dispositivo de vídeo de cine en casa, un dispositivo de vídeo de cine digital, un cámara de vigilancia, un dispositivo de video chat y un dispositivo de comunicación en tiempo real tal como comunicación por video, un dispositivo de transmisión móvil, un medio de almacenamiento, una videocámara, un proveedor de servicios de video bajo demanda (VoD), un dispositivo de video Por Encima de Todo (OTT). , un proveedor de servicios de transmisión por Internet, un dispositivo de vídeo 3D, un dispositivo de Realidad Virtual (VR), un dispositivo de Realidad Aumentada (AR), un dispositivo de vídeo telefónico con imágenes, un terminal de vehículo (por ejemplo, un terminal de vehículo (incluido un vehículo autónomo), un terminal de avión o un terminal de barco) y un dispositivo de vídeo médico; y puede usarse para procesar una señal o datos de imagen. Por ejemplo, el dispositivo de vídeo OTT puede incluir una consola de juegos, un reproductor de Blu-ray, un televisor conectado a Internet, un sistema de cine en casa, un teléfono inteligente, una tableta y una grabadora de vídeo digital (DVR).
Además, el método de procesamiento al que se aplica la realización o realizaciones de la presente descripción puede producirse en forma de un programa ejecutado por un ordenador y puede almacenarse en un medio de grabación legible por ordenador. Los datos multimedia que tienen una estructura de datos según la realización o realizaciones de la presente descripción también pueden almacenarse en el medio de grabación legible por ordenador. El medio de grabación legible por ordenador incluye todo tipo de dispositivos de almacenamiento y dispositivos de almacenamiento distribuido en donde se almacenan datos legibles por ordenador. El medio de grabación legible por ordenador puede incluir, por ejemplo, un disco Blu-ray (BD), un bus serie universal (USB), una ROM, una PROM, una EPROM, una EEPROM, una RAM, un CD-ROM, una cinta magnética, un disquete y un dispositivo óptico de almacenamiento de datos. El medio de grabación legible por ordenador también incluye medios materializados en forma de onda portadora (por ejemplo, transmisión a través de Internet). Además, un flujo de bits generado por el método de codificación puede almacenarse en el medio de grabación legible por ordenador o transmitirse a través de una red de comunicación por cable o inalámbrica.
Además, la realización o realizaciones de la presente descripción se pueden realizar como un producto de programa informático basado en un código de programa, y el código del programa se puede ejecutar en un ordenador según la realización o realizaciones de la presente descripción. El código del programa puede almacenarse en un soporte legible por ordenador.
La FIG. 12 representa un ejemplo de un sistema de transmisión de contenidos al que se puede aplicar la realización de la presente descripción.
Haciendo referencia a la FIG. 12, el sistema de transmisión de contenido al que se aplican las realizaciones de la presente descripción puede incluir generalmente un servidor de codificación, un servidor de transmisión, un servidor web, un almacenamiento de medios, un dispositivo de usuario y un dispositivo de entrada multimedia.
El servidor de codificación funciona para comprimir en datos digitales los contenidos introducidos desde los dispositivos de entrada multimedia, tales como el teléfono inteligente, la cámara, la videocámara y similares, para generar un flujo de bits y transmitirlo al servidor de transmisión. Como otro ejemplo, en un caso en donde el dispositivo de entrada multimedia, tal como el teléfono inteligente, la cámara, la videocámara o similar, genera directamente un flujo de bits, se puede omitir el servidor de codificación.
El flujo de bits puede generarse mediante un método de codificación o un método de generación de flujo de bits al que se aplican las realizaciones de la presente descripción. Y el servidor de transmisión puede almacenar temporalmente el flujo de bits en un proceso de transmisión o recepción del flujo de bits.
El servidor de transmisión transmite datos multimedia al equipo del usuario con base en la solicitud del usuario a través del servidor web, que funciona como un instrumento que informa al usuario qué servicio hay. Cuando el usuario solicita un servicio que desea, el servidor web transfiere la solicitud al servidor de transmisión por secuencias, y el servidor de transmisión por secuencias transmite datos multimedia al usuario. A este respecto, el sistema de transmisión de contenidos puede incluir un servidor de control separado y, en este caso, el servidor de control funciona para controlar comandos/respuestas entre los equipos respectivos en el sistema de difusión de contenido.
El servidor de transmisión por secuencias puede recibir contenidos del almacenamiento de medios y/o del servidor de codificación. Por ejemplo, en el caso de que los contenidos se reciban desde el servidor de codificación, los contenidos pueden recibirse en tiempo real. En este caso, el servidor de transmisión puede almacenar el flujo de bits durante un período de tiempo predeterminado para proporcionar el servicio de transmisión sin problemas.
Por ejemplo, el equipo de usuario puede incluir un teléfono móvil, un teléfono inteligente, un ordenador portátil, un terminal de transmisión digital, un asistente digital personal (PDA), un reproductor multimedia portátil (PMP), un sistema de navegación, un ordenador tipo pizarra, una PC tipo tableta, un miniportátil, un dispositivo portátil (por ejemplo, un terminal tipo reloj (reloj inteligente), un terminal tipo gafas (gafas inteligentes), un elemento de visualización montado en la cabeza (HMD)), un televisor digital, un ordenador de escritorio, un dispositivo de señalización digital o similares. Cada uno de los servidores del sistema de transmisión de contenidos puede funcionar como un servidor distribuido y, en este caso, los datos recibidos por cada servidor pueden procesarse de manera distribuida.

Claims (10)

REIVINDICACIONES
1. Un método de decodificación de video realizado por un aparato de decodificación de video, comprendiendo el método:
recibir (S1000) un flujo de bits que comprende información de imagen, incluyendo la información de imagen una cabecera de imagen relacionada con una imagen actual, incluyendo la imagen actual segmentos; analizar (S1010), a partir de la cabecera de imagen, un primer indicador relacionado con si la información para un segmento inter está presente en la cabecera de imagen, en donde un valor del primer indicador que es igual a 1 está relacionado con que la información para el segmento inter está presente en la cabecera de imagen; analizar (S1020), a partir de la cabecera de imagen, un segundo indicador relacionado con si la información para un segmento intra está presente en la cabecera de imagen, en donde un valor del segundo indicador que es igual a 1 está relacionado con que la información para el segmento intra está presente en la cabecera de imagen; y generar (S1030) muestras de predicción realizando al menos una de una intrapredicción o una interpredicción en bloques en los segmentos de la imagen actual con base en el primer indicador y el segundo indicador, en donde, con base en que el valor del primer indicador es igual a 1, la información para el segmento inter está comprendida en la cabecera de imagen, en donde la información para el segmento inter incluye un elemento de sintaxis que representa la diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante de división de árbol cuádruple y el logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento inter de la imagen actual, y
en donde, con base en que el valor del segundo indicador es igual a 1, la información para el segmento intra está comprendida en la cabecera de imagen, en donde la información para el segmento intra incluye un elemento de sintaxis que representa una diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante de la división de árbol cuádruple y el logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento intra de la imagen actual.
2. El método de decodificación de vídeo de la reivindicación 1, en donde los segmentos de la imagen actual tienen un tipo de segmento I con base en que el valor del primer indicador es 0.
3. El método de decodificación de vídeo de la reivindicación 1, en donde 0 o más segmentos en la imagen actual tienen un tipo de segmento P o segmento B con base en que el valor del primer indicador es 1.
4. El método de decodificación de vídeo de la reivindicación 1, en donde los segmentos de la imagen actual tienen un tipo de segmento P o segmento B con base en que el valor del segundo indicador es 0.
5. El método de decodificación de vídeo de la reivindicación 1, en donde 0 o más segmentos de la imagen actual tienen un tipo de segmento I con base en que el valor del segundo indicador es 1.
6. Un método de codificación de vídeo realizado por un aparato de codificación de vídeo, comprendiendo el método:
determinar (S800) tipos de segmentos en una imagen actual;
generar (S810) un primer indicador relacionado con si la información para un segmento inter está presente en una cabecera de imagen relacionada con la imagen actual, en donde un valor del primer indicador que es igual a 1 está relacionado con que la información para el segmento inter está presente en la cabecera de imagen; generar (S820) un segundo indicador relacionado con si la información para un segmento intra está presente en la cabecera de imagen, en donde un valor del segundo indicador que es igual a 1 está relacionado con que la información para el segmento intra está presente en la cabecera de imagen; y
codificar (S830) información de imagen que incluye el primer indicador y el segundo indicador, caracterizado por que
el primer indicador y el segundo indicador están comprendidos en la cabecera de imagen de la información de imagen,
en donde, con base en que el valor del primer indicador es igual a 1, la información para el segmento inter está comprendida en la cabecera de imagen, en donde la información para el segmento inter incluye un elemento de sintaxis que representa la diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante de división de árbol cuádruple y logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento inter de la imagen actual, y
en donde, con base en que el valor del segundo indicador es igual a 1, la información para el segmento intra está comprendida en la cabecera de imagen, en donde la información para el segmento intra incluye un elemento de sintaxis que representa una diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante a partir de la división de árbol cuádruple y el logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento intra de la imagen actual.
7. El método de codificación de vídeo de la reivindicación 6, en donde un valor del primer indicador es 0 con base en que todos los segmentos de la imagen actual tienen un tipo de segmento I.
8. El método de codificación de vídeo de la reivindicación 6, en donde un valor del primer indicador es 1 con base en que uno o más segmentos de la imagen actual tienen un tipo de segmento P o segmento B.
9. Un medio de almacenamiento digital no transitorio legible por ordenador que almacena un flujo de bits generado mediante un método de codificación de video, comprendiendo el método de codificación de video:
determinar (S800) los tipos de segmentos en una imagen actual;
generar (S810) un primer indicador relacionado con si la información para un segmento inter está presente en una cabecera de imagen relacionada con la imagen actual, en donde un valor del primer indicador que es igual a 1 está relacionado con que la información para el segmento inter está presente en la cabecera de imagen;
generar (S820) un segundo indicador relacionado con si la información para un segmento intra está presente en la cabecera de imagen, en donde un valor del segundo indicador que es igual a 1 está relacionado con que la información para el segmento intra está presente en la cabecera de imagen; y
codificar (S830) la información de imagen que incluye el primer indicador y el segundo indicador,
caracterizado por que
el primer indicador y el segundo indicador están comprendidos en la cabecera de imagen de la información de imagen,
en donde, con base en que el valor del primer indicador es igual a 1, la información para el segmento entre segmentos está comprendida en la cabecera de imagen, en donde la información para el segmento inter incluye un elemento de sintaxis que representa la diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante de división de árbol cuádruple y logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento inter de la imagen actual, y
en donde, con base en que el valor del segundo indicador es igual a 1, la información para el segmento intra está comprendida en la cabecera de imagen, en donde la información para el segmento intra incluye un elemento de sintaxis que representa una diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante a partir de la división de árbol cuádruple y el logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento intra de la imagen actual.
10. Un método de transmisión de datos para un vídeo, comprendiendo el método:
obtener un flujo de bits para el vídeo, en donde el flujo de bits se genera con base en la determinación de tipos de segmentos en una imagen actual, generando un primer indicador relacionado con si la información para un segmento inter está presente en una cabecera de imagen relacionada con la imagen actual, en donde que un valor del primer indicador sea igual a 1 está relacionado con que la información para el segmento inter está presente en la cabecera imagen, generando un segundo indicador relacionado con si la información para un segmento intra está presente en la cabecera de imagen, en donde que un valor del segundo indicador sea igual a 1 está relacionado con que la información para el segmento intra está presente en la cabecera de imagen y codificar la información de imagen que incluye el primer indicador y el segundo indicador; y
transmitir los datos que comprenden el flujo de bits,
caracterizado por que
el primer indicador y el segundo indicador están comprendidos en la cabecera de imagen de la información de imagen,
en donde, con base en que el valor del primer indicador es igual a 1, la información para el segmento inter está comprendida en la cabecera de imagen, en donde la información para el segmento inter incluye un elemento de sintaxis que representa la diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante de división de árbol cuádruple y logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento inter de la imagen actual, y
en donde, con base en que el valor del segundo indicador es igual a 1, la información para el segmento intra está comprendida en la cabecera de imagen, en donde la información para el segmento intra incluye un elemento de sintaxis que representa una diferencia entre el logaritmo en base 2 de un tamaño mínimo resultante a partir de la división de árbol cuádruple y el logaritmo en base 2 de un tamaño de bloque de codificación mínimo en el segmento intra de la imagen actual.
ES20885608T 2019-11-05 2020-11-05 Método y dispositivo de codificación de imagen/vídeo Active ES2976723T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962931137P 2019-11-05 2019-11-05
PCT/KR2020/015404 WO2021091256A1 (ko) 2019-11-05 2020-11-05 영상/비디오 코딩 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2976723T3 true ES2976723T3 (es) 2024-08-07

Family

ID=75848912

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20885608T Active ES2976723T3 (es) 2019-11-05 2020-11-05 Método y dispositivo de codificación de imagen/vídeo

Country Status (16)

Country Link
US (3) US11843780B2 (es)
EP (2) EP4044599B1 (es)
JP (3) JP7443513B2 (es)
KR (1) KR20220074952A (es)
CN (4) CN118200604A (es)
BR (1) BR112022008691A2 (es)
CA (1) CA3160471A1 (es)
ES (1) ES2976723T3 (es)
FI (1) FI4044599T3 (es)
HR (1) HRP20240431T1 (es)
HU (1) HUE066184T2 (es)
MX (1) MX2022005364A (es)
PL (1) PL4044599T3 (es)
SI (1) SI4044599T1 (es)
WO (1) WO2021091256A1 (es)
ZA (1) ZA202205804B (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220074954A (ko) * 2019-11-05 2022-06-03 엘지전자 주식회사 슬라이스 타입 기반 영상/비디오 코딩 방법 및 장치
EP4044598B1 (en) 2019-11-05 2025-03-05 LG Electronics Inc. Method and device for processing image information for image/video coding

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9560367B2 (en) * 2004-09-03 2017-01-31 Nokia Technologies Oy Parameter set and picture header in video coding
KR102219985B1 (ko) * 2010-05-04 2021-02-25 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
MX2018013536A (es) * 2011-02-10 2021-06-23 Velos Media Int Ltd Dispositivo de procesamiento de imagenes y metodo de procesamiento de imagenes.
WO2012134246A2 (ko) * 2011-04-01 2012-10-04 엘지전자 주식회사 엔트로피 디코딩 방법 및 이를 이용하는 디코딩 장치
CN109413429B (zh) * 2012-01-20 2022-05-17 杜比实验室特许公司 解码方法、视频解码设备及编码方法
KR20170128390A (ko) * 2015-03-19 2017-11-22 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
US10148977B2 (en) * 2015-06-16 2018-12-04 Futurewei Technologies, Inc. Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions
US10834419B2 (en) * 2016-04-13 2020-11-10 Qualcomm Incorporated Conformance constraint for collocated reference index in video coding
WO2018128222A1 (ko) * 2017-01-03 2018-07-12 엘지전자 주식회사 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2019151795A1 (ko) * 2018-01-31 2019-08-08 가온미디어 주식회사 움직임 정보를 처리하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
US11115660B2 (en) * 2018-04-30 2021-09-07 Mediatek Inc. Method and apparatus of syntax interleaving for separate coding tree in video coding
KR20240133764A (ko) * 2018-09-03 2024-09-04 후아웨이 테크놀러지 컴퍼니 리미티드 파티션 제한 요소들 간의 관계
CN112771885B (zh) * 2018-09-18 2023-04-25 诺基亚技术有限公司 用于针对视频编码的非二进制简档约束信令的方法和装置
CN118233634A (zh) * 2018-11-08 2024-06-21 交互数字Vc控股公司 基于块的表面的视频编码或解码的量化
EP3868103A4 (en) * 2018-12-28 2022-03-23 Huawei Technologies Co., Ltd. APPARATUS AND METHODS FOR ENCODING AN IMAGE BY DIVIDING THE SAME INTO SLICES WITH TILES
CN113785583A (zh) * 2019-04-10 2021-12-10 华为技术有限公司 视频译码中的条带入口点
US11509910B2 (en) * 2019-09-16 2022-11-22 Tencent America LLC Video coding method and device for avoiding small chroma block intra prediction
WO2021055138A1 (en) 2019-09-20 2021-03-25 Alibaba Group Holding Limited Quantization parameter signaling in video processing
US11310511B2 (en) 2019-10-09 2022-04-19 Tencent America LLC Method and apparatus for video coding
CN115209161B (zh) * 2019-10-10 2023-05-12 华为技术有限公司 视频译码方法、解码器、解码设备、存储介质
JP7482220B2 (ja) * 2019-10-18 2024-05-13 北京字節跳動網絡技術有限公司 サブピクチャのパラメータセットシグナリングにおける構文制約
US11399195B2 (en) * 2019-10-30 2022-07-26 Tencent America LLC Range of minimum coding block size in video coding
EP4044598B1 (en) 2019-11-05 2025-03-05 LG Electronics Inc. Method and device for processing image information for image/video coding
CN118158444A (zh) * 2019-11-05 2024-06-07 Lg 电子株式会社 用于图像/视频编译的高级别语法信令方法和装置
CN113875256B (zh) * 2019-12-23 2024-05-31 腾讯美国有限责任公司 进行视频解码的方法、装置及存储介质
KR20220051399A (ko) * 2020-02-11 2022-04-26 후아웨이 테크놀러지 컴퍼니 리미티드 시퀀스 파라미터 세트에서의 서브픽처 시그널링을 위한, 인코더, 디코더 및 대응하는 방법
CN115211114A (zh) * 2020-02-28 2022-10-18 华为技术有限公司 编码器、解码器和参数集中的指示和语义的对应方法
US11943429B2 (en) * 2020-03-04 2024-03-26 Qualcomm Incorporated Subpicture signaling in video coding
EP4092399A1 (en) 2021-05-19 2022-11-23 Siemens Gamesa Renewable Energy A/S Test arrangement and method for fatigue testing a wind turbine blade

Also Published As

Publication number Publication date
SI4044599T1 (sl) 2024-05-31
CN114762351B (zh) 2024-05-07
CA3160471A1 (en) 2021-05-14
HRP20240431T1 (hr) 2024-07-05
CN118200604A (zh) 2024-06-14
US20240080447A1 (en) 2024-03-07
JP2024045679A (ja) 2024-04-02
ZA202205804B (en) 2023-11-29
US12192470B2 (en) 2025-01-07
EP4044599A1 (en) 2022-08-17
EP4340365A3 (en) 2024-05-29
CN118200605A (zh) 2024-06-14
EP4044599B1 (en) 2024-02-14
FI4044599T3 (fi) 2024-03-25
JP7443513B2 (ja) 2024-03-05
US20220272349A1 (en) 2022-08-25
CN114762351A (zh) 2022-07-15
CN118200603A (zh) 2024-06-14
WO2021091256A1 (ko) 2021-05-14
HUE066184T2 (hu) 2024-07-28
MX2022005364A (es) 2022-07-19
BR112022008691A2 (pt) 2022-07-26
US20250097424A1 (en) 2025-03-20
JP2023501322A (ja) 2023-01-18
US11843780B2 (en) 2023-12-12
KR20220074952A (ko) 2022-06-03
JP2025015656A (ja) 2025-01-30
EP4044599A4 (en) 2022-12-14
PL4044599T3 (pl) 2024-06-24
JP7590608B2 (ja) 2024-11-26
EP4340365A2 (en) 2024-03-20

Similar Documents

Publication Publication Date Title
US11601640B2 (en) Image coding method using history-based motion information and apparatus for the same
ES2966115T3 (es) Métodos de codificación de imagen basados en historial
US12088816B2 (en) Method and device for signaling information on chroma format
US11849151B2 (en) Syntax design method and apparatus for performing coding by using syntax
US11997256B2 (en) Intra prediction method on basis of MPM list and apparatus therefor
ES2987119T3 (es) Dispositivo y método de codificación de imágenes basado en filtrado
US11653000B2 (en) Method and device for processing image information for image/video coding
US20250097424A1 (en) Image/video coding method and device
ES2988060T3 (es) Método y dispositivo para eliminar la sintaxis redundante de la sintaxis de datos de fusión
AU2020380731B2 (en) High level syntax signaling method and device for image/video coding
US20240205424A1 (en) Image coding method based on information related to tile and information related to slice in video or image coding system
US12200268B2 (en) Method and device for processing general constraint information in image/video coding system
US12177418B2 (en) Method for coding image on basis of TMVP and apparatus therefor
CN115004708B (zh) 用于发信号通知图像信息的方法和设备
BR122024000637A2 (pt) Método e dispositivo para codificação de imagem/vídeo baseados em tabela ponderada de predição
BR122024000621A2 (pt) Método e dispositivo para codificação de imagem/vídeo baseados em tabela ponderada de predição
BR122023023080A2 (pt) Método e dispositivo de codificação de imagem/vídeo
CA3162960A1 (en) Method and device for signaling information related to slice in image/video encoding/decoding system
BR122023022919A2 (pt) Aparelho de decodificação para uma decodificação de vídeo, aparelho de codificação para uma codificação de vídeo e aparelho para transmissão de dados para um vídeo