[go: up one dir, main page]

WO2013147497A1 - Method for applying sample adaptive offset in scalable video coding, and apparatus using the method - Google Patents

Method for applying sample adaptive offset in scalable video coding, and apparatus using the method Download PDF

Info

Publication number
WO2013147497A1
WO2013147497A1 PCT/KR2013/002506 KR2013002506W WO2013147497A1 WO 2013147497 A1 WO2013147497 A1 WO 2013147497A1 KR 2013002506 W KR2013002506 W KR 2013002506W WO 2013147497 A1 WO2013147497 A1 WO 2013147497A1
Authority
WO
WIPO (PCT)
Prior art keywords
sao
layer
information
upper layer
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2013/002506
Other languages
French (fr)
Korean (ko)
Inventor
김철근
전병문
박승욱
임재현
전용준
박준영
박내리
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of WO2013147497A1 publication Critical patent/WO2013147497A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Definitions

  • the present invention relates to video compression techniques, and more particularly, to a method and apparatus for applying a sample adaptive offset (SAO) in scalable video coding.
  • SAO sample adaptive offset
  • video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .
  • a consumer who purchases video content on a mobile terminal can view the same video content on a larger screen and at a higher resolution through a large display in the home.
  • the quality of the image for example, the image quality, the resolution of the image, the size of the image, It is necessary to provide scalability in the frame rate of video and the like.
  • An object of the present invention is to provide a method and apparatus for improving the quality of an upper layer by applying a filter using information of a lower layer in scalable video coding.
  • An object of the present invention is to provide a method and apparatus for effectively applying SAO to an upper layer by using information of SAO applied to a lower layer in scalable video coding.
  • An object of the present invention is to provide a method and apparatus for effectively transmitting information of SAO applied to an upper layer by using information of SAO applied to a lower layer in scalable video coding.
  • SAO is applied to an upper layer based on information on SAO applied to a lower layer.
  • the encoding apparatus transmits SAO indication information for specifying the SAO applied to the upper layer to the decoding apparatus.
  • the decoding apparatus may receive the SAO indication information and specify the SAO to be applied to the upper layer by using the received SAO indication information and the SAO applied to the lower layer.
  • the encoding apparatus and the decoding apparatus may specify the SAO to be applied to the upper layer by using the information about the SAO applied to the lower layer.
  • information (syntax element) indicating SAO to be applied to the upper layer may be transmitted using information indicating SAO applied to the lower layer.
  • the quality of the upper layer can be improved by applying a filter using information of the lower layer in scalable video coding.
  • SAO can be effectively applied to an upper layer by using information of SAO applied to a lower layer in scalable video coding.
  • the information of the SAO applied to the upper layer can be effectively transmitted using the information of the SAO applied to the lower layer.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating an example of inter-layer prediction in an encoding apparatus and a decoding apparatus that perform scalable coding according to the present invention.
  • FIG. 4 is a diagram schematically illustrating an example of a method of applying a band offset.
  • FIG. 5 is a diagram schematically illustrating another example of a method of applying a band offset.
  • FIG. 6 is a diagram schematically illustrating a category of edge offsets.
  • FIG. 7 is a diagram for briefly explaining an example of applying an XOR operation to SAO information of a lower layer and SAO information of an upper layer according to the present invention.
  • FIG. 8 is a diagram for briefly explaining another example of applying an XOR operation to SAO information of a lower layer and SAO information of a higher layer according to the present invention.
  • FIG. 9 is a flowchart schematically illustrating a method of applying SAO to an upper layer and transmitting SAO information according to the present invention.
  • FIG. 10 is a flowchart schematically illustrating a method of receiving SAO indication information indicating SAO to be applied to a higher layer and applying SAO to a higher layer according to the present invention.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • input signals may be processed in layers.
  • the input signals may have at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.
  • scalable coding includes scalable encoding and scalable decoding.
  • prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.
  • the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 135 for layer 0.
  • Layer 0 may be a base layer, a reference layer, or a lower layer
  • layer 1 may be an enhancement layer, a current layer, or an upper layer.
  • the encoding unit 105 of the layer 1 includes a prediction unit 110, a transform / quantization unit 115, a filtering unit 120, a decoded picture buffer (DPB) 125, an entropy coding unit 130, and a MUX (Multiplexer, 165). ).
  • the encoding unit 135 of the layer 0 includes a prediction unit 140, a transform / quantization unit 145, a filtering unit 150, a DPB 155, and an entropy coding unit 160.
  • the prediction units 110 and 140 may perform inter prediction and intra prediction on the input image.
  • the prediction units 110 and 140 may perform prediction in predetermined processing units.
  • the performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
  • the prediction units 110 and 140 may determine whether to apply inter prediction or intra prediction in a CU unit, determine a mode of prediction in a PU unit, and perform prediction in a PU unit or a TU unit. have. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).
  • a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture.
  • prediction blocks may be generated by performing prediction based on pixel information in a current picture.
  • inter prediction there are a skip mode, a merge mode, a motion vector predtiction (MVP) method, and the like.
  • a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture.
  • the prediction unit 160 may generate a prediction block based on the reference block.
  • the prediction block may be generated in integer sample units or may be generated in integer or less pixel units.
  • the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.
  • motion information that is, information such as an index of a reference picture, a motion vector, and a residual signal
  • residuals may not be generated, transformed, quantized, or transmitted.
  • the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
  • a prediction block may be generated after applying a filter to a reference sample.
  • the PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N ⁇ 2N block, a 2N ⁇ N block, an N ⁇ 2N block, an N ⁇ N block (N is an integer), or the like.
  • the PU In the case of intra prediction, the PU may be a 2N ⁇ 2N block or an N ⁇ N block (where N is an integer).
  • the PU of the N ⁇ N block size may be set to apply only in a specific case.
  • the NxN block size PU may be used only for the minimum size CU or only for intra prediction.
  • PUs such as N ⁇ mN blocks, mN ⁇ N blocks, 2N ⁇ mN blocks, or mN ⁇ 2N blocks (m ⁇ 1) may be further defined and used.
  • the prediction units 110 and 140 may perform prediction on the layer 1 by using the information of the layer 0.
  • a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.
  • Information of the current layer that is predicted using information of another layer may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).
  • information of another layer used for prediction for the current layer may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).
  • unit (CU, PU, and / or TU) information of a base layer is derived and used as unit information of an enhancement layer, or based on unit information of a base layer.
  • Unit information of the treatment layer may be determined.
  • the unit information may include information at each unit level.
  • information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding.
  • information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included.
  • the information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).
  • the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).
  • Interlayer motion prediction another example of interlayer prediction, is also called interlayer inter prediction.
  • prediction of a current block of layer 1 may be performed using motion information of layer 0 (reference layer or base layer).
  • motion information of a reference layer may be scaled.
  • inter-layer texture prediction is also called inter-layer intra prediction or intra base layer (BL) prediction.
  • inter-layer texture prediction the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
  • inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.
  • interlayer prediction As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
  • the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.
  • the prediction unit is an interlayer prediction interlayer that performs prediction on the current block in the current layer by using a difference (difference image) image between the reconstructed picture of the current layer and the resampled picture of another layer as the interlayer prediction. Differential prediction may also be performed.
  • the transform / quantization units 115 and 145 may perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.
  • the transform block is a block of samples and is a block to which the same transform is applied.
  • the transform block can be a transform unit (TU) and can have a quad tree structure.
  • the transform / quantization units 115 and 145 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the transform block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
  • DST discrete sine transform
  • DCT discrete cosine transform
  • the transform / quantization units 115 and 165 may fixedly use a specific transform regardless of the prediction mode and the size of the transform block.
  • the transform / quantization units 115 and 165 may apply only DST to all transform blocks.
  • the transform / quantization units 115 and 165 may apply only DCT to all transform blocks.
  • the transform / quantization unit 115 and 145 may quantize the transform coefficients to generate quantized transform coefficients.
  • the transform / quantization units 115 and 145 may transfer the quantized transform coefficients to the entropy coding units 130 and 160.
  • the transform / quantization unit 145 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 160.
  • the transform / quantizers 115 and 145 may transfer the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 150 for inter prediction.
  • the transform / quantization units 115 and 165 may skip transform and perform quantization only or omit both transform and quantization as necessary.
  • the transform / quantization unit 115 or 165 may omit the transform for a block having a specific prediction method or a specific size block, or a block of a specific size to which a specific prediction block is applied.
  • the entropy coding units 130 and 160 may perform entropy encoding on the quantized transform coefficients.
  • Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the filtering units 120 and 150 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
  • ALF adaptive loop filter
  • SAO sample adaptive offset
  • the deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter.
  • the SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
  • the filtering units 120 and 150 may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.
  • the DPBs 125 and 155 may receive the reconstructed block or the reconstructed picture from the filtering units 125 and 150 and store the received reconstruction picture.
  • the DPBs 125 and 155 may provide a reconstructed block or picture to the predictors 110 and 140 that perform inter prediction.
  • Information output from the entropy coding unit 160 of layer 0 and information output from the entropy coding unit 130 of layer 1 may be multiplexed by the MUX 165 and output as a bitstream.
  • the encoding unit 105 of the layer 1 has been described as including the MUX 165.
  • the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 135 of the layer 0. It may be a device or a module of.
  • FIG. 2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.
  • the decoding apparatus 200 includes a decoder 210 of layer 1 and a decoder 250 of layer 0.
  • Layer 0 may be a base layer, a reference layer, or a lower layer
  • layer 1 may be an enhancement layer, a current layer, or an upper layer.
  • the decoding unit 210 of the layer 1 includes an entropy decoding unit 215, a reordering unit 220, an inverse quantization unit 225, an inverse transform unit 230, a prediction unit 235, a filtering unit 240, and a memory. can do.
  • the decoding unit 250 of the layer 0 may include an entropy decoding unit 255, a reordering unit 260, an inverse quantization unit 265, an inverse transform unit 270, a filtering unit 280, and a memory 285. .
  • the DEMUX 205 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.
  • the entropy decoding units 215 and 255 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 215 and 255 may also perform entropy decoding using CABAC.
  • Information for generating a prediction block among the information decoded by the entropy decoding units 215 and 255 is provided to the prediction units 235 and 275, and a residual value of which entropy decoding is performed by the entropy decoding units 215 and 255. That is, the quantized transform coefficients may be input to the reordering units 220 and 260.
  • the reordering units 220 and 260 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 215 and 255, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
  • the reordering units 220 and 260 may rearrange the quantized transform coefficients of the one-dimensional array into the coefficients of the two-dimensional array.
  • the reordering units 220 and 260 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.
  • the inverse quantizers 225 and 265 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
  • the inverse quantizers 225 and 265 may transfer the entropy decoded residual to the inverse transformers 230 and 270 without dequantizing the entropy decoded residual according to a predetermined condition or a quantization scheme in the encoding apparatus.
  • the inverse transform units 230 and 270 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus.
  • the inverse transform units 230 and 270 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.
  • DCT discrete cosine transform
  • DST discrete sine transform
  • the DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 230 and 270 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.
  • the inverse transform units 230 and 270 may apply inverse DCT and inverse DST according to a prediction mode / block size.
  • the inverse transformers 230 and 270 may apply an inverse DST to a 4x4 luma block to which intra prediction is applied.
  • the inverse transform units 230 and 270 may fixedly use a specific inverse transform method regardless of the prediction mode / block size.
  • the inverse transform units 330 and 370 may apply only inverse DST to all transform blocks.
  • the inverse transform units 330 and 370 may apply only inverse DCT to all transform blocks.
  • the inverse transformers 230 and 270 may generate a residual or residual block by inversely transforming the transform coefficients or the block of the transform coefficients.
  • the inverse transformers 230 and 270 may also skip the transformation as needed or in accordance with the manner encoded in the encoding apparatus. For example, the inverse transforms 230 and 270 may omit the transform for a block having a specific prediction method or a specific size or a block of a specific size to which a specific prediction block is applied.
  • the prediction units 235 and 275 may perform prediction on the current block based on prediction block generation related information transmitted from the entropy decoding units 215 and 255 and previously decoded blocks and / or picture information provided by the memories 245 and 285.
  • a prediction block can be generated.
  • the prediction units 235 and 275 may perform intra prediction on the current block based on pixel information in the current picture.
  • the prediction units 235 and 275 may perform information on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.
  • the prediction block may be a reconstruction block.
  • the prediction unit 235 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).
  • the predictor 235 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1.
  • the prediction unit 235 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.
  • the predictor 235 of the layer 1 may receive motion information of the layer 1 from the predictor 275 of the layer 0 to perform motion prediction.
  • Inter-layer motion prediction is also called inter-layer inter prediction.
  • inter-layer motion prediction prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer).
  • the prediction unit 335 may scale and use motion information of the reference layer when necessary.
  • the predictor 235 of the layer 1 may receive texture information of the layer 1 from the predictor 275 of the layer 0 to perform texture prediction.
  • Texture prediction is also called inter layer intra prediction or intra base layer (BL) prediction.
  • inter-layer texture prediction the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.
  • the predictor 235 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 275 of the layer 0 to perform unit parameter prediction.
  • unit parameter prediction unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.
  • the predictor 235 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 275 of the layer 0 to perform parameter prediction.
  • parameter prediction the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.
  • the adders 290 and 295 may generate reconstruction blocks using the prediction blocks generated by the predictors 235 and 275 and the residual blocks generated by the inverse transformers 230 and 270.
  • the adders 290 and 295 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.
  • Blocks and / or pictures reconstructed by the adders 290 and 295 may be provided to the filtering units 240 and 280.
  • the filtering units 240 and 280 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed blocks and / or pictures.
  • deblocking filtering sample adaptive offset (SAO)
  • SAO sample adaptive offset
  • ALF ALF
  • the filtering units 240 and 280 may not apply all of the deblocking filter, ALF, and SAO, and may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO.
  • the filtering unit 240 of the layer 1 performs filtering on the reconstructed picture by using parameter information transmitted from the predicting unit 235 of the layer 1 and / or the filtering unit 280 of the layer 1. It can also be done.
  • the filtering unit 240 may apply filtering to or between layers using the parameters predicted from the parameters of the filtering applied in the layer 0.
  • the memories 245 and 285 may store the reconstructed picture or block to use as a reference picture or reference block.
  • the memories 245 and 285 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).
  • the prediction unit of layer 1 may be different from the interlayer prediction unit that performs prediction using information of another layer (layer 0). It may also be regarded as including an inter / intra predictor for performing prediction without using the information of).
  • FIG. 3 is a block diagram illustrating an example of inter-layer prediction in an encoding apparatus and a decoding apparatus that perform scalable coding according to the present invention.
  • the predictor 300 of layer 1 includes an inter / intra predictor 340 and an interlayer predictor 350.
  • the prediction unit 300 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.
  • the interlayer prediction unit 350 may receive interlayer prediction information from the prediction unit 320 and / or the filtering unit 330 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1.
  • the inter / intra prediction unit 340 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1 without using the information of the layer 0.
  • the inter / intra predictor 340 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 350.
  • the filtering unit 310 of the layer 1 may perform the filtering based on the information of the layer 0, or may perform the filtering based on the information of the layer 0.
  • Information of the layer 0 may be transferred from the filtering unit 330 of the layer 0 to the filtering unit 310 of the layer 1, or may be transferred from the interlayer prediction unit 350 of the layer 1 to the filtering unit 310 of the layer 1. It may be.
  • the information transmitted from the layer 0 to the interlayer prediction unit 330 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.
  • the interlayer predictor 350 may include a texture predictor 360, a motion predictor 370, a unit information predictor 380, and a parameter predictor 390.
  • the texture predictor 360 may use the texture of the reference block in the reference layer as a prediction value for the current block of the enhancement layer. In this case, the texture predictor 360 may be scaled by upsampling the texture of the reference block.
  • the motion predictor 370 may predict the current block of layer 1 (the current layer or the enhancement layer) by using the motion information of the layer 0 (the reference layer or the base layer). In this case, the motion predictor 370 may scale the motion information of the reference layer.
  • the unit information predictor 380 derives unit (CU, PU, and / or TU) information of the base layer and uses the unit information of the enhancement layer based on the unit information of the base layer or uses the unit information of the enhancement layer based on the unit information of the base layer. You can decide.
  • unit (CU, PU, and / or TU) information of the base layer uses the unit information of the enhancement layer based on the unit information of the base layer or uses the unit information of the enhancement layer based on the unit information of the base layer. You can decide.
  • the parameter predictor 390 may derive the parameters used in the base layer to reuse them in the enhancement layer or predict the parameters for the enhancement layer based on the parameters used in the base layer.
  • interlayer prediction As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.
  • the inter-layer prediction unit may further include a sub-prediction unit for performing inter-layer residual prediction and / or a sub-prediction unit for performing inter-layer differential prediction. Inter-layer difference prediction may be performed.
  • the prediction unit 300 may correspond to the prediction unit 110 of FIG. 1, and the filtering unit 310 may include the filtering unit 120 of FIG. 1. It can correspond to.
  • the predictor 320 may correspond to the predictor 140 of FIG. 1
  • the filter 330 may correspond to the filter 150 of FIG. 1.
  • the prediction unit 300 may correspond to the prediction unit 235 of FIG. 2, and the filtering unit 310 is the filtering unit 240 of FIG. 2.
  • the predictor 320 may correspond to the predictor 275 of FIG. 2
  • the filter 330 may correspond to the filter 280 of FIG. 2.
  • inter-layer prediction for predicting information of a current layer using information of another layer may be performed.
  • inter-layer prediction takes advantage of the fact that the base layer and the current layer (enhanced layer) are likely to be similar. Similarly, it is likely that the filter applied to the base layer and the filter applied to the current layer are similar.
  • a method of reusing filter information (eg, filter parameter) of the base layer to the current layer or transmitting or predicting filter information of the current layer based on the filter information of the base layer may be used.
  • the SAO information on the current layer may be transmitted based on the SAO information of the base layer or the SAO information may be applied to the current layer using the SAO information of the base layer.
  • the SAO In the base layer, it may be determined whether the SAO is applicable at the sequence parameter level, and whether or not the SAO may be applied in units of coding tree units (CTUs).
  • the CTU means the highest CU among the CUs of the tree structure and may be a large coding unit (LCU).
  • LCU large coding unit
  • the CTU and the LCU are mixed and described as necessary so that the invention can be easily understood.
  • SAO includes a band offset and an edge offset.
  • a band offset or an edge offset may be applied in units of samples.
  • the encoding apparatus may transmit information indicating whether to apply the band offset or the edge offset to the decoding apparatus.
  • the encoding apparatus may instruct SAO to be performed in the current CTU by using SAO information of already processed CTUs around the current CTU. For example, when the information signaled from the encoding device indicates that the SAO information of the neighboring CTU is to be used, the decoding device may perform SAO in the current CTU using the SAO information of the left CTU or the upper CTU of the current CTU.
  • the value of the offset to apply may be signaled from the encoding device to the decoding device.
  • the offset value may be determined for each CTU according to the category.
  • the offset value may be signaled using respective information (syntax element) indicating the magnitude and the sign.
  • the band offset divides the pixel value into 32 bands, according to the pixel histogram, and then applies an offset for four consecutive bands.
  • the encoding apparatus determines four bands to apply the band offset, and indicates the offsets for the four bands and indicates the first of four bands (ie, the position of the start band). Start band information) may be transmitted.
  • FIG. 4 is a diagram schematically illustrating an example of a method of applying a band offset.
  • the pixel value range 400 of all pixels is uniformly divided into 32 bands.
  • the encoding apparatus indicates four consecutive bands (K, K + 1, K + 2, K + 3) to apply the band offset.
  • the encoding device may specify four bands to which the band offset is to be applied by specifying the position of the start band 410.
  • the decoding apparatus may specify four consecutive bands K, K + 1, K + 2, and K + 3 to which the band offset is to be applied based on the received information.
  • the decoding apparatus may receive information (start band information) specifying the start band 410 from the encoding apparatus. In this case, information specifying the location of the start band may be transmitted at the SAO syntax level.
  • the decoding apparatus may specify four consecutive bands including the start band 410 and apply a band offset to the four specified bands.
  • the band offset to be applied may be determined for each band (category).
  • the encoding apparatus may transmit information specifying the offset value to be applied to each of the four bands to the decoding apparatus, and the decoding apparatus derives the offset value specified by the received information for each band, and the pixels belonging to each band.
  • An offset value corresponding to may be applied.
  • the offset value may be divided into information indicating a size and information indicating a sign and transmitted from the encoding apparatus to the decoding apparatus.
  • the decoding apparatus may apply an offset corresponding to a band to which the corresponding pixel belongs to a pixel belonging to four bands to which the band offset is applied.
  • the band offset may be divided into a center band and a peripheral band to apply the offset to any one of the two band groups.
  • FIG. 5 is a diagram schematically illustrating another example of a method of applying a band offset.
  • the pixel value range 400 of all pixels is evenly divided into 32 bands.
  • a total of 32 bands may be divided into 16 central bands 510 and 16 bands 520-1 and 520-2.
  • the encoding apparatus may determine which band group among the center band 510 and the peripheral bands 520-1 and 520-2 to apply the offset to. In the case of applying the band offset, the encoding apparatus indicates information indicating which band group among the center band 510 and the peripheral bands 520-1 and 520-2 to apply the offset and an offset value to be applied for each band. Information may be transmitted to the decoding apparatus.
  • the decoding apparatus may receive information indicating the band group (center band or peripheral band) to which the offset is to be applied and information indicating the offset value for each band from the encoding apparatus. In the case of applying the band offset, the decoding apparatus may apply the offset value allocated to the band to which the pixel belongs to the pixel based on the received information.
  • the edge offset is divided into four classes of edges of the image as a whole in a block to which SAO is applied, for example, a CTU.
  • the class can be divided into four types: vertical edge, horizontal edge, 45 degree edge support, and 135 degree edge.
  • the encoding apparatus and the decoding apparatus may apply an offset value according to the corresponding category by dividing the pixel value of the pixel to which the edge offset is applied to the pixel value of the neighboring pixel into four categories. .
  • the categories are 1) if the pixel value of the target pixel is larger than the two surrounding pixels, 2) if the pixel value of the target pixel is equal to one pixel around and smaller than the other pixel, 3) the pixel value of the target pixel is one 4) If the pixel value of the target pixel is the same as the pixel and larger than the other pixel, it may be 4 categories.
  • FIG. 6 is a diagram schematically illustrating a category of edge offsets.
  • the category of the current pixel may be determined using two neighboring pixels of the current pixel.
  • two neighboring pixels compared to determine a category may be determined according to a class to which a block to which SAO is applied, for example, a CTU.
  • the vertical edge may be two pixels above and below the target pixel
  • the horizontal edge may be the left and right pixels
  • the 45-degree edge may be the upper left and lower right pixels of the target pixel.
  • the pixels may be lower left and upper right pixels.
  • C denotes a current pixel
  • C-1 and C + 1 denote peripheral pixels of the current pixel.
  • C-1 and C + 1 may be left and right pixels of the current pixel, top and bottom pixels of the current pixel, or may be peripheral pixels of the current pixel in a diagonal direction.
  • (6a) shows a case where two neighboring pixels of the current pixel have a larger value than the current pixel as the first category of the edge offset.
  • (6b) represents a second category of edge offset, in which one of two peripheral pixels of the current pixel has the same value as the current pixel, and the other pixel has a larger value than the current pixel.
  • (6c) represents a third category of edge offset, in which one pixel of two neighboring pixels of the current pixel has the same value as the current pixel, and the other pixel has a smaller value than the current pixel.
  • (6d) indicates a case where two peripheral pixels of the current pixel have a smaller value than the current pixel as the fourth category of the edge offset.
  • an edge offset is divided into four categories as an example. However, an edge offset is divided into five categories by adding a case in which two neighboring pixels of the current pixel have the same value as the current pixel. It may be.
  • the offset value applied to the edge offset may be derived according to the category of the current pixel when two peripheral pixels of the current pixel are selected according to the class, and a category is determined according to the relationship with the selected pixel.
  • the encoding apparatus may transmit information indicating to apply the edge offset and offset information according to the category to the decoding apparatus. For example, the encoding apparatus may transmit information specifying the offset value for each category to the decoding apparatus.
  • the decoding apparatus may apply the offset to the target pixel according to the category to which the target pixel belongs. For example, the decoding apparatus may derive an offset value to be applied to the current picture according to the category of the current picturer based on the information about the offset value received from the encoding rule.
  • the offset value may be divided into information indicating a magnitude and information indicating a sign and transmitted from the encoding device to the decoding device.
  • the encoding apparatus may transmit a SAO type index that specifies which of the above-described edge offset and band offset to be applied to the decoding apparatus.
  • Table 1 shows an example of the SAO type index that specifies the SAO to be applied.
  • the encoding apparatus may transmit whether to apply SAO, band offset, or edge offset to the decoding apparatus through the SAO type index.
  • the decoding apparatus does not apply SAO when the received SAO type index is 0, and applies a band offset when the received SAO type index is 1. If the received SAO type index is 2, the edge offset may be applied.
  • the SAO type index indicates whether to apply a band offset or an edge offset. Therefore, when the band offset is applied, the information indicating the start band and the information indicating the offset value may be transmitted separately, and when the edge offset is applied, the information indicating the edge class and the offset value may be transmitted separately. have.
  • the SAO type index may indicate both the class of the edge offset and the application band of the band offset.
  • Table 2 shows another example of the SAO type index that specifies the SAO to apply.
  • Table 2 shows a SAO type index when SAO is performed by applying the band offset described in FIG. 5 and the edge offset described in FIG. 6.
  • the encoding apparatus uses the SAO type index from 0 to 6 to apply the SAO, edge offset, or band offset, as well as the class and band of the edge offset. Up to the application band of the offset can be indicated.
  • the decoding apparatus may perform SAO as indicated by the received SAO type index.
  • the SAO applied in the base layer and the SAO applied in the enhancement layer are likely to be similar. For example, if the class of the edge offset in the lower layer (base layer) was an edge of 90 degrees, the probability of being the 90 degree edge class of the edge offset in the current layer is higher than that of another class.
  • information indicating the SAO to be applied in the enhancement layer may be signaled.
  • enhancement layer SAO candidates to be applied to an enhancement layer may be configured as SAOs similar to SAO applied to a base layer.
  • the encoding apparatus may signal which of the enhancement layer SAO candidates to apply to the enhancement layer.
  • the decoding apparatus may apply the SAO candidate signaled from the encoding apparatus to the current layer (enhanced layer).
  • the index of the class (edge type) for the enhancement layer may be readjusted, and the order of categories in the enhancement layer may be readjusted.
  • the highest ranking index (lowest index) may be assigned to the same edge type as that of the base layer.
  • the ranking of indexes for edge types similar to the edge type of the base layer may be increased.
  • a method of reducing a transmission bit amount and increasing compression efficiency by signaling a difference value between the information of the SAO applied to the base layer and the information of the SAO applied to the current layer may be used.
  • SAO candidates that can be applied to an enhancement layer may be limited to SAOs similar to those of SAO applied to a base layer.
  • an edge type applied in the base layer may define a class of edge offset for the enhancement layer.
  • the edge offset to the enhancement layer as two edge types: an edge type applied to the base layer and an edge type applied to the base layer by 45 degrees, or an edge type rotated 135 degrees to the edge type applied to the base layer. You can also qualify the class of. Or (iii) three edge types, one edge type applied to the base layer and two edge types similar to the edge type applied to the base layer (45 degree rotated edge type and 135 degree rotated edge type). You can also qualify the class.
  • the encoding apparatus may determine which scheme (i) to (iii) to use, and may transmit information indicating the determined scheme to the decoding apparatus.
  • the encoding apparatus may specify an edge type (class) by indicating only to apply an edge offset in the case of (i) of applying a single edge type at the edge offset of the enhancement layer. In the case of (ii) and (iii) of applying a plurality of edge types in the edge offset of the enhancement layer, the encoding apparatus may separately signal which edge type to apply.
  • the category of the edge offset may be defined.
  • (a) the same category as the category applied in the base layer may be applied to the enhancement layer.
  • which method (a) to (c) is to be used may be predetermined between the encoding device and the decoding device.
  • the encoding apparatus may determine which scheme (a) to (b) to use, and may transmit information indicating the determined scheme to the decoding apparatus.
  • the decoding apparatus may use the category applied to the base layer.
  • the decoding apparatus may apply any of the candidate categories according to the relationship between the current pixel (target pixel) and the surrounding pixel. Can be determined.
  • the edge type of the upper layer is likely to be the same as or similar to the edge type of the lower layer (eg, the base layer).
  • the edge type of the lower layer is a horizontal edge
  • the edge type of the current layer also has a high probability of being a horizontal edge and a diagonal edge more than a probability of being a vertical edge.
  • the SAO type has 7 types from 0 to 6.
  • the SAO type of the lower layer e.g., base layer
  • the upper layer current layer
  • the highest and subsequent diagonal edges are most likely to have characteristics, and the horizontal edge is unlikely to have a characteristic.
  • the difference between the edge type of the lower layer and the edge type of the current layer or the difference between the SAO type of the lower layer and the SAO type of the current layer is determined.
  • the bits required for transmission can be reduced and the compression rate can be improved.
  • the encoding apparatus may determine i C and i B.
  • the difference value i C -i B may be signaled.
  • the decoding apparatus adds the difference value between a i B i and C received from the encoding device to the i B may derive an edge-type of the current layer.
  • the encoding apparatus may determine i SAO_C and i SAO_B .
  • a difference value (i SAO_C -i SAO_B ) may be signaled.
  • the decoding apparatus adds the difference value between the i and i SAO_B SAO_C received from the encoding device to the i SAO_B can lead to edge-type of the current layer.
  • the encoding device may The difference 1 may be transmitted to the decoding apparatus.
  • the decoding apparatus may obtain the SAO type 3 of the current layer by adding the received value 1 to the SAO type 2 of the lower layer.
  • an XOR (exclusive or) operation may be applied.
  • FIG. 7 is a diagram for briefly explaining an example of applying an XOR operation to SAO information of a lower layer and SAO information of an upper layer according to the present invention.
  • SAO information is the SAO type of Table 2
  • Table 2 a case where the SAO information is the SAO type of Table 2 will be described as an example.
  • an XOR operation 730 is performed on the SAO type 710 of the lower layer (base layer) and the SAO type 720 of the upper layer (enhancement layer).
  • the encoding device transmits SAO information 740.
  • the transmitted SAO information 740 is a value obtained by performing an XOR operation on the SAO type 710 of the base layer and the SAO type 720 of the enhancement layer.
  • the decoding apparatus may receive the SAO information 740 and inversely apply an XOR operation to derive the SAO type of the enhancement layer.
  • the table 2 has been described in consideration of an example of applying the table 2.
  • SAO information may be transmitted by applying the XOR operation.
  • SAO information transmitted to the decoding apparatus may be generated by applying an XOR operation between the edge type of the base layer and the edge type of the enhancement layer instead of the SAO type.
  • the result of the XOR operation may be large.
  • the XOR operation may be performed after converting the SAO value of each layer to a gray code (gray code).
  • the conversion to gray code converts two consecutive binary values one bit apart.
  • FIG. 8 is a diagram for briefly explaining another example of applying an XOR operation to SAO information of a lower layer and SAO information of a higher layer according to the present invention.
  • SAO information is the SAO type of Table 2
  • Table 2 a case where the SAO information is the SAO type of Table 2 will be described as an example.
  • the encoding apparatus converts the SAO type 810 of the lower layer (base layer) from the gray coder 820 to gray code before performing the XOR operation, and the SAO type of the upper layer (enhanced layer). 830 is converted from the gray coder 840 to the gray code.
  • the encoding apparatus performs XOR operation 850 on the SAO type value of the base layer and the enhancement layer SAO type value converted to gray code.
  • the encoding device transmits SAO information 860.
  • the transmitted SAO information 860 is a value obtained by performing an XOR operation on the gray code-converted SAO type value of the base layer and the gray code-converted SAO type value of the enhancement layer.
  • SAO information may be transmitted by applying gray code conversion and XOR operation.
  • the XOR operation is applied to the decoding apparatus by applying an XOR operation between a value obtained by converting an index indicating the edge type of the base layer to gray code instead of a SAO type and a value converting the index indicating the edge type of the enhancement layer into gray code.
  • SAO information transmitted may be generated.
  • the index table indicating the SAO information of the upper layer may be rearranged according to the type (SAO type, class or category) of the SAO applied to the lower layer.
  • the index indicating the edge type applied to the lower layer may be adjusted to a lower value (higher rank).
  • the SAO type of the lower layer was a modified edge as an edge offset
  • the SAO type of the upper layer is also likely to be an edge in the same direction or a diagonal direction as the lower layer. Therefore, in the SAO type table for the upper layer, efficiency can be improved by having vertical edges and diagonal edges appear in front of the table (low index).
  • the index indicating the SAO type applied to the lower layer may be adjusted to a lower value (higher rank).
  • the SAO type table to be applied to the upper layer indicates i SAO_L .
  • the corresponding index is 3 in Table 1, but in the upper layer, 1 may be assigned as the SAO type index.
  • the edges of the angle similar to i SAO_B can be applied by increasing the edges of the angle similar to i SAO_B , for example, 90 degrees edge or 135 degrees edge.
  • 90 degrees edge or 135 degrees edge For example, in Table 1, if an index is assigned in the order of 0 degree edge, 90 degree edge, 135 degree edge, and 45 degree edge, but 135 degree edge is applied in the lower layer, 135 degree edge, 90 degree edge, 0 degree in the upper layer Indexes may be assigned in the order of edge, 45 degree edge.
  • the edge type applied to the lower layer may be adjusted to have a higher priority or a lower index in the upper layer.
  • Table 3 is a table specifying the classes of edge offsets available in the example of applying Table 2.
  • the encoding apparatus may apply SAO to the base layer (lower layer) and reorder the SAO application table (eg, Table 1 or Table 2) as described above based on the applied SAO type (edge type).
  • the encoding apparatus may signal an index indicating a SAO type (edge type) to be applied to an upper layer (enhanced layer) in the reordered SAO application table.
  • the decoding apparatus may apply SAO to the base layer (lower layer) and reorder the SAO application table (eg, Table 1 or Table 2) as described above based on the applied SAO type (edge type).
  • the decoding apparatus receives an index indicating the SAO type (edge type) to be applied to the upper layer (enhanced layer) from the encoding apparatus, and selects the SAO type (edge type) indicated by the index received on the reordered SAO application table. It can be applied to the upper layer (enhancement layer).
  • any one of the above-described embodiments may be applied to the entire video, and the SAO method to be applied to the enhancement layer may be adaptively selected from the above-described embodiments.
  • the encoding apparatus uses the SAO information of the base layer as a method of using some / or all of the above-described embodiments and the SAO information of the base layer.
  • Information indicating which scheme to use among the configured SAO candidates may be signaled.
  • the decoding apparatus may select the SAO method indicated by the information transmitted by the encoding apparatus from among the SAO candidates and apply it to the enhancement layer (current layer).
  • base_pred_sao_param_flag The indicator indicating whether to use the SAO information of the base layer.
  • base_pred_sao_param_flag may be a kind of index or indicator. Accordingly, base_pred_sao_param_flag may also be referred to as base_pred_sao_param_idc.
  • Table 6 is a SAO scheme table that can be used to indicate the SAO to be applied in the enhancement layer according to the present embodiment.
  • the encoding apparatus may transmit a base_pred_sao_param_flag indicating how to perform SAO of the enhancement layer (current layer) using the SAO information of the base layer to the decoding apparatus.
  • base_pred_sao_param_flag indicates in Table 6 how to apply the enhancement layer (current layer) using the SAO information of the base layer.
  • the decoding apparatus may receive base_pred_sao_param_flag from the encoding apparatus and perform SAO on the enhancement layer using a method indicated by base_pred_sao_param_flag in Table 6.
  • SAO is applied to the enhancement layer without using SAO information of another layer (eg, the base layer).
  • parameters for SAO of the enhancement layer may be transmitted from the encoding device to the decoding device.
  • SAO information of the base layer is used, but as in the third embodiment, SAO may be performed on the enhancement layer based on the signaled information by applying an XOR operation.
  • the specific method is as described in Example 3.
  • SAO information of the base layer is used, but SAO for the enhancement layer may be performed based on the signaled information by applying gray code conversion and XOR operation as in the fourth embodiment.
  • the specific method is as described in Example 4.
  • SAO information of the base layer is used, but SAO information may be rearranged and applied to the enhancement layer as in the fifth embodiment.
  • the specific method is as described in Example 5.
  • Table 6 Table 1 may be used or Table 2 may be used in each method indicated by base_pred_sao_param_flag.
  • base_pred_sao_param_flag may be transmitted through extended syntax.
  • Table 7 shows an example of an adaptive parameter set (APS) in scalable extension as an example of a syntax structure in which base_pred_sao_param_flag is transmitted.
  • APS adaptive parameter set
  • base_pred_sao_param_flag may be signaled by using the SAO syntax in scalable extension in the scalable extension without using the APS in the scalable extension.
  • Table 8 briefly illustrates base_pred_sao_param_flag signaled in SAO syntax structure in scalable extension.
  • base_pred_sao_param_flag may indicate how to perform SAO of the enhancement layer (current layer) using SAO information of the base layer in the same manner as in the example of Table 6.
  • base_pred_sao_param_flag may be simply used as a flag indicating whether to use the SAO parameter of the base layer for SAO of the enhancement layer. In this case, if the value of base_pred_sao_param_flag is 0, the SAO parameter of the lower layer (for example, the base layer) is not applied to the upper layer (for example, the enhancement layer). If the value of base_pred_sao_param_flag is 1, the lower layer (for example, the base layer) SAO parameter of may be applied to SAO of a higher layer (eg, an enhancement layer) as it is.
  • a higher layer eg, an enhancement layer
  • FIG. 9 is a flowchart schematically illustrating a method of applying SAO to an upper layer and transmitting SAO information according to the present invention.
  • the encoding apparatus applies SAO to an upper layer (S910).
  • the encoding apparatus may apply the SAO to the upper layer based on the information about the SAO applied to the lower layer.
  • the information on the SAO applied to the lower layer may be related to which SAO type is applied to the lower layer or to which edge type edge offset is applied to the lower layer.
  • the encoding apparatus may determine the SAO to be applied to the upper layer by giving priority to the SAO applied to the lower layer.
  • the encoding apparatus may reassign the index so that the SAO type applied to the lower layer has a low index.
  • the encoding apparatus may reallocate the index such that the edge type (class) applied to the lower layer has a low index.
  • the encoding apparatus may limit candidates of SAO to be applied to a higher layer to a predetermined number or range. For example, when six SAO types are applied to a lower layer as shown in Table 2, the encoding apparatus prioritizes the SAO types applied to the lower layer or takes fewer than six SAO types in consideration of the statistical frequency of the SAO types. It can be limited to candidates applicable to. The encoding apparatus may determine the SAO type to apply to the upper layer among the limited candidates.
  • the encoding apparatus prioritizes the edge type applied to the lower layer or takes more than four edge types in consideration of the statistical frequency of the edge type. It can also be limited to candidates applicable to. The encoding apparatus may determine an edge type to apply to the upper layer among the limited candidates.
  • the encoding apparatus may transmit SAO information (S920).
  • the encoding apparatus may transmit information indicating SAO applied to the upper layer, that is, SAO indication information, to the decoding apparatus.
  • the SAO indication information may include difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer. Accordingly, the SAO applied to the upper layer may be specified by the difference value included in the SAO applied to the lower layer and the SAO indication information.
  • the difference value may be a difference between the SAO type applied to the lower layer and the SAO type applied to the upper layer in the example using Table 2.
  • the difference value may be a difference between an edge type (class) applied to a lower layer and an edge type (class) applied to an upper layer.
  • the SAO indication information may be information generated by performing an XOR operation on the information indicating the SAO applied to the lower layer and the information indicating the SAO applied to the upper layer.
  • the information indicating the SAO may be a SAO type or an edge type.
  • the encoding apparatus may gray code convert the information indicating the SAO applied to the lower layer, and gray code convert the information indicating the SAO applied to the upper layer, and then perform XOR operation on the gray code converted values to generate SAO indication information. It may be.
  • the encoding apparatus may indicate the SAO applied to the upper layer based on the indices to which the SAO indication information is reassigned.
  • the encoding apparatus may indicate whether the SAO indication information is generated by the XOR operation, the gray code conversion and the XOR operation, or the reallocated SAO type / edge type included in or separately from the SAO indication information. Information indicating whether or not may be transmitted.
  • FIG. 10 is a flowchart schematically illustrating a method of receiving SAO indication information indicating SAO to be applied to a higher layer and applying SAO to a higher layer according to the present invention.
  • the decoding apparatus will be described as performing the operation of FIG. 10.
  • the decoding apparatus receives SAO indication information from the encoding apparatus (S1010).
  • the SAO indication information indicates the SAO applied to the upper layer.
  • the SAO indication information may include difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer. Accordingly, the SAO applied to the upper layer may be specified by the difference value included in the SAO applied to the lower layer and the SAO indication information.
  • the difference value may be a difference between the SAO type applied to the lower layer and the SAO type applied to the upper layer in the example using Table 2.
  • the difference value may be a difference between an edge type (class) applied to a lower layer and an edge type (class) applied to an upper layer.
  • the SAO indication information may be information generated by performing an XOR operation on the information indicating the SAO applied to the lower layer and the information indicating the SAO applied to the upper layer.
  • the information indicating the SAO may be a SAO type or an edge type.
  • the SAO indication information may be generated by gray code converting the information indicating the SAO applied to the lower layer, and gray code converting the information indicating the SAO applied to the upper layer, and then performing XOR operation on the gray code converted values. have.
  • the index indicating the SAO type or edge type that can be applied to the upper layer can be reassigned based on the SAO applied to the lower layer.
  • the SAO indication information indicates the SAO applied to the upper layer based on the reassigned indexes. You may.
  • SAO indication information indicates whether the SAO indication information is generated by XOR operation, gray code conversion and XOR operation, or indicates a reallocated SAO type / edge type. Information may be transmitted.
  • the decoding apparatus applies SAO to an upper layer (S1020).
  • the decoding apparatus may apply the SAO to the upper layer based on the received SAO indication information and the information about the SAO applied to the lower layer.
  • the information about the SAO applied to the lower layer may be related to which SAO type is applied to the lower layer or to which edge type edge offset is applied to the lower layer.
  • the SAO indication information includes difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer
  • the SAO applied to the higher layer is determined by the difference value included in the SAO indication information applied to the lower layer.
  • the decoding apparatus may apply the specified SAO to the upper layer.
  • the difference value may be a difference in SAO type or a difference in edge type.
  • SAO to be applied to the upper layer may be determined by giving priority to SAO applied to the lower layer.
  • the index when determining the SAO to be applied to the upper layer on the lookup table shown in Table 2, the index may be reassigned so that the SAO type applied to the lower layer has a lower index.
  • the index when determining the SAO to be applied to the upper layer on the lookup table shown in Table 3, the index may be reassigned so that the edge type (class) applied to the lower layer has a lower index.
  • the decoding apparatus may reassign the index for the SAO to be applied to the upper layer, and then apply the SAO type or edge type corresponding to the index indicated by the SAO indication information to the upper layer.
  • candidates of SAO to be applied to a higher layer may be limited to a predetermined number or range. For example, when six SAO types are applied to the lower layer as shown in Table 2, less than six SAO types may be applied to the upper layer by giving priority to the SAO type applied to the lower layer or considering the statistical frequency of the SAO types. Can be limited to candidates.
  • the decoding apparatus may apply the SAO type specified by the SAO indication information and the SAO applied to the lower layer among the limited candidates to the upper layer.
  • edge types when four edge types are applied to the lower layer as shown in Table 3, less than four edge types may be applied to the upper layer by giving priority to the edge type applied to the lower layer or considering the statistical frequency of the edge types. It may be limited to candidates.
  • the decoding apparatus may apply the SAO indication information and the SAO type specified by the SAO applied to the lower layer among the limited candidates to the upper layer.
  • the information is transmitted from the encoding apparatus and the decoding apparatus receives the description, but the present invention is not limited thereto.
  • the transmission / reception of information may mean transmission / reception on a network, and may mean storage on a recording medium and acquisition from a recording medium.
  • the upper / lower layer, the current / reference layer, and the enhancement / base layer are mixed, but in the present specification, the upper layer, the current layer, and the enhancement layer may use the same layer.
  • the lower layer, the reference layer, and the base layer may also mean the same layer.
  • a 'picture an array of samples reconstructed at a specific time point (for example, a picture order count (POC) or an access unit (AU)) for each layer in a multi-layer structure in which scalable video coding is supported is referred to as a 'picture.
  • POC picture order count
  • AU access unit
  • the entire sample array reconstructed or reconstructed at a specific time in the decoded and output layer may be called a picture and may be distinguished from the reconstructed or reconstructed sample array of the referenced layer.
  • the sample array reconstructed or reconstructed at a specific time point in the referenced layer may be referred to as a representation, a reference layer picture, a reference layer sample array, a reference layer texture, or the like.
  • one decoded picture reconstructed in the current layer may be output for one AU.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

스케일러블 비디오 코딩에서 샘플 적응적 오프셋 적용 방법 및 이를 이용한 장치Application Method of Sample Adaptive Offset in Scalable Video Coding and Apparatus Using the Same

본 발명은 비디오 압축 기술에 관한 것으로서 더 구체적으로는 스케일러블 비디오 코딩에서 샘플 적응적 오프셋(Sample Adaptive Offset: SAO, 이하 SAO라 함)을 적용하는 방법 및 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to video compression techniques, and more particularly, to a method and apparatus for applying a sample adaptive offset (SAO) in scalable video coding.

최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가하고 있다. Recently, the demand for high resolution and high quality images is increasing in various applications. As an image has a high resolution and high quality, the amount of information on the image also increases.

정보량의 증가로 인해 다양한 성능의 장치와 다양한 환경의 네트워크가 등장하고 있다. As information volume increases, devices with various performances and networks with various environments are emerging.

다양한 성능의 장치와 다양한 환경의 네트워크가 등장함에 따라서, 동일한 콘텐츠를 다양한 품질로 이용할 수 있게 되었다. With the emergence of devices of varying performance and networks of different environments, the same content is available in different qualities.

구체적으로, 단말 장치가 지원할 수 있는 품질의 영상이 다양해지고, 구축된 네트워크 환경이 다양해짐으로써, 어떤 환경에서는 일반적인 품질의 영상을 이용하지만, 또 다른 환경에서는 더 높은 품질의 영상을 이용할 수 있게 된다. In detail, as the video quality of the terminal device can be supported and the network environment is diversified, in general, video of general quality may be used in one environment, but higher quality video may be used in another environment. .

예를 들어, 휴대 단말에서 비디오 콘텐츠를 구매한 소비자가 가정 내 대화면의 디스플레이를 통해 동일한 비디오 콘텐츠를 더 큰 화면과 더 높은 해상도로 감상할 수 있게 되는 것이다. For example, a consumer who purchases video content on a mobile terminal can view the same video content on a larger screen and at a higher resolution through a large display in the home.

최근에는 HD(High Definition) 해상도를 가지는 방송이 서비스되면서 많은 사용자들은 이미 고해상도, 고화질의 영상에 익숙해지고 있고, 서비스 제공자와 사용자들은 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)의 서비스에도 관심을 기울이고 있다.In recent years, broadcasts having a high definition (HD) resolution are being serviced, and many users are already accustomed to high resolution and high definition video.Ultra High Definition (UHD) has more than four times the resolution of an HDTV. I am also interested in the services of the company.

따라서, 다양한 환경에서 사용자가 요구하는 영상 서비스를 품질에 따라서 다양하게 제공하기 위해 고용량 비디오에 대한 고효율의 인코딩/디코딩 방법을 기반으로 영상의 품질, 예컨대 영상의 화질, 영상의 해상도, 영상의 크기, 비디오의 프레임 레이트 등에 스케일러빌러티를 제공하는 것이 필요하다.Therefore, in order to provide various video services required by users in various environments according to the quality, based on a high-efficiency encoding / decoding method for high-capacity video, the quality of the image, for example, the image quality, the resolution of the image, the size of the image, It is necessary to provide scalability in the frame rate of video and the like.

본 발명은 스케일러블 비디오 코딩에서 하위 레이어의 정보를 이용한 필터를 적용하여 상위 레이어의 품질을 높이는 방법 및 장치를 제공하는 것을 목적으로 한다. An object of the present invention is to provide a method and apparatus for improving the quality of an upper layer by applying a filter using information of a lower layer in scalable video coding.

본 발명은 스케일러블 비디오 코딩에서 하위 레이어에 적용된 SAO의 정보를 이용하여 상위 레이어에 효과적으로 SAO를 적용하는 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method and apparatus for effectively applying SAO to an upper layer by using information of SAO applied to a lower layer in scalable video coding.

본 발명은 스케일러블 비디오 코딩에서 하위 레이어에 적용된 SAO의 정보를 이용하여 상위 레이어에 적용되는 SAO의 정보를 효과적으로 전송하는 방법 및 장치를 제공하는 것을 목적으로 한다. An object of the present invention is to provide a method and apparatus for effectively transmitting information of SAO applied to an upper layer by using information of SAO applied to a lower layer in scalable video coding.

본 명세서에 개시된 스케일러블 비디오 코딩에서의 SAO 방법에 의하면, 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상위 레이어에 SAO를 적용한다. According to the SAO method in scalable video coding disclosed in the present specification, SAO is applied to an upper layer based on information on SAO applied to a lower layer.

인코딩 장치에서는 상위 레이어에 적용된 SAO를 특정할 수 있는 SAO 지시 정보를 디코딩 장치로 전송한다. The encoding apparatus transmits SAO indication information for specifying the SAO applied to the upper layer to the decoding apparatus.

디코딩 장치에서는 SAO 지시 정보를 수신하고, 수신한 SAO 지시 정보와 하위 레이어에 적용된 SAO를 이용하여 상위 레이어에 적용할 SAO를 특정할 수 있다. The decoding apparatus may receive the SAO indication information and specify the SAO to be applied to the upper layer by using the received SAO indication information and the SAO applied to the lower layer.

인코딩 장치와 디코딩 장치는 하위 레이어에 적용된 SAO에 관한 정보를 이용하여 상위 레이어에 적용할 SAO를 특정할 수 있다. The encoding apparatus and the decoding apparatus may specify the SAO to be applied to the upper layer by using the information about the SAO applied to the lower layer.

또한, 상위 레이어에 적용할 SAO를 지시하는 정보(신택스 요소)는 하위 레이어에 적용된 SAO를 지시하는 정보를 이용하여 전송될 수도 있다. In addition, information (syntax element) indicating SAO to be applied to the upper layer may be transmitted using information indicating SAO applied to the lower layer.

본 발명에 의하면, 스케일러블 비디오 코딩에서 하위 레이어의 정보를 이용한 필터를 적용하여 상위 레이어의 품질을 높일 수 있다. According to the present invention, the quality of the upper layer can be improved by applying a filter using information of the lower layer in scalable video coding.

본 발명에 의하면, 스케일러블 비디오 코딩에서 하위 레이어에 적용된 SAO의 정보를 이용하여 상위 레이어에 효과적으로 SAO를 적용할 수 있다.According to the present invention, SAO can be effectively applied to an upper layer by using information of SAO applied to a lower layer in scalable video coding.

본 발명에 의하면, 스케일러블 비디오 코딩에서 하위 레이어에 적용된 SAO의 정보를 이용하여 상위 레이어에 적용되는 SAO의 정보를 효과적으로 전송할 수 있다.According to the present invention, in scalable video coding, the information of the SAO applied to the upper layer can be effectively transmitted using the information of the SAO applied to the lower layer.

도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.

도 3은 본 발명에 따라서 스케일러블 코딩을 수행하는 인코딩 장치와 디코딩 장치에서의 레이어 간 예측에 관한 일 예를 설명하는 블록도이다.3 is a block diagram illustrating an example of inter-layer prediction in an encoding apparatus and a decoding apparatus that perform scalable coding according to the present invention.

도 4는 밴드 오프셋을 적용하는 방법의 일 예를 개략적으로 설명하는 도면이다.4 is a diagram schematically illustrating an example of a method of applying a band offset.

도 5는 밴드 오프셋을 적용하는 방법의 다른 예를 개략적으로 설명하는 도면이다.5 is a diagram schematically illustrating another example of a method of applying a band offset.

도 6은 에지 오프셋의 카테고리를 개략적으로 설명하는 도면이다.6 is a diagram schematically illustrating a category of edge offsets.

도 7은 본 발명에 따라서 하위 레이어의 SAO 정보와 상위 레이어의 SAO 정보에 XOR 연산을 적용하는 일 예를 간단히 설명하는 도면이다.FIG. 7 is a diagram for briefly explaining an example of applying an XOR operation to SAO information of a lower layer and SAO information of an upper layer according to the present invention.

도 8은 본 발명에 따라서 하위 레이어의 SAO 정보와 상위 레이어의 SAO 정보에 XOR 연산을 적용하는 다른 예를 간단히 설명하는 도면이다.8 is a diagram for briefly explaining another example of applying an XOR operation to SAO information of a lower layer and SAO information of a higher layer according to the present invention.

도 9는 본 발명에 따라서 상위 레이어에 SAO를 적용하고 SAO 정보를 전송하는 방법을 개략적으로 설명하는 순서도이다.9 is a flowchart schematically illustrating a method of applying SAO to an upper layer and transmitting SAO information according to the present invention.

도 10은 본 발명에 따라서 상위 레이어에 적용할 SAO를 지시하는 SAO 지시 정보를 수신하고 상위 레이어에 SAO를 적용하는 방법을 개략적으로 설명하는 순서도이다.10 is a flowchart schematically illustrating a method of receiving SAO indication information indicating SAO to be applied to a higher layer and applying SAO to a higher layer according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the invention to the specific embodiments. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the spirit of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

한편, 본 발명에서 설명되는 도면상의 각 구성들은 비디오 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.On the other hand, each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented. For example, two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations. Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and redundant description of the same components is omitted.

스케일러빌러티를 지원하는 비디오 코딩 방법(이하, ‘스케일러블 코딩’이라 함)에서는 입력 신호들을 레이어별로 처리할 수 있다. 레이어에 따라서 입력 신호(입력 영상)들은 해상도(resolution), 프레임 레이트(frame rate), 비트 뎁스(bit-depth), 컬러 포맷(colot format), 애스팩트 율(aspect ratio) 중 적어도 하나가 상이할 수 있다.In a video coding method that supports scalability (hereinafter, referred to as 'scalable coding'), input signals may be processed in layers. Depending on the layer, the input signals (input images) may have at least one of resolution, frame rate, bit-depth, color format, and aspect ratio. Can be.

본 명세서에서, 스케일러블 코딩이라 함은 스케일러블 인코딩과 스케일러블 디코딩을 포함한다. In the present specification, scalable coding includes scalable encoding and scalable decoding.

스케일러블 인코딩/디코딩에서는 레이어 간의 차이를 이용하여, 즉 스케일러빌러티에 기반하여, 레이어 간의 예측을 수행함으로써 정보의 중복 전송/처리를 줄이고 압축 효율을 높일 수 있다. In scalable encoding / decoding, prediction between layers is performed by using differences between layers, that is, based on scalability, thereby reducing overlapping transmission / processing of information and increasing compression efficiency.

도 1은 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a video encoding apparatus supporting scalability according to an embodiment of the present invention.

도 1을 참조하면, 인코딩 장치(100)는 레이어 1에 대한 인코딩부(105)와 레이어 0에 대한 인코딩부(135)를 포함한다. Referring to FIG. 1, the encoding apparatus 100 includes an encoder 105 for layer 1 and an encoder 135 for layer 0.

레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다. Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.

레이어 1의 인코딩부(105)는 예측부(110), 변환/양자화부(115), 필터링부(120), DPB(Decoded Picture Buffer, 125), 엔트로피 코딩부(130) 및 MUX(Multiplexer, 165)를 포함한다. The encoding unit 105 of the layer 1 includes a prediction unit 110, a transform / quantization unit 115, a filtering unit 120, a decoded picture buffer (DPB) 125, an entropy coding unit 130, and a MUX (Multiplexer, 165). ).

레이어 0의 인코딩부(135)는 예측부(140), 변환/양자화부(145), 필터링부(150), DPB(155) 및 엔트로피 코딩부(160)를 포함한다. The encoding unit 135 of the layer 0 includes a prediction unit 140, a transform / quantization unit 145, a filtering unit 150, a DPB 155, and an entropy coding unit 160.

예측부(110, 140)는 입력된 영상에 대하여 인터 예측과 인트라 예측을 수행할 수 있다. 예측부(110, 140)는 소정의 처리 단위로 예측을 수행할 수 있다. 예측의 수행 단위는 코딩 유닛(Coding Unit: CU)일 수도 있고, 예측 유닛(Prediction Unit: PU)일 수도 있으며, 변환 유닛(Transform Unit: TU)일 수도 있다. The prediction units 110 and 140 may perform inter prediction and intra prediction on the input image. The prediction units 110 and 140 may perform prediction in predetermined processing units. The performing unit of prediction may be a coding unit (CU), a prediction unit (PU), or a transform unit (TU).

예컨대, 예측부(110, 140)는 CU 단위로 인터 예측을 적용할 것인지 인트라 예측을 적용할 것인지를 결정하고, PU 단위로 예측의 모드를 결정하며, PU 단위 혹은 TU 단위로 예측을 수행할 수도 있다. 수행되는 예측은 예측 블록의 생성과 레지듀얼 블록(레지듀얼 신호)의 생성을 포함한다. For example, the prediction units 110 and 140 may determine whether to apply inter prediction or intra prediction in a CU unit, determine a mode of prediction in a PU unit, and perform prediction in a PU unit or a TU unit. have. Prediction performed includes generation of a prediction block and generation of a residual block (residual signal).

인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. Through inter prediction, a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture. Through intra prediction, prediction blocks may be generated by performing prediction based on pixel information in a current picture.

인터 예측의 모드 또는 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predtiction) 방법 등이 있다. 인터 예측에서는 예측 대상인 현재 PU에 대하여 참조 픽처를 선택하고, 참조 픽처 내에서 현재 PU에 대응하는 참조 블록을 선택할 수 있다. 예측부(160)는 참조 블록을 기반으로 예측 블록을 생성할 수 있다.As a mode or method of inter prediction, there are a skip mode, a merge mode, a motion vector predtiction (MVP) method, and the like. In inter prediction, a reference picture may be selected with respect to the current PU that is a prediction target, and a reference block corresponding to the current PU may be selected within the reference picture. The prediction unit 160 may generate a prediction block based on the reference block.

예측 블록은 정수 샘플 단위로 생성될 수도 있고, 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 단위 혹은 정수 픽셀 이하의 단위로 표현될 수 있다. The prediction block may be generated in integer sample units or may be generated in integer or less pixel units. In this case, the motion vector may also be expressed in units of integer pixels or units of integer pixels or less.

인터 예측에 있어서 움직임 정보 즉, 참조 픽처의 인덱스, 움직임 벡터, 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다. In inter prediction, motion information, that is, information such as an index of a reference picture, a motion vector, and a residual signal, is entropy encoded and transmitted to a decoding apparatus. When the skip mode is applied, residuals may not be generated, transformed, quantized, or transmitted.

인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다. 인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수도 있다. In intra prediction, the prediction mode may have 33 directional prediction modes and at least two non-directional modes. The non-directional mode may include a DC prediction mode and a planner mode (Planar mode). In intra prediction, a prediction block may be generated after applying a filter to a reference sample.

PU는 다양한 사이즈/형태의 블록일 수 있으며, 예컨대 인터 예측의 경우에 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 인트라 예측의 경우에 PU는 2N×2N 블록 또는 N×N 블록 (N은 정수) 등일 수 있다. 이때, N×N 블록 크기의 PU는 특정한 경우에만 적용하도록 설정할 수 있다. 예컨대 최소 크기 CU에 대해서만 NxN 블록 크기의 PU를 이용하도록 정하거나 인트라 예측에 대해서만 이용하도록 정할 수도 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.The PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N × 2N block, a 2N × N block, an N × 2N block, an N × N block (N is an integer), or the like. In the case of intra prediction, the PU may be a 2N × 2N block or an N × N block (where N is an integer). In this case, the PU of the N × N block size may be set to apply only in a specific case. For example, the NxN block size PU may be used only for the minimum size CU or only for intra prediction. In addition to the above-described PUs, PUs such as N × mN blocks, mN × N blocks, 2N × mN blocks, or mN × 2N blocks (m <1) may be further defined and used.

또한, 예측부(110, 140)는 레이어 0의 정보를 이용하여 레이어 1에 대한 예측을 수행할 수 있다. 본 명세서에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 방법을, 설명의 편의를 위해, 인터 레이어 예측이라고 한다. In addition, the prediction units 110 and 140 may perform prediction on the layer 1 by using the information of the layer 0. In the present specification, a method of predicting information of a current layer using information of another layer is referred to as inter-layer prediction for convenience of description.

다른 레이어의 정보를 이용하여 예측되는 (즉, 인터 레이어 예측에 의해 예측되는) 현재 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등) 등이 있을 수 있다. Information of the current layer that is predicted using information of another layer (ie, predicted by inter-layer prediction) may include texture, motion information, unit information, predetermined parameters (eg, filtering parameters, etc.).

또한, 현재 레이어에 대한 예측에 이용되는 (즉, 인터 레이어 예측에 이용되는) 다른 레이어의 정보로는 텍스처, 움직임 정보, 유닛 정보, 소정의 파라미터(예컨대, 필터링 파라미터 등)이 있을 수 있다. In addition, information of another layer used for prediction for the current layer (ie, used for inter-layer prediction) may include texture, motion information, unit information, and predetermined parameters (eg, filtering parameters).

인터 레이어 예측의 일 예로서, 인터 레이어 유닛 파라미터 예측에서는 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보를 유도하여 인핸스먼트 레이어의 유닛 정보로 사용하거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보를 결정할 수 있다. As an example of inter-layer prediction, in inter-layer unit parameter prediction, unit (CU, PU, and / or TU) information of a base layer is derived and used as unit information of an enhancement layer, or based on unit information of a base layer. Unit information of the treatment layer may be determined.

또한, 유닛 정보는 각 유닛 레벨에서의 정보를 포함할 수 있다. 예컨대, CU 정보의 경우, 파티션(CU, PU 및 또는 TU)에 관한 정보, 변환에 관한 정보, 예측에 대한 정보, 코딩에 대한 정보를 포함할 수 있다. PU 정보의 경우, PU 파티션에 관한 정보, 예측에 관한 정보(예컨대, 움직임 정보, 예측 모드에 관한 정보 등) 등을 포함할 수 있다. TU에 관한 정보는 TU 파티션에 관한 정보, 변환에 관한 정보(변환 계수, 변환 방법 등) 등을 포함할 수 있다.In addition, the unit information may include information at each unit level. For example, in the case of CU information, information about a partition (CU, PU and / or TU) may include information on transform, information on prediction, and information on coding. In the case of PU information, information on a PU partition and information on prediction (eg, motion information, information on a prediction mode, etc.) may be included. The information about the TU may include information about a TU partition, information on transform (transform coefficient, transform method, etc.).

또한, 유닛 정보는 처리 단위(예컨대, CU, PU, TU 등)의 분할 정보만을 포함할 수도 있다. In addition, the unit information may include only the partition information of the processing unit (eg, CU, PU, TU, etc.).

인터 레이어 예측의 다른 예인 인터 레이어 움직임 예측은 인터 레이어 인터 예측이라고도 한다. 인터 레이어 인터 예측에 의하면, 레이어 0 (참조 레이어 혹은 베이스 레이어)의 움직임 정보를 이용하여 레이어 1 (현재 레이어 혹은 인핸스먼트 레이어)의 현재 블록에 대한 예측을 수행할 수 있다. Interlayer motion prediction, another example of interlayer prediction, is also called interlayer inter prediction. According to inter-layer inter prediction, prediction of a current block of layer 1 (current layer or enhancement layer) may be performed using motion information of layer 0 (reference layer or base layer).

인터 레이어 인터 예측을 적용하는 경우에는, 참조 레이어의 움직임 정보를 스케일링 할 수도 있다. In case of applying inter-layer inter prediction, motion information of a reference layer may be scaled.

인터 레이어 예측의 또 다른 예로서 인터 레이어 텍스쳐 예측은 인터 레이어 인트라 예측 혹은 인트라 BL(Base Layer) 예측이라고도 불린다. 인터 레이어 텍스처 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.As another example of inter-layer prediction, inter-layer texture prediction is also called inter-layer intra prediction or intra base layer (BL) prediction. In inter-layer texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.

인터 레이어 예측의 또 다른 예인 인터 레이어 파라미터 예측에서는 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하도록 하거나 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.In another example of inter-layer prediction, inter-layer parameter prediction may derive a parameter used in the base layer to reuse it in the enhancement layer or predict a parameter for the enhancement layer based on the parameter used in the base layer.

여기서는 인터 레이어 예측의 예로서, 인터 레이어 텍스처 예측, 인터 레이어 움직임 예측, 인터 레이어 유닛 정보 예측, 인터 레이어 파라미터 예측을 설명하였으나, 본 발명에서 적용할 수 있는 인터 레이어 예측은 이에 한정되지 않는다. As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.

예컨대, 예측부는 인터 레이어 예측으로서 다른 레이어의 레지듀얼 정보를 이용하여 현재 레이어의 레지듀얼을 예측하고 이를 기반으로 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 레지듀얼 예측을 이용할 수도 있다.For example, the prediction unit may use inter-layer residual prediction, which predicts the residual of the current layer using residual information of another layer as inter-layer prediction, and performs prediction on the current block in the current layer based on the residual layer.

또한, 예측부는 인터 레이어 예측으로서 현재 레이어의 복원 픽처와 다른 레이어의 복원 픽처를 업샘플링 혹은 다운샘플링한 영상 간의 차분 (차분 영상) 영상을 이용하여 현재 레이어 내 현재 블록에 대한 예측을 수행하는 인터 레이어 차분 예측을 수행할 수도 있다.In addition, the prediction unit is an interlayer prediction interlayer that performs prediction on the current block in the current layer by using a difference (difference image) image between the reconstructed picture of the current layer and the resampled picture of another layer as the interlayer prediction. Differential prediction may also be performed.

변환/양자화부(115, 145)는 변환 블록 단위로 레지듀얼 블록에 대한 변환을 수행하여 변환 계수를 생성하고, 변환 계수를 양자화할 수 있다. The transform / quantization units 115 and 145 may perform transform on the residual block in transform block units to generate transform coefficients and quantize the transform coefficients.

변환 블록은 샘플들의 사각형 블록으로서 동일한 변환이 적용되는 블록이다. 변환 블록은 변환 유닛(TU)일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다. The transform block is a block of samples and is a block to which the same transform is applied. The transform block can be a transform unit (TU) and can have a quad tree structure.

변환/양자화부(115, 145)는 레지듀얼 블록에 적용된 예측 모드와 변환 블록의 크기에 따라서 변환을 수행해서 변환 계수들의 2차원 어레이를 생성할 수 있다. 예컨대, 레지듀얼 블록에 인트라 예측이 적용되었고 블록이 4x4의 레지듀얼 배열이라면, 레지듀얼 블록을 DST(Discrete Sine Transform)를 이용하여 변환하고, 그 외의 경우라면 레지듀얼 블록을 DCT(Discrete Cosine Transform)를 이용하여 변환할 수 있다. The transform / quantization units 115 and 145 may generate a 2D array of transform coefficients by performing transform according to the prediction mode applied to the residual block and the size of the transform block. For example, if intra prediction is applied to a residual block and the block is a 4x4 residual array, the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.

또한, 변환/양자화부(115, 165)는 예측 모드와 변환 블록의 크기에 상관없이 특정 변환을 고정적으로 사용할 수도 있다. 예컨대, 변환/양자화부(115, 165)는 모든 변환 블록에 DST만을 적용할 수 있다. 또한, 변환/양자화부(115, 165)는 모든 변환 블록에 DCT만을 적용할 수도 있다.In addition, the transform / quantization units 115 and 165 may fixedly use a specific transform regardless of the prediction mode and the size of the transform block. For example, the transform / quantization units 115 and 165 may apply only DST to all transform blocks. Also, the transform / quantization units 115 and 165 may apply only DCT to all transform blocks.

변환/양자화부(115, 145)는 변환 계수들을 양자화하여 양자화된 변환 계수를 생성할 수 있다. The transform / quantization unit 115 and 145 may quantize the transform coefficients to generate quantized transform coefficients.

변환/양자화부(115, 145)는 양자화된 변환 계수를 엔트로피 코딩부(130, 160)로 전달할 수 있다. 이때, 변환/양자화부(145)는 양자화된 변환 계수의 2차원 어레이를 소정의 스캔 순서에 따라 1차원 어레이로 재정렬하여 엔트로피 코딩부(130, 160)로 전달할 수도 있다. 또한, 변환/양자화부(115, 145)는 인터 예측을 위해, 레지듀얼과 예측 블록을 기반으로 생성된 복원 블록을 변환/양자화하지 않고, 필터링부(120, 150)에 전달할 수 있다. The transform / quantization units 115 and 145 may transfer the quantized transform coefficients to the entropy coding units 130 and 160. In this case, the transform / quantization unit 145 may rearrange the two-dimensional array of quantized transform coefficients into one-dimensional arrays according to a predetermined scan order and transfer them to the entropy coding units 130 and 160. In addition, the transform / quantizers 115 and 145 may transfer the reconstructed block generated based on the residual and the predictive block to the filtering units 120 and 150 for inter prediction.

한편, 변환/양자화부(115, 165)는 필요에 따라서, 변환을 생략(skip)하고 양자화만 수행하거나 변환과 양자화를 모두 생략할 수도 있다. 예컨대, 변환/양자화부(115, 165)는 특정한 예측 방법이 적용되거나 특정 크기를 갖는 블록, 혹은 특정 예측 블록이 적용된 특정한 크기의 블록에 대하여 변환을 생략할 수도 있다.Meanwhile, the transform / quantization units 115 and 165 may skip transform and perform quantization only or omit both transform and quantization as necessary. For example, the transform / quantization unit 115 or 165 may omit the transform for a block having a specific prediction method or a specific size block, or a block of a specific size to which a specific prediction block is applied.

엔트로피 코딩부(130, 160)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. The entropy coding units 130 and 160 may perform entropy encoding on the quantized transform coefficients. Entropy encoding may use, for example, an encoding method such as Exponential Golomb, Context-Adaptive Binary Arithmetic Coding (CABAC), or the like.

필터링부(120, 150)는 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)를 복원된 픽처에 적용할 수 있다. The filtering units 120 and 150 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.

디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다. The deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture. The adaptive loop filter (ALF) may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. The SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.

필터링부(120, 150)는 디블록킹 필터, ALF, SAO를 모두 적용하지 않고 디블록킹 필터만 적용하거나 디블록킹 필터와 ALF만 적용하거나 디블록킹 필터와 SAO만을 적용할 수도 있다. The filtering units 120 and 150 may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO without applying all of the deblocking filter, ALF, and SAO.

DPB(125, 155)는 필터링부(125, 150)로부터 복원 블록 또는 복원 픽처를 전달받아 저장할 수 있다. DPB(125, 155)는 복원 블록 또는 픽처를 인터 예측을 수행하는 예측부(110, 140)에 제공할 수 있다. The DPBs 125 and 155 may receive the reconstructed block or the reconstructed picture from the filtering units 125 and 150 and store the received reconstruction picture. The DPBs 125 and 155 may provide a reconstructed block or picture to the predictors 110 and 140 that perform inter prediction.

레이어 0의 엔트로피 코딩부(160)에서 출력되는 정보와 레이어 1의 엔트로피 코딩부(130)에서 출력되는 정보는 MUX(165)에서 멀티플렉싱되어 비트스트림으로 출력될 수 있다.Information output from the entropy coding unit 160 of layer 0 and information output from the entropy coding unit 130 of layer 1 may be multiplexed by the MUX 165 and output as a bitstream.

한편, 여기서는 설명의 편의를 위해, 레이어 1의 인코딩부(105)가 MUX(165)를 포함하는 것으로 설명하였으나, MUX는 레이어 1의 인코딩부(105) 및 레이어 0의 인코딩부(135)와는 별도의 장치 혹은 모듈일 수 있다.Meanwhile, for the convenience of description, the encoding unit 105 of the layer 1 has been described as including the MUX 165. However, the MUX is separate from the encoding unit 105 of the layer 1 and the encoding unit 135 of the layer 0. It may be a device or a module of.

도 2는 본 발명의 일 실시예에 따라 스케일러빌러티를 지원하는 비디오 디코딩 장치를 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a video decoding apparatus supporting scalability according to an embodiment of the present invention.

도 2를 참조하면, 디코딩 장치(200)는 레이어 1의 디코딩부(210)와 레이어 0의 디코딩부(250)를 포함한다. Referring to FIG. 2, the decoding apparatus 200 includes a decoder 210 of layer 1 and a decoder 250 of layer 0.

레이어 0은 베이스 레이어, 참조 레이어 혹은 하위 레이어일 수 있으며, 레이어 1은 인핸스먼트 레이어, 현재 레이어 혹은 상위 레이어일 수 있다.Layer 0 may be a base layer, a reference layer, or a lower layer, and layer 1 may be an enhancement layer, a current layer, or an upper layer.

레이어 1의 디코딩부(210)는 엔트로피 디코딩부(215), 재정렬부(220), 역양자화부(225), 역변환부(230), 예측부(235), 필터링부(240), 메모리를 포함할 수 있다. The decoding unit 210 of the layer 1 includes an entropy decoding unit 215, a reordering unit 220, an inverse quantization unit 225, an inverse transform unit 230, a prediction unit 235, a filtering unit 240, and a memory. can do.

레이어 0의 디코딩부(250)는 엔트로피 디코딩부(255), 재정렬부(260), 역양자화부(265), 역변환부(270), 필터링부(280), 메모리(285)를 포함할 수 있다. The decoding unit 250 of the layer 0 may include an entropy decoding unit 255, a reordering unit 260, an inverse quantization unit 265, an inverse transform unit 270, a filtering unit 280, and a memory 285. .

인코딩 장치로부터 영상 정보를 포함하는 비트스트림이 전송되면, DEMUX(205)는 레이어별로 정보를 디멀티플렉싱하여 각 레이어별 디코딩 장치로 전달할 수 있다.When the bitstream including the image information is transmitted from the encoding device, the DEMUX 205 may demultiplex the information for each layer and deliver the information to the decoding device for each layer.

엔트로피 디코딩부(215, 255)는 인코딩 장치에서 사용한 엔트로피 코딩 방식에 대응하여 엔트로피 디코딩을 수행할 수 있다. 예컨대, 인코딩 장치에서 CABAC이 사용된 경우에, 엔트로피 디코딩부(215, 255)도 CABAC을 이용하여 엔트로피 디코딩을 수행할 수 있다.The entropy decoding units 215 and 255 may perform entropy decoding corresponding to the entropy coding scheme used in the encoding apparatus. For example, when CABAC is used in the encoding apparatus, the entropy decoding units 215 and 255 may also perform entropy decoding using CABAC.

엔트로피 디코딩부(215, 255)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(235, 275)로 제공되고, 엔트로피 디코딩부(215, 255)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(220, 260)로 입력될 수 있다. Information for generating a prediction block among the information decoded by the entropy decoding units 215 and 255 is provided to the prediction units 235 and 275, and a residual value of which entropy decoding is performed by the entropy decoding units 215 and 255. That is, the quantized transform coefficients may be input to the reordering units 220 and 260.

재정렬부(220, 260)는 엔트로피 디코딩부(215, 255)에서 엔트로피 디코딩된 비트스트림의 정보, 즉 양자화된 변환 계수를 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다. The reordering units 220 and 260 may rearrange the information of the bitstreams entropy decoded by the entropy decoding units 215 and 255, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.

예컨대, 재정렬부(220, 260)는 1차원 어레이의 양자화된 변환 계수들을 다시 2차원 어레이의 계수들로 재정렬할 수 있다. 재정렬부(220, 260)는 현재 블록(변환 블록)에 적용된 예측 모드 및/또는 변환 블록의 크기를 기반으로 스캐닝을 수행하여 계수(양자화된 변환 계수)들의 2차원 어레이를 생성할 수 있다. For example, the reordering units 220 and 260 may rearrange the quantized transform coefficients of the one-dimensional array into the coefficients of the two-dimensional array. The reordering units 220 and 260 may generate a two-dimensional array of coefficients (quantized transform coefficients) by performing scanning based on the prediction mode applied to the current block (transform block) and / or the size of the transform block.

역양자화부(225, 265)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행하여 변환 계수들을 생성할 수 있다. The inverse quantizers 225 and 265 may generate transform coefficients by performing inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.

역양자화부(225, 265)는 소정의 조건에 따라서 혹은 인코딩 장치에서의 양자화 방식에 따라서, 엔트로피 디코딩된 레지듀얼을 역양자화하지 않고 역변환부(230, 270)에 전달할 수도 있다. The inverse quantizers 225 and 265 may transfer the entropy decoded residual to the inverse transformers 230 and 270 without dequantizing the entropy decoded residual according to a predetermined condition or a quantization scheme in the encoding apparatus.

역변환부(230, 270)는 변환 계수들에 대하여 인코딩 장치의 변환부가 수행한 변환에 대한 역변환을 수행할 수 있다. 역변환부(230, 270)는 인코딩 장치에서 수행된 DCT(Discrete Cosine Transform) 및 DST(Discrete Sine Transform)에 대해 역DCT 및/또는 역DST를 수행할 수 있다. The inverse transform units 230 and 270 may perform inverse transform on the transform performed by the transform unit of the encoding apparatus. The inverse transform units 230 and 270 may perform inverse DCT and / or inverse DST on a discrete cosine transform (DCT) and a discrete sine transform (DST) performed by an encoding apparatus.

인코딩 장치에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(230, 270)는 인코딩 장치에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다. The DCT and / or DST in the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size of a current block, and a prediction direction, and the inverse transformers 230 and 270 of the decoding apparatus may perform transform information performed in the encoding apparatus. Inverse transformation may be performed based on.

예컨대, 역변환부(230, 270)은 예측 모드/블록 크기에 따라서 역DCT와 역DST를 적용할 수 있다. 가령, 역변환부(230, 270)은 인트라 예측이 적용된 4x4 루마 블록에 대해서 역DST를 적용할 수도 있다. For example, the inverse transform units 230 and 270 may apply inverse DCT and inverse DST according to a prediction mode / block size. For example, the inverse transformers 230 and 270 may apply an inverse DST to a 4x4 luma block to which intra prediction is applied.

또한, 역변환부(230, 270)는 예측 모드/블록 크기에 상관 없이, 특정 역변환 방법을 고정적으로 사용할 수도 있다. 예컨대, 역변환부(330, 370)는 모든 변환 블록에 역DST만을 적용할 수 있다. 또한, 역변환부(330, 370)는 모든 변환 블록에 역DCT만을 적용할 수도 있다.In addition, the inverse transform units 230 and 270 may fixedly use a specific inverse transform method regardless of the prediction mode / block size. For example, the inverse transform units 330 and 370 may apply only inverse DST to all transform blocks. In addition, the inverse transform units 330 and 370 may apply only inverse DCT to all transform blocks.

역변환부(230, 270)는 변환 계수들 혹은 변환 계수의 블록을 역변환하여 레지듀얼 혹은 레지듀얼 블록을 생성할 수 있다. The inverse transformers 230 and 270 may generate a residual or residual block by inversely transforming the transform coefficients or the block of the transform coefficients.

역변환부(230, 270)는 또한, 필요에 따라서 혹은 인코딩 장치에서 인코딩된 방식에 따라서, 변환을 생략(skip) 할 수도 있다. 예컨대, 역변환(230, 270)는 특정한 예측 방법이 적용되거나 특정 크기를 갖는 블록, 혹은 특정 예측 블록이 적용된 특정한 크기의 블록에 대하여 변환을 생략할 수도 있다.The inverse transformers 230 and 270 may also skip the transformation as needed or in accordance with the manner encoded in the encoding apparatus. For example, the inverse transforms 230 and 270 may omit the transform for a block having a specific prediction method or a specific size or a block of a specific size to which a specific prediction block is applied.

예측부(235, 275)는 엔트로피 디코딩부(215, 255)로부터 전달된 예측 블록 생성 관련 정보와 메모리(245, 285)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 현재 블록에 대한 예측 블록을 생성할 수 있다. The prediction units 235 and 275 may perform prediction on the current block based on prediction block generation related information transmitted from the entropy decoding units 215 and 255 and previously decoded blocks and / or picture information provided by the memories 245 and 285. A prediction block can be generated.

현재 블록에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 예측부(235, 275)는 현재 픽처 내의 픽셀 정보를 기초로 현재 블록에 대한 인트라 예측을 수행할 수 있다.When the prediction mode for the current block is an intra prediction mode, the prediction units 235 and 275 may perform intra prediction on the current block based on pixel information in the current picture.

현재 블록에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 예측부(235, 275)는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 블록에 대한 인터 예측을 수행할 수 있다. 인터 예측에 필요한 움직임 정보의 일부 또는 전부는 인코딩 장치로부터 수신한 정보를 확인하고, 이에 대응하여 유도될 수 있다. When the prediction mode for the current block is the inter prediction mode, the prediction units 235 and 275 may perform information on the current block based on information included in at least one of a previous picture or a subsequent picture of the current picture. Inter prediction may be performed. Some or all of the motion information required for inter prediction may be derived from the information received from the encoding apparatus and correspondingly.

인터 예측의 모드로서 스킵 모드가 적용되는 경우에는 인코딩 장치로부터 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.When the skip mode is applied as the mode of inter prediction, residual is not transmitted from the encoding apparatus, and the prediction block may be a reconstruction block.

한편, 레이어 1의 예측부(235)는 레이어 1 내의 정보만을 이용하여 인터 예측 또는 인트라 예측을 수행할 수도 있고, 다른 레이어(레이어 0)의 정보를 이용하여 인터 레이어 예측을 수행할 수도 있다. Meanwhile, the prediction unit 235 of layer 1 may perform inter prediction or intra prediction using only information in layer 1, or may perform inter layer prediction using information of another layer (layer 0).

예컨대, 레이어 1의 예측부(235)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 하나를 이용하여 현재 블록에 대한 예측을 수행할 수 있다. 또한, 레이어 1의 예측부(235)는 레이어 1의 움직임 정보, 레이어 1의 텍스처 정보, 레이어 1의 유닛 정보, 레이어 1의 파라미터 정보 중 복수의 정보를 이용하여 현재 블록에 대한 예측을 수행할 수도 있다.For example, the predictor 235 of the layer 1 may perform prediction on the current block by using one of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. In addition, the prediction unit 235 of the layer 1 may perform prediction on the current block by using a plurality of pieces of information of the motion information of the layer 1, the texture information of the layer 1, the unit information of the layer 1, and the parameter information of the layer 1. have.

레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 움직임 정보를 전달받아서 움직임 예측을 수행할 수 있다. 인터 레이어 움직임 예측을 인터 레이어 인터 예측이라고도 한다. 인터 레이어 움직임 예측에 의해, 참조 레이어(베이스 레이어)의 움직임 정보를 이용하여 현재 레이어(인핸스먼트 레이어)의 현재 블록에 대한 예측이 수행될 수 있다. 예측부(335)는 필요한 경우에, 참조 레이어의 움직임 정보를 스케일링 하여 이용할 수도 있다.The predictor 235 of the layer 1 may receive motion information of the layer 1 from the predictor 275 of the layer 0 to perform motion prediction. Inter-layer motion prediction is also called inter-layer inter prediction. By inter-layer motion prediction, prediction of a current block of a current layer (enhanced layer) may be performed using motion information of a reference layer (base layer). The prediction unit 335 may scale and use motion information of the reference layer when necessary.

레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 텍스처 정보를 전달받아서 텍스처 예측을 수행할 수 있다. 텍스처 예측은 인터 레이어 인트라 예측 혹은 인트라 BL(Base Layer) 예측이라고도 불린다. 인터 레이어 텍스처 예측에서는 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 참조 블록의 텍스처는 업샘플링에 의해 스케일링될 수 있다.The predictor 235 of the layer 1 may receive texture information of the layer 1 from the predictor 275 of the layer 0 to perform texture prediction. Texture prediction is also called inter layer intra prediction or intra base layer (BL) prediction. In inter-layer texture prediction, the texture of the reference block in the reference layer may be used as a prediction value for the current block of the enhancement layer. In this case, the texture of the reference block may be scaled by upsampling.

레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 유닛 파라미터 정보를 전달받아서 유닛 파라미터 예측을 수행할 수 있다. 유닛 파라미터 예측에 의해, 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보가 인핸스먼트 레이어의 유닛 정보로 사용되거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보가 결정될 수 있다.The predictor 235 of the layer 1 may receive unit parameter information of the layer 1 from the predictor 275 of the layer 0 to perform unit parameter prediction. By unit parameter prediction, unit (CU, PU, and / or TU) information of the base layer may be used as unit information of the enhancement layer, or unit information of the enhancement layer may be determined based on unit information of the base layer.

레이어 1의 예측부(235)는 레이어 0의 예측부(275)로부터 레이어 1의 필터링에 관한 파라미터 정보를 전달받아서 파라미터 예측을 수행할 수도 있다. 파라미터 예측에 의해, 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하거나, 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.The predictor 235 of the layer 1 may receive parameter information regarding the filtering of the layer 1 from the predictor 275 of the layer 0 to perform parameter prediction. By parameter prediction, the parameters used in the base layer can be derived and reused in the enhancement layer, or the parameters for the enhancement layer can be predicted based on the parameters used in the base layer.

가산기(290, 295)는 예측부(235, 275)에서 생성된 예측 블록과 역변환부(230, 270)에서 생성된 레지듀얼 블록을 이용해 복원 블록을 생성할 수 있다. 이 경우, 가산기(290, 295)를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다. The adders 290 and 295 may generate reconstruction blocks using the prediction blocks generated by the predictors 235 and 275 and the residual blocks generated by the inverse transformers 230 and 270. In this case, the adders 290 and 295 can be viewed as separate units (restore block generation unit) for generating the reconstruction block.

가산기(290, 295)에서 복원된 블록 및/또는 픽처는 필터링부(240, 280)로 제공될 수 있다. Blocks and / or pictures reconstructed by the adders 290 and 295 may be provided to the filtering units 240 and 280.

필터링부(240, 280)는 복원된 블록 및/또는 픽처에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 ALF 등을 적용할 수 있다. The filtering units 240 and 280 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed blocks and / or pictures.

필터링부(240, 280)는 디블록킹 필터, ALF, SAO를 모두 적용하지 않고, 디블록킹 필터만 적용하거나, 디블록킹 필터와 ALF만 적용하거나, 디블록킹 필터와 SAO만을 적용할 수도 있다.The filtering units 240 and 280 may not apply all of the deblocking filter, ALF, and SAO, and may apply only the deblocking filter, only the deblocking filter and the ALF, or may apply only the deblocking filter and the SAO.

도 2의 예을 참조하면, 레이어 1의 필터링부(240)는 레이어 1의 예측부(235) 및/또는 레이어 1의 필터링부(280)으로부터 전달되는 파라미터 정보를 이용하여 복원된 픽처에 대한 필터링을 수행할 수도 있다. 예컨대, 레이어 1에서 필터링부(240)는 레이어 0에서 적용된 필터링의 파라미터로부터 예측된 파라미터를 이용하여 레이어 1에 대한 혹은 레이어 간의 필터링을 적용할 수 있다.Referring to the example of FIG. 2, the filtering unit 240 of the layer 1 performs filtering on the reconstructed picture by using parameter information transmitted from the predicting unit 235 of the layer 1 and / or the filtering unit 280 of the layer 1. It can also be done. For example, in layer 1, the filtering unit 240 may apply filtering to or between layers using the parameters predicted from the parameters of the filtering applied in the layer 0.

메모리(245, 285)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있다. 메모리(245, 285)는 저장된 복원 픽처를 소정의 출력부(미도시) 혹은 디스플레이(미도시)를 통해 출력할 수도 있다.The memories 245 and 285 may store the reconstructed picture or block to use as a reference picture or reference block. The memories 245 and 285 may output the stored reconstructed picture through a predetermined output unit (not shown) or a display (not shown).

도 2의 예에서는 재정렬부, 역양자화부, 역변환부 등으로 나누어 설명하였으나, 도 1의 인코딩 장차에서와 같이, 역양자화/역변환부의 한 모듈에서 재정렬, 역양자화, 역변환을 순서대로 수행하도록 디코딩 장치를 구성할 수도 있다. In the example of FIG. 2, the reordering unit, the inverse quantization unit, and the inverse transform unit have been described. However, as in the encoding procedure of FIG. It can also be configured.

도 1 및 도 2의 예에서는 예측부로 설명하였으나, 발명의 이해를 돕기 위해, 레이어 1의 예측부는 다른 레이어(레이어 0)의 정보를 이용하여 예측을 수행하는 인터 레이어 예측부와 다른 레이어(레이어 0)의 정보를 이용하지 않고 예측을 수행하는 인터/인트라 예측부를 포함하는 것으로 볼 수도 있다.In the example of FIGS. 1 and 2, the prediction unit has been described, but for better understanding, the prediction unit of layer 1 may be different from the interlayer prediction unit that performs prediction using information of another layer (layer 0). It may also be regarded as including an inter / intra predictor for performing prediction without using the information of).

도 3은 본 발명에 따라서 스케일러블 코딩을 수행하는 인코딩 장치와 디코딩 장치에서의 레이어 간 예측에 관한 일 예를 설명하는 블록도이다. 3 is a block diagram illustrating an example of inter-layer prediction in an encoding apparatus and a decoding apparatus that perform scalable coding according to the present invention.

도 3을 참조하면, 레이어 1의 예측부(300)는 인터/인트라 예측부(340) 및 인터 레이어 예측부(350)를 포함한다. Referring to FIG. 3, the predictor 300 of layer 1 includes an inter / intra predictor 340 and an interlayer predictor 350.

레이어 1의 예측부(300)는 레이어 0의 정보로부터 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. The prediction unit 300 of the layer 1 may perform interlayer prediction necessary for the prediction of the layer 1 from the information of the layer 0.

예컨대, 인터 레이어 예측부(350)는 레이어 0의 예측부(320) 및/또는 필터링부(330)로부터 레이어 0의 정보를 전달받아 레이어 1의 예측에 필요한 인터 레이어 예측을 수행할 수 있다. For example, the interlayer prediction unit 350 may receive interlayer prediction information from the prediction unit 320 and / or the filtering unit 330 of the layer 0 to perform interlayer prediction necessary for the prediction of the layer 1.

레이어 1의 인터/인트라 예측부(340)는, 레이어 0의 정보를 이용하지 않고, 레이어 1의 정보를 이용하여 인터 예측 혹은 인트라 예측을 수행할 수 있다. The inter / intra prediction unit 340 of the layer 1 may perform inter prediction or intra prediction using the information of the layer 1 without using the information of the layer 0.

또한, 레이어 1의 인터/인트라 예측부(340)는, 인터 레이어 예측부(350)로부터 전달된 정보를 이용하여, 레이어 0의 정보에 기반한 예측을 수행할 수도 있다.In addition, the inter / intra predictor 340 of the layer 1 may perform prediction based on the information of the layer 0 using the information transmitted from the interlayer predictor 350.

아울러, 레이어 1의 필터링부(310)는 레이어 0의 정보에 기반하여 필터링을 수행할 수도 있고, 레이어 0의 정보에 기반하여 필터링을 수행할 수도 있다. 레이어 0의 정보는 레이어 0의 필터링부(330)로부터 레이어 1의 필터링부(310)에 전달될 수도 있고, 레이어 1의 인터 레이어 예측부(350)로부터 레이어 1의 필터링부(310)에 전달될 수도 있다. In addition, the filtering unit 310 of the layer 1 may perform the filtering based on the information of the layer 0, or may perform the filtering based on the information of the layer 0. Information of the layer 0 may be transferred from the filtering unit 330 of the layer 0 to the filtering unit 310 of the layer 1, or may be transferred from the interlayer prediction unit 350 of the layer 1 to the filtering unit 310 of the layer 1. It may be.

한편, 레이어 0으로부터 인터 레이어 예측부(330)로 전달되는 정보로는 레이어 0의 유닛 파라미터에 관한 정보, 레이어 0의 움직임 정보, 레이어 0의 텍스처 정보, 레이어 0의 필터 파라미터 정보 중 적어도 하나일 수 있다. The information transmitted from the layer 0 to the interlayer prediction unit 330 may be at least one of information about a unit parameter of the layer 0, motion information of the layer 0, texture information of the layer 0, and filter parameter information of the layer 0. have.

설명의 편의를 위해, 인터 레이어 예측부(350) 내에서 각 인터 레이어 정보를 예측하는 서브 예측부를 가정하자.For convenience of explanation, assume a sub-prediction unit that predicts each inter-layer information in the inter-layer prediction unit 350.

예컨대, 인터 레이어 예측부(350)는 텍스처 예측부(360), 움직임 예측부(370), 유닛 정보 예측부(380), 파라미터 예측부(390)를 포함할 수 있다. For example, the interlayer predictor 350 may include a texture predictor 360, a motion predictor 370, a unit information predictor 380, and a parameter predictor 390.

텍스처 예측부(360)는, 참조 레이어의 참조 블록이 복원된 경우에, 참조 레이어 내 참조 블록의 텍스처를 인핸스먼트 레이어의 현재 블록에 대한 예측 값으로 사용할 수 있다. 이때, 텍스처 예측부(360)는 참조 블록의 텍스처를 업샘플링에 의해 스케일링될 수 있다.When the reference block of the reference layer is reconstructed, the texture predictor 360 may use the texture of the reference block in the reference layer as a prediction value for the current block of the enhancement layer. In this case, the texture predictor 360 may be scaled by upsampling the texture of the reference block.

움직임 예측부(370)는 레이어 0 (참조 레이어 혹은 베이스 레이어)의 움직임 정보를 이용하여 레이어 1 (현재 레이어 혹은 인핸스먼트 레이어)의 현재 블록에 대한 예측을 수행할 수 있다. 이때, 움직임 예측부(370)는 참조 레이어의 움직임 정보를 스케일링 할 수도 있다. The motion predictor 370 may predict the current block of layer 1 (the current layer or the enhancement layer) by using the motion information of the layer 0 (the reference layer or the base layer). In this case, the motion predictor 370 may scale the motion information of the reference layer.

유닛 정보 예측부(380)는 베이스 레이어의 유닛(CU, PU 및/또는 TU) 정보를 유도하여 인핸스먼트 레이어의 유닛 정보로 사용하거나, 베이스 레이어의 유닛 정보를 기반으로 인핸스먼트 레이어의 유닛 정보를 결정할 수 있다. The unit information predictor 380 derives unit (CU, PU, and / or TU) information of the base layer and uses the unit information of the enhancement layer based on the unit information of the base layer or uses the unit information of the enhancement layer based on the unit information of the base layer. You can decide.

파라미터 예측부(390)는 베이스 레이어에서 사용한 파라미터를 유도하여 인핸스먼트 레이어에서 재사용하도록 하거나 베이스 레이어에서 사용한 파라미터를 기반으로 인핸스먼트 레이어에 대한 파라미터를 예측할 수 있다.The parameter predictor 390 may derive the parameters used in the base layer to reuse them in the enhancement layer or predict the parameters for the enhancement layer based on the parameters used in the base layer.

여기서는 인터 레이어 예측의 예로서, 인터 레이어 텍스처 예측, 인터 레이어 움직임 예측, 인터 레이어 유닛 정보 예측, 인터 레이어 파라미터 예측을 설명하였으나, 본 발명에서 적용할 수 있는 인터 레이어 예측은 이에 한정되지 않는다. As an example of interlayer prediction, interlayer texture prediction, interlayer motion prediction, interlayer unit information prediction, and interlayer parameter prediction have been described. However, the interlayer prediction applicable to the present invention is not limited thereto.

예컨대, 인터 레이어 예측부는 인터 레이어 레지듀얼 예측을 수행하는 서브 예측부 및/또는 인터 레이어 차분 예측을 수행하는 서브 예측부를 더 포함할 수도 있고, 상술한 서브 예측부들의 조합으로 인터 레이어 레지듀얼 예측, 인터 레이어 차분 예측 등을 수행할 수도 있다.For example, the inter-layer prediction unit may further include a sub-prediction unit for performing inter-layer residual prediction and / or a sub-prediction unit for performing inter-layer differential prediction. Inter-layer difference prediction may be performed.

도 3의 구성이 인코딩 장치의 구성이라고 할 때, 레이어 1에서, 예측부(300)는 도 1의 예측부(110)에 대응할 수 있고, 필터링부(310)는 도 1의 필터링부(120)에 대응할 수 있다. 레이어 0에서, 예측부(320)는 도 1의 예측부(140)에 대응할 수 있고, 필터링부(330)는 도 1의 필터링부(150)에 대응할 수 있다.When the configuration of FIG. 3 is a configuration of an encoding apparatus, in layer 1, the prediction unit 300 may correspond to the prediction unit 110 of FIG. 1, and the filtering unit 310 may include the filtering unit 120 of FIG. 1. It can correspond to. In layer 0, the predictor 320 may correspond to the predictor 140 of FIG. 1, and the filter 330 may correspond to the filter 150 of FIG. 1.

또한, 도 3의 구성이 디코딩 장치의 구성이라고 한다면, 레이어 1에서, 예측부(300)는 도 2의 예측부(235)에 대응할 수 있고, 필터링부(310)는 도 2의 필터링부(240)에 대응할 수 있다. 레이어 0에서, 예측부(320)는 도 2의 예측부(275)에 대응할 수 있고, 필터링부(330)는 도 2의 필터링부(280)에 대응할 수 있다.In addition, if the configuration of FIG. 3 is a configuration of a decoding apparatus, in layer 1, the prediction unit 300 may correspond to the prediction unit 235 of FIG. 2, and the filtering unit 310 is the filtering unit 240 of FIG. 2. ) Can be used. In layer 0, the predictor 320 may correspond to the predictor 275 of FIG. 2, and the filter 330 may correspond to the filter 280 of FIG. 2.

이처럼, 스케일러블 비디오 코딩에서는 다른 레이어의 정보를 이용하여 현재 레이어의 정보를 예측하는 인터 레이어 예측이 수행될 수 있다. As described above, in scalable video coding, inter-layer prediction for predicting information of a current layer using information of another layer may be performed.

스케일러블 비디오 코딩에 있어서 인터 레이어 예측은 베이스 레이어와 현재 레이어(인핸스먼트 레이어)가 유사할 가능성이 높다는 점을 이용하고 있다. 마찬가지로 베이스 레이어에 적용되는 필터와 현재 레이어에 적용되는 필터가 유사할 가능성이 높을 수 있다. In scalable video coding, inter-layer prediction takes advantage of the fact that the base layer and the current layer (enhanced layer) are likely to be similar. Similarly, it is likely that the filter applied to the base layer and the filter applied to the current layer are similar.

따라서, 베이스 레이어의 필터 정보(예컨대, 필터 파라미터)를 현재 레이어에 재사용하거나 베이스 레이어의 필터 정보를 기반으로 현재 레이어의 필터 정보를 전송하거나 예측하는 방법을 이용할 수도 있다.Therefore, a method of reusing filter information (eg, filter parameter) of the base layer to the current layer or transmitting or predicting filter information of the current layer based on the filter information of the base layer may be used.

구체적으로, 상술한 인루프 필터들에 대해서도 현재 레이어에 대한 SAO의 정보를 베이스 레이어의 SAO 정보를 기반으로 전송하거나 베이스 레이어의 SAO 정보를 이용하여 현재 레이어에 SAO를 적용하는 방법을 고려할 수 있다. In detail, in the above-described in-loop filters, the SAO information on the current layer may be transmitted based on the SAO information of the base layer or the SAO information may be applied to the current layer using the SAO information of the base layer.

베이스 레이어에서 SAO는 시퀀스 파라미터 레벨에서 적용 가능한지가 결정될 수 있고, CTU(Coding Tree Unit) 단위로 적용 여부가 결정될 수 있다. CTU는 트리 구조의 CU 중 최상위 CU를 의미하며, LCU(Largest Coding Unit)일 수 있다. 본 명세서에서는 발명이 용이하게 이해될 수 있도록 필요에 따라 CTU와 LCU를 혼용하여 설명하도록 한다. In the base layer, it may be determined whether the SAO is applicable at the sequence parameter level, and whether or not the SAO may be applied in units of coding tree units (CTUs). The CTU means the highest CU among the CUs of the tree structure and may be a large coding unit (LCU). In the present specification, the CTU and the LCU are mixed and described as necessary so that the invention can be easily understood.

SAO에는 밴드 오프셋(band offset)과 에지 오프셋(edge offset)이 있으며, SAO가 적용되는 경우에는 샘플 단위로 밴드 오프셋 혹은 에지 오프셋이 적용될 수 있다.SAO includes a band offset and an edge offset. When SAO is applied, a band offset or an edge offset may be applied in units of samples.

인코딩 장치는 밴드 오프셋을 적용할 것인지 에지 오프셋을 적용할 것인지를 지시하는 정보를 디코딩 장치에 전송할 수 있다. 이때, 인코딩 장치는 현재 CTU 주변의 이미 처리된 CTU의 SAO 정보를 이용하여 현재 CTU에서 SAO가 수행되도록 지시할 수도 있다. 예컨대, 디코딩 장치는 인코딩 장치로부터 시그널링된 정보가 주변 CTU의 SAO정보를 이용할 것을 지시하는 경우에, 현재 CTU의 좌측 CTU 또는 상측 CTU의 SAO 정보를 그대로 이용하여 현재 CTU에서 SAO를 수행할 수도 있다. The encoding apparatus may transmit information indicating whether to apply the band offset or the edge offset to the decoding apparatus. In this case, the encoding apparatus may instruct SAO to be performed in the current CTU by using SAO information of already processed CTUs around the current CTU. For example, when the information signaled from the encoding device indicates that the SAO information of the neighboring CTU is to be used, the decoding device may perform SAO in the current CTU using the SAO information of the left CTU or the upper CTU of the current CTU.

적용할 오프셋의 값은 인코딩 장치로부터 디코딩 장치로 시그널링될 수 있다. 오프셋 값은 카테고리에 따라서 CTU 별로 결정될 수 있다. 또한, 오프셋 값은 크기와 부호를 지시하는 각각의 정보(신택스 요소)를 이용하여 시그널링될 수도 있다. The value of the offset to apply may be signaled from the encoding device to the decoding device. The offset value may be determined for each CTU according to the category. In addition, the offset value may be signaled using respective information (syntax element) indicating the magnitude and the sign.

밴드 오프셋은 픽셀 히스토그램에 따라서, 픽셀 값을 32 개의 밴드로 나눈 뒤, 네 개의 연속한 밴드에 대하여 오프셋을 적용한다. 밴드 오프셋을 적용하는 경우에, 인코딩 장치는 밴드 오프셋을 적용할 4 개의 밴드를 결정하고, 4 개의 밴드들에 대한 오프셋들과 네 개의 밴드들 중 첫 번째 밴드를 지시하는(즉, 시작 밴드의 위치를 지시하는) 시작 밴드 정보를 전송할 수 있다.The band offset divides the pixel value into 32 bands, according to the pixel histogram, and then applies an offset for four consecutive bands. In the case of applying a band offset, the encoding apparatus determines four bands to apply the band offset, and indicates the offsets for the four bands and indicates the first of four bands (ie, the position of the start band). Start band information) may be transmitted.

도 4는 밴드 오프셋을 적용하는 방법의 일 예를 개략적으로 설명하는 도면이다.4 is a diagram schematically illustrating an example of a method of applying a band offset.

도 4를 참조하면, 전체 픽셀의 픽셀 값 범위(400)가 32개의 밴드로 균일하게 나뉘어 진다. Referring to FIG. 4, the pixel value range 400 of all pixels is uniformly divided into 32 bands.

인코딩 장치는 밴드 오프셋을 적용할 4 개의 연속된 밴드(K, K+1, K+2, K+3)을 지시한다. 인코딩 장치는 시작 밴드(410)의 위치를 특정함으로써, 밴드 오프셋이 적용될 4 개의 밴드를 특정할 수도 있다.The encoding apparatus indicates four consecutive bands (K, K + 1, K + 2, K + 3) to apply the band offset. The encoding device may specify four bands to which the band offset is to be applied by specifying the position of the start band 410.

디코딩 장치는 수신한 정보를 기반으로 밴드 오프셋을 적용할 4개의 연속된 밴드(K, K+1, K+2, K+3)를 특정할 수 있다. 디코딩 장치는 인코딩 장치로부터 시작 밴드(410)를 특정하는 정보(시작 밴드 정보)를 수신할 수 있다. 이때, 시작 밴드의 위치를 특정하는 정보는 SAO 신택스 레벨에서 전송될 수 있다.The decoding apparatus may specify four consecutive bands K, K + 1, K + 2, and K + 3 to which the band offset is to be applied based on the received information. The decoding apparatus may receive information (start band information) specifying the start band 410 from the encoding apparatus. In this case, information specifying the location of the start band may be transmitted at the SAO syntax level.

디코딩 장치는 시작 밴드(410)를 포함하는 4 개의 연속된 밴드를 특정하고, 특정된 4 개의 밴드에 밴드 오프셋을 적용할 수 있다. 적용할 밴드 오프셋은 밴드(카테고리)별로 결정될 수 있다. The decoding apparatus may specify four consecutive bands including the start band 410 and apply a band offset to the four specified bands. The band offset to be applied may be determined for each band (category).

인코딩 장치는 4 개의 밴드 각각에 대하여 적용할 오프셋 값을 특정하는 정보를 디코딩 장치에 전송할 수 있으며, 디코딩 장치는, 수신한 정보에 의해 특정되는 오프셋 값을 밴드별로 유도하고, 각 밴드에 속하는 픽셀들에 대응하는 오프셋 값을 적용할 수 있다. 이때, 오프셋 값은 크기를 지시하는 정보와 부호를 지시하는 정보로 나뉘어 인코딩 장치로부터 디코딩 장치로 전송될 수도 있다. The encoding apparatus may transmit information specifying the offset value to be applied to each of the four bands to the decoding apparatus, and the decoding apparatus derives the offset value specified by the received information for each band, and the pixels belonging to each band. An offset value corresponding to may be applied. In this case, the offset value may be divided into information indicating a size and information indicating a sign and transmitted from the encoding apparatus to the decoding apparatus.

디코딩 장치는 밴드 오프셋을 적용하는 4 개의 밴드들에 속하는 픽셀에 대하여는, 해당 픽셀이 속하는 밴드에 대응하는 오프셋을 적용할 수 있다.The decoding apparatus may apply an offset corresponding to a band to which the corresponding pixel belongs to a pixel belonging to four bands to which the band offset is applied.

한편, 밴드 오프셋을 네 개의 연속한 밴드들에 대하여 적용하는 것이 아니라, 중심 밴드와 주변 밴드로 나누어 두 밴드군 중 어느 하나에 대하여 오프셋을 적용하도록 할 수도 있다. Instead of applying the band offset to four consecutive bands, the band offset may be divided into a center band and a peripheral band to apply the offset to any one of the two band groups.

도 5는 밴드 오프셋을 적용하는 방법의 다른 예를 개략적으로 설명하는 도면이다. 5 is a diagram schematically illustrating another example of a method of applying a band offset.

도 5를 참조하면, 전체 픽셀의 픽셀 값 범위(400)가 32개의 밴드로 균일하게 나뉘어 진다.Referring to FIG. 5, the pixel value range 400 of all pixels is evenly divided into 32 bands.

전체 32개의 밴드는 중심의 16 개 밴드(510)와 주변의 16개 밴드(520-1, 520-2)로 구분될 수 있다. A total of 32 bands may be divided into 16 central bands 510 and 16 bands 520-1 and 520-2.

인코딩 장치는 중심 밴드(510)와 주변 밴드(520-1, 520-2) 중 어느 밴드 군에 오프셋을 적용할 것인지를 결정할 수 있다. 밴드 오프셋을 적용하는 경우에, 인코딩 장치는 중심 밴드(510)와 주변 밴드(520-1, 520-2) 중 어느 밴드 군에 오프셋을 적용할 것인지를 지시하는 정보와 밴드별로 적용될 오프셋 값을 지시하는 정보를 디코딩 장치에 전송할 수 있다. The encoding apparatus may determine which band group among the center band 510 and the peripheral bands 520-1 and 520-2 to apply the offset to. In the case of applying the band offset, the encoding apparatus indicates information indicating which band group among the center band 510 and the peripheral bands 520-1 and 520-2 to apply the offset and an offset value to be applied for each band. Information may be transmitted to the decoding apparatus.

디코딩 장치는 오프셋을 적용할 밴드 군(중심 밴드 혹은 주변 밴드)를 지시하는 정보와 밴드별 오프셋 값을 지시하는 정보를 인코딩 장치로부터 수신할 수 있다. 밴드 오프셋을 적용하는 경우에, 디코딩 장치는 수신한 정보를 기반으로 픽셀이 속하는 밴드에 할당된 오프셋값을 픽셀별로 적용할 수 있다.The decoding apparatus may receive information indicating the band group (center band or peripheral band) to which the offset is to be applied and information indicating the offset value for each band from the encoding apparatus. In the case of applying the band offset, the decoding apparatus may apply the offset value allocated to the band to which the pixel belongs to the pixel based on the received information.

에지 오프셋은 SAO를 적용할 블록, 예컨대 CTU 내에서 영상이 전체적으로 어떤 에지(edge)를 가지는지 4개의 클래스(class)로 구분한다. 예컨대, 클레스는 수직 에지, 수평 에지, 45도 에지지, 135도 에지의 네 가지로 구분될 수 있다. The edge offset is divided into four classes of edges of the image as a whole in a block to which SAO is applied, for example, a CTU. For example, the class can be divided into four types: vertical edge, horizontal edge, 45 degree edge support, and 135 degree edge.

인코딩 장치와 디코딩 장치는 각 클레스 별로, 에지 오프셋을 적용할 픽셀의 화소값이 주변 픽셀의 화소값과 어떤 관계를 가지는지를 다시 4 가지 카테고리로 구분하여, 해당 카테고리에 따른 오프셋 값을 적용할 수 있다. For each class, the encoding apparatus and the decoding apparatus may apply an offset value according to the corresponding category by dividing the pixel value of the pixel to which the edge offset is applied to the pixel value of the neighboring pixel into four categories. .

카테고리는 1) 대상 픽셀의 화소 값이 주변의 두 픽셀보다 큰 경우, 2) 대상 픽셀의 화소 값이 주변의 한 픽셀과 같고 다른 한 픽셀보다 작은 경우, 3) 대상 픽셀의 화소 값이 주변의 한 픽셀과 같고 다른 한 픽셀보다 큰 경우, 4) 대상 픽셀의 화소 값이 주변의 두 픽셀보다 작은 경우의 4 카테고리일 수 있다. The categories are 1) if the pixel value of the target pixel is larger than the two surrounding pixels, 2) if the pixel value of the target pixel is equal to one pixel around and smaller than the other pixel, 3) the pixel value of the target pixel is one 4) If the pixel value of the target pixel is the same as the pixel and larger than the other pixel, it may be 4 categories.

도 6은 에지 오프셋의 카테고리를 개략적으로 설명하는 도면이다.6 is a diagram schematically illustrating a category of edge offsets.

에지 오프셋을 적용하는 경우. 현재 픽셀(대상 픽셀)의 카테고리는 현재 픽셀의 두 주변 픽셀을 이용하여 결정할 수 있다. 이때, 카테고리를 결정하기 위해 비교되는 주변의 두 픽셀은 SAO를 적용할 블록, 예컨대 CTU가 어떤 클래스인지에 따라 결정될 수 있다. When applying an edge offset. The category of the current pixel (target pixel) may be determined using two neighboring pixels of the current pixel. In this case, two neighboring pixels compared to determine a category may be determined according to a class to which a block to which SAO is applied, for example, a CTU.

예컨대, 수직 에지의 경우에는 대상 픽셀 상하의 두 픽셀일 수 있으며, 수평 에지의 경우에는 대상 픽셀 좌우의 픽셀일 수 있고, 45도 에지의 경우에는 대상 픽셀의 좌상측 및 우하측 픽셀일 수 있으며, 135도 에지의 경우에는 대상 픽셀의 좌하측 및 우상측 픽셀일 수 있다.For example, the vertical edge may be two pixels above and below the target pixel, the horizontal edge may be the left and right pixels, and the 45-degree edge may be the upper left and lower right pixels of the target pixel. In the case of an edge, the pixels may be lower left and upper right pixels.

도 6에서 C는 현재 픽셀을 나타내고, C-1과 C+1은 현재 픽셀의 주변 픽셀을 의미한다. 에지의 방향(클래스)에 따라서, C-1과 C+1은 현재 픽셀의 좌우 픽셀일 수도 있고, 현재 픽셀의 상하 픽셀일 수도 있으며, 대각선 방향으로 현재 픽셀의 주변 픽셀일 수도 있다. In FIG. 6, C denotes a current pixel, and C-1 and C + 1 denote peripheral pixels of the current pixel. Depending on the direction (class) of the edge, C-1 and C + 1 may be left and right pixels of the current pixel, top and bottom pixels of the current pixel, or may be peripheral pixels of the current pixel in a diagonal direction.

도 6을 참조하면, (6a)는 에지 오프셋의 첫 번째 카테고리로서 현재 픽셀의 두 주변 픽셀이 현재 픽셀보다 큰 값을 가지는 경우를 나타낸다. Referring to FIG. 6, (6a) shows a case where two neighboring pixels of the current pixel have a larger value than the current pixel as the first category of the edge offset.

(6b)는 에지 오프셋의 두 번째 카테고리로서 현재 픽셀의 두 주변 픽셀 중 하나의 픽셀은 현재 픽셀과 동일한 값을 가지고 다른 하나의 픽셀은 현재 픽셀보다 큰 값을 가지는 경우를 나타낸다. (6b) represents a second category of edge offset, in which one of two peripheral pixels of the current pixel has the same value as the current pixel, and the other pixel has a larger value than the current pixel.

(6c)는 에지 오프셋의 세 번째 카테고리로서 현재 픽셀의 두 주변 픽셀 중 하나의 픽셀은 현재 픽셀과 동일한 값을 가지고, 다른 하나의 픽셀은 현재 픽셀보다 작은 값을 가지는 경우를 나타낸다. (6c) represents a third category of edge offset, in which one pixel of two neighboring pixels of the current pixel has the same value as the current pixel, and the other pixel has a smaller value than the current pixel.

(6d)는 에지 오프셋의 네 번째 카테고리로서 현재 픽셀의 두 주변 픽셀이 현재 픽셀보다 작은 값을 가지는 경우를 나타낸다. (6d) indicates a case where two peripheral pixels of the current pixel have a smaller value than the current pixel as the fourth category of the edge offset.

도 6에서는 네 개의 카테고리로 에지 오프셋을 구분하는 경우를 예로서 설명하였으나, 도 6의 네 카테고리에 현재 픽셀의 두 주변 픽셀이 현재 픽셀과 같은 값을 가지는 경우를 추가하여 다섯 카테고리로 에지 오프셋을 구분할 수도 있다. In FIG. 6, an edge offset is divided into four categories as an example. However, an edge offset is divided into five categories by adding a case in which two neighboring pixels of the current pixel have the same value as the current pixel. It may be.

에지 오프셋에 적용되는 오프셋 값은 클래스에 따라서 현재 픽셀의 두 주변 픽셀을 선택하고, 선택된 픽셀과의 관계에 따라서 카테고리가 결정되면, 현재 픽셀의 카테고리에 따라서 유도될 수 있다.The offset value applied to the edge offset may be derived according to the category of the current pixel when two peripheral pixels of the current pixel are selected according to the class, and a category is determined according to the relationship with the selected pixel.

에지 오프셋을 적용하는 경우에, 인코딩 장치는 에지 오프셋을 적용하는 것을 지시하는 정보 및 카테고리에 따른 오프셋 정보를 디코딩 장치에 전송할 수 있다. 예컨대, 인코딩 장치는 카테고리별로 오프셋 값을 특정하는 정보를 디코딩 장치에 전송할 수 있다. In the case of applying the edge offset, the encoding apparatus may transmit information indicating to apply the edge offset and offset information according to the category to the decoding apparatus. For example, the encoding apparatus may transmit information specifying the offset value for each category to the decoding apparatus.

디코딩 장치는 에지 오프셋을 적용하는 경우, 대상 픽셀이 속하는 카테고리에 따라서 대상 픽셀에 오프셋을 적용할 수 있다. 예컨대, 디코딩 장치는, 인코딩 장칙로부터 수신한 오프셋 값에 관한 정보를 기반으로, 현재 픽처에 적용할 오프셋 값을 현재 픽서의 카테고리에 따라서 유도할 수 있다. When applying the edge offset, the decoding apparatus may apply the offset to the target pixel according to the category to which the target pixel belongs. For example, the decoding apparatus may derive an offset value to be applied to the current picture according to the category of the current picturer based on the information about the offset value received from the encoding rule.

오프셋 값은 크기를 지시하는 정보와 부호를 지시하는 정보로 나뉘어 인코딩 장치로부터 디코딩 장치로 전송될 수도 있다.The offset value may be divided into information indicating a magnitude and information indicating a sign and transmitted from the encoding device to the decoding device.

인코딩 장치는 SAO를 적용할 때, 상술한 에지 오프셋과 밴드 오프셋 중 어느 것을 적용할 것인지를 특정하는 SAO 타입 인덱스를 디코딩 장치에 전송할 수 있다. When applying the SAO, the encoding apparatus may transmit a SAO type index that specifies which of the above-described edge offset and band offset to be applied to the decoding apparatus.

표 1은 적용할 SAO를 특정하는 SAO 타입 인덱스의 일 예를 나타낸 것이다.Table 1 shows an example of the SAO type index that specifies the SAO to be applied.

<표 1>TABLE 1

Figure PCTKR2013002506-appb-I000001
Figure PCTKR2013002506-appb-I000001

표 1을 이용하는 예에서, 인코딩 장치는 SAO를 적용할 것인지, 밴드 오프셋을 적용할 것인지, 에지 오프셋을 적용할 것인지를 SAO 타입 인덱스를 통해서 디코딩 장치에 전송할 수 있다.In the example using Table 1, the encoding apparatus may transmit whether to apply SAO, band offset, or edge offset to the decoding apparatus through the SAO type index.

디코딩 장치는 수신한 SAO 타입 인덱스가 0인 경우에는 SAO를 적용하지 않고, 수신한 SAO 타입 인덱스가 1인 경우에는 밴드 오프셋을 적용하며. 수신한 SAO 타입 인덱스가 2인 경우에는 에지 오프셋을 적용할 수 있다. The decoding apparatus does not apply SAO when the received SAO type index is 0, and applies a band offset when the received SAO type index is 1. If the received SAO type index is 2, the edge offset may be applied.

표 1의 실시예에서는, 밴드 오프셋을 적용할 것인지 에지 오프셋을 적용할 것인지를 SAO 타입 인덱스로 지시한다. 따라서, 밴드 오프셋을 적용하는 경우에 시작 밴드를 지시하는 정보와 오프셋 값을 지시하는 정보는 별도로 전송될 수 있고, 에지 오프셋을 적용하는 경우에 에지 클래스를 지시하는 정보와 오프셋 값은 별도로 전송될 수 있다. In the embodiment of Table 1, the SAO type index indicates whether to apply a band offset or an edge offset. Therefore, when the band offset is applied, the information indicating the start band and the information indicating the offset value may be transmitted separately, and when the edge offset is applied, the information indicating the edge class and the offset value may be transmitted separately. have.

한편 표 1과 달리, SAO 타입 인덱스가 에지 오프셋의 클래스와 밴드 오프셋의 적용 밴드를 모두 지시하도록 할 수도 있다. Meanwhile, unlike Table 1, the SAO type index may indicate both the class of the edge offset and the application band of the band offset.

표 2은 적용할 SAO를 특정하는 SAO 타입 인덱스의 다른 예를 나타낸 것이다. Table 2 shows another example of the SAO type index that specifies the SAO to apply.

<표 2>TABLE 2

Figure PCTKR2013002506-appb-I000002
Figure PCTKR2013002506-appb-I000002

표 2은 도 5에서 설명한 밴드 오프셋과 도 6에서 설명한 에지 오프셋을 적용하여 SAO를 수행하는 경우의 SAO 타입 인덱스를 나타낸 것이다. Table 2 shows a SAO type index when SAO is performed by applying the band offset described in FIG. 5 and the edge offset described in FIG. 6.

표 2의 실시예에서, 인코딩 장치는 0부터 6까지의 SAO 타입 인덱스를 이용하여, SAO를 적용할 것인지, 에지 오프셋을 적용할 것인지, 밴드 오프셋을 적용할 것인지뿐만 아니라, 에지 오프셋의 클래스와 밴드 오프셋의 적용 밴드까지 지시할 수 있다.In the embodiment of Table 2, the encoding apparatus uses the SAO type index from 0 to 6 to apply the SAO, edge offset, or band offset, as well as the class and band of the edge offset. Up to the application band of the offset can be indicated.

디코딩 장치는 수신한 SAO 타입 인덱스가 지시하는 바에 따라서 SAO를 수행할 수 있다. The decoding apparatus may perform SAO as indicated by the received SAO type index.

상술한 바와 같이, 베이스 레이어에서 적용한 SAO와 인핸스먼트 레이어에서 적용할 SAO 는 유사할 확률이 높다. 예컨대, 하위 레이어(베이스 레이어)에서 에지 오프셋의 클래스가 90도의 에지였다면, 현재 레이어에서도 에지 오프셋의 90도 에지 클래스일 확률이 다른 클래스일 확률보다 높다. As described above, the SAO applied in the base layer and the SAO applied in the enhancement layer are likely to be similar. For example, if the class of the edge offset in the lower layer (base layer) was an edge of 90 degrees, the probability of being the 90 degree edge class of the edge offset in the current layer is higher than that of another class.

하지만, 현재 레이어의 SAO 특성이 베이스 레이어의 SAO 특성과 동일하지 않을 확률을 배제할 수 없으므로, 베이스 레이어의 SAO 정보를 현재 레이어에 그대로 적용하는 대신, 베이스 레이어의 SAO 정보와 현재 레이어의 SAO 정보 사이의 차이를 활용하여 코딩 효율을 높이는 방법을 고려할 수 있다. However, since the probability that the SAO property of the current layer is not the same as the SAO property of the base layer cannot be excluded, instead of applying the SAO information of the base layer to the current layer as it is, between the SAO information of the base layer and the SAO information of the current layer. Consider the method of increasing the coding efficiency by utilizing the difference of.

본 발명에 의하면, 베이스 레이어에 적용된 SAO를 기반으로 한정된 후보들 중에서 인핸스먼트 레이어에서 적용될 SAO를 지시하는 정보를 시그널링할 수 있다.According to the present invention, among the limited candidates based on the SAO applied to the base layer, information indicating the SAO to be applied in the enhancement layer may be signaled.

예컨대, 베이스 레이어에 적용된 SAO와 유사한 타입의 SAO 들로 인핸스먼트 레이어에 적용될 인핸스먼트 레이어 SAO후보들을 구성할 수 있다. 인코딩 장치는 인핸스먼트 레이어 SAO 후보들 중에서 어떤 후보를 인핸스먼트 레이어에 적용할 것인지를 시그널링할 수 있다. 디코딩 장치는 인코딩 장치로부터 시그널링된 SAO 후보를 현재 레이어(인핸스먼트 레이어)에 적용할 수 있다. For example, enhancement layer SAO candidates to be applied to an enhancement layer may be configured as SAOs similar to SAO applied to a base layer. The encoding apparatus may signal which of the enhancement layer SAO candidates to apply to the enhancement layer. The decoding apparatus may apply the SAO candidate signaled from the encoding apparatus to the current layer (enhanced layer).

에지 오프셋이 적용되는 경우, 인핸스먼트 레이어에 대한 클래스(에지 타입)의 인덱스가 재조정될 수도 있고, 인핸스먼트 레이어에서 카테고리의 순서가 재조정될 수도 있다. 예컨대, 베이스 레이어의 에지 타입과 동일한 에지 타입에 가장 높은 순위의 인덱스(가장 낮은 인덱스)를 부여하도록 할 수 있다. 더 나아가, 베이스 레이어의 에지 타입과 유사한 에지 타입들에 대한 인덱스의 순위도 높이도록 할 수 있다. When the edge offset is applied, the index of the class (edge type) for the enhancement layer may be readjusted, and the order of categories in the enhancement layer may be readjusted. For example, the highest ranking index (lowest index) may be assigned to the same edge type as that of the base layer. Furthermore, the ranking of indexes for edge types similar to the edge type of the base layer may be increased.

또한, 베이스 레이어에 적용되는SAO의 정보와 현재 레이어에 적용되는 SAO의 정보 사이의 차이값을 시그널링하도록 하여 전송 비트량을 줄이고 압축 효율을 높이는 방법을 이용할 수 있다. In addition, a method of reducing a transmission bit amount and increasing compression efficiency by signaling a difference value between the information of the SAO applied to the base layer and the information of the SAO applied to the current layer may be used.

이하, 도면과 표를 이용하여, 발명에 따라 베이스 레이어의 SAO 정보를 이용하여 인핸스먼트 레이어에 SAO를 적용하는 방법을 구체적으로 설명한다.Hereinafter, a method of applying SAO to an enhancement layer using SAO information of a base layer according to the present invention will be described in detail with reference to the drawings and tables.

(실시예 1) 인핸스먼트 레이어의 SAO 후보 구성(Example 1) SAO candidate configuration of an enhancement layer

본 실시예에서는 베이스 레이어에 적용된 SAO와 유사한 타입의 SAO들로 인핸스먼트 레이어에 적용될 수 있는 SAO 후보들을 한정할 수 있다. In this embodiment, SAO candidates that can be applied to an enhancement layer may be limited to SAOs similar to those of SAO applied to a base layer.

예컨대, (i) 에지 오프셋이 적용되는 경우에 (i) 베이스 레이어에서 적용된 에지 타입으로 인핸스먼트 레이어에 대한 에지 오프셋의 클래스를 한정할 수 있다. 혹은 (ii) 베이스 레이어에 적용된 에지 타입과 베이스 레이어에 적용된 에지 타입을 45도 회전한 에지 타입 또는 베이스 레이어에 적용된 에지 타입을 135도 회전한 에지 타입의 두 에지 타입으로 인핸스먼트 레이어에 대한 에지 오프셋의 클래스를 한정할 수도 있다. 혹은 (iii) 베이스 레이어에 적용된 에지 타입과 베이스 레이어에 적용된 에지 타입과 유사한 두 에지 타입(45도 회전된 에지 타입과 135도 회전된 에지 타입)의 세 에지 타입으로 인핸스먼트 레이어에 대한 에지 오프셋의 클래스를 한정할 수도 있다. For example, when (i) an edge offset is applied, (i) an edge type applied in the base layer may define a class of edge offset for the enhancement layer. Or (ii) the edge offset to the enhancement layer as two edge types: an edge type applied to the base layer and an edge type applied to the base layer by 45 degrees, or an edge type rotated 135 degrees to the edge type applied to the base layer. You can also qualify the class of. Or (iii) three edge types, one edge type applied to the base layer and two edge types similar to the edge type applied to the base layer (45 degree rotated edge type and 135 degree rotated edge type). You can also qualify the class.

이 경우, (i) 내지 (iii) 중 어느 방식을 사용할 것인지는 인코딩 장치와 디코딩 장치 사이에 미리 정해져 있을 수 있다. 또한, 인코딩 장치가 (i) 내지 (iii) 중 어느 방식을 사용할 것인지를 결정하고, 결정된 방식을 지시하는 정보를 디코딩 장치에 전송할 수도 있다. In this case, which of (i) to (iii) to use may be predetermined between the encoding device and the decoding device. In addition, the encoding apparatus may determine which scheme (i) to (iii) to use, and may transmit information indicating the determined scheme to the decoding apparatus.

인코딩 장치는 인핸스먼트 레이어의 에지 오프셋에서 단일 에지 타입을 적용하는 (i)의 경우에는 에지 오프셋을 적용한다는 것만을 지시함으로써 에지 타입(클래스)를 특정할 수 있다. 인핸스먼트 레이어의 에지 오프셋에서 복수의 에지 타입을 적용하는 (ii)와 (iii)의 경우에 인코딩 장치는 어떤 에지 타입을 적용할 것인지를 별도로 시그널링할 수 있다.The encoding apparatus may specify an edge type (class) by indicating only to apply an edge offset in the case of (i) of applying a single edge type at the edge offset of the enhancement layer. In the case of (ii) and (iii) of applying a plurality of edge types in the edge offset of the enhancement layer, the encoding apparatus may separately signal which edge type to apply.

한편, 인핸스먼트 레이어에서 에지 오프셋에 대한 네 개의 클래스(0도 에지, 90도 에지, 45도 에지, 135도 에지)를 모두 사용하는 대신, 에지 오프셋의 카테고리를 한정할 수도 있다. 예컨대, (a) 베이스 레이어에서 적용된 카테고리와 동일한 카테고리를 인핸스먼트 레이어에 적용하도록 할 수 있다. 혹은 (b) 베이스 레이어에 적용된 카테고리와 베이스 레이어에 적용된 카테고리 전 또는 후의 카테고리로 후보를 한정하고 사용할 수도 있고 (c) 베이스 레이어에 적용된 카테고리와 베이스 레이어에 적용된 카테고리 전후의 두 카테고리로 후보를 한정하고 사용할 수도 있다. Meanwhile, instead of using all four classes (0 degree edge, 90 degree edge, 45 degree edge, 135 degree edge) for the edge offset in the enhancement layer, the category of the edge offset may be defined. For example, (a) the same category as the category applied in the base layer may be applied to the enhancement layer. Or (b) limit and use candidates to categories applied to the base layer and categories before or after the categories applied to the base layer, or (c) to limit candidates to two categories before and after the category applied to the base layer and the category applied to the base layer. Can also be used.

이 경우, (a) 내지 (c) 중 어느 방식을 사용할 것인지는 인코딩 장치와 디코딩 장치 사이에 미리 정해져 있을 수 있다. 또한, 인코딩 장치가 (a) 내지 (b) 중 어느 방식을 사용할 것인지를 결정하고, 결정된 방식을 지시하는 정보를 디코딩 장치에 전송할 수도 있다. In this case, which method (a) to (c) is to be used may be predetermined between the encoding device and the decoding device. In addition, the encoding apparatus may determine which scheme (a) to (b) to use, and may transmit information indicating the determined scheme to the decoding apparatus.

단일 카테고리를 적용하는 (a)의 경우에 에지 오프셋이 인핸스멑르 레이어에 적용되면, 디코딩 장치는 베이스 레이어에 적용된 카테고리를 이용할 수 있다. 복수의 카테고리를 적용하는 (b)와 (c)의 경우에 에지 오프셋이 인핸스먼트 레이어에 적용되면, 디코딩 장치는 현재 픽셀(대상 픽셀)과 주변 픽셀의 관계에 따라서 후보 카테고리 중 어떤 카테고리를 적용할 것인지를 결정할 수 있다.In the case of (a) of applying a single category, if the edge offset is applied to the enhancement layer, the decoding apparatus may use the category applied to the base layer. In the case of (b) and (c) applying a plurality of categories, if an edge offset is applied to the enhancement layer, the decoding apparatus may apply any of the candidate categories according to the relationship between the current pixel (target pixel) and the surrounding pixel. Can be determined.

(실시예 2) SAO 정보의 차이값을 이용Example 2 Using the Difference Value of SAO Information

표 1을 사용하는 경우에, 에지 오프셋을 적용하면, 에지 타입(클래스)을 지정하는 정보는 별도로 전송될 수 있다. When using Table 1, applying an edge offset, information specifying the edge type (class) may be transmitted separately.

이때, 상위 레이어(현재 레이어)의 에지 타입은 하위 레이어(예컨대, 베이스 레이어)의 에지 타입과 동일하거나 유사할 확률이 높다. 예컨대, 하위 레이어의 에지 타입이 수평 에지이면, 현재 레이어의 에지 타입도 수평 에지일 확률이 높고 수직 에지일 확률보다 대각선 에지일 확률이 높다. In this case, the edge type of the upper layer (current layer) is likely to be the same as or similar to the edge type of the lower layer (eg, the base layer). For example, if the edge type of the lower layer is a horizontal edge, the edge type of the current layer also has a high probability of being a horizontal edge and a diagonal edge more than a probability of being a vertical edge.

표 2를 사용하는 경우에, SAO 타입은 0부터 6까지 7 가지의 타입을 가지게 된다. 표 2의 예에서, 하위 레이어(예컨대, 베이스 레이어)의 SAO 타입이 2로 수직(90도) 에지인 경우에, 상위 레이어(현재 레이어)는 하위 레이어와 유사한 수직 방향 에지의 특성을 가질 확률이 가장 높고 이어서 수직 에지와 유사한 대각선 에지(45도 에지 혹은 135도 에지)의 특성을 가질 확률이 높으며, 수평 에지의 특성을 가질 확률은 낮다고 할 수 있다.In the case of using Table 2, the SAO type has 7 types from 0 to 6. In the example of Table 2, if the SAO type of the lower layer (e.g., base layer) is a vertical (90 degree) edge of 2, the upper layer (current layer) is likely to have characteristics of vertical edges similar to the lower layer. The highest and subsequent diagonal edges (45-degree edge or 135-degree edge) are most likely to have characteristics, and the horizontal edge is unlikely to have a characteristic.

따라서, 현재 레이어의 에지 타입 혹은 SAO 타입을 지시하는 정보를 전송할 때, 하위 레이어의 에지 타입과 현재 레이어의 에지 타입 사이의 차이값 혹은 하위 레이어의 SAO 타입과 현재 레이어의 SAO 타입 사이의 차이값을 전송함으로써 전송에 필요한 비트를 절감하고 압축률을 향상시킬 수 있다. Therefore, when transmitting information indicating the edge type or SAO type of the current layer, the difference between the edge type of the lower layer and the edge type of the current layer or the difference between the SAO type of the lower layer and the SAO type of the current layer is determined. By transmitting, the bits required for transmission can be reduced and the compression rate can be improved.

예컨대, 표 1을 적용하는 실시예에서 베이스 레이어의 에지 타입을 지시하는 인덱스의 값이 iB이고 현재 레이어의 에지 타입을 지시하는 인덱스의 값이 iC라면, 인코딩 장치는 iC와 iB의 차이값(iC - iB)을 시그널링할 수 있다. 디코딩 장치는 인코딩 장치로부터 수신한 iB와 iC의 차이값을 iB에 가산하여 현재 레이어의 에지 타입을 유도할 수 있다. For example, in an embodiment to which Table 1 applies, if the value of the index indicating the edge type of the base layer is i B and the value of the index indicating the edge type of the current layer is i C , the encoding apparatus may determine i C and i B. The difference value i C -i B may be signaled. The decoding apparatus adds the difference value between a i B i and C received from the encoding device to the i B may derive an edge-type of the current layer.

또한, 표 2를 적용하는 실시예에서 베이스 레이어의 SAO 타입을 지시하는 인덱스의 값이 iSAO_B이고 현재 레이어의 SAO 타입을 지시하는 인덱스의 값이 iSAO_C라면, 인코딩 장치는 iSAO_C와 iSAO_B의 차이값(iSAO_C - iSAO_B)을 시그널링할 수 있다. 디코딩 장치는 인코딩 장치로부터 수신한 iSAO_B와 iSAO_C의 차이값을 iSAO_B에 가산하여 현재 레이어의 에지 타입을 유도할 수 있다. In addition, in an embodiment of applying Table 2, if the value of the index indicating the SAO type of the base layer is i SAO_B and the value of the index indicating the SAO type of the current layer is i SAO_C , the encoding apparatus may determine i SAO_C and i SAO_B . A difference value (i SAO_C -i SAO_B ) may be signaled. The decoding apparatus adds the difference value between the i and i SAO_B SAO_C received from the encoding device to the i SAO_B can lead to edge-type of the current layer.

예컨대, 하위 레이어(베이스 레이어)의 SAO 타입이 2(에지 오프셋의 90도 에지)이고 현재 레이어(상위 레이어)의 SAO 타입이 3(에지 오프셋의 135도 에지)인 경우, 인코딩 장치는 두 값의 차인 1을 디코딩 장치에 전송할 수 있다. For example, if the SAO type of the lower layer (base layer) is 2 (90 degree edge of the edge offset) and the SAO type of the current layer (upper layer) is 3 (135 degree edge of the edge offset), then the encoding device may The difference 1 may be transmitted to the decoding apparatus.

디코딩 장치는 수신한 값(1)을 하위 레이어의 SAO 타입(2)에 더하여 현재 레이어의 SAO 타입(3)을 획득할 수 있다. The decoding apparatus may obtain the SAO type 3 of the current layer by adding the received value 1 to the SAO type 2 of the lower layer.

(실시예 3) XOR 연산을 적용한 차이값의 활용Example 3 Application of Difference Value Applying XOR Operation

하위 레이어의 SAO 정보를 기반으로 상위 레이어(현재 레이어)의 SAO 정보를 전송할 때, XOR(exclusive or) 연산을 적용할 수 있다. When the SAO information of the upper layer (current layer) is transmitted based on the SAO information of the lower layer, an XOR (exclusive or) operation may be applied.

도 7은 본 발명에 따라서 하위 레이어의 SAO 정보와 상위 레이어의 SAO 정보에 XOR 연산을 적용하는 일 예를 간단히 설명하는 도면이다. 도 7에서는 SAO 정보가 표 2의 SAO 타입인 경우를 예로서 설명한다. FIG. 7 is a diagram for briefly explaining an example of applying an XOR operation to SAO information of a lower layer and SAO information of an upper layer according to the present invention. In FIG. 7, a case where the SAO information is the SAO type of Table 2 will be described as an example.

도 7을 참조하면, 하위 레이어(베이스 레이어)의 SAO 타입(710)과 상위 레이어(인핸스먼트 레이어)의 SAO 타입(720)을 XOR 연산(730)한다. Referring to FIG. 7, an XOR operation 730 is performed on the SAO type 710 of the lower layer (base layer) and the SAO type 720 of the upper layer (enhancement layer).

인코딩 장치는 SAO 정보(740)를 전송한다. 이때, 전송되는 SAO 정보(740)는 베이스 레이어의 SAO 타입(710)과 인핸스먼트 레이어의 SAO 타입(720)이 XOR 연산된 값이다. The encoding device transmits SAO information 740. In this case, the transmitted SAO information 740 is a value obtained by performing an XOR operation on the SAO type 710 of the base layer and the SAO type 720 of the enhancement layer.

디코딩 장치는 SAO 정보(740)를 수신하고, XOR 연산을 역으로 적용하여 인핸스먼트 레이어의 SAO 타입을 유도할 수 있다.The decoding apparatus may receive the SAO information 740 and inversely apply an XOR operation to derive the SAO type of the enhancement layer.

도 7의 예에서는 표 2를 적용하는 예를 고려하여 설명하였으나, 표 1을 사용하는 경우에도 동일하게 XOR 연산을 적용하여 SAO 정보가 전송될 수 있다.In the example of FIG. 7, the table 2 has been described in consideration of an example of applying the table 2. However, even when using the table 1, SAO information may be transmitted by applying the XOR operation.

이 경우에는 SAO 타입 대신 베이스 레이어의 에지 타입과 인핸스먼트 레이어의 에지 타입 간에 XOR 연산을 적용함으로써, 디코딩 장치에 전송되는 SAO 정보가 생성될 수 있다. In this case, SAO information transmitted to the decoding apparatus may be generated by applying an XOR operation between the edge type of the base layer and the edge type of the enhancement layer instead of the SAO type.

(실시예 4) 그레이 코드 변환의 적용Example 4 Application of Gray Code Conversion

XOR 연산을 이용하는 경우에, 베이스 레이어 SAO 정보와 인핸스먼트 레이어의 SAO 정보 사이의 차이가 적더라도, XOR 연산의 결과는 큰 값이 될 수 있다. In the case of using the XOR operation, even if the difference between the base layer SAO information and the SAO information of the enhancement layer is small, the result of the XOR operation may be large.

예컨대, 표 2를 적용하는 예에서, 베이스 레이어의 SAO 타입이 3(에지 오프셋의 135도 에지)이고, 인핸스먼트 레이어의 SAO 타입이 4(에지 오프셋의 45도 에지)인 경우, 두 SAO 타입의 차이는 1이지만 XOR 연산의 결과는 7이 된다. For example, in the example of applying Table 2, if the SAO type of the base layer is 3 (135 degree edge of the edge offset) and the SAO type of the enhancement layer is 4 (45 degree edge of the edge offset), The difference is 1, but the result of the XOR operation is 7.

따라서, 각 레이어의 SAO 값을 그레이 코드(gray code, 반전 이진 코드)로 변환한 후에 XOR 연산을 수행할 수도 있다. 그레이 코드로의 변환에서는 두 연속한 이진값들이 1 비트씩 차이가 나도록 변환한다. Therefore, the XOR operation may be performed after converting the SAO value of each layer to a gray code (gray code). The conversion to gray code converts two consecutive binary values one bit apart.

도 8은 본 발명에 따라서 하위 레이어의 SAO 정보와 상위 레이어의 SAO 정보에 XOR 연산을 적용하는 다른 예를 간단히 설명하는 도면이다. 도 8에서는 SAO 정보가 표 2의 SAO 타입인 경우를 예로서 설명한다. 8 is a diagram for briefly explaining another example of applying an XOR operation to SAO information of a lower layer and SAO information of a higher layer according to the present invention. In FIG. 8, a case where the SAO information is the SAO type of Table 2 will be described as an example.

도 8을 참조하면, 인코딩 장치는 XOR 연산을 수행하기 전에 하위 레이어(베이스 레이어)의 SAO 타입(810)을 그레이 코더(820)에서 그레이 코드로 변환하고, 상위 레이어(인핸스먼트 레이어)의 SAO 타입(830)을 그레이 코더(840)에서 그레이 코드로 변환한다. Referring to FIG. 8, the encoding apparatus converts the SAO type 810 of the lower layer (base layer) from the gray coder 820 to gray code before performing the XOR operation, and the SAO type of the upper layer (enhanced layer). 830 is converted from the gray coder 840 to the gray code.

인코딩 장치는 그레이 코드로 변환된 베이스 레이어의 SAO 타입값과 인핸스먼트 레이어의 SAO 타입값을 XOR 연산(850) 한다. The encoding apparatus performs XOR operation 850 on the SAO type value of the base layer and the enhancement layer SAO type value converted to gray code.

인코딩 장치는 SAO 정보(860)를 전송한다. 이때, 전송되는 SAO 정보(860)는 베이스 레이어의 그레이 코드 변환된 SAO 타입값과 인핸스먼트 레이어의 그레이 코드 변환된 SAO 타입값이 XOR 연산된 값이다.The encoding device transmits SAO information 860. In this case, the transmitted SAO information 860 is a value obtained by performing an XOR operation on the gray code-converted SAO type value of the base layer and the gray code-converted SAO type value of the enhancement layer.

도 8의 예에서는 표 2를 적용하는 예를 고려하여 설명하였으나, 표 1을 사용하는 경우에도 동일하게 그레이 코드 변환과 XOR 연산을 적용하여 SAO 정보가 전송될 수 있다.In the example of FIG. 8, the example in which Table 2 is applied has been described. However, even when Table 1 is used, SAO information may be transmitted by applying gray code conversion and XOR operation.

이 경우에는 SAO 타입 대신 베이스 레이어의 에지 타입을 지시하는 인덱스를 그레이 코드로 변환한 값과 인핸스먼트 레이어의 에지 타입을 지시하는 인덱스를 그레이 코드로 변환한 값 간에 XOR 연산을 적용함으로써, 디코딩 장치에 전송되는 SAO 정보가 생성될 수 있다.In this case, the XOR operation is applied to the decoding apparatus by applying an XOR operation between a value obtained by converting an index indicating the edge type of the base layer to gray code instead of a SAO type and a value converting the index indicating the edge type of the enhancement layer into gray code. SAO information transmitted may be generated.

(실시예 5) SAO 정보의 재정렬(Example 5) Reordering SAO Information

본 실시예에서는 상위 레이어의 SAO 정보를 지시하는 인덱스 테이블을 하위 레이어에 적용된 SAO의 타입(SAO 타입, 클래스 혹은 카테고리)에 따라서 재정렬할 수 있다. In the present embodiment, the index table indicating the SAO information of the upper layer may be rearranged according to the type (SAO type, class or category) of the SAO applied to the lower layer.

예컨대, 표 1을 사용하여 SAO 타입을 특정하고 에지 오프셋의 에지 타입(클래스)를 별도를 시그널링하는 경우에는 하위 레이어에 적용된 에지 타입을 지시하는 인덱스를 더 낮은 값(더 높은 순위)로 조정할 수 있다.For example, when using Table 1 to specify the SAO type and separately signal the edge type (class) of the edge offset, the index indicating the edge type applied to the lower layer may be adjusted to a lower value (higher rank). .

하위 레이어의 SAO 타입이 에지 오프셋으로서 수식 에지였다면, 상위 레이어의 SAO 타입도 하위 레이어와 동일한 방향의 에지이거나 대각선 방향의 에지일 확률이 높다. 따라서, 상위 레이어에 대한 SAO 타입 테이블에서는 수직 방향의 에지, 대각선 방향의 에지가 테이블의 앞에 나타나도록(낮은 인덱스를 가지도록) 함으로써 효율을 높일 수 있다. If the SAO type of the lower layer was a modified edge as an edge offset, the SAO type of the upper layer is also likely to be an edge in the same direction or a diagonal direction as the lower layer. Therefore, in the SAO type table for the upper layer, efficiency can be improved by having vertical edges and diagonal edges appear in front of the table (low index).

또한, 표 2를 사용하여 SAO 타입을 특정하는 경우에는 하위 레이어에 적용된 SAO 타입을 지시하는 인덱스를 더 낮은 값(더 높은 순위)로 조정할 수 있다.In addition, when specifying the SAO type using Table 2, the index indicating the SAO type applied to the lower layer may be adjusted to a lower value (higher rank).

구체적으로, 표 1을 사용하여 SAO 타입을 특정하는 경우에, 하위 레이어(베이스 레이어)에 적용된 SAO 타입이 iSAO_L라면, 상위 레이어(인핸스먼트 레이어)에 적용될 SAO 타입 테이블에서는, iSAO_L를 지시하는 인덱스의 값을 더 낮은 값으로 조정할 수 있다. 즉, iSAO_L를 표 1에서의 위치보다 더 높은 위치(더 높은 순위)로 올릴 수 있다. Specifically, in the case of specifying the SAO type using Table 1, if the SAO type applied to the lower layer (base layer) is i SAO_L , the SAO type table to be applied to the upper layer (enhanced layer) indicates i SAO_L . You can adjust the value of the index to a lower value. That is, i SAO_L can be raised to a higher position (higher rank) than the position in Table 1.

예컨대, 하위 레이어에 적용된 SAO 타입이 에지 오프셋으로서 135도 에지인 경우라면, 표 1에서 대응하는 인덱스는 3이지만, 상위 레이어에서는 SAO 타입 인덱스로 1을 할당하여 적용할 수 있다.For example, if the SAO type applied to the lower layer is an edge offset of 135 degrees, the corresponding index is 3 in Table 1, but in the upper layer, 1 may be assigned as the SAO type index.

이 경우, iSAO_B와 유사한 각도의 에지들, 예를 들어 90도 에지 혹은 135도 에지의 순위로 높여서 적용할 수 있다. 예컨대, 표 1에서는 0도 에지, 90도 에지 135도 에지, 45도 에지 순서로 인덱스가 할당되어 있으나, 하위 레이어에서 135도 에지가 적용되었다면, 상위 레이어에서는 135도 에지, 90도 에지, 0도 에지, 45도 에지의 순서로 인덱스가 할당될 수 있다.In this case, it can be applied by increasing the edges of the angle similar to i SAO_B , for example, 90 degrees edge or 135 degrees edge. For example, in Table 1, if an index is assigned in the order of 0 degree edge, 90 degree edge, 135 degree edge, and 45 degree edge, but 135 degree edge is applied in the lower layer, 135 degree edge, 90 degree edge, 0 degree in the upper layer Indexes may be assigned in the order of edge, 45 degree edge.

표 2를 사용하는 실시예의 경우에도 하위 레이어에 적용된 에지 타입을 상위 레이어에서는 더 높은 우선 순위 혹은 더 낮은 인덱스를 가지도록 조정할 수 있다. Even in an embodiment using Table 2, the edge type applied to the lower layer may be adjusted to have a higher priority or a lower index in the upper layer.

표 3은 표 2를 적용하는 예에서 사용 가능한 에지 오프셋의 클래스를 지정하는 테이블이다. Table 3 is a table specifying the classes of edge offsets available in the example of applying Table 2.

<표 3>TABLE 3

Figure PCTKR2013002506-appb-I000003
Figure PCTKR2013002506-appb-I000003

표 3에서는 0도 에지, 90도 에지, 135도 에지, 45도 에지의 순서로 인덱스가 할당되어 있으나, 하위 레이어에서 135도 에지가 적용되었다면, 상위 레이어에서는 표 4 또는 표 5와 같이 재정렬된 테이블이 에지 오프셋의 클래스를 특정하기 위해 적용될 수 있다. In Table 3, if the index is assigned in the order of 0 degree edge, 90 degree edge, 135 degree edge, and 45 degree edge, but the 135 degree edge is applied in the lower layer, the upper layer reorders the table as shown in Table 4 or Table 5. This can be applied to specify the class of edge offset.

<표 4>TABLE 4

Figure PCTKR2013002506-appb-I000004
Figure PCTKR2013002506-appb-I000004

<표 5>TABLE 5

Figure PCTKR2013002506-appb-I000005
Figure PCTKR2013002506-appb-I000005

인코딩 장치는 베이스 레이어(하위 레이어)에 SAO를 적용하고, 적용된 SAO 타입(에지 타입)을 기반으로 상술한 바와 같이 SAO 적용 테이블(예컨대, 표 1 또는 표 2)를 재정렬할 수 있다. 인코딩 장치는 재정렬된 SAO 적용 테이블에서 상위 레이어(인핸스먼트 레이어)에 적용할 SAO 타입(에지 타입)을 지시하는 인덱스를 시그널링할 수 있다. The encoding apparatus may apply SAO to the base layer (lower layer) and reorder the SAO application table (eg, Table 1 or Table 2) as described above based on the applied SAO type (edge type). The encoding apparatus may signal an index indicating a SAO type (edge type) to be applied to an upper layer (enhanced layer) in the reordered SAO application table.

디코딩 장치는 베이스 레이어(하위 레이어)에 SAO를 적용하고, 적용된 SAO 타입(에지 타입)을 기반으로 상술한 바와 같이 SAO 적용 테이블(예컨대, 표 1 또는 표 2)를 재정렬할 수 있다. 디코딩 장치는 상위 레이어(인핸스먼트 레이어)에 적용할 SAO 타입(에지 타입)을 지시하는 인덱스를 인코딩 장치로부터 수신하고, 재정렬된 SAO 적용 테이블상에서 수신한 인덱스가 지시하는 SAO 타입(에지 타입)을 선택하여 상위 레이어(인핸스먼트 레이어)에 적용할 수 있다.The decoding apparatus may apply SAO to the base layer (lower layer) and reorder the SAO application table (eg, Table 1 or Table 2) as described above based on the applied SAO type (edge type). The decoding apparatus receives an index indicating the SAO type (edge type) to be applied to the upper layer (enhanced layer) from the encoding apparatus, and selects the SAO type (edge type) indicated by the index received on the reordered SAO application table. It can be applied to the upper layer (enhancement layer).

(실시예 6) 인터 레이어 SAO의 시그널링(Example 6) Signaling of Inter Layer SAO

인핸스먼트 레이어에 SAO를 적용하는 경우에, 상술한 실시예들 중 어느 하나가 전체 비디오에 적용될 수도 있고, 상술한 실시예들 중에서 인핸스먼트 레이어에 적용할 SAO 방법이 적응적으로 선택될 수도 있다. In the case of applying the SAO to the enhancement layer, any one of the above-described embodiments may be applied to the entire video, and the SAO method to be applied to the enhancement layer may be adaptively selected from the above-described embodiments.

인핸스먼트 레이어에 적용할 SAO 방법을 적응적으로 선택하는 경우에, 인코딩 장치는 베이스 레이어의 SAO 정보를 이용하는 방식으로서 상술한 실시예들의 일부/또는 전부와 베이스 레이어의 SAO 정보를 이용하지 않는 방식으로 구성된 SAO 후보들 중에서 어떤 방식을 이용할 것인지를 지시하는 정보를 시그널링할 수 있다. In the case of adaptively selecting a SAO method to be applied to an enhancement layer, the encoding apparatus uses the SAO information of the base layer as a method of using some / or all of the above-described embodiments and the SAO information of the base layer. Information indicating which scheme to use among the configured SAO candidates may be signaled.

디코딩 장치는 상기 SAO 후보들 중에서 인코딩 장치가 전송한 정보에 의해 지시되는 SAO 방법을 선택하여 인핸스먼트 레이어(현재 레이어)에 적용할 수 있다. The decoding apparatus may select the SAO method indicated by the information transmitted by the encoding apparatus from among the SAO candidates and apply it to the enhancement layer (current layer).

베이스 레이어의 SAO 정보를 이용하는지를 지시하는 지시자를 본 실시예에서는 base_pred_sao_param_flag이라고 한다. 여기서는 설명의 편의를 위해 flag라고 표시했지만, base_pred_sao_param_flag를 통해 다수의 SAO 방식 중 어느 하나를 지시할 수도 있으므로, base_pred_sao_param_flag는 일종의 인덱스 혹은 지시자일 수도 있다. 따라서, base_pred_sao_param_flag를 base_pred_sao_param_idc라고 나타낼 수도 있다.The indicator indicating whether to use the SAO information of the base layer is called base_pred_sao_param_flag in this embodiment. In this example, although flag is shown for convenience of description, since one of a plurality of SAO methods may be indicated through base_pred_sao_param_flag, base_pred_sao_param_flag may be a kind of index or indicator. Accordingly, base_pred_sao_param_flag may also be referred to as base_pred_sao_param_idc.

표 6은 본 실시예에 따라서 인핸스먼트 레이어에서 적용될 SAO를 지시하기 위해 이용될 수 있는 SAO 방식 테이블이다.Table 6 is a SAO scheme table that can be used to indicate the SAO to be applied in the enhancement layer according to the present embodiment.

<표 6>TABLE 6

Figure PCTKR2013002506-appb-I000006
Figure PCTKR2013002506-appb-I000006

표 6을 참조하면, 인코딩 장치는 베이스 레이어의 SAO 정보를 어떻게 이용하여 인핸스먼트 레이어(현재 레이어)의 SAO를 수행할 것인지를 지시하는 base_pred_sao_param_flag를 디코딩 장치에 전송할 수 있다. Referring to Table 6, the encoding apparatus may transmit a base_pred_sao_param_flag indicating how to perform SAO of the enhancement layer (current layer) using the SAO information of the base layer to the decoding apparatus.

base_pred_sao_param_flag는 베이스 레이어의 SAO 정보를 어떻게 이용하여 인핸스먼트 레이어(현재 레이어)에 어떻게 적용할 것인지를 표 6상에서 지시한다. base_pred_sao_param_flag indicates in Table 6 how to apply the enhancement layer (current layer) using the SAO information of the base layer.

디코딩 장치는 base_pred_sao_param_flag를 인코딩 장치로부터 수신하고, base_pred_sao_param_flag가 표 6 상에서 지시하는 방법을 이용하여 인핸스먼트 레이어에 대한 SAO를 수행할 수 있다.The decoding apparatus may receive base_pred_sao_param_flag from the encoding apparatus and perform SAO on the enhancement layer using a method indicated by base_pred_sao_param_flag in Table 6.

표 6을 이용하는 예에서, base_pred_sao_param_flag의 값이 00이면 인핸스먼트 레이어에 대해서 다른 레이어(예컨대, 베이스 레이어)의 SAO 정보를 이용하지 않고 SAO를 적용한다. 이때, 인핸스먼트 레이어의 SAO를 위한 파라미터는 인코딩 장치로부터 디코딩 장치로 전송될 수 있다.In the example using Table 6, if the value of base_pred_sao_param_flag is 00, SAO is applied to the enhancement layer without using SAO information of another layer (eg, the base layer). In this case, parameters for SAO of the enhancement layer may be transmitted from the encoding device to the decoding device.

base_pred_sao_param_flag의 값이 01이면, 베이스 레이어의 SAO 정보를 이용하되, 실시예 3과 같이 XOR 연산을 적용하여 시그널링된 정보를 기반으로 인핸스먼트 레이어에 대한 SAO를 수행할 수 있다. 구체적인 방법은 실시예 3에서 설명한 바와 같다. If the value of base_pred_sao_param_flag is 01, SAO information of the base layer is used, but as in the third embodiment, SAO may be performed on the enhancement layer based on the signaled information by applying an XOR operation. The specific method is as described in Example 3.

base_pred_sao_param_flag의 값이 10이면, 베이스 레이어의 SAO 정보를 이용하되, 실시예 4와 같이 그레이 코드 변환과 XOR 연산을 적용하여 시그널링된 정보를 기반으로 인핸스먼트 레이어에 대한 SAO를 수행할 수 있다. 구체적인 방법은 실시예 4에서 설명한 바와 같다. If the value of base_pred_sao_param_flag is 10, SAO information of the base layer is used, but SAO for the enhancement layer may be performed based on the signaled information by applying gray code conversion and XOR operation as in the fourth embodiment. The specific method is as described in Example 4.

base_pred_sao_param_flag의 값이 11이면, 베이스 레이어의 SAO 정보를 이용하되, 실시예 5와 같이 인핸스먼트 레이어에 대해서는 SAO 정보를 재정렬하여 적용할 수 있다. 구체적인 방법은 실시예 5에서 설명한 바와 같다. If the value of base_pred_sao_param_flag is 11, SAO information of the base layer is used, but SAO information may be rearranged and applied to the enhancement layer as in the fifth embodiment. The specific method is as described in Example 5.

표 6상에서 base_pred_sao_param_flag가 지시하는 각 방법에서는 표 1이 이용될 수도 있고 표 2가 이용될 수도 있다. In Table 6, Table 1 may be used or Table 2 may be used in each method indicated by base_pred_sao_param_flag.

base_pred_sao_param_flag는 확장 신택스를 통해서 전송될 수 있다. base_pred_sao_param_flag may be transmitted through extended syntax.

표 7은 base_pred_sao_param_flag가 전송되는 신택스 구조의 일 예로서 스케일러블 확장에 있어서 APS(Asaptive Parameter Set)의 일 예를 나타낸 것이다. Table 7 shows an example of an adaptive parameter set (APS) in scalable extension as an example of a syntax structure in which base_pred_sao_param_flag is transmitted.

<표 7>TABLE 7

Figure PCTKR2013002506-appb-I000007
Figure PCTKR2013002506-appb-I000007

표 7을 참조하면, base_pred_sao_param_flag의 값이 0이 아닌 경우에, 과거의 데이터를 파싱 없이 스킵 하기 위한 sao_data_byte_count가 전송된다. Referring to Table 7, when the value of base_pred_sao_param_flag is not 0, sao_data_byte_count is transmitted to skip past data without parsing.

한편, 스케일러블 확장에서 APS를 이용하지 않고, 스케일러블 확장에서의 SAO 신택스 구조(SAO syntax in scalable extension)를 이용하여 base_pred_sao_param_flag를 시그널링할 수도 있다. Meanwhile, base_pred_sao_param_flag may be signaled by using the SAO syntax in scalable extension in the scalable extension without using the APS in the scalable extension.

표 8은 스케일러블 확장에서의 SAO 신택스 구조에서 시그널링되는 base_pred_sao_param_flag를 간단히 나타낸 것이다. Table 8 briefly illustrates base_pred_sao_param_flag signaled in SAO syntax structure in scalable extension.

<표 8>TABLE 8

Figure PCTKR2013002506-appb-I000008
Figure PCTKR2013002506-appb-I000008

표 8의 예에서, base_pred_sao_param_flag는 표 6의 예와 같은 방식으로 베이스 레이어의 SAO 정보를 어떻게 이용하여 인핸스먼트 레이어(현재 레이어)의 SAO를 수행할 것인지를 지시할 수 있다.In the example of Table 8, base_pred_sao_param_flag may indicate how to perform SAO of the enhancement layer (current layer) using SAO information of the base layer in the same manner as in the example of Table 6.

또한, 표 6의 예와 달리 표 8의 예에서, base_pred_sao_param_flag는 단순히 베이스 레이어의 SAO 파라미터를 인핸스먼트 레이어의 SAO에 이용할 것인지를 지시하는 플래그로서 사용될 수도 있다. 이 경우에, base_pred_sao_param_flag의 값이 0이면 하위 레이어(예컨대, 베이스 레이어)의 SAO 파라미터를 상위 레이어(예컨대, 인핸스먼트 레이어)에 적용하지 않고, base_pred_sao_param_flag의 값이 1이면 하위 레이어(예컨대, 베이스 레이어)의 SAO 파라미터를 상위 레이어(예컨대, 인핸스먼트 레이어)의 SAO에 그대로 적용할 수 있다. In addition, unlike the example of Table 6, in the example of Table 8, base_pred_sao_param_flag may be simply used as a flag indicating whether to use the SAO parameter of the base layer for SAO of the enhancement layer. In this case, if the value of base_pred_sao_param_flag is 0, the SAO parameter of the lower layer (for example, the base layer) is not applied to the upper layer (for example, the enhancement layer). If the value of base_pred_sao_param_flag is 1, the lower layer (for example, the base layer) SAO parameter of may be applied to SAO of a higher layer (eg, an enhancement layer) as it is.

도 9는 본 발명에 따라서 상위 레이어에 SAO를 적용하고 SAO 정보를 전송하는 방법을 개략적으로 설명하는 순서도이다. 9 is a flowchart schematically illustrating a method of applying SAO to an upper layer and transmitting SAO information according to the present invention.

여기서는 설명의 편의를 위해, 인코딩 장치가 도 9의 동작을 수행하는 것으로 설명한다. Here, for the convenience of description, the encoding apparatus will be described as performing the operation of FIG. 9.

도 9를 참조하면, 인코딩 장치는 상위 레이어에 SAO를 적용한다(S910). 인코딩 장치는 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상위 레이어에 SAO를 적용할 수 있다. Referring to FIG. 9, the encoding apparatus applies SAO to an upper layer (S910). The encoding apparatus may apply the SAO to the upper layer based on the information about the SAO applied to the lower layer.

이때, 하위 레이어에 적용된 SAO에 관한 정보는 하위 레이어에 어떤 SAO 타입이 적용되었는지 또는 하위 레이어에 어떤 에지 타입의 에지 오프셋이 적용되었는지에 관한 것일 수 있다. In this case, the information on the SAO applied to the lower layer may be related to which SAO type is applied to the lower layer or to which edge type edge offset is applied to the lower layer.

인코딩 장치는 하위 레이어에 적용된 SAO에 우선 순위를 두고 상위 레이어에 적용할 SAO를 결정할 수도 있다. The encoding apparatus may determine the SAO to be applied to the upper layer by giving priority to the SAO applied to the lower layer.

예컨대, 상위 레이어에 적용할 SAO를 표 2와 같은 룩업 테이블상에서 결정할 때, 인코딩 장치는 하위 레이어에 적용된 SAO 타입이 낮은 인덱스를 가지도록 인덱스를 재할당할 수 있다. 혹은 상위 레이어에 적용할 SAO를 표 3과 같은 룩업 테이블상에서 결정할 때, 인코딩 장치는 하위 레이어에 적용된 에지 타입(클래스)가 낮은 인덱스를 가지도록 인덱스를 재할당할 수 있다. For example, when determining the SAO to be applied to the upper layer on the lookup table shown in Table 2, the encoding apparatus may reassign the index so that the SAO type applied to the lower layer has a low index. Alternatively, when determining the SAO to be applied to the upper layer on the lookup table shown in Table 3, the encoding apparatus may reallocate the index such that the edge type (class) applied to the lower layer has a low index.

또한, 인코딩 장치는 상위 레이어에 적용할 SAO의 후보들을 소정의 개수 혹은 범위로 제한할 수도 있다. 예컨대, 하위 레이어에 표 2와 같이 6개의 SAO 타입이 적용된 경우에, 인코딩 장치는 하위 레이어에 적용된 SAO 타입에 우선 순위를 두어 혹은 SAO 타입의 통계적 빈도를 고려하여 6 개보다 적은 SAO 타입을 상위 레이어에 적용 가능한 후보로 한정할 수 있다. 인코딩 장치는 한정된 후보들 중에서 상위 레이어에 적용할 SAO 타입을 결정할 수 있다. In addition, the encoding apparatus may limit candidates of SAO to be applied to a higher layer to a predetermined number or range. For example, when six SAO types are applied to a lower layer as shown in Table 2, the encoding apparatus prioritizes the SAO types applied to the lower layer or takes fewer than six SAO types in consideration of the statistical frequency of the SAO types. It can be limited to candidates applicable to. The encoding apparatus may determine the SAO type to apply to the upper layer among the limited candidates.

또한, 하위 레이어에 표 3과 같이 4 개의 에지 타입이 적용된 경우에, 인코딩 장치는 하위 레이어에 적용된 에지 타입에 우선 순위를 두어 혹은 에지 타입의 통계적 빈도를 고려하여 4 개보다 적은 에지 타입을 상위 레이어에 적용 가능한 후보로 한정할 수 도 있다. 인코딩 장치는 한정된 후보들 중에서 상위 레이어에 적용할 에지 타입을 결정할 수 있다.In addition, when four edge types are applied to the lower layer as shown in Table 3, the encoding apparatus prioritizes the edge type applied to the lower layer or takes more than four edge types in consideration of the statistical frequency of the edge type. It can also be limited to candidates applicable to. The encoding apparatus may determine an edge type to apply to the upper layer among the limited candidates.

이어서, 인코딩 장치는 SAO 정보를 전송할 수 있다(S920). 인코딩 장치는 상위 레이어에 적용된 SAO를 지시하는 정보, 즉 SAO 지시 정보를 디코딩 장치에 전송할 수 있다. Subsequently, the encoding apparatus may transmit SAO information (S920). The encoding apparatus may transmit information indicating SAO applied to the upper layer, that is, SAO indication information, to the decoding apparatus.

SAO 지시 정보는 하위 레이어에 적용된 SAO와 상위 레이어에 적용된 SAO의 차이를 나타내는 차이값 정보를 포함할 수 있다. 따라서, 상위 레이어에 적용된 SAO는 하위 레이어에 적용된 SAO와 상기 SAO 지시 정보 포함된 차이값에 의해 특정될 수 있다. The SAO indication information may include difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer. Accordingly, the SAO applied to the upper layer may be specified by the difference value included in the SAO applied to the lower layer and the SAO indication information.

이때, 차이값은 표 2를 사용하는 예의 경우, 하위 레이어에 적용된 SAO 타입과 상위 레이어에 적용된 SAO 타입의 차이일 수 있다. 또한, 차이값은 표 1을 사용하는 예의 경우, 하위 레이어에 적용된 에지 타입(클래스)과 상위 레이어에 적용된 에지 타입(클래스)의 차이일 수 있다.In this case, the difference value may be a difference between the SAO type applied to the lower layer and the SAO type applied to the upper layer in the example using Table 2. In addition, in the case of using Table 1, the difference value may be a difference between an edge type (class) applied to a lower layer and an edge type (class) applied to an upper layer.

한편, SAO 지시 정보는 하위 레이어에 적용된 SAO를 지시하는 정보와 상위 레이어에 적용된 SAO를 지시하는 정보를 XOR 연산하여 생성된 정보일 수 있다. 이때, SAO를 지시하는 정보는 SAO 타입일 수도 있고, 에지 타입일 수도 있다. Meanwhile, the SAO indication information may be information generated by performing an XOR operation on the information indicating the SAO applied to the lower layer and the information indicating the SAO applied to the upper layer. In this case, the information indicating the SAO may be a SAO type or an edge type.

또한, 인코딩 장치는 하위 레이어에 적용된 SAO를 지시하는 정보를 그레이 코드 변환하고, 상위 레이어에 적용된 SAO를 지시하는 정보를 그레이 코드 변환한 후에 그레이 코드 변환된 값들을 XOR 연산하여 SAO 지시 정보를 생성할 수도 있다.In addition, the encoding apparatus may gray code convert the information indicating the SAO applied to the lower layer, and gray code convert the information indicating the SAO applied to the upper layer, and then perform XOR operation on the gray code converted values to generate SAO indication information. It may be.

S910 단계에서 SAO 타입 혹은 에지 타입이 재할당된 경우에, 인코딩 장치는 SAO 지시 정보가 재할당된 인덱스들을 기반으로 상위 레이어에 적용된 SAO를 지시하도록 할 수 있다.When the SAO type or the edge type is reassigned in step S910, the encoding apparatus may indicate the SAO applied to the upper layer based on the indices to which the SAO indication information is reassigned.

또한, 인코딩 장치는 SAO 지시 정보에 포함하여 혹은 별도로, SAO 지시 정보가 XOR 연산에 의해 생성된 것인지, 그레이 코드 변환과 XOR 연산에 의해 생성된 것인지, 혹은 재할당된 SAO 타입/에지 타입을 지시하는 것인지를 알려주는 정보를 전송할 수도 있다. In addition, the encoding apparatus may indicate whether the SAO indication information is generated by the XOR operation, the gray code conversion and the XOR operation, or the reallocated SAO type / edge type included in or separately from the SAO indication information. Information indicating whether or not may be transmitted.

도 9에서는 상술한 본 명세서의 실시예들을 함께 설명하였으나, 각 실시예에 해당하는 내용들은 각각 별도로 실시될 수 있고 경우에 따라서는 동시에 실시될 수도 있음에 유의한다. In FIG. 9, the above-described embodiments of the present disclosure have been described together, but it should be noted that the contents corresponding to the embodiments may be separately implemented or may be simultaneously implemented in some cases.

도 10은 본 발명에 따라서 상위 레이어에 적용할 SAO를 지시하는 SAO 지시 정보를 수신하고 상위 레이어에 SAO를 적용하는 방법을 개략적으로 설명하는 순서도이다. 10 is a flowchart schematically illustrating a method of receiving SAO indication information indicating SAO to be applied to a higher layer and applying SAO to a higher layer according to the present invention.

여기서는 설명의 편의를 위해, 디코딩 장치가 도 10의 동작을 수행하는 것으로 설명한다. For convenience of description, the decoding apparatus will be described as performing the operation of FIG. 10.

도 10을 참조하면, 디코딩 장치는 인코딩 장치로부터 SAO 지시 정보를 수신한다(S1010). SAO 지시 정보는 상위 레이어에 적용된 SAO를 지시한다. Referring to FIG. 10, the decoding apparatus receives SAO indication information from the encoding apparatus (S1010). The SAO indication information indicates the SAO applied to the upper layer.

SAO 지시 정보는 하위 레이어에 적용된 SAO와 상위 레이어에 적용된 SAO의 차이를 나타내는 차이값 정보를 포함할 수 있다. 따라서, 상위 레이어에 적용된 SAO는 하위 레이어에 적용된 SAO와 상기 SAO 지시 정보 포함된 차이값에 의해 특정될 수 있다. The SAO indication information may include difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer. Accordingly, the SAO applied to the upper layer may be specified by the difference value included in the SAO applied to the lower layer and the SAO indication information.

이때, 차이값은 표 2를 사용하는 예의 경우, 하위 레이어에 적용된 SAO 타입과 상위 레이어에 적용된 SAO 타입의 차이일 수 있다. 또한, 차이값은 표 1을 사용하는 예의 경우, 하위 레이어에 적용된 에지 타입(클래스)과 상위 레이어에 적용된 에지 타입(클래스)의 차이일 수 있다.In this case, the difference value may be a difference between the SAO type applied to the lower layer and the SAO type applied to the upper layer in the example using Table 2. In addition, in the case of using Table 1, the difference value may be a difference between an edge type (class) applied to a lower layer and an edge type (class) applied to an upper layer.

한편, SAO 지시 정보는 하위 레이어에 적용된 SAO를 지시하는 정보와 상위 레이어에 적용된 SAO를 지시하는 정보를 XOR 연산하여 생성된 정보일 수 있다. 이때, SAO를 지시하는 정보는 SAO 타입일 수도 있고, 에지 타입일 수도 있다. Meanwhile, the SAO indication information may be information generated by performing an XOR operation on the information indicating the SAO applied to the lower layer and the information indicating the SAO applied to the upper layer. In this case, the information indicating the SAO may be a SAO type or an edge type.

또한, SAO 지시 정보는, 하위 레이어에 적용된 SAO를 지시하는 정보를 그레이 코드 변환하고, 상위 레이어에 적용된 SAO를 지시하는 정보를 그레이 코드 변환한 후에 그레이 코드 변환된 값들을 XOR 연산하여 생성된 것일 수도 있다.In addition, the SAO indication information may be generated by gray code converting the information indicating the SAO applied to the lower layer, and gray code converting the information indicating the SAO applied to the upper layer, and then performing XOR operation on the gray code converted values. have.

상위 레이어에 적용될 수 있는 SAO 타입 혹은 에지 타입을 지시하는 인덱스는 하위 레이어에 적용된 SAO를 기반으로 재할당될 수 있으며, 이 경우 SAO 지시 정보는 재할당된 인덱스들을 기반으로 상위 레이어에 적용된 SAO를 지시할 수도 있다. The index indicating the SAO type or edge type that can be applied to the upper layer can be reassigned based on the SAO applied to the lower layer. In this case, the SAO indication information indicates the SAO applied to the upper layer based on the reassigned indexes. You may.

또한, SAO 지시 정보에 포함하여 혹은 별도로, SAO 지시 정보가 XOR 연산에 의해 생성된 것인지, 그레이 코드 변환과 XOR 연산에 의해 생성된 것인지, 혹은 재할당된 SAO 타입/에지 타입을 지시하는 것인지를 알려주는 정보가 전송될 수도 있다.Also, included in or separately from the SAO indication information, indicates whether the SAO indication information is generated by XOR operation, gray code conversion and XOR operation, or indicates a reallocated SAO type / edge type. Information may be transmitted.

디코딩 장치는 상위 레이어에 SAO를 적용한다(S1020). 디코딩 장치는 수신한 SAO 지시 정보와 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상위 레이어에 SAO를 적용할 수 있다. The decoding apparatus applies SAO to an upper layer (S1020). The decoding apparatus may apply the SAO to the upper layer based on the received SAO indication information and the information about the SAO applied to the lower layer.

하위 레이어에 적용된 SAO에 관한 정보는 하위 레이어에 어떤 SAO 타입이 적용되었는지 또는 하위 레이어에 어떤 에지 타입의 에지 오프셋이 적용되었는지에 관한 것일 수 있다.The information about the SAO applied to the lower layer may be related to which SAO type is applied to the lower layer or to which edge type edge offset is applied to the lower layer.

SAO 지시 정보가 하위 레이어에 적용된 SAO와 상위 레이어에 적용된 SAO의 차이를 나타내는 차이값 정보를 포함하는 경우에, 상위 레이어에 적용된 SAO는 하위 레이어에 적용된 SAO와 상기 SAO 지시 정보 포함된 차이값에 의해 특정될 수 있다. 디코딩 장치는 특정된 SAO를 상위 레이어에 적용할 수 있다. If the SAO indication information includes difference value information indicating a difference between the SAO applied to the lower layer and the SAO applied to the upper layer, the SAO applied to the higher layer is determined by the difference value included in the SAO indication information applied to the lower layer. Can be specified. The decoding apparatus may apply the specified SAO to the upper layer.

상술한 바와 같이, 차이값은 SAO 타입의 차이일 수도 있고 에지 타입의 차이일 수도 있다. As described above, the difference value may be a difference in SAO type or a difference in edge type.

상위 레이어에 적용될 SAO는 하위 레이어에 적용된 SAO에 우선 순위를 두고 결정될 수도 있다. SAO to be applied to the upper layer may be determined by giving priority to SAO applied to the lower layer.

예컨대, 상위 레이어에 적용할 SAO를 표 2와 같은 룩업 테이블상에서 결정할 때, 하위 레이어에 적용된 SAO 타입이 낮은 인덱스를 가지도록 인덱스가 재할당될 수도 있다. 혹은 상위 레이어에 적용할 SAO를 표 3과 같은 룩업 테이블상에서 결정할 때, 하위 레이어에 적용된 에지 타입(클래스)가 낮은 인덱스를 가지도록 인덱스가 재할당될 수도 있다. For example, when determining the SAO to be applied to the upper layer on the lookup table shown in Table 2, the index may be reassigned so that the SAO type applied to the lower layer has a lower index. Alternatively, when determining the SAO to be applied to the upper layer on the lookup table shown in Table 3, the index may be reassigned so that the edge type (class) applied to the lower layer has a lower index.

이 경우에, 디코딩 장치는 상위 레이어에 적용할 SAO에 대한 인덱스를 재할당한 후에, SAO 지시 정보가 지시하는 인덱스에 대응하는 SAO 타입 혹은 에지 타입을 상위 레이어에 적용할 수 있다. In this case, the decoding apparatus may reassign the index for the SAO to be applied to the upper layer, and then apply the SAO type or edge type corresponding to the index indicated by the SAO indication information to the upper layer.

또한, 상위 레이어에 적용할 SAO의 후보들이 소정의 개수 혹은 범위로 제한될 수도 있다. 예컨대, 하위 레이어에 표 2와 같이 6개의 SAO 타입이 적용된 경우에, 하위 레이어에 적용된 SAO 타입에 우선 순위를 두어 혹은 SAO 타입의 통계적 빈도를 고려하여 6 개보다 적은 SAO 타입이 상위 레이어에 적용 가능한 후보로 한정될 수 있다. 디코딩 장치는 한정된 후보들 중에서 상기 SAO 지시 정보와 하위 레이어에 적용된 SAO에 의해 특정되는 SAO 타입을 상위 레이어에 적용할 수 있다. In addition, candidates of SAO to be applied to a higher layer may be limited to a predetermined number or range. For example, when six SAO types are applied to the lower layer as shown in Table 2, less than six SAO types may be applied to the upper layer by giving priority to the SAO type applied to the lower layer or considering the statistical frequency of the SAO types. Can be limited to candidates. The decoding apparatus may apply the SAO type specified by the SAO indication information and the SAO applied to the lower layer among the limited candidates to the upper layer.

또한, 하위 레이어에 표 3과 같이 4 개의 에지 타입이 적용된 경우에, 하위 레이어에 적용된 에지 타입에 우선 순위를 두어 혹은 에지 타입의 통계적 빈도를 고려하여 4 개보다 적은 에지 타입이 상위 레이어에 적용 가능한 후보로 한정될 수 도 있다. 디코딩 장치는 한정된 후보들 중에서 SAO 지시 정보와 하위 레이어에 적용된 SAO에 의해 특정되는 SAO 타입을 상위 레이어에 적용할 수 있다.In addition, when four edge types are applied to the lower layer as shown in Table 3, less than four edge types may be applied to the upper layer by giving priority to the edge type applied to the lower layer or considering the statistical frequency of the edge types. It may be limited to candidates. The decoding apparatus may apply the SAO indication information and the SAO type specified by the SAO applied to the lower layer among the limited candidates to the upper layer.

도 10에서는 상술한 본 명세서의 실시예들을 함께 설명하였으나, 각 실시예에 해당하는 내용들은 각각 별도로 실시될 수 있고 경우에 따라서는 동시에 실시될 수도 있음에 유의한다.In FIG. 10, the above-described embodiments of the present disclosure have been described together, but it should be noted that the contents corresponding to the embodiments may be separately implemented or may be simultaneously implemented in some cases.


본 명세서에서는 설명의 편의를 위해 인코딩 장치로부터 정보가 전송되고, 디코딩 장치가 이를 수신하는 것으로 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 명세서에서 정보의 전송/수신은 네트워크상의 전송/수신을 의미할 수도 있고, 기록 매체에의 저장 및 기록 매체로부터의 획득을 의미할 수도 있다. In the present specification, for convenience of description, the information is transmitted from the encoding apparatus and the decoding apparatus receives the description, but the present invention is not limited thereto. In the present specification, the transmission / reception of information may mean transmission / reception on a network, and may mean storage on a recording medium and acquisition from a recording medium.

또한, 본 명세서에서는 발명의 이해를 용이하게 하기 위해, 상위/하위 레이어, 현재/참조 레이어, 인핸스먼트/베이스 레이어를 혼용하고 있으나, 본 명세서에서 상위 레이어, 현재 레이어, 인핸스먼트 레이어는 동일한 레이어를 의미할 수 있으며, 하위 레이어, 참조 레이어, 베이스 레이어 역시 동일한 레이어를 의미할 수 있다. In addition, in the present specification, in order to facilitate understanding of the present invention, the upper / lower layer, the current / reference layer, and the enhancement / base layer are mixed, but in the present specification, the upper layer, the current layer, and the enhancement layer may use the same layer. The lower layer, the reference layer, and the base layer may also mean the same layer.

본 명세서에서는 설명의 편의를 위해, 스케일러블 비디오 코딩이 지원되는 멀티 레이어 구조에서 각 레이어별로 특정 시점(예컨대, POC(Picture Order Count) 혹은 AU(Access Unit))에 복원되는 샘플들의 어레이를 ‘픽처’라고 표현하였다. In the present specification, for convenience of description, an array of samples reconstructed at a specific time point (for example, a picture order count (POC) or an access unit (AU)) for each layer in a multi-layer structure in which scalable video coding is supported is referred to as a 'picture. '

이와 관련하여, 디코딩 되어 출력되는 레이어(현재 레이어)에서 특정 시점에 복원된 혹은 복원되는 전체 샘플 어레이를 픽처라고 하여, 참조되는 레이어의 복원된 혹은 복원되는 샘플 어레이와 구분할 수도 있다. 참조되는 레이어에서 특정 시점에 복원된 혹은 복원되는 샘플 어레이는 리프리젠테이션(representation), 참조 레이어 픽처, 참조 레이어 샘플 어레이, 참조 레이어 텍스처 등으로 칭할 수도 있다. 이 경우, 하나의 AU에 대해서는 현재 레이어에서 복원된 하나의 디코딩(인코딩)된 픽처가 출력될 수 있다.In this regard, the entire sample array reconstructed or reconstructed at a specific time in the decoded and output layer (current layer) may be called a picture and may be distinguished from the reconstructed or reconstructed sample array of the referenced layer. The sample array reconstructed or reconstructed at a specific time point in the referenced layer may be referred to as a representation, a reference layer picture, a reference layer sample array, a reference layer texture, or the like. In this case, one decoded picture reconstructed in the current layer may be output for one AU.

상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.In the exemplary system described above, the methods are described based on a flowchart as a series of steps or blocks, but the invention is not limited to the order of steps, and certain steps may occur in a different order or concurrently with other steps than those described above. Can be. In addition, the above-described embodiments include examples of various aspects. Accordingly, it is intended that the present invention cover all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (20)

스케일러블 비디오 코딩에서의 SAO 방법으로서,
하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상위 레이어에 SAO를 적용하는 단계; 및
상기 상위 레이어에 적용된 SAO를 지시하는 SAO 지시 정보를 전송하는 단계를 포함하는 것을 특징으로 하는 SAO 방법.
As a SAO method in scalable video coding,
Applying the SAO to the upper layer based on the information about the SAO applied to the lower layer; And
And transmitting SAO indication information indicating SAO applied to the upper layer.
제1항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 SAO와 상기 상위 레이어에 적용된 SAO의 차이를 지시하는 정보를 포함하며,
상기 상위 레이어에 적용되는 SAO는 상기 하위 레이어에 적용된 SAO에 관한 정보와 상기 SAO 지시 정보에 의해 특정되는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein the SAO indication information includes information indicating a difference between a SAO applied to the lower layer and a SAO applied to the upper layer.
The SAO method applied to the upper layer is characterized by the information on the SAO applied to the lower layer and the SAO indication information.
제2항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 SAO 타입과 상기 상위 레이어에 적용된 SAO 타입의 차이를 지시하는 정보를 포함하는 것을 특징으로 하는 SAO 방법.The SAO method of claim 2, wherein the SAO indication information includes information indicating a difference between a SAO type applied to the lower layer and a SAO type applied to the upper layer. 제2항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 에지 오프셋의 클래스와 상기 상위 레이어에 적용된 에지 오프셋의 클래스의 차이를 지시하는 정보를 포함하는 것을 특징으로 하는 SAO 방법.The SAO method of claim 2, wherein the SAO indication information includes information indicating a difference between a class of an edge offset applied to the lower layer and a class of an edge offset applied to the upper layer. 제1항에 있어서, 상기 SAO 지시 정보는,
상기 하위 레이어에 적용된 SAO 타입을 지시하는 정보;와
상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보를 XOR(Exclusive OR) 연산하여 생성한 정보인 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein the SAO indication information,
Information indicating the SAO type applied to the lower layer; and
SAO method, characterized in that the information generated by performing an XOR (Exclusive OR) operation indicating the SAO type applied to the upper layer.
제1항에 있어서, 상기 SAO 지시 정보는,
상기 하위 레이어에 적용된 SAO 타입을 지시하는 정보가 그레이 코드 변환된 값; 과
상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보가 그레이 코드 변환된 값을 XOR 연산하여 생성한 정보인 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein the SAO indication information,
A value obtained by gray code converting information indicating a SAO type applied to the lower layer; and
And the information indicating the SAO type applied to the upper layer is information generated by performing an XOR operation on a gray code converted value.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는,
상기 하위 레이어에 적용된 SAO 타입이 낮은 인덱스를 가지도록 SAO 타입들을 지시하는 인덱스들을 재할당하며,
상기 SAO 지시 정보를 전송하는 단계에서는 상기 재할당된 인덱스들을 이용하여 상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보를 전송하는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer,
Reallocates indexes indicating SAO types such that the SAO type applied to the lower layer has a low index,
And transmitting the SAO indication information by using the reassigned indexes to transmit information indicating the SAO type applied to the upper layer.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는,
상기 하위 레이어에 적용된 에지 오프셋의 클래스가 낮은 인덱스를 가지도록 에지 오프셋의 클래스를 지시하는 인덱스를 재할당하며,
상기 SAO 지시 정보를 전송하는 단계에서는 상기 재할당된 인덱스들을 이용하여 상기 상위 레이어에 적용된 에지 오프셋의 클래스를 지시하는 정보를 전송하는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer,
Reallocates an index indicating the class of the edge offset such that the class of the edge offset applied to the lower layer has a low index,
And transmitting the SAO indication information by using the reassigned indexes to transmit information indicating a class of an edge offset applied to the upper layer.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는 상위 레이어 에지 타입 후보들 중에서 어느 하나를 선택하여 적용하며,
상기 상위 레이어 에지 타입 후보들은 상기 하위 레이어에서 이용 가능한 에지 타입들 중 일부 에지 타입들로 구성되는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer, one of the upper layer edge type candidates is selected and applied.
And the upper layer edge type candidates are composed of some edge types among the edge types available in the lower layer.
스케일러블 비디오 코딩에서의 SAO(Sample Adaptive Offset) 방법으로서,
상위 레이어에 적용되는 SAO를 지시하는 SAO 지시 정보를 수신하는 단계; 및
상기 SAO 지시 정보와 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상기 상위 레이어에 SAO를 적용하는 단계를 포함하는 것을 특징으로 하는 SAO 방법.
As a sample adaptive offset (SAO) method in scalable video coding,
Receiving SAO indication information indicating SAO applied to an upper layer; And
And applying the SAO to the upper layer based on the SAO indication information and the SAO information applied to the lower layer.
제10항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 SAO와 상기 상위 레이어에 적용된 SAO의 차이를 지시하는 정보를 포함하며,
상기 상위 레이어에 적용되는 SAO는 상기 하위 레이어에 적용된 SAO에 관한 정보와 상기 SAO 지시 정보에 의해 특정되는 것을 특징으로 하는 SAO 방법.
The method of claim 10, wherein the SAO indication information includes information indicating a difference between a SAO applied to the lower layer and a SAO applied to the upper layer.
The SAO method applied to the upper layer is characterized by the information on the SAO applied to the lower layer and the SAO indication information.
제2항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 SAO 타입과 상기 상위 레이어에 적용된 SAO 타입의 차이를 지시하는 정보를 포함하는 것을 특징으로 하는 SAO 방법.The SAO method of claim 2, wherein the SAO indication information includes information indicating a difference between a SAO type applied to the lower layer and a SAO type applied to the upper layer. 제2항에 있어서, 상기 SAO 지시 정보는 상기 하위 레이어에 적용된 에지 오프셋의 클래스와 상기 상위 레이어에 적용된 에지 오프셋의 클래스의 차이를 지시하는 정보를 포함하는 것을 특징으로 하는 SAO 방법.The SAO method of claim 2, wherein the SAO indication information includes information indicating a difference between a class of an edge offset applied to the lower layer and a class of an edge offset applied to the upper layer. 제1항에 있어서, 상기 SAO 지시 정보는,
상기 하위 레이어에 적용된 SAO 타입을 지시하는 정보;와
상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보를 XOR(Exclusive OR) 연산하여 생성한 정보인 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein the SAO indication information,
Information indicating the SAO type applied to the lower layer; and
SAO method, characterized in that the information generated by performing an XOR (Exclusive OR) operation indicating the SAO type applied to the upper layer.
제1항에 있어서, 상기 SAO 지시 정보는,
상기 하위 레이어에 적용된 SAO 타입을 지시하는 정보가 그레이 코드 변환된 값; 과
상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보가 그레이 코드 변환된 값을 XOR 연산하여 생성한 정보인 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein the SAO indication information,
A value obtained by gray code converting information indicating a SAO type applied to the lower layer; and
And the information indicating the SAO type applied to the upper layer is information generated by performing an XOR operation on a gray code converted value.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는,
상기 하위 레이어에 적용된 SAO 타입이 낮은 인덱스를 가지도록 SAO 타입들을 지시하는 인덱스들을 재할당하며,
상기 SAO 지시 정보를 전송하는 단계에서는 상기 재할당된 인덱스들을 이용하여 상기 상위 레이어에 적용된 SAO 타입을 지시하는 정보를 전송하는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer,
Reallocates indexes indicating SAO types such that the SAO type applied to the lower layer has a low index,
And transmitting the SAO indication information by using the reassigned indexes to transmit information indicating the SAO type applied to the upper layer.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는,
상기 하위 레이어에 적용된 에지 오프셋의 클래스가 낮은 인덱스를 가지도록 에지 오프셋의 클래스를 지시하는 인덱스를 재할당하며,
상기 SAO 지시 정보를 전송하는 단계에서는 상기 재할당된 인덱스들을 이용하여 상기 상위 레이어에 적용된 에지 오프셋의 클래스를 지시하는 정보를 전송하는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer,
Reallocates an index indicating the class of the edge offset such that the class of the edge offset applied to the lower layer has a low index,
And transmitting the SAO indication information by using the reassigned indexes to transmit information indicating a class of an edge offset applied to the upper layer.
제1항에 있어서, 상기 상위 레이어에 SAO를 적용하는 단계에서는 상위 레이어 에지 타입 후보들 중에서 어느 하나를 선택하여 적용하며,
상기 상위 레이어 에지 타입 후보들은 상기 하위 레이어에서 이용 가능한 에지 타입들 중 일부 에지 타입들로 구성되는 것을 특징으로 하는 SAO 방법.
The method of claim 1, wherein in applying the SAO to the upper layer, one of the upper layer edge type candidates is selected and applied.
And the upper layer edge type candidates are composed of some edge types among the edge types available in the lower layer.
하위 레이어에 대한 SAO를 적용하는 제1 필터부;
상기 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상기 상위 레이어에 SAO를 적용하는 제2 필터부를 포함하며,
상기 상위 레이어에 적용된 SAO를 지시하는 SAO 지시 정보를 디코딩 장치에 전송하는 것을 특징으로 하는 인코딩 장치.
A first filter unit applying SAO to a lower layer;
A second filter unit which applies the SAO to the upper layer based on the information about the SAO applied to the lower layer,
And transmitting SAO indication information indicating SAO applied to the upper layer to a decoding device.
하위 레이어에 대한 SAO를 적용하는 제1 필터부;
상기 하위 레이어에 적용된 SAO에 관한 정보를 기반으로 상기 상위 레이어에 SAO를 적용하는 제2 필터부를 포함하며,
상기 상위 레이어에 적용된 SAO를 지시하는 SAO 지시 정보는 인코딩 장치로부터 전송되는 것을 특징으로 하는 디코딩 장치.
A first filter unit applying SAO to a lower layer;
A second filter unit which applies the SAO to the upper layer based on the information about the SAO applied to the lower layer,
SAO indication information indicating SAO applied to the upper layer is transmitted from an encoding device.
PCT/KR2013/002506 2012-03-26 2013-03-26 Method for applying sample adaptive offset in scalable video coding, and apparatus using the method Ceased WO2013147497A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261615369P 2012-03-26 2012-03-26
US61/615,369 2012-03-26

Publications (1)

Publication Number Publication Date
WO2013147497A1 true WO2013147497A1 (en) 2013-10-03

Family

ID=49260678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/002506 Ceased WO2013147497A1 (en) 2012-03-26 2013-03-26 Method for applying sample adaptive offset in scalable video coding, and apparatus using the method

Country Status (1)

Country Link
WO (1) WO2013147497A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050041745A1 (en) * 2000-07-11 2005-02-24 Microsoft Corporation Systems and methods with error resilience in enhancement layer bitstream of scalable video coding
US20050147164A1 (en) * 2000-12-15 2005-07-07 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
KR20060006328A (en) * 2004-07-15 2006-01-19 삼성전자주식회사 Scalable video coding method and apparatus using base layer
KR100763181B1 (en) * 2005-04-19 2007-10-05 삼성전자주식회사 Method and apparatus for improving coding rate by coding prediction information from base layer and enhancement layer
KR100834557B1 (en) * 2006-01-13 2008-06-02 경희대학교 산학협력단 A spatial scalable decoding apparatus and method of moving pictures, which upsamples by using directional filters according to the direction information of the spatially lower layer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050041745A1 (en) * 2000-07-11 2005-02-24 Microsoft Corporation Systems and methods with error resilience in enhancement layer bitstream of scalable video coding
US20050147164A1 (en) * 2000-12-15 2005-07-07 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
KR20060006328A (en) * 2004-07-15 2006-01-19 삼성전자주식회사 Scalable video coding method and apparatus using base layer
KR100763181B1 (en) * 2005-04-19 2007-10-05 삼성전자주식회사 Method and apparatus for improving coding rate by coding prediction information from base layer and enhancement layer
KR100834557B1 (en) * 2006-01-13 2008-06-02 경희대학교 산학협력단 A spatial scalable decoding apparatus and method of moving pictures, which upsamples by using directional filters according to the direction information of the spatially lower layer

Similar Documents

Publication Publication Date Title
RU2722394C1 (en) Method of converting in an image encoding system and a device for realizing said method
JP7240476B2 (en) Transform-based video coding method and apparatus
CN108134931B (en) Video decoding method, video encoding method, and non-transitory computer-readable medium
US9832464B2 (en) Method and apparatus for encoding/decoding image using transform skip flag
KR102083011B1 (en) Inter-layer prediction method and apparatus using same
JP5993092B2 (en) Video decoding method and apparatus using the same
US11838546B2 (en) Image decoding method and apparatus relying on intra prediction in image coding system
JP6082123B2 (en) Video encoding / decoding method supporting multiple layers
JP2023157942A (en) Method and apparatus for affine-based inter prediction of chroma subblocks
WO2014092515A1 (en) Method for encoding video, method for decoding video, and apparatus using same
US20160014432A1 (en) Method for encoding video of multi-layer structure supporting scalability and method for decoding same and apparatus therefor
WO2013147557A1 (en) Inter-layer prediction method and encoding device and decoding device using same
CN112385227A (en) Method and apparatus for intra prediction
JP6055098B2 (en) Video decoding method and apparatus using the same
JP2022527774A (en) Video coding method based on conversion and its equipment
JP2022531564A (en) Video coding method and system
CN105075260B (en) Method of encoding multi-layered structure video supporting scalability, method of decoding the same, and apparatus therefor
WO2013133639A1 (en) Inter-layer prediction method and apparatus using same
WO2013147497A1 (en) Method for applying sample adaptive offset in scalable video coding, and apparatus using the method
US11240535B2 (en) Method and device for filtering image in image coding system
KR20130105554A (en) Intra prediction method for multi-layered video and apparatus using the same
CN116636207A (en) Adaptive Loop Filter with Fixed Filter
HK1257972B (en) Image decoding method and apparatus using same
HK1257971B (en) Image decoding method and apparatus using same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13768545

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13768545

Country of ref document: EP

Kind code of ref document: A1