[go: up one dir, main page]

KR101259120B1 - 오디오 신호 처리 방법 및 장치 - Google Patents

오디오 신호 처리 방법 및 장치 Download PDF

Info

Publication number
KR101259120B1
KR101259120B1 KR1020090105389A KR20090105389A KR101259120B1 KR 101259120 B1 KR101259120 B1 KR 101259120B1 KR 1020090105389 A KR1020090105389 A KR 1020090105389A KR 20090105389 A KR20090105389 A KR 20090105389A KR 101259120 B1 KR101259120 B1 KR 101259120B1
Authority
KR
South Korea
Prior art keywords
noise
information
current frame
value
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020090105389A
Other languages
English (en)
Other versions
KR20100050414A (ko
Inventor
윤성용
이현국
김동수
임재현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US12/612,345 priority Critical patent/US8364471B2/en
Priority to EP09013869A priority patent/EP2182513B1/en
Priority to PCT/KR2009/006448 priority patent/WO2010053287A2/en
Publication of KR20100050414A publication Critical patent/KR20100050414A/ko
Application granted granted Critical
Publication of KR101259120B1 publication Critical patent/KR101259120B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 추출하는 단계; 상기 복수의 프레임을 포함하는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 단계; 상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보를 추출하는 단계; 상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값이 미리 정해진 레벨을 만족하는 경우, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 단계; 및, 상기 노이즈 옵셋 정보가 추출된 경우, 상기 노이즈 레벨 값 및 상기 노이즈 레벨 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법을 개시한다.
Figure R1020090105389
오디오, 신호

Description

오디오 신호 처리 방법 및 장치{METHOD AND APPARATUS FOR PROCESSING AN AUDIO SIGNAL}
본 발명은 오디오 신호를 인코딩하거나 디코딩할 수 있는 오디오 신호 처리 방법 및 장치에 관한 것이다.
일반적으로, 음악 신호와 같은 오디오 신호에 대해서는 오디오 특성에 기반한 코딩 방식을 적용하고, 음성 신호에 대해서는 음성 특성에 기반한 코딩 방식을 적용한다.
오디오 특성과 음성 특성이 혼재되어 있는 신호에 대해서 어느 하나의 코딩 방식을 적용하는 경우, 오디오 코딩 효율이 떨어지거나, 음질이 나빠지는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 인코딩의 양자화 과정에서 손실된 신호를 보상하기 위해, 디코더에서 노이즈 필링 방식을 적용할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 노이즈 필링 방식이 적용되지 않는 프레임에 대해서는, 노이즈 필링에 관한 정보의 전송을 생략할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 노이즈 필링에 관한 정보(노이즈 레벨 또는 노이즈 옵셋)이 매 프레임마다 거의 비슷한 값을 갖는 특성을 기반으로 하여, 노이즈 필링에 관한 정보를 인코딩하기 위한 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.
본 발명은 상기 목적을 달성하기 위해, 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 추출하는 단계; 상기 복수의 프레임을 포함하는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 단계; 상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보를 추출하는 단계; 상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값이 미리 정해진 레벨을 만족하는 경우, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 단계; 및, 상기 노이즈 옵셋 정보가 추출된 경우, 상기 노이즈 레벨 값 및 상기 노이즈 레벨 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 단계를 포함하는 오디오 신호 처리 방법을 제공한다.
본 발명에 따르면, 상기 노이즈 필링은, 상기 현재 프레임의 스펙트럴 데이터를 이용하여 상기 현재 프레임의 손실 영역을 결정하는 단계; 상기 노이즈 레벨 값을 이용하여 상기 손실 영역에 보상 신호를 필링함으로써, 보상된 스팩트럴 데이터를 생성하는 단계; 및 상기 노이즈 옵셋 정보를 근거로하여 보상된 스케일팩터를 생성하는 단계를 포함할 수 있다.
본 발명에 따르면, 노이즈 레벨의 참조 값을 나타내는 레벨 파일럿 값, 및 노이즈 옵셋의 참조 값을 나타내는 옵셋 파일럿 값을 추출하는 단계; 상기 레벨 파일럿 값 및 상기 노이즈 레벨 정보를 더함으로써 상기 노이즈 레벨 값을 획득하는 단계; 및, 상기 노이즈 옵셋 정보가 추출되면, 상기 옵셋 파일롯 값 및 상기 노이즈 옵셋 정보를 더함으로써 노이즈 옵셋 값을 획득하는 단계를 더 포함하고, 상기 노이즈 필링은 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행될 수 있다.
본 발명에 따르면, 이전 프레임의 노이즈 레벨 값, 및 상기 현재 프레임의 노이즈 레벨 정보를 이용하여, 상기 현재 프레임의 노이즈 레벨 값을 획득하는 단계; 상기 노이즈 옵셋 정보가 추출되면, 상기 이전 프레임의 노이즈 옵셋 값 및 상기 현재 프레임의 상기 노이즈 옵셋 정보를 이용하여, 상기 현재 프레임의 노이즈 옵셋 값을 획득하는 단계를 더 포함하고, 상기 노이즈 필링은, 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값일 이용하여 수행될 수 있다.
본 발명에 따르면, 상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보는 가변 장 부호화 방식에 따라서 추출될 수 있다.
본 발명의 또 다른 측면에 따르면, 복수의 프레임에 노이즈 필링이 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보 및, 상기 복수의 프레임을 포함하는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 멀티플렉서; 상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보를 추출하고, 상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값이 미리 정해진 레벨을 만족하는 경우, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 노이즈 정보 디코딩 파트; 및, 상기 노이즈 옵셋 정보가 추출된 경우, 상기 노이즈 레벨 값 및 상기 노이즈 레벨 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 손실 보상 파트를 포함하는 오디오 신호 처리 장치가 제공된다.
본 발명에 따르면, 상기 손실 보상 파트는,상기 현재 프레임의 스펙트럴 데이터를 이용하여 상기 현재 프레임의 손실 영역을 결정하고,상기 노이즈 레벨 값을 이용하여 상기 손실 영역에 보상 신호를 필링함으로써, 보상된 스팩트럴 데이터를 생성하고 상기 노이즈 옵셋 정보를 근거로하여 보상된 스케일팩터를 생성할 수 있다.
본 발명에 따르면, 노이즈 레벨의 참조 값을 나타내는 레벨 파일럿 값, 및 노이즈 옵셋의 참조 값을 나타내는 옵셋 파일럿 값을 추출하고,상기 레벨 파일럿 값 및 상기 노이즈 레벨 정보를 더함으로써 상기 노이즈 레벨 값을 획득하고,상기 노이즈 옵셋 정보가 추출되면, 상기 옵셋 파일롯 값 및 상기 노이즈 옵셋 정보를 더함으로써 노이즈 옵셋 값을 획득하는 데이터 디코딩 파트를 더 포함하고, 상기 노이즈 필링은 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것일 수 있다.
본 발명에 따르면, 이전 프레임의 노이즈 레벨 값, 및 상기 현재 프레임의 노이즈 레벨 정보를 이용하여, 상기 현재 프레임의 노이즈 레벨 값을 획득하고,상기 노이즈 옵셋 정보가 추출되면, 상기 이전 프레임의 노이즈 옵셋 값 및 상기 현재 프레임의 상기 노이즈 옵셋 정보를 이용하여, 상기 현재 프레임의 노이즈 옵셋 값을 획득하는 데이터 디코딩 파트를 더 포함하고, 상기 노이즈 필링은, 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것일 수 있다.
본 발명에 따르면, 상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보는 가변 장 부호화 방식에 따라서 추출될 수 있다.
본 발명의 또 다른 측면에 따르면, 양자화된 신호를 근거로 노이즈 레벨 값 및 노이즈 옵셋 값을 생성하는 단계; 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 생성하는 단계; 상기 복수의 프레임에 포함된 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 지시하는 코딩 스킴 정보를 생성하는 단계; 상기 복수의 프레임에 노이즈 필링이 사용되는 것을 상기 노이즈 필링 플래그 정보가 지시하고 상기 코딩 스킴 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었는지를 지시하는 경우, 상기 노이즈 레벨 값에 대응하는 상기 현재 프레임의 노이즈 레벨 정보를 비트스트림에 삽입하는 단계; 및 상기 노이즈 레벨 값이 미리 정해진 레벨을 만족하는 경우, 상기 노이즈 옵셋 값에 대응하는 노이즈 옵셋 정보를 상기 비트스트림에 삽입하는 단계를 포함하는 오디오 신호 처리 방법이 제공된다.
본 발명의 또 다른 측면에 따르면, 양자화된 신호를 근거로 노이즈 레벨 값 및 노이즈 옵셋 값을 생성하고, 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 생성하는 손실 보상 추정 파트; 상기 복수의 프레임에 포함된 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 지시하는 코딩 스킴 정보를 생성하는 신호 분류부; 상기 복수의 프레임에 노이즈 필링이 사용되는 것을 상기 노이즈 필링 플래그 정보가 지시하고 상기 코딩 스킴 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었는지를 지시하는 경우, 상기 노이즈 레벨 값에 대응하는 상기 현재 프레임의 노이즈 레벨 정보를 비트스트림에 삽입하고, 상기 노이즈 레벨 값이 미리 정해진 레벨 을 만족하는 경우, 상기 노이즈 옵셋 값에 대응하는 노이즈 옵셋 정보를 상기 비트스트림에 삽입하는 노이즈 정보 인코딩 파트를 포함하는 오디오 신호 처리 장치가 제공된다.
본 발명의 또 다른 측면에 따르면, 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 추출하는 단계; 상기 복수의 프레임을 포함하는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 단계; 상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보를 추출하는 단계; 상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값이 미리 정해진 레벨을 만족하는 경우, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 단계; 및, 상기 노이즈 옵셋 정보가 추출된 경우, 상기 노이즈 레벨 값 및 상기 노이즈 레벨 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 단계를 포함하는 동작들을, 프로세서에 의해 실행될 때, 상기 프로세서가 수행하도록 하는 명령이 저장되어 있는 컴퓨터로 읽을 수 있는 저장 매체가 제공된다.
본 발명은 다음과 같은 효과와 이점을 제공한다.
첫째, 노이즈 필링 방식이 적용되지 않는 프레임에 대해서는, 노이즈 필링에 관한 정보의 전송을 생략할 수 있는, 비트스트림의 비트수를 현저히 절감할 수 있 다.
둘째, 현재 프레임이 노이즈 필링이 적용되는지 여부를 판단하여, 노이즈 필링에 관한 특정 정보를 비트스트림으로부터 추출해내는 것이기 때문에, 파싱하는 과정을 위한 복잡도(complexity)를 거의 증가시키지 않으면서도, 효율적으로 필요한 정보를 획득할 수 있다.
셋째, 매 프레임마다 비슷한 값을 갖는 정보(예: 노이즈 레벨 또는 노이즈 옵셋)에 대해서, 그 값을 그대로 전송하지 않고, 이전 프레임의 해당 값과의 차분값을 전송함으로써, 비트수를 더욱 절감할 수 있다.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.  이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고, 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보(information)는 값(values), 파라미터(parameter), 계수(coefficients), 성분(elements) 등을 모두 아우르는 용어로서, 경우에 따라 의미는 달리 해석될 수 있는 바, 그러나 본 발명은 이에 한정되지 아니한다.
여기서 오디오 신호(audio signal)란, 광의로는, 비디오 신호와 구분되는 개념으로서, 재생 시 청각으로 식별할 수 있는 신호를 지칭하고, 협의로는, 음성(speech) 신호와 구분되는 개념으로서, 음성 특성이 없거나 적은 신호를 의미한다. 본 발명에서의 오디오 신호는 광의로 해석되어야 하며 음성 신호와 구분되어 사용될 때 협의의 오디오 신호로 이해될 수 있다.
도 1은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치 중 인코더의 구성을 보여주는 도면이고, 도 2는 본 발명의 실시예에 따른 오디오 신호 처리 방법 중 인코딩 방법의 순서를 나타내는 도면이다.
우선, 도 1을 참조하면, 오디오 신호 처리 장치의 인코더(Encoder side: 100)는 노이즈 정보 인코딩 파트(noise information encoding part)(101)를 포함하고, 데이터 인코딩 파트(102), 및 엔트로피 코딩 파트(103), 손실 보상 추정 파트(loss compensation estimating part)(110) 및 멀티플렉서(multiplexer)(120)를 더 포함할 수 있다. 본 발명에 따른 오디오 신호 처리 장치는, 노이즈 레벨을 기반으로 노이즈 옵셋을 인코딩한다.
손실 보상 추정 파트(110)는 양자화된 신호를 기반으로 노이즈 필링에 관한 정보를 생성한다. 여기서 노이즈 필링에 관한 정보는 노이즈 필링 플래그 정 보(noise filling flag information), 노이즈 레벨(noise level), 및 노이즈 옵셋(noise offset) 등일 수 있다.
구체적으로, 손실 보상 추정 파트(110)는 우선, 양자화된 신호 및 코딩 식별 정보를 수신한다(S110 단계). 코딩 스킴 정보(coding scheme information)는 현재 프레임이 주파수 도메인 기반의 방식이 적용되는지, 아니면 시간 도메인 기반의 방식이 적용되는지 나타내는 정보로서, 신호 분류부(미도시)에 의해 생성된 정보일 수 있다. 손실 보상 추정 파트(110)는 주파수 도메인의 신호인 경우에만 노이즈 필링에 관한 정보를 생성할 수 있다. 이 코딩 스킴 정보는 멀티플렉서(120)에 전달될 수 있는데, 코딩 스킴 정보를 인코딩하기 위한 신택스의 일 예는 추후에 설명하고자 한다.
한편, 양자화란, 스펙트럴 계수로부터 스케일팩터 및 스펙트럴 데이터를 획득하는 과정이다. 여기서 스케일팩터 및 스펙트럴 데이터가 양자화된 신호이다. 여기서 스펙트럴 계수는 MDCT (Modified Discrete Transform) 변환을 통해 획득된 MDCT 계수일 수 있으나, 본 발명은 이에 한정되지 아니한다. 다시 말해서, 스펙트럴 계수는 아래 수학식 1과 같이 정수인 스케일 팩터, 정수인 스펙트럴 데이터를 이용하여 유사하게 표현될 수 있다.
Figure 112009067529125-pat00001
여기서, X는 스펙트럴 계수, scalefactor는 스케일 팩터, spectral data는 스펙트럴 데이터.
한편, 도 3은 양자화 개념을 설명하기 위한 도면이다. 도 3을 참조하면, 스펙트럴 계수(a, b, c 등)을 스케일팩터(A, B, C 등) 및 스펙트럴 데이터(a', b', c' 등)으로 나타내는 과정이 개념적으로 나타나있다. 스케일팩터(A, B, C 등)은 그룹(특정 밴드 또는 특정 구간)에 적용되는 팩터이다. 이와 같이 어떤 그룹(예: 스케일팩터 밴드)을 대표하는 스케일팩터를 이용하여, 그 그룹에 속하는 계수들의 크기를 일괄적으로 변환함으로써, 코딩 효율을 높일 수 있다. 이와 같이 결정된 스케일팩터 및 스펙트럴 데이터는 그대로 사용될 수도 있지만, 심리 음향 모델에 근거한 마스킹 과정을 통해 보정될 수 있는 바, 이에 대해서는 구체적인 설명을 생략하고자 한다.
손실 보상 추정 파트(110)는 이 스펙트럴 데이터를 근거로 하여 손실 신호가 존재하는 손실 영역을 판단한다. 도 4는 손실 신호(loss signal) 및 손실 영역의 개념을 설명하기 위한 도면이다. 도 4를 참조하면, 우선 각 스펙트럴 밴드(sfb1, sfb2, ,sfb4) 별로 하나 이상의 스펙트럴 데이터가 존재함을 알 수 있다. 각 스펙트럴 데이터는0에서 7사이의 정수 값에 해당한다. 물론 스펙트럴 데이터는 0부터 7사이의 정수가 아니라 -50부터 100까지의 값이 될 수도 있으나, 도 4는 개념을 설명하기 위한 일 예로서 본 발명은 이에 한정되지 아니한다. 어떤 샘플, 빈(bin) 또는 영역에서는 스펙트럴 데이터의 절대값이 특정 값(예: 0)보다 이하인 값을 나타낼 때, 신호가 손실되었거나 또는 손실 영역이 존재한다고 판단될 수 있다. 만약 특정 값이 0인 경우, 도 4와 같은 경우, 두 번째 및 세 번째 스펙트럴 밴드(sfb2, sfb3)에서 손실 신호가 발생하였고, 세 번째 스펙트럴 밴드(sfb3)인 경우 밴드 전체가 손실 영역에 해당한다고 할 수 있다.
손실 보상 추정 파트(110)는 손실 영역에 손실 신호를 보상하기 위해서, 복수 개의 프레임 또는, 하나의 스퀀스에 대해서 노이즈 필링 방식을 사용할 지 여부를 결정하고 이를 기반으로 노이즈 필링 플래그 정보를 생성한다. 즉, 노이즈 필링 플래그 정보는 복수 개의 프레임 또는 시퀀스에 대해서, 손실 신호를 보상하기 위해 노이즈 필링 방식이 사용되는지 여부를 지시하는 정보이다. 한편, 복수 개의 프레임 또는 시퀀스에 속하는 모든 프레임들에 대해 노이즈 필링 방식이 사용되는지 여부가 아니라, 그 중의 특정 프레임에 대해서 노이즈 필링 방식이 사용될 가능성이 있는지 여부를 지시하는 것이다. 노이즈 필링 플래그 정보는 복수 개의 프레임 또는 시퀀스 전체에 공통적인 정보에 해당하는 헤더에 포함될 수 있다. 여기서 생성된 노이즈 필링 플래그 정보는 멀티플렉서(120)로 전달된다. 도 5는 노이즈 필링 플래그 정보를 인코딩하기 위한 신택스의 일 예이다. 도 5의 (L1)을 참조하면, 상기 노이즈 필링 플래그 정보(noisefilling)가 시퀀스 전체에 공통으로 적용되는 정보(예: 프레임 길이, eSBR의 사용여부 등)를 전송하는 헤더(USACSpecificConfig())에 포함되어 있음을 알 수 있다. 만약 노이즈 필링 플래그 정보가 0인 경우에는 전체 시퀀스에 노이즈 필링 방식이 사용될 수 없음을 의미한다. 반대로, 노이즈 필링 플래그 정보가 1인 경우에는, 전체 시퀀스에 포함된 하나 이상의 프레임에 대해 노이즈 필링 방식이 사용됨을 의미할 수 있다.
다시 도 1 및 2를 참조하면, 손실 보상 추정 파트(110)는 손실 신호가 존재하는 손실 영역에 대해서, 노이즈 레벨 및 노이즈 옵셋을 생성한다(S130 단계). 도 6는 노이즈 레벨 및 노이즈 옵셋을 설명하기 위한 도면이다. 도 6을 참조하면, 노이즈 레벨은, 스펙트럴 데이터가 손실된 영역에 대해서, 손실 신호를 대신하여 보상 신호(예: 랜덤 신호)를 생성할 수 있는데 이 보상 신호에 대한 레벨을 결정하는 정보가 노이즈 레벨이다. 노이즈 레벨 및 보상 신호(랜덤 신호)는 다음 수학식과 같이 표현될 수 있다. 노이즈 레벨은 프레임마다 결정될 수 있다.
spectral_data = noise _val X random_signal
spectral_data은 스펙트럴 데이터, noise _val은 노이즈 레벨을 이용하여 획득된 값, random_signal은 랜덤 신호
한편, 노이즈 옵셋은 스케일팩터를 보정하기 위한 정보이다. 앞서 언급한 바와 같이 노이즈 레벨은 수학식 2에서 스펙트럴 데이터를 보정하기 위한 팩터인데, 노이즈 레벨의 값은 범위는 한계가 있다. 손실 영역에 대해서, 최종적으로 스펙트럴 계수를 큰 값으로 만들기 위해서, 노이즈 레벨을 통해 스펙트럴 데이터를 보정하기 보다는, 스케일팩터를 보정하는 것이 더욱 효과적일 수 있다. 이때, 스케일팩터를 보정하기 위한 값이 바로 노이즈 옵셋이다. 노이즈 옵셋 및 스케일팩터와의 관계는 다음 수학식과 같이 표현될 수 있다.
sfc_d = sfc_c - noise_offset
sfc_c은 스케일팩터, sfc_d은 전송되는 스케일팩터, noise_offset은 노이즈 옵셋.
여기서 노이즈 옵셋은, 전체 스펙트럴 밴드가 모두 손실 영역인 경우에만 적용되는 것일 수 있다. 예를 들어 도 6의 경우, 세 번째 스펙트럴 밴드(sfb3)에만 노이즈 옵셋이 적용될 수 있는 것이다. 이는 하나의 스펙트럴 밴드 중 일부만 손실 영역이 있는 경우, 노이즈 옵셋을 적용하게 되면, 비 손실영역에 해당하는 스펙트럴 데이터의 비트수가 오히려 더 증가될 수 있기 때문이다.
노이즈 정보 인코딩 파트(101)는 손실 보상 추정 파트(110)로부터 수신한 노이즈 레벨 값 및 노이즈 옵셋 값을 근거로, 노이즈 옵셋을 인코딩한다. 예를 들어 노이즈 레벨 값이 소정 조건(특정 레벨 범위)을 만족하는 경우에만 노이즈 옵셋 값을 인코딩할 수 있다. 예를 들어, 노이즈 레벨 값이 0을 초과하는 경우(S140 단계의 'no'), 노이즈 필링 방식을 수행하는 경우이기 때문에, 노이즈 옵셋 값을 데이터 코딩 파트(102)에 전달함으로써 노이즈 옵셋 정보를 비트스트림에 포함되도록 한다(S160 단계).
반대로, 노이즈 레벨 값이 0인 경우(S140 단계의 'yes')는 노이즈 필링 방식이 수행되지 않는 경우에 해당하기 때문에, 0인 노이즈 레벨 값만을 인코딩하고, 노이즈 옵셋 값은 비트스트림에서 제외되도록 한다(S150 단계).
도 7은 노이즈 레벨 및 노이즈 옵셋을 인코딩하기 위한 신택스의 일 예이다. 도 7의 (L1) 행을 참조하면, 현재 프레임이 주파수 도메인의 신호에 해당하는 경우임을 알 수 있다. 그리고 (L2) 및 (L3) 행을 참조하면, 노이즈 필링 플래그 정보(noiseFilling)가 1인 경우에만 노이즈 레벨 정보(noise_level)를 비트스트림에 포함시키는 것을 알 수 있다. 노이즈 필링 플래그 정보(noiseFilling)가 0인 경우에는 현재 프레임이 속하는 시퀀스 전체가 노이즈 필링이 적용되지 않음을 의미하기 때문이다. 한편 (L4) 및 (L5)행을 참조하면, 노이즈 레벨 값이 0보다 큰 경우에만 노이즈 옵셋 정보(noise_offset)가 비트스트림에 포함됨을 알 수 있다.
다시 도 1 및 도 2를 참조하면, 데이터 코딩 파트(102)는 차분 코딩 방식(differential coding scheme) 또는 파일럿 코딩 방식(pilot coding scheme)을 이용하여 노이즈 레벨 값 (및 노이즈 옵셋 값)을 데이터 코딩한다. 여기서 차분 코딩 방식이란, 이전 프레임의 노이즈 레벨 값과 현재 프레임의 노이즈 레벨 값과의 차분값만을 전송하는 방식으로서, 다음 수학식과 같이 나타낼 수 있다.
noise_info_diff_cur = noise_info_cur - noise_info_prev
noise_info_cur는 현재 프레임의 노이즈 레벨(또는 옵셋), noise_info_prev는 이전 프레임의 노이즈 레벨(또는 옵셋), noise_info_diff_cur는 차분값.
노이즈 정보 인코딩 파트(101)로부터 수신한 현재 프레임의 노이즈 레벨(또는 옵셋)에서, 이전 프레임의 노이즈 레벨(또는 옵셋)값을 뺀 차분 값만을 엔트로피 코딩 파트(103)로 전달하는 것이다.
한편, 파일럿 코딩 방식이란, 둘 이상의 프레임에 해당하는 노이즈 레벨(또는 옵셋) 값에 대응하는 기준값(예: 총 N개 프레임의 노이즈 레벨들(또는 옵셋들)의 평균값, 중간값, 최빈값 등)으로서 파일럿 값을 결정하고, 이 파일럿값과 현재 프레임의 노이즈 레벨(또는 옵셋)과의 차분값을 전송하는 것이다.
noise_info_diff_cur = noise_info_cur - noise_info_pilot
noise_info_cur는 현재 프레임의 노이즈 레벨(또는 옵셋), noise_info_pilot는 노이즈 레벨(또는 옵셋)의 파일럿, noise_info_diff_cur는 차분값.
여기서 노이즈 레벨(또는 옵셋)의 파일럿은 헤더를 통해 전송될 수 있다. 여기서 헤더는 앞서 노이즈 필링 플래그 정보가 전송되는 헤더와 동일한 것일 수 있다.
즉, 차분 코딩 방식 또는 파일럿 코딩 방식이 적용되는 경우, 현재 프레임의 노이즈 레벨 값이 그대로 비트스트림에 포함되는 노이즈 레벨 정보가 되는 것이 아니라, 노이즈 레벨 값의 차분값(DIFF 코딩의 차분값, 파일럿 코딩의 차분값)이 노이즈 레벨 정보가 되는 것이다.
이와 같이 노이즈 레벨 값이 차분 코딩 또는 파일럿 코딩을 수행함으로써 노이즈 레벨 정보가 생성되고(S170 단계 및 S180 단계), 노이즈 옵셋 값이 생성되는 경우에는, 이 노이즈 옵셋 값에 대해서도 차분 코딩 또는 파일럿 코딩을 수행함으로써, 노이즈 옵셋 정보가 생성된다(S180 단계). 이 노이즈 레벨 정보(및 노이즈 옵셋 정보)는 엔트로피 코딩 파트(103)에 전달된다.
엔트로피 코딩 파트(103)는 노이즈 레벨 정보(및 노이즈 옵셋 정보)에 대해서 엔트로피 코딩을 수행한다. 노이즈 레벨 정보(및 노이즈 옵셋 정보)가 데이터 코딩 파트(102)를 통해서 차분 코딩 방식 또는 파일럿 코딩 방식에 따라서 코딩된 경우, 그 차분값에 해당하는 정보를 엔트로피 코딩 방식 중에서도 가변장 코딩 방식(예: Huffman 부호화)에 따라 인코딩할 수 있다. 이 차분값은 0이나 0과 비슷한 값일 수 있기 때문에 고정비트로 인코딩하기 보다는 가변 길이 코딩 방식에 따라 인코딩하면, 비트 수를 더욱 줄일 수 있다.
멀티플렉서(120)는 신호 분류부(미도시)로부터 수신한 코딩 스킴 정보, 엔트로피 코딩 파트(103)를 통해 수신한 노이즈 레벨 정보 (및 노이즈 옵셋 정보), 손실 보상 추정 파트(110)를 통해 수신한 노이즈 필링 플래그 정보 및 양자화된 신호(스펙트럴 데이터 및 스케일팩터)를 멀티플렉싱하여 비트스트림을 생성한다. 노이즈 필링 플래그 정보를 인코딩하기 위한 신택스는 앞서 설명한 도 5와 같을 수 있고, 노이즈 레벨 정보(및 노이즈 옵셋 정보)를 인코딩하기 위한 신택스는 앞서 설명한 도 7과 같을 수 있다.
도 8은 코딩 스킴 정보를 인코딩하기 위한 신택스의 일 예이다. 도 8의 (L1)을 참조하면, 현재 프레임이 주파수 도메인 기반 방식 또는 시간 도메인 기반의 방식이 적용되는지를 나타내는 코딩 스킴 정보(core_mode)가 포함되어 있음을 알 수 있다. (L2) 및 (L3) 행을 참조하면, 코딩 스킴 정보가 시간 도메인 기반 방식이 적용되는 것을 지시하는 경우, 시간 도메인 기반의 채널 스트림을 전송함을 알 수 있다. (L4) 및 (L5) 행을 참조하면, 코딩 스킴 정보가 주파수 도메인 기반 방식이 적 용되는 것을 지시하는 경우, 주파수 도메인 기반의 채널 스트림을 전송함을 알 수 있다. 앞서 언급한 바와 같이, 주파수 도메인 기반의 채널 스트림(fd_channel_stream())은 앞서 도 7과 함께 언급한 바와 같이, 노이즈 필링에 관한 정보(노이즈 레벨 정보(및 노이즈 옵셋 정보))를 포함할 수 있는 것이다.
이와 같이 본 발명의 실시예에 따른 오디오 신호 인코딩 장치 및 방법은, 노이즈 필링 방식이 사용될 수 있는 시퀀스 중에서, 특정 프레임에 대해 노이즈 필링 방식이 사실상 적용되는지 여부에 따라서, 노이즈 필링에 관한 정보(특히 노이즈 옵셋 정보)를 인코딩하거나 또는 인코딩을 생략한다.
도 9는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 디코더의 구성을 보여주는 도면이고, 도 10은 도9의 손실 보상 파트의 세부적인 구성을 보여주는 도면이다. 도 11은 본 발명의 실시예에 따른 오디오 신호 처리 방법 중 디코딩 방법의 순서를 나타내는 도면이다.
우선 도 9 및 도 11을 참조하면, 오디오 신호 처리 장치 중 디코딩 장치(200)는 노이즈 정보 디코딩 파트(201)를 포함하고, 엔트로피 디코딩 파트(202), 데이터 디코딩 파트(203), 멀티플렉서(210), 손실 보상 파트(220) 및 스케일링 파트(230)를 더 포함할 수 있다.
우선 멀티플렉서(210)는 비트스트림(특히 헤더)로부터 노이즈 필링 플래그 정보를 추출한다(S210 단계). 그런 다음 현재 프레임에 대한 코딩 스킴 정보 및 양자화된 신호를 수신한다(S220 단계). 노이즈 필링 플래그 정보, 코딩 스킴 정보, 양자화된 신호는 앞서 설명한 바와 같다. 노이즈 필링 플래그 정보는 복수 개의 프 레임에 대해 노이즈 필링 스킴이 사용되는지 여부에 대한 정보이고, 코딩 스킴 정보는 상기 복수 개의 프레임 중 현재 프레임이 주파수 도메인 기반의 방식이 적용되는지 시간 도메인 기반 방식이 적용되는지 여부를 나타내는 정보이다. 양자화된 신호는 주파수 도메인 기반 방식이 적용되는 경우, 스펙트럴 데이터 및 스케일팩터일 수 있다. 여기서 노이즈 필링 정보는 도 5에 표시된 신택스에 따라서 추출될 수 있고, 코딩 스킴 정보는 도 8에 표시된 신택스에 따라서 추출될 수 있다. 멀티플렉서(210)에서 추출된 노이즈 필링 정보 및 코딩 스킴 정보는 노이즈 정보 디코딩 파트(201)에 전달된다.
노이즈 정보 디코딩 파트(201)는 노이즈 필링 플래그 정보 및 코딩 스킴 정보를 근거로 하여, 비트스트림으로부터 노이즈 필링에 관한 정보(노이즈 레벨 정보, 노이즈 옵셋 정보)를 추출한다. 구체적으로, 노이즈 필링 플래그 정보가 복수 개의 프레임에 대해 노이즈 필링 스킴이 사용될 수 있음을 지시하고(S230 단계의 yes), 현재 프레임이 주파수 도메인 기반의 방식이 적용되는 경우(S240 단계의 yes)는 노이즈 정보 디코딩 파트(201)는 비트스트림으로부터 노이즈 레벨 정보를 추출한다(S250 단계). 물론 S240 단계는 S230 단계 이전에 수행될 수도 있다. S230 단계 내지 S250 단계는 앞서 설명한 도 7의 (L1) 내지 (L3) 행에 표시된 신택스에 따라서 수행될 수 있다. 도 6과 함께 앞서 설명한 바와 마찬가지로, 노이즈 레벨 정보는 스펙트럴 데이터가 손실된 영역(또는 샘플, 빈)에 삽입되는 보상 신호(예: 랜덤 신호)의 레벨에 관한 정보이다.
S230 단계에서, 노이즈 필링 플래그 정보가 복수 개의 프레임 중 하나의 프 레임에 대해서도 노이즈 필링 스킴이 사용될 수 없음을 지시하는 경우(S230 단계의 no)는 노이즈 필링에 관한 어떤 단계도 수행되지 않고 절차가 종료될 수 있다. S240 단계에서도, 현재 프레임이 시간 도메인 기반의 방식이 적용된 프레임인 경우에도(S240 단계의 no) 노이즈 필링에 관한 절차가 수행되지 않을 수 있다.
역양자화 파트(미도시)는 수신된 스펙트럴 데이터를 역양자화하여 역양자화된 스펙트럴 데이터를 생성한다. 여기서 역양자화된 스펙트럴 데이터란, 상기 수학식 1에 나타난 바와 같이, 수신된 스펙트럴 데이터에 4/3승을 해주는 것이다.
노이즈 정보 디코딩 파트(201)는 S250 단계에서 노이즈 레벨 정보가 추출된 경우, 노이즈 레벨이 0보다 큰 경우에는 (노이즈 필링 스킴이 현재 프레임에 적용되는 경우이므로)(S260 단계의 yes), 비트스트림으로부터 노이즈 옵셋 정보를 추출한다(S270 단계). S260 단계 내지 S270 단계는 앞서 도 7의 (L4) 및 (L5)행에 표시된 신택스에 따라서 수행될 수 있다. 도 6과 함께 설명된 바와 마찬가지로, 노이즈 옵셋 정보는 특정 스케일팩터 밴드에 대응하는 스케일팩터를 보정하기 위한 정보이다. 여기서 특정 스케일팩터 밴드는 스펙트럴 데이터가 전부 손실된 스케일팩터 밴드일 수 있다. 이 노이즈 옵셋 정보가 획득된 경우에는 현재 프레임에 대한 역양자화된 스펙트럴 데이터 및 스케일팩터는 손실 보상 파트(220)를 통하게 되고, 노이즈 옵셋 정보가 획득되지 않은 경우에는 현재 프레임에 대한 역양자화 스펙트럴 데이터 및 스케일팩터는 손실 보상 파트(220)를 바이패스하고 바로 스케일링 파트(230)로 입력된다.
S250 단계에서 추출된 노이즈 레벨 정보, 및 S270 단계에서 추출된 노이즈 옵셋 정보는 엔트로피 디코딩 파트(202)에서 엔트로피 디코딩된다. 여기서 상기 정보들이 엔트로피 디코딩 방식 중 가변장 코딩 방식(예: Huffman 부호화)에 따라 인코딩된 경우, 가변장 디코딩 방식에 따라서 엔트로피 디코딩될 수 있다.
데이터 디코딩 파트(203)는 엔트로피 디코딩된 노이즈 레벨 정보(및 노이즈 옵셋 정보)에 대해서 차분 방식 또는 파일럿 방식에 따라서 데이터 디코딩한다. 차분 방식(DIFF coding)에 해당하는 경우 다음 수학식에 따라서 현재 프레임의 노이즈 레벨(또는 옵셋)을 획득할 수 있다.
noise_info_cur = noise_info_prev + noise_info_diff_cur
noise_info_cur는 현재 프레임의 노이즈 레벨(또는 옵셋), noise_info_prev는 이전 프레임의 노이즈 레벨(또는 옵셋), noise_info_diff_cur는 차분값.
만약, 파일럿 코딩(Pilot coding)에 해당하는 경우 다음 수학식에 따라서 현재 프레임의 노이즈 레벨(또는 옵셋)을 획득할 수 있다.
noise_info_cur = noise_info_pilot + noise_info_diff_cur
noise_info_cur는 현재 프레임의 노이즈 레벨(또는 옵셋), noise_info_pilot는 노이즈 레벨(또는 옵셋)의 파일럿, noise_info_diff_cur는 차분값.
여기서 노이즈 레벨(또는 옵셋)의 파일럿은 헤더에 포함된 정보일 수 있다. 이와 같이 획득된 노이즈 레벨(및 노이즈 옵셋)은 손실 보상 파트(230)에 전달된다.
손실 보상 파트(220)는 노이즈 레벨 및 노이즈 옵셋이 모두 획득되었을 경우, 이를 기반으로 하여 현재 프레임에 대해서 노이즈 필링을 수행한다(S280 단계). 손실 보상 파트(220)에 대한 세부 구성도가 도 10에 도시되어 있다.
도 10을 참조하면, 손실 보상 파트(220)는 스펙트럴 데이터 필링 파트(222) 및 스케일팩터 보정 파트(224)를 포함한다. 스펙트럴 데이터 필링 파트(222)는 현재 프레임에 속하는 스펙트럴 데이터 중 손실 영역이 있는지 판단하고 손실 영역에 대해서는 노이즈 레벨을 이용하여 보상 신호를 채워넣는다. 수신된 스펙트럴 데이터를 분석한 결과, 스펙트럴 데이터가 소정 값 이하인 경우(예: 0인 경우) 그 해당 샘플을 손실 영역으로 판단한다. 손실 영역은 앞서 도 4에 도시된 바와 같을 수 있다. 앞서 수학식 2에 도시된 바와 같이 보상 신호(예: 랜덤 신호)에 노이즈 레벨값을 적용하여 손실 영역에 대응하는 스펙트럴 데이터를 생성할 수 있다. 이와 같이 보상 신호를 손실 영역에 채워넣음으로써 보상된 스펙트럴 데이터가 생성된다.
스케일팩터 보정 파트(224)는 수신된 스케일팩터를 노이즈 옵셋으로 보상한다. 다음 수학식에 따라서 스케일팩터를 보상할 수 있다.
sfc_c = sfc_d + noise_offset
sfc_c은 보상된 스케일팩터, sfc_d은 전송된 스케일팩터, noise_offset은 노이즈 옵셋.
앞서 언급한 바와 같이, 노이즈 옵셋의 보상은 스케일팩터 밴드 전체가 손실 영역에 해당할 때, 그 스케일팩터 밴드에 대해서만 수행될 수 있다. 손실 보상 파 트(22)에서 생성된 보상된 스펙트럴 데이터 및 보상된 스케일팩터는 도 9에 도시된 스케일링 파트(230)로 입력된다.
다시 도 9 및 도 11을 참조하면, 스케일링 파트(230)는 수신된 스펙트럴 데이터 또는 보상된 스펙트럴 데이터 중 하나를 스케일팩터 또는 보상된 스케일팩터를 이용하여 스케일링한다(S290 단계). 스케일링이란, 역양자화된 스펙트럴 데이터(아래 수학식에서 spectral_data4/3)를 스케일팩터를 이용하여 다음 수학식과 같이 스펙트럴 계수를 획득하는 것이다.
Figure 112009067529125-pat00002
X'는 복원된 스펙트럴 계수, spectral_data는 수신된 스펙트럴 데이터 또는 보상된 스펙트럴 데이터, scalefactor는 수신된 스케일팩터 또는 보상된 스케일 팩터.
본 발명의 실시예에 따른 오디오 신호 처리 장치 중 디코딩 장치는 상기와 같은 단계를 수행함으로써 노이즈 필링에 관한 정보를 획득함으로써 노이즈 필링을 수행한다.
도 12는 본 발명의 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 일 예이고, 도 13는 본 발명의 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 일 예이다.
도 12의 오디오 신호 처리 장치(100)가 도 1과 함께 설명된 노이즈 정보 인코딩 파트(101)를 포함하고, 데이터 코딩 파트(102) 및 엔트로피 코딩 파트(103)를 더 포함할 수 있다. 도 13의 오디오 신호 처리 장치(200)가 도 9와 함께 설명된 노이즈 정보 디코딩 파트(201)를 포함하고, 엔트로피 디코딩 파트(202) 및 데이터 디코딩 파트(203)를 더 포함할 수 있다.
우선 도 12를 참조하면, 오디오 신호 인코딩 장치(300)는 복수 채널 인코더(310), 밴드 확장 코딩 유닛(320), 오디오 신호 인코더(330), 음성 신호 인코더(350), 손실 보상 추정 유닛(350), 오디오 신호 처리 장치(100) 및 멀티플렉서(360)를 포함한다.
복수채널 인코더(310)는 복수의 채널 신호(둘 이상의 채널 신호)(이하, 멀티채널 신호)를 입력받아서, 다운믹스를 수행함으로써 모노 또는 스테레오의 다운믹스 신호를 생성하고, 다운믹스 신호를 멀티채널 신호로 업믹스하기 위해 필요한 공간 정보를 생성한다. 여기서 공간 정보(spatial information)는, 채널 레벨 차이 정보, 채널간 상관정보, 채널 예측 계수, 및 다운믹스 게인 정보 등을 포함할 수 있다. 만약, 오디오 신호 인코딩 장치(300)가 모노 신호를 수신할 경우, 복수 채널 인코더(310)는 모노 신호에 대해서 다운믹스하지 않고 바이패스할 수도 있음은 물론이다.
대역 확장 인코더(320)는 복수채널 인코더(310)의 출력인 다운믹스 신호에 대역 확장 방식을 적용하여, 저주파 대역에 대응하는 스펙트럴 데이터 및, 고주파 대역 확장을 위한 대역확장정보를 생성할 수 있다. 즉, 다운믹스 신호의 일부 대 역(예: 고주파 대역)의 스펙트럴 데이터가 제외되고, 이 제외된 데이터를 복원하기 위한 대역확장정보가 생성될 수 있다.
대역 확장 코딩 유닛(320)을 통해 생성된 신호는 신호 분류부(미도시)에서 생성된 코딩 스킴 정보에 따라서, 오디오 신호 인코더(330) 또는 음성 신호 디코더(340)에 입력된다.
오디오 신호 인코더(330)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 오디오 특성을 갖는 경우, 오디오 코딩 방식(audio coding scheme)에 따라 다운믹스 신호를 인코딩한다. 여기서 오디오 코딩 방식은 AAC (Advanced Audio Coding) 표준 또는 HE-AAC (High Efficiency Advanced Audio Coding) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 오디오 신호 인코더(330)는, MDCT(Modified Discrete Transform) 인코더에 해당할 수 있다.
음성 신호 인코더(340)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 음성 특성을 갖는 경우, 음성 코딩 방식(speech coding scheme)에 따라서 다운믹스 신호를 인코딩한다. 여기서 음성 코딩 방식은 AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 음성 신호 인코더(340)는 선형 예측 부호화(LPC: Linear Prediction Coding) 방식을 더 이용할 수 있다. 하모닉 신호가 시간축 상에서 높은 중복성을 가지는 경우, 과거 신호로부터 현재 신호를 예측하는 선형 예측에 의해 모델링될 수 있는데, 이 경우 선형 예측 부호화 방식을 채택하면 부호화 효율을 높을 수 있다. 한편, 음성 신호 인코더(340)는 타임 도메인 인코더에 해당할 수 있다.
손실 보상 추정 유닛(350)은 앞서 도 1과 함께 설명된 손실 보상 추정 유닛(110)과 동일한 기능을 수행하는 것일 수 있기 때문에, 이에 대한 구체적인 설명은 생략하고자 한다.
오디오 신호 처리 유닛(100)은 도 1과 함께 설명된 노이즈 정보 인코딩 파트(101)를 포함함으로써, 손실 보상 추정 유닛(350)에 의해 생성된 노이즈 레벨 및 노이즈 옵셋을 인코딩한다.
멀티플렉서(360)는 공간 정보, 대역확장 정보, 오디오 신호 인코더(330) 내지 음성 신호 인코더(340) 각각에 의해 인코딩된 신호, 노이즈 필링 플래그 정보, 및 오디오 신호 처리 유닛(100)에 의해 생성된 노이즈 레벨 정보(및 노이즈 옵셋 정보)를 멀티플렉싱함으로써, 하나 이상의 비트스트림을 생성한다.
도 13을 참조하면, 오디오 신호 디코딩 장치(400)는 디멀티플렉서(410), 오디오 신호 처리 장치(200), 손실 보상 파트(420), 스케일링 파트(430), 오디오 신호 디코더(440), 음성 신호 디코더(450), 밴드 확장 디코딩 유닛(460) 및 복수 채널 디코더(470)를 포함한다.
디멀티플렉서(410)는 오디오신호 비트스트림으로부터 노이즈 필링 플래그 정보, 양자화된 신호, 코딩 스킴 정보, 밴드 확장 정보, 공간 정보 등을 추출한다.
오디오 신호 처리 유닛(200)은 앞서 언급한 바와 같이 도 9와 함께 설명된 노이즈 정보 디코딩 유닛(201)을 포함하고, 노이즈 필링 플래그 정보 및 코딩 스킴 정보를 기반으로 비트스트림으로부터 노이즈 레벨 정보(및 노이즈 옵셋 정보)를 획득한다.
역양자화 유닛(미도시)는 수신된 스펙트럴 데이터에 대해 역양자화를 수행하여 역양자화된 스펙트럴 데이터를 손실 보상 파트(420)에 바로 전달하거나, 노이즈 필링이 스킵되는 경우 손실 보상 파트(420)를 바이패스하고 스케일링 파트(430)에 전달한다.
손실 보상 파트(420)는 도 9와 함께 설명된 손실 보상 파트(220)와 동일한 구성요소로서, 현재 프레임에 대해 노이즈 필링이 적용되는 경우, 노이즈 레벨 및 노이즈 옵셋을 이용하여 현재 프레임에 대해 노이즈 필링을 수행한다.
스케일링 파트(430)는 도 9와 함께 설명된 스케일링 파트(230)와 동일한 구성요소로서, 역양자화된 스펙트럴 데이터 또는 보상된 스펙트럴 데이터에 대해서 스케일링을 수행함으로써, 스펙트럴 계수를 획득한다.
오디오 신호 디코더(440)는, 오디오 신호(예: 스펙트럴 계수)가 오디오 특성이 큰 경우, 오디오 코딩 방식으로 오디오 신호를 디코딩한다. 여기서 오디오 코딩 방식은 앞서 설명한 바와 같이, AAC 표준, HE-AAC 표준에 따를 수 있다. 음성 신호 디코더(450)는 상기 오디오 신호가 음성 특성이 큰 경우, 음성 코딩 방식으로 다운믹스 신호를 디코딩한다. 음성 코딩 방식은, 앞서 설명한 바와 같이, AMR-WB 표준에 따를 수 있지만, 본 발명은 이에 한정되지 아니한다.
대역 확장 디코딩 유닛(460)는 오디오 신호 디코더(440) 및 음성 신호 디코더(450) 의 출력 신호에 대해서, 대역 확장 디코딩 방식을 수행함으로써, 대역 확장 정보를 기반으로 고주파 대역의 신호를 복원한다.
복수 채널 디코더(470)은 디코딩된 오디오 신호가 다운믹스인 경우, 공간정 보를 이용하여 멀티채널 신호(스테레오 신호 포함)의 출력 채널 신호를 생성한다.
본 발명에 따른 오디오 신호 처리 장치는 다양한 제품에 포함되어 이용될 수 있다. 이러한 제품은 크게 스탠드 얼론(stand alone) 군과 포터블(portable) 군으로 나뉠 수 있는데, 스탠드 얼론군은 티비, 모니터, 셋탑 박스 등을 포함할 수 있고, 포터블군은 PMP, 휴대폰, 네비게이션 등을 포함할 수 있다.
도 14는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계를 보여주는 도면이다. 우선 도 14를 참조하면, 유무선 통신부(510)는 유무선 통신 방식을 통해서 비트스트림을 수신한다. 구체적으로 유무선 통신부(510)는 유선통신부(510A), 적외선통신부(510B), 블루투스부(510C), 무선랜통신부(510D) 중 하나 이상을 포함할 수 있다.
사용자 인증부는(520)는 사용자 정보를 입력 받아서 사용자 인증을 수행하는 것으로서 지문인식부(520A), 홍채인식부(520B), 얼굴인식부(520C), 및 음성인식부(520D) 중 하나 이상을 포함할 수 있는데, 각각 지문, 홍채정보, 얼굴 윤곽 정보, 음성 정보를 입력받아서, 사용자 정보로 변환하고, 사용자 정보 및 기존 등록되어 있는 사용자 데이터와의 일치여부를 판단하여 사용자 인증을 수행할 수 있다.
입력부(530)는 사용자가 여러 종류의 명령을 입력하기 위한 입력장치로서, 키패드부(530A), 터치패드부(530B), 리모컨부(530C) 중 하나 이상을 포함할 수 있지만, 본 발명은 이에 한정되지 아니한다.
신호 코딩 유닛(540)는 유무선 통신부(510)를 통해 수신된 오디오 신호 및/또는 비디오 신호에 대해서 인코딩 또는 디코딩을 수행하고, 시간 도메인의 오디오 신호를 출력한다. 오디오 신호 처리 장치(545)를 포함하는데, 이는 앞서 설명한 본 발명의 실시예(즉, 인코딩 측(100) 및/또는 디코딩 측(200))에 해당하는 것으로서, 이와 같이 오디오 처리 장치(545) 및 이를 포함한 신호 코딩 유닛은 하나 이상의 프로세서에 의해 구현될 수 있다.
제어부(550)는 입력장치들로부터 입력 신호를 수신하고, 신호 디코딩부(540)와 출력부(560)의 모든 프로세스를 제어한다. 출력부(560)는 신호 디코딩부(540)에 의해 생성된 출력 신호 등이 출력되는 구성요소로서, 스피커부(560A) 및 디스플레이부(560B)를 포함할 수 있다. 출력 신호가 오디오 신호일 때 출력 신호는 스피커로 출력되고, 비디오 신호일 때 출력 신호는 디스플레이를 통해 출력된다.
도 15는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도이다. 도 15는 도 14에서 도시된 제품에 해당하는 단말 및 서버와의 관계를 도시한 것으로서, 도 15의 (A)를 참조하면, 제1 단말(500.1) 및 제2 단말(500.2)이 각 단말들은 유무선 통신부를 통해서 데이터 내지 비트스트림을 양방향으로 통신할 수 있음을 알 수 있다. 도 15의 (B)를 참조하면, 서버(600) 및 제1 단말(500.1) 또한 서로 유무선 통신을 수행할 수 있음을 알 수 있다.
본 발명에 따른 오디오 신호 처리 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨 터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
본 발명은 오디오 신호를 처리하고 출력하는 데 적용될 수 있다.
도 1은 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 인코더의 구성도.
도 2는 본 발명의 실시예에 따른 오디오 신호 처리 방법 중 인코딩 방법의 순서도.
도 3은 양자화 개념을 설명하기 위한 도면.
도 4는 손실 신호(loss signal) 및 손실 영역의 개념을 설명하기 위한 도면.
도 5는 노이즈 필링 플래그 정보를 인코딩하기 위한 신택스의 일 예.
도 6은 노이즈 레벨 및 노이즈 옵셋을 설명하기 위한 도면.
도 7은 노이즈 레벨 및 노이즈 옵셋을 인코딩하기 위한 신택스의 일 예.
도 8은 코딩 스킴 정보를 인코딩하기 위한 신택스의 일 예.
도 9는 본 발명의 실시예에 따른 오디오 신호 처리 장치 중 디코더의 구성도.
도 10은 도9의 손실 보상 파트의 세부 구성도.
도 11은 본 발명의 실시예에 따른 오디오 신호 처리 방법 중 디코딩 방법의 순서도.
도 12는 본 발명의 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 일 예.
도 13는 본 발명의 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 일 예.
도 14는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품의 개략적인 구성도.
도 15는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도.

Claims (13)

  1. 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 추출하는 단계;
    상기 복수의 프레임에 포함되는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 단계;
    상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보 및, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 단계; 및,
    상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 단계, 상기 노이즈 필링은,
    상기 현재 프레임의 스펙트럴 데이터를 이용하여 현재 프레임에 대한 손실 영역을 결정하는 단계;
    상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값을 이용하여 보상 신호를 상기 손실 영역에 채워넣음으로써, 상기 현재 프레임에 대한 보상된 스펙트럴 데이터를 생성하는 단계;
    상기 노이즈 오프셋 정보를 근거로 상기 현재 프레임에 대한 스케일 팩터를 수정함으로써, 보상된 스케일 팩터를 생성하는 단계를 포함하고,
    상기 스케일 팩터는 하나 이상의 스펙트럴 데이터에 대응하는 스펙트럴 밴드에 적용되는 것을 특징으로 하는 오디오 신호 처리 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    노이즈 레벨의 참조 값을 나타내는 레벨 파일럿 값, 및 노이즈 옵셋의 참조 값을 나타내는 옵셋 파일럿 값을 추출하는 단계;
    상기 레벨 파일럿 값 및 상기 노이즈 레벨 정보를 더함으로써 상기 노이즈 레벨 값을 획득하는 단계; 및,
    상기 노이즈 옵셋 정보가 추출되면, 상기 옵셋 파일롯 값 및 상기 노이즈 옵셋 정보를 더함으로써 노이즈 옵셋 값을 획득하는 단계를 더 포함하고,
    상기 노이즈 필링은 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것임을 특징으로 하는 오디오 신호 처리 방법.
  4. 제 1 항에 있어서,
    이전 프레임의 노이즈 레벨 값, 및 상기 현재 프레임의 노이즈 레벨 정보를 이용하여, 상기 현재 프레임의 노이즈 레벨 값을 획득하는 단계;
    상기 노이즈 옵셋 정보가 추출되면, 상기 이전 프레임의 노이즈 옵셋 값 및 상기 현재 프레임의 상기 노이즈 옵셋 정보를 이용하여, 상기 현재 프레임의 노이즈 옵셋 값을 획득하는 단계를 더 포함하고,
    상기 노이즈 필링은, 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것임을 특징으로 하는 오디오 신호 처리 방법.
  5. 제 1 항에 있어서,
    상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보는 허프만 코딩(Huffman Coding) 방식에 따라서 추출되는 것임을 특징으로 하는 오디오 신호 처리 방법.
  6. 복수의 프레임에 노이즈 필링이 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보 및, 상기 복수의 프레임에 포함되는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 멀티플렉서;
    상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보 및 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 노이즈 정보 디코딩 파트; 및,
    상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 손실 보상 파트를 포함하되,
    상기 노이즈 필링은, 상기 현재 프레임의 스펙트럴 데이터를 이용하여 현재 프레임에 대한 손실 영역을 결정하고, 상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값을 이용하여 보상 신호를 상기 손실 영역에 채워넣음으로써, 상기 현재 프레임에 대한 보상된 스펙트럴 데이터를 생성하고, 상기 노이즈 오프셋 정보를 근거로 상기 현재 프레임에 대한 스케일 팩터를 수정함으로써, 보상된 스케일 팩터를 생성하고,
    상기 스케일 팩터는 하나 이상의 스펙트럴 데이터에 대응하는 스펙트럴 밴드에 적용되는 것을 특징으로 하는 오디오 신호 처리 장치.
  7. 삭제
  8. 제 6 항에 있어서,
    노이즈 레벨의 참조 값을 나타내는 레벨 파일럿 값, 및 노이즈 옵셋의 참조 값을 나타내는 옵셋 파일럿 값을 추출하고,
    상기 레벨 파일럿 값 및 상기 노이즈 레벨 정보를 더함으로써 상기 노이즈 레벨 값을 획득하고,
    상기 노이즈 옵셋 정보가 추출되면, 상기 옵셋 파일롯 값 및 상기 노이즈 옵셋 정보를 더함으로써 노이즈 옵셋 값을 획득하는 데이터 디코딩 파트를 더 포함하고,
    상기 노이즈 필링은 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것임을 특징으로 하는 오디오 신호 처리 장치.
  9. 제 6 항에 있어서,
    이전 프레임의 노이즈 레벨 값, 및 상기 현재 프레임의 노이즈 레벨 정보를 이용하여, 상기 현재 프레임의 노이즈 레벨 값을 획득하고,
    상기 노이즈 옵셋 정보가 추출되면, 상기 이전 프레임의 노이즈 옵셋 값 및 상기 현재 프레임의 상기 노이즈 옵셋 정보를 이용하여, 상기 현재 프레임의 노이즈 옵셋 값을 획득하는 데이터 디코딩 파트를 더 포함하고,
    상기 노이즈 필링은, 상기 노이즈 레벨 값 및 상기 노이즈 옵셋 값을 이용하여 수행되는 것임을 특징으로 하는 오디오 신호 처리 장치.
  10. 제 6 항에 있어서,
    상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보는 허프만 코딩(Huffman Coding) 방식에 따라서 추출되는 것임을 특징으로 하는 오디오 신호 처리 장치.
  11. 스펙트럴 데이터 및 스케일 팩터를 양자화된 신호로서 수신하는 단계;
    상기 양자화된 신호를 근거로 노이즈 레벨 값 및 노이즈 옵셋 값을 생성하는 단계;
    노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 생성하는 단계;
    상기 복수의 프레임에 포함된 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 지시하는 코딩 스킴 정보를 생성하는 단계;
    상기 복수의 프레임에 노이즈 필링이 사용되는 것을 상기 노이즈 필링 플래그 정보가 지시하고 상기 코딩 스킴 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었는지를 지시하는 경우, 상기 노이즈 레벨 값에 대응하는 상기 현재 프레임의 노이즈 레벨 정보를 및 상기 노이즈 옵셋 값에 대응하는 노이즈 옵셋 정보를 비트스트림에 삽입하는 단계를 포함하고,
    상기 스케일 팩터는 하나 이상의 스펙트럴 데이터에 대응하는 스펙트럴 밴드에 적용되는 것을 특징으로 하는 오디오 신호 처리 방법.
  12. 스펙트럴 데이터 및 스케일 팩터를 양자화된 신호로서 수신하고, 양자화된 신호를 근거로 노이즈 레벨 값 및 노이즈 옵셋 값을 생성하고, 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 생성하는 손실 보상 추정 파트;
    상기 복수의 프레임에 포함된 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 지시하는 코딩 스킴 정보를 생성하는 신호 분류부;
    상기 복수의 프레임에 노이즈 필링이 사용되는 것을 상기 노이즈 필링 플래그 정보가 지시하고 상기 코딩 스킴 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었는지를 지시하는 경우, 상기 노이즈 레벨 값에 대응하는 상기 현재 프레임의 노이즈 레벨 정보 및, 상기 노이즈 옵셋 값에 대응하는 노이즈 옵셋 정보를 비트스트림에 삽입하는 노이즈 정보 인코딩 파트를 포함하고,
    상기 스케일 팩터는 하나 이상의 스펙트럴 데이터에 대응하는 스펙트럴 밴드에 적용되는 것을 특징으로 하는 오디오 신호 처리 장치.
  13. 노이즈 필링이 복수의 프레임에 사용되는지 여부를 지시하는 노이즈 필링 플래그 정보를 추출하는 단계;
    상기 복수의 프레임에 포함되는 현재 프레임이 주파수 도메인에서 코딩되었는지 아니면 시간 도메인에서 코딩되었는지를 나타내는 코딩 스킴 정보를 추출하는 단계;
    상기 노이즈 필링 플래그 정보가 상기 노이즈 필링이 상기 복수의 프레임에 사용되었음을 지시하고 상기 코딩 정보가 상기 현재 프레임이 상기 주파수 도메인에서 코딩되었음을 지시하는 경우, 현재 프레임에 대한 노이즈 레벨 정보 및, 현재 프레임에 대한 노이즈 옵셋 정보를 추출하는 단계; 및,
    상기 노이즈 레벨 정보 및 상기 노이즈 옵셋 정보를 근거로 현재 프레임에 대해 노이즈 필링을 수행하는 단계, 상기 노이즈 필링은,
    상기 현재 프레임의 스펙트럴 데이터를 이용하여 현재 프레임에 대한 손실 영역을 결정하는 단계;
    상기 노이즈 레벨 정보에 대응하는 노이즈 레벨 값을 이용하여 보상 신호를 상기 손실 영역에 채워넣음으로써, 상기 현재 프레임에 대한 보상된 스펙트럴 데이터를 생성하는 단계;
    상기 노이즈 오프셋 정보를 근거로 상기 현재 프레임에 대한 스케일 팩터를 수정함으로써, 보상된 스케일 팩터를 생성하는 단계를 포함하고,
    상기 스케일 팩터는 하나 이상의 스펙트럴 데이터에 대응하는 스펙트럴 밴드에 적용되는 동작들을, 프로세서에 의해 실행될 때, 상기 프로세서가 수행하도록 하는 명령이 저장되어 있는 컴퓨터로 읽을 수 있는 저장 매체.
KR1020090105389A 2008-11-04 2009-11-03 오디오 신호 처리 방법 및 장치 Active KR101259120B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/612,345 US8364471B2 (en) 2008-11-04 2009-11-04 Apparatus and method for processing a time domain audio signal with a noise filling flag
EP09013869A EP2182513B1 (en) 2008-11-04 2009-11-04 An apparatus for processing an audio signal and method thereof
PCT/KR2009/006448 WO2010053287A2 (en) 2008-11-04 2009-11-04 An apparatus for processing an audio signal and method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US11132308P 2008-11-04 2008-11-04
US61/111,323 2008-11-04
US11447808P 2008-11-14 2008-11-14
US61/114,478 2008-11-14

Publications (2)

Publication Number Publication Date
KR20100050414A KR20100050414A (ko) 2010-05-13
KR101259120B1 true KR101259120B1 (ko) 2013-04-26

Family

ID=42276540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090105389A Active KR101259120B1 (ko) 2008-11-04 2009-11-03 오디오 신호 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101259120B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030009325A1 (en) * 1998-01-22 2003-01-09 Raif Kirchherr Method for signal controlled switching between different audio coding schemes
US6766293B1 (en) * 1997-07-14 2004-07-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for signalling a noise substitution during audio signal coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766293B1 (en) * 1997-07-14 2004-07-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for signalling a noise substitution during audio signal coding
US20030009325A1 (en) * 1998-01-22 2003-01-09 Raif Kirchherr Method for signal controlled switching between different audio coding schemes

Also Published As

Publication number Publication date
KR20100050414A (ko) 2010-05-13

Similar Documents

Publication Publication Date Title
EP2182513B1 (en) An apparatus for processing an audio signal and method thereof
KR101162275B1 (ko) 오디오 신호 처리 방법 및 장치
JP5219800B2 (ja) コード化されたオーディオの経済的な音量計測
KR101139880B1 (ko) 주파수 영역 위너 필터링을 사용한 공간 오디오 코딩을 위한 시간적 엔벨로프 정형화
JP5267362B2 (ja) オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
JP6704037B2 (ja) 音声符号化装置および方法
KR101428487B1 (ko) 멀티 채널 부호화 및 복호화 방법 및 장치
US9117458B2 (en) Apparatus for processing an audio signal and method thereof
KR101397058B1 (ko) 신호 처리 방법 및 이의 장치
JP2019506633A (ja) 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法
KR20200027008A (ko) 스테레오 신호의 인코딩 및 디코딩 방법과, 인코딩 및 디코딩 장치
KR101259120B1 (ko) 오디오 신호 처리 방법 및 장치
HK40072591A (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
KR20100114484A (ko) 오디오 신호 처리 방법 및 장치
HK40068027B (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
HK40068027A (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
AU2012205170B2 (en) Temporal Envelope Shaping for Spatial Audio Coding using Frequency Domain Weiner Filtering
HK1099838A (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
HK1099838B (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
HK1245492A1 (en) Temporal envelope shaping for spatial audio coding using frequency domain wiener filtering
KR20100054749A (ko) 신호의 처리 방법 및 이의 장치

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20091103

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20110416

Patent event code: PE09021S01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20111230

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20120825

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20130221

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20130422

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20130423

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20160324

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20170314

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20180314

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20190314

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20190314

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20250310

Start annual number: 13

End annual number: 13