[go: up one dir, main page]

KR101058062B1 - 잡음 부가에 의한 디코딩된 오디오의 품질 개선 - Google Patents

잡음 부가에 의한 디코딩된 오디오의 품질 개선 Download PDF

Info

Publication number
KR101058062B1
KR101058062B1 KR1020057025285A KR20057025285A KR101058062B1 KR 101058062 B1 KR101058062 B1 KR 101058062B1 KR 1020057025285 A KR1020057025285 A KR 1020057025285A KR 20057025285 A KR20057025285 A KR 20057025285A KR 101058062 B1 KR101058062 B1 KR 101058062B1
Authority
KR
South Korea
Prior art keywords
signal
audio signal
spectral
generating
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020057025285A
Other languages
English (en)
Other versions
KR20060025203A (ko
Inventor
알버투스 씨. 덴 브린커
프랑소아 피. 마이버그
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20060025203A publication Critical patent/KR20060025203A/ko
Application granted granted Critical
Publication of KR101058062B1 publication Critical patent/KR101058062B1/ko
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Noise Elimination (AREA)
  • Stereo-Broadcasting Methods (AREA)

Abstract

본 발명은 오디오 신호를 인코딩 및 디코딩하는 방법에 관한 것이다. 본 발명은 또한 오디오 신호를 인코딩 및 디코딩하는 장치에 관한 것이다. 본 발명은 또한 오디오 신호를 나타내는 데이터 레코드를 포함하는 컴퓨터-판독가능 매체 및 본 발명에 따라 인코딩된 오디오 신호를 통신하는 장치에 관한 것이다. 인코딩 방법에 의하여 신호의 이중 설명이 획득되며, 여기서 인코딩은 두 개의 인코딩 단계들, 즉 제 1 표준 인코딩 및 제 2 부가 인코딩을 포함한다. 제 2 인코딩은 확률적 구현이 이루어질 수 있고 적절한 부분들이 제 1 디코딩으로부터 디코딩된 신호에 가산될 수 있도록 신호의 개략적 설명을 제공할 수 있다. 통계적 신호를 구현하기 위하여 제 2 인코더의 요구된 설명은 비교적 낮은 비트율을 요구하는 반면에, 다른 이중/다중 설명들은 훨씬 높은 비트율을 요구한다.
컴퓨터-판독가능 매체, 비트율, 인코딩, 데이터 레코드, 변환 파라미터

Description

잡음 부가에 의한 디코딩된 오디오의 품질 개선{Improving quality of decoded audio by adding noise}
본 발명은 오디오 신호(audio signal)를 인코딩(encoding) 및 디코딩(decoding)하기 위한 방법에 관한 것이다. 또한, 본 발명은 오디오 신호를 인코딩 및 디코딩하기 위한 장치에 관한 것이다. 더욱이, 본 발명은 인코딩된 오디오 신호를 나타내는 데이터 레코드(data record)를 포함하는 컴퓨터 판독가능 매체(computer-readable medium)에 관한 것이다.
코딩의 한 방식은 양호한 또는 허용가능한 품질을 유지하면서 오디오 또는 음성의 부분들이 합성 잡음(synthetic noise)에 의하여 모델링(modeling)되도록 하며, 예컨대 대역폭 확장 도구들은 이러한 개념에 기초한다. 음성 및 오디오에 대한 대역폭 확장 도구들에 있어서, 고주파수 대역들은 전형적으로 낮은 비트율들의 경우에 인코더에서 제거되며 손실 대역들의 시간 및 스펙트럼 엔벨로프들의 파라메트릭 설명에 의하여 복원되거나, 또는 손실 대역은 수신된 도이오 신호로부터 임의의 방식으로 생성된다. 어느 한 경우에, 손실 대역(들)의 지식(적어도 위치)은 상 보 잡음 신호를 생성하는데 필요하다.
이러한 원리는 목표 비트율이 주어질 때 제 1 인코더에 의하여 제 1 비트 스트림을 생성함으로써 수행된다. 비트율 요건은 제 1 인코더에서 임의의 대역폭 제한을 유도한다. 이러한 대역폭 제한은 제 2 인코더에서 지식으로서 사용된다. 그 다음에, 추가 (대역폭 확장) 비트 스트림은 제 2 인코더에 의하여 생성되며, 손실 대역의 잡음 특징에 의하여 신호의 설명을 커버한다. 제 1 디코더에서, 제 1 비트 스트림은 대역 제한 오디오 신호를 재구성하기 위하여 사용되며, 추가 잡음 신호는 제 2 디코더에 의하여 생성되고 대역 제한 오디오 신호에 가산되며, 이에 따라 전체 디코딩된 신호가 획득된다.
앞의 문제점은 제 1 인코더 및 제 1 디코더에 의하여 커버되는 브랜치에서 어느 정보가 포기되는지가 송신기 또는 수신기에서 항상 알지 못한다는 것이다. 예컨대, 만일 제 1 인코더가 계층형 비트 스트림을 생성하고 계층들이 네트워크를 통해 전송되는 동안 제거되면, 송신기 또는 제 1 인코더 또는 수신기 또는 제 1 디코더는 이 이벤트의 지식을 가지지 않는다. 제거된 정보는 예컨대 부대역 코더의 높은 대역들로부터의 부대역 정보일 수 있다. 다른 가능성은 사인파 코딩시에 발생하며, 스케일링가능 사인파 코더들에서 계층된 비트 스트림들이 생성될 수 있으며, 그들의 지각 관련성에 따라 층들에서 정렬될 수 있다. 전형적으로 어느 것이 제거되는지를 지시하기 위하여 나머지 계층들을 추가로 편집하지 않고 전송동안 계층들을 제거하면 디코딩된 사인파 신호에 스펙트럼 갭들이 생성된다.
이러한 셋업시 기본적인 문제점은 제 1 인코더로부터 제 1 디코더까지의 브 랜치에 대하여 적응이 수행되는 정보를 제 1 인코더 및 제 1 디코더가 가지지 않는다는 점이다. 인코더는 전송동안(즉, 인코딩후) 적응이 이루어질 수 있기 때문에 지식을 손실하는 반면에, 디코더는 단순히 허용된 비트 스트림을 수신한다.
소위 내장형 코딩이라 불리는 비트율 확장성은 스케일링가능 비트-스트림을 생성하기 위한 오디오 코더의 능력이다. 스케일링가능 비트-스트림은 제거될 수 있는 다수의 계층들(또는 플레인들)을 포함하며 이에 따라 비트율 및 품질이 저하된다. 제 1(및 가장 중요한) 계층은 보통 "기본 계층"이라 불리며, 나머지 계층들은 "세분 계층들"이라 불리며 전형적으로 미리 정해진 중요도를 가진다. 디코더는 스케일링가능 비트-스트림의 미리 정해진 부분들(계층들)을 디코딩할 수 있어야 한다.
비트율 스케일링가능 파라메트릭 오디오 코딩시에, 비트 스트림에 지각 중요도 정도의 오디오 객체들(사인곡선들, 과도상태들 및 잡음)이 부가되는 것이 일반적이다. 특정 프레임에서 개별 사인곡선들은 그들의 지각 관련성에 따라 오더링되며, 여기서 가장 관련된 사인곡선들은 기본 계층에서 위치한다. 나머지 사인곡선들은 그들의 지식 관련성에 따라 세분 계층들사이에 분배된다. 완전한 트랙들은 그들의 지각 관련성에 따라 분류될 수 있으며 계층들 전반에 걸쳐 분배되며, 가장 관련된 트랙들은 기본 계층이 된다. 이러한 개별 사인곡선들 및 완전한 트랙들의 지각 오더링을 수행하기 위하여, 사이코-음향 모델들이 사용된다.
기본 계층에 가장 중요한 잡음-성분 파라미터들을 배치하는 것이 공지되어 있는 반면에, 나머지 잡음 파라미터들은 세분 계층들 사이에 분배된다. 이는 2001 년 5월 12일-15일, 네덜란드 암스테르담, 견본 인쇄본 5300(Preprint 5300), 음향기술자협회(Audio Engineering Society; AES) 110번째 콘벤션, 저자 에이치. 펀하겐(H. Purnhagen), 비. 에들러(B. Edler), 및 엔. 메인(N. Meine)의 "HILN MPEG-4 파라메트릭 오디오 코딩을 위한 에러 보호 및 은폐(Error Protection and Concealment for HILN MPEG-4 Parametric Audio Coding)"라는 제목의 문헌에 개시되어 있다.
잡음 성분은 전체로서 제 2 세분 계층에 더해질 수 있다. 과도상태들은 최소 중요 신호 성분으로 고려된다. 그러므로, 이들은 전형적으로 상위 세분 계층들중 하나에 배치된다. 이는 제목 6kbps 내지 85kbps 스케일가능 오디오 코더, T.S. Verma and T.H.Y. Meng. 2000 IEEE International Conference on Acoustics, Speech and Signal Processing(ICASSP2000). pp. 877-880. June 5-9, 2000에 개시되어 있다.
앞서 기술된 방식으로 구성된 계층화된 비트-스트림의 문제점은 각각의 계층의 결과적인 오디오 품질이며, 즉 비트-스트림으로부터 세분 계층들을 제거함으로써 사인곡선들을 삭제하면 디코딩된 신호의 스펙트럼 "홀들"이 유발된다는 점이다. 이들 홀들은 완전한 사인곡선 성분이 주어질때 보통 인코더에서 잡음이 유도되기 때문에 잡음 성분(또는 임의의 다른 신호 성분)에 의하여 채워지지 않는다. 게다가, (완전한) 잡음성분없이, 추가 인공물들이 유입된다. 스케일링가능 비트-스트림을 생성하는 이들 방법들은 비정상적으로 그리고 인공적으로 오디오 품질을 저하시킨다.
본 발명의 목적은 앞서 언급된 문제점들에 대한 해결책을 제공하는데 있다.
이러한 목적은 미리 정해진 코딩 방법에 따라 상기 오디오 신호로부터 코드 신호를 생성하는 오디오 신호 인코딩 방법에 의하여 달성되며, 이러한 방법은:
- 오디오 신호의 스펙트럼-시간 정보의 적어도 일부분을 한정하며 상기 오디오 신호와 거의 유사한 스펙트럼-시간 특징을 가진 잡음신호를 생성하는 변환 파라미터들의 세트로 오디오 신호로 변환하는 단계; 및
- 코드 신호 및 변환 파라미터들에 의하여 상기 오디오 신호를 표현하는 단계를 더 포함한다.
그에 따라 신호의 이중설명은 두 인코딩 단계들, 즉 제 1 표준 인코딩 단계 및 부가적인 제 2 인코딩 단계를 포함하여 얻어진다. 제 2 인코딩 단계는 확률적 구현이 이루어질 수 있고 적절한 부분들이 제 1 디코딩으로부터 디코딩된 신호에 가산될 수 있도록 신호의 개략적 설명을 제공할 수 있다. 통계적 신호를 구현하기 위하여 제 2 인코더의 요구된 설명은 비교적 낮은 비트율을 요구하는 반면에, 다른 이중/다중 설명들은 훨씬 높은 비트율을 요구한다. 변환 파라미터들은 예컨대 오디오 신호의 스펙트럼 엔벨로프를 기술하는 필터 계수들 및 시간 에너지 또는 진폭 엔벨로프를 기술하는 계수들일 수 있다. 파라미터는 선택적으로 오디오 신호의 마스킹 곡선, 여기 패턴 또는 음의 세기와 같은 사이코-음향 데이터를 포함하는 추가 정보일 수 있다.
일 실시예에서, 변환 파라미터들은 오디오 신호에 대하여 선형 예측을 수행함으로써 생성된 예측 계수들을 포함한다. 이는 변환 파라미터들을 획득하기 위한 단순한 방식이며, 단지 낮은 비트율만이 이들 파라미터들을 전송하는데 필요하다. 게다가, 이들 파라미터들은 단순한 디코딩 필터링 메커니즘들을 구성하는 것이 가능하다.
특정 실시예에서, 코드 신호는 오디오 신호의 적어도 하나의 사인곡선 성분을 한정하는 진폭 및 주파수 파라미터들을 포함한다. 이에 따라, 앞서 기술된 파라메트릭 코더들의 문제점은 해결될 수 있다.
특정 실시예에서, 변환 파라미터들은 오디오 신호의 사인곡선 성분들의 진폭에 대한 추정치를 나타낸다. 이에 의하여, 전체 코딩 데이터의 비트율이 낮아지며, 진폭 파라미터들의 시간-차동 인코딩에 대한 대안이 획득된다.
특정 실시예에서, 인코딩은 오디오 신호의 중첩 세그먼트들에 대하여 수행되며, 이에 따라 특정 파라미터 세트는 각 세그먼트에 대하여 생성되며, 파라미터들은 특정 세그먼트 변환 파라미터들 및 특정 세그먼트 코드 신호를 포함한다. 이에 의하여, 인코딩은 대량의 오디오 데이터, 예컨대 오디오 신호의 라이브 스트림을 인코딩하기 위하여 사용될 수 있다.
본 발명은 미리 정해진 코딩 방법에 따라 생성된 코드 신호 및 변환 파라미터들(b2)로부터 오디오 신호를 디코딩하기 위한 방법에 관한 것이며, 이 방법은,
- 상기 미리 정해진 코딩 방법에 대응하는 디코딩 방법을 사용하여 상기 코드 신호를 제 1오디오 신호로 디코딩하는 단계;
- 상기 오디오 신호와 거의 유사한 스펙트럼-시간 특징을 가진 잡음신호를 상기 변환 파라미터들로부터 생성하는 단계;
- 상기 제 1오디오 신호에 이미 포함되어 있는 오디오 신호의 스펙트럼-시간 부분들을 잡음신호로부터 제거함으로써 제 2 오디오 신호를 생성하는 단계; 및
- 상기 제 1 오디오 신호 및 상기 제 2 오디오 신호를 가산함으로써 상기 오디오 신호를 생성하는 단계를 포함한다.
이에 의하여, 본 방법은 디코딩 방법에 의하여 생성된 제 1신호의 스펙트럼-시간 부분들이 손실되고 이들 부분들을 적절한(즉, 입력 신호에 따라) 잡음으로 충전하도록 구현될 수 있다. 이는 원래의 오디오 신호에 스펙트럼-시간적으로 근접한 오디오 신호를 생성하도록 한다.
디코딩하는 방법의 실시예에서, 제 2오디오 신호를 생성하는 상기 단계는,
- 잡음신호의 스펙트럼과 제 1 오디오 신호의 스펙트럼을 비교함으로써 주파수 응답을 유도하는 단계; 및
- 상기 주파수 응답에 따라 상기 잡음 신호를 필터링하는 단계를 포함한다.
디코딩 방법의 특정 실시예에서, 제 2 오디오 신호를 생성하는 상기 단계는,
- 상기 변환 파라미터들의 스펙트럼 데이터에 따라 상기 제 1 오디오 신호를 스펙트럼으로 평탄하게 함으로써 제 1 잔차 신호를 생성하는 단계;
- 상기 변환 파라미터의 시간 데이터에 따라 잡음 시퀀스를 시간적으로 정형화함으로써 제 2 잔차 신호를 생성하는 단계;
- 상기 제 2 잔차 신호의 스펙트럼과 상기 제 1잔차 신호의 스펙트럼을 비교함으로써 주파수 응답을 유도하는 단계; 및
- 상기 주파수 응답에 따라 상기 잡음신호를 필터링하는 단계를 포함한다.
디코딩하는 방법의 다른 실시예에서, 제 2 오디오 신호를 생성하는 상기 단계는,
- 변환 파라미터의 스펙트럼 데이터에 따라 상기 제 1 오디오 신호를 스펙트럼으로 평탄화함으로써 제 1 잔차 신호를 생성하는 단계;
- 변환 파라미터들의 시간 데이터에 따라 잡음 시퀀스를 시간적으로 정형화함으로써 제 2 잔차 신호를 생성하는 단계;
- 제 1 잔차 신호 및 제 2 잔차 신호를 합 신호에 가산하는 단계;
- 합 신호를 스펙트럼으로 평탄화하는 주파수 응답을 유도하는 단계;
- 상기 주파수 응답에 따라 상기 제 2 잔차 신호를 필터링함으로써 상기 제 2 잔차 신호를 업데이트하는 단계;
상기 합 신호의 스펙트럼이 거의 평탄할때까지 상기 가산단계, 상기 유도단계 및 상기 업데이트 단계를 반복하는 단계; 및
- 모든 유도된 주파수 응답들에 따라 잡음신호를 필터링하는 단계를 포함한다.
본 발명은 미리 정해진 코딩 방법에 따라 코드 신호를 생성하는 제 1 인코더를 포함하는 오디오 신호 인코딩 장치에 관한 것이며, 상기 오이도 신호 인코딩 장치는,
- 오디오 신호의 스펙트럼-시간 정보의 적어도 일부분을 한정하며 오디오 신호와 거의 유사한 스펙트럼-시간 특징을 가진 잡음신호를 생성하는 변환 파라미터들의 세트로 오디오 신호로 변환하는 제 2 인코더; 및
- 상기 코드 신호 및 상기 변환 파라미터들에 의하여 상기 오디오 신호(x)를 표현하는 처리수단을 포함한다.
본 발명은 미리 정해진 코딩 방법에 따라 생성된 코드 신호 및 변환 파라미터들로부터 오디오 신호를 디코딩하기 위한 장치에 관한 것이며, 이 오디오 신호 디코딩 장치는,
- 상기 미리 정해진 코딩 방법에 대응하는 디코딩 방법을 사용하여 상기 코드 신호를 제 1오디오 신호로 디코딩하는 제 1 디코더;
- 상기 오디오 신호와 거의 유사한 스펙트럼-시간 특징을 가진 잡음신호를 상기 변환 파라미터들로부터 생성하는 제 2 디코더;
- 제 1 오디오 신호에 이미 포함되어 있는 오디오 신호의 스펙트럼-시간 부분들을 잡음신호로부터 제거함으로써 제 2 오디오 신호를 생성하는 제 1 처리수단; 및
- 제 1 오디오 신호 및 제 2 오디오 신호를 가산함으로써 상기 오디오 신호를 생성하는 가산수단을 포함한다.
본 발명은 코드 신호 및 변환 파라미터들의 세트를 포함하는 인코딩된 오디오 신호에 관한 것이며, 상기 코드 신호는 미리 정해진 코딩 방법에 따라 오디오 신호로부터 생성되며, 상기 변환 파라미터들은 상기 오디오 신호의 스펙트럼-시간 정보의 적어도 일부분을 한정하며, 상기 변환 파라미터들은 상기 오디오 신호와 거의 유사한 스펙트럼-시간 특징을 가진 잡음 신호를 생성한다.
본 발명은 또한 앞서 기술된 구성에 따른 인코딩 방법에 의하여 인코딩된 오디오 신호를 나타내는 데이터 레코드를 포함하는 컴퓨터-판독가능 매체에 관한 것이다.
본 발명의 이하의 바람직한 실시예들은 도면들을 참조로하여 기술될 것이다.
도 1은 본 발명의 실시예에 따라 오디오 신호들을 통신하는 시스템의 개략도.
도 2는 본 발명의 원리를 기술한 도면.
도 3은 본 발명에 따른 디코더의 원리를 기술한 도면.
도 4는 본 발명에 따른 잡음신호 생성기를 기술한 도면.
도 5는 잡음 생성기에서 사용될 제어 박스의 제 1 실시예를 기술한 도면.
도 6은 잡음 생성기에서 사용될 제어 박스의 제 2 실시예를 기술한 도면.
도 7은 특정 코더들의 성능을 개선하기 위하여 본 발명이 사용되는 예로서 제 1 인코더 및 제 1 디코더가 인코더의 제 2 실시예에 의하여 생성된 파라미터들을 사용하는 예를 기술한 도면.
도 8은 선형 예측분석 및 합성을 기술한 도면.
도 9는 본 발명에 따른 인코더의 제 1 유리한 실시예를 기술한 도면.
도 10은 도 9의 인코더에 의하여 코딩된 신호를 디코딩하는 디코더의 실시예를 기술한 도면.
도 11은 본 발명에 따른 인코더의 제 2유리한 실시예를 기술한 도면.
도 12는 도 11의 인코더에 의하여 코딩된 신호를 디코딩하는 디코더의 실시 예를 기술한 도면.
도 1은 본 발명의 실시예에 따른 오디오 신호들을 통신하는 시스템에 대한 개략도를 도시한다. 시스템은 코딩된 오디오신호를 생성하는 코딩 장치(101) 및 수신된 코딩된 신호를 오디오 신호를 디코딩하는 디코딩 장치(105)를 포함한다. 코딩 장치(101) 및 디코딩 장치(105)는 각각 임의의 전자 장비 또는 이러한 장비의 부분일 수 있다. 여기서, 용어 전자 장비는 고정 및 휴대용 PC들과 같은 컴퓨터들, 고정 및 휴대용 무선 통신장비, 및 이종전화들, 페이저들, 오디오 플레이어들, 멀티미디어 플레이어들, 통신기들, 즉 전자 조작자들, 스마트 전화들, 개인휴대단말들(PDA), 핸드헬드 컴퓨터들 등과 같은 다른 핸드헬드 또는 휴대용 장치들을 포함한다. 코딩장치(101) 및 디코딩 장치가 전자장비의 원피스로 결합될 수 있다는 것에 유의해야 하며, 여기서 입체음향 신호들은 이후에 재생하기 위하여 컴퓨터 판독가능 매체 상에 저장된다.
코딩장치(101)는 본 발명에 따라 오디오 신호를 인코딩하는 인코더(102)를 포함한다. 인코더는 오디오 신호 x를 수신하며 코딩된 신호 T를 생성한다. 오디오 신호는 마이크로폰들의 세트로부터 예컨대 혼합 장비 등과 같은 추가 전자장비를 통해 발신할 수 있다. 신호들은 다른 스테레오 플레이어로부터의 출력으로서, 또는 무선을 통해 무선 신호로서 또는 임의의 다른 적절한 수단에 의하여 수신될 수 있다. 본 발명에 따른 이러한 인코더의 바람직한 실시예들은 이하에서 기술될 것이다. 일 실시예에 따르면, 인코더(102)는 코딩된 신호 T를 통신채널(109)을 통해 디코딩 장치(105)로 전송하기 위하여 송신기(103)에 접속된다. 송신기(103)는 예컨대 유선 또는 무선 데이터 링크(109)를 통해 데이터를 통신하기에 적합한 회로를 포함할 수 있다. 이러한 송신기의 예들은 네트워크 인터페이스, 네트워크 카드, 무선 송신기, 및 예컨대 IrDa 포트를 통해 적외선을 전송하는 LED와 같은 다른 적절한 전자기 신호들에 접합하며 예컨대 블루투스 트랜시버 등을 통해 무선 기반 통신을 수행하는 송신기를 포함한다. 적절한 송신기들의 다른 실시예들은 케이블 모뎀, 전화 모뎀, 통합 서비스 디지털망(ISDN) 어댑터, 디지털 가입자 라인(DSL), 어댑터, 위성 트랜시버, 이더넷 어댑터 등을 포함한다. 대응하게, 통신채널(109)은 인터넷 또는 다른 TCP/IP 네트워크와 같은 패킷 기반 통신 네트워크의 적절한 유선 또는 무선 데이터 링크, 적외선 링크와 같은 단거리 통신링크, 블루투스 접속 또는 다른 무선 기반 링크일 수 있다. 통신 채널들의 다른 예들은 셀룰라 디지털 패킷 데이터(CDPD)와 같은 컴퓨터 네트워크들 및 무선 원격통신 네트워크들, GSM(Global System for Mobile) 네트워크, 코드분할 다중접속(CDMA) 네트워크, 시분할 다중접속 네트워크(TDMA), 범용 패킷 무선 서비스(GPRS) 네트워크, UMTS 네트워크와 같은 3세대 네트워크 등을 포함한다. 선택적으로 또는 부가적으로, 코딩 장치는 디코딩 장치(105)에 코딩된 스테레오 신호 T를 통신하는 하나 이상의 다른 인터페이스들(104)을 포함할 수 있다.
이러한 인터페이스들의 예들은 컴퓨터 판독가능 매체(110)상에 데이터를 저장하는 디스크 드라이브, 예컨대 플로피 디스크 드라이브, 판독/기록 CD-ROM 드라이브, DVD-드라이브 등을 포함한다. 다른 예들은 메모리 카드 슬롯, 자기 카드 판독기/기록기, 스마트 카드를 액세스하는 인터페이스 등을 포함한다. 대응하게, 디코딩 장치(105)는 송신기에 의하여 전송된 신호를 수신하는 대응 수신기(108) 및/또는 인터페이스(104) 및 컴퓨터 판독가능 매체(110)를 통해 통신된 코딩된 스테레오 신호를 수신하는 다른 인터페이스(106)를 포함한다. 디코딩 장치는 수신된 신호 T를 수신하고 이를 오디오 신호 x'로 디코딩하는 디코더(107)를 더 포함한다. 본 발명에 따른 이러한 디코더의 바람직한 실시예들은 이하에 기술될 것이다. 디코딩된 오디오 신호 x'는 스피커들, 헤드폰들 등의 세트를 통해 재생하는 스테레오 플레이어에 공급될 수 있다.
도입부에서 언급된 문제점들에 대한 해결방법은 디코딩된 오디오 신호를 잡음으로 보완하는 블라인드 방법이다. 이는 대역폭 확장 도구들과 대조적으로 제 1코더의 지식이 필요치 않다는 것을 의미한다. 그러나, 두개의 인코더들 및 디코더들이 그들의 특정 동작에 대한 (부분적) 지식을 가지는 전용 해결방법들이 가능하다.
도 2는 본 발명의 원리를 기술한다. 본 방법은 제 1 디코더(203)에 의하여 디코딩될 오디오 신호 x를 인코딩함으로써 비트 스트림 b1을 생성하는 제 1 인코더를 포함한다. 제 1 인코더 및 제 1 디코더사이에서, 적응부(205)는 네트워크를 통한 전송전에 제거되는 계층들일 수 있는 비트 스트림 b1을 생성하기 위하여 수행되며, 제 1 인코더 및 제 1 디코더는 적응부가 수행되는 방법에 대한 지식을 가지지 않는다. 제 1 디코더(203)에서, 적응된 비트 스트림 b1'은 디코딩된후 신호 x1'를 생성한다. 본 발명에 따르면, 제 2인코더(207)는 오디오 신호 x의 시간 및 스펙트럼 엔벨로프들의 설명을 획득하기 위하여 전체 입력 신호 x를 분석한다. 선택적으로, 제 2 인코더는 사이코-음향 관련 데이터, 예컨대 입력 신호에 의하여 유도된 마스킹 곡선을 포착하기 위한 정보를 생성할 수 있다. 이는 제 2 디코더(209)의 입력으로서 비트스트림 b2를 야기한다. 이러한 2차 데이터 b2로부터 잡음이 생성되며, 이러한 잡음은 단지 시간 및 스펙트럼 엔벨로프로 입력 신호를 모방하거나 또는 원래의 입력과 동일한 마스킹 곡선을 발생시키나 원래의 신호와 완전히 매칭되는 파형을 손실시킨다. 제 1디코딩된 신호 x1' 및 잡음 신호(의 특징)의 비교로부터, 보완이 필요하지 않는 제 1신호의 부분들은 제 2디코더(209)에서 결정되어 잡음 신호 x2'를 생성한다. 최종적으로, 가산기(211)를 사용하여 x1' 및 x2'를 가산함으로써, 디코딩된 신호 x'가 생성된다.
제 2 인코더(207)는 입력 신호 x 또는 마스킹 곡선의 스펙트럼-시간 엔벨로프의 설명을 인코딩한다. 스펙트럼-시간 엔벨로프를 유도하기 위한 전형적인 방식은 선형 예측을 사용하고(예측 계수들을 생성하고, 여기서 선형 예측은 FIR 또는 IIR 필터들과 연관될 수 있다), 예컨대 음 정형(TNS)에 의하여 (로컬) 에너지 레벨 또는 시간 엔벨로프에 대한 선형 예측에 의하여 생성된 오차를 분석한다. 이 경우에, 비트 스트림 b2는 시간 진폭 또는 에너지 엔벨로프에 대한 파라미터들, 및 스펙트럼 엔벨로프에 대한 필터 계수들을 포함한다.
도 3에서는 추가 잡음 신호를 생성하는 제 2인코더의 원리가 기술된다. 제 2디코더(301)는 스펙트럼-시간 정보를 b2로 수신하며, 이러한 정보에 기초하여 생 성기(303)는 입력신호 x와 동일한 스펙트럼-시간 엔벨로프를 가진 잡음 신호 r2'를 생성할 수 있다. 그러나, 이러한 신호 r2'는 원래의 신호 x와 매칭되는 파형을 손실한다. 신호 x의 부분이 이미 비트 스트림 b1에 포함되고 이에 따라 x1'에 포함되기 때문에, 입력 b2' 및 x1'를 가진 제어 박스(305)는 어느 스펙트럼-시간 부분들이 x1'로 커버링되는지를 결정한다. 이러한 지식으로부터, 잡음 신호 r2'에 적용될때 x1'에 불충분하게 포함되는 스펙트럼-시간 부분들을 커버링하는 잡음신호 x2'를 생성하는 시변 필터(307)가 설계될 수 있다. 복잡성이 감소되기 때문에, 생성기(303)로부터의 정보는 제어박스(305)에 액세스가능할 수 있다.
스펙트럼-시간 정보 b2가 스펙트럼 및 시간 엔벨로프들을 개별적으로 기술하는 필터 계수들에 포함되는 경우에, 생성기(303)에서의 처리는 전형적으로 확률적 신호의 현실화를 생성하는 단계, 전송된 시간 엔벨로프에 따라 진폭(또는 에너지)을 조절하는 단계, 및 합성 필터에 의하여 필터링하는 단계를 포함한다. 도 4에서는 생성기(303) 및 시변 필터(307)에 어느 엘리먼트들이 포함될 수 있는지가 상세히 기술된다. 신호 x2' 생성단계는 잡음 생성기(401)를 사용하여 (백색) 잡음 시퀀스를 생성하는 단계 및 3가지 처리단계들(403, 405, 407)을 포함한다. 이러한 3가지 처리단계들은,
- b2의 데이터에 따라 시간 정형기(403)에 의하여 시간 엔벨로프 적응을 수행하여 r2를 생성하는 단계;
- b2의 데이터에 따라 스펙트럼 정형기(405)에 의하여 스펙트럼 엔벨로프 적응을 수행하여 r2'를 생성하는 단계; 및
- 도 3의 제어 박스(305)로부터의 시변 계수들 c2를 사용하여 적응 필터(407)에 의하여 필터링 동작을 수행하는 단계이다.
이들 3가지 처리 단계들의 순서는 임의적이라는 것을 유의해야 한다. 적응 필터(407)는 트랜스버설 필터(태핑된-지연-라인) 및 ARMA 필터에 의하여 주파수 영역을 필터링하거나 또는 왜곡된 선형 예측 또는 라게르 및 카츠 기반 선형 예측시 나타나는 필터와 같은 사이코-음향 검사 필터들에 의하여 실현될 수 있다.
적응 필터(407)를 한정하고 제어 박스에 의하여 파라미터들 c2를 추정하기 위한 다수의 방식들이 존재한다.
도 5는 직접 비교를 사용하여 적응 필터 및 제어 박스에서 수행되는 처리의 제 1 실시예를 기술한다. x1' 및 r2'의 (로컬) 스펙트럼들 X1' 및 R2'는 (윈도윙된) 푸리에 변환(501, 503)의 절대값을 취함으로써 생성될 수 있다. 비교기(505)에서, 스펙트럼들 x1' 및 r2'는 x1' 및 r2'의 특징의 차이에 기초하여 목표 필터 스펙트럼과 비교된다. 예컨대, 0 의 값은 x1'의 스펙트럼이 r2'의 스펙트럼을 초과하는 주파수들에 할당될 수 있으며, 1 의 값은 다른 주파수들에 할당될 수 있다. 그 다음에, 이는 적정 주파수 응답을 지정하며, 여려 표준 절차들은 이러한 주파수 동작을 근사하는 필터를 구성하기 위하여 사용될 수 있다. 필터 설계 박스(507)에서 수행되는 필터의 구성은 필터 계수들 c2를 생성한다. 필터 계수들 c2에 기초한 노치 필터(509)에서, 잡음 신호 r2'는 필터링되며, 이에 따라 잡음 신호 x2'는 단지 x1'에 불충분하게 포함되는 스펙트럼-시간 부분들을 포함한다. 최종적으로, 디코딩된 신호 x'는 x1' 및 x2'를 가산함으로써 생성된다. 대안적으로, R2'는 파라 미터 스트림 b2로부터 직접 유도될 수 있다.
도 6은 오차 비교를 사용함으로써 제어 박스 및 적응 필터에서 수행되는 처리의 제 2실시예를 기술한다. 이러한 실시예에서는 비트 스트림 b2이 인코더(Enc2)의 입력 오디오 x에 적용되는 예측 필터의 계수들을 포함한다. 그 다음에, 신호 x1'은 잔차 신호 r1을 생성하는 예측 계수들과 연관된 분석 필터에 의하여 필터링될 수 있다. x1'는 잔차 신호 r1을 생성하는 b2의 스펙트럼 데이터에 기초하여 601에서 스펙트럼으로 우선 평탄화된다. 그 다음에, 로컬 푸리에 변환 R1은 r1로부터 603에서 결정된다. R1의 스펙트럼은 R2의 스펙트럼, 즉 r2의 스펙트럼과 비교된다. r2가 NG에 의하여 생성된 백색 잡음 신호의 상부에 있는 데이터 b2에 기초하여 엔벨로프를 적용함으로써 생성되기 때문에, R2의 스펙트럼은 b2의 파라미터들로부터 직접 결정될 수 있다. 605에서 수행되는 비교는 필터 계수들 c2를 생성하는 필터 설계 박스(607)에 입력되는 목표 필터 스펙트럼을 한정한다.
스펙트럼들의 비교에 대한 대안은 선형 예측을 사용하는 것이다. 비트 스트림 b2가 제 2인코더에 제공되는 예측 필터의 계수들을 포함한다는 것이 가정된다. 그 다음에, 신호 x1'은 잔차 신호 r1을 생성하는 이들 예측 필터들과 연관된 분석 필터에 의하여 필터링될 수 있다. 적응 필터(AF)는 임의 안정 원인 필터들 Fl(z)을 사용하여 다음과 같이 정의될 수 있다.
Figure 112005077799761-pct00001
제어 박스의 작업은 계수들 cl,i = 0,1,...,L을 추정하는 것이다.
F(z)에 의하여 필터링된 r1 및 r2의 합은 평탄 스펙트럼을 가져야 한다. 반복 방식으로 계수들이 지금 결정될 수 있다. 절차는 다음과 같다.
- r1 + r2인 신호 sk는 r2로부터 시작하여 제 1반복 k=1에서 1=r2로 구성된다.
- 선형 예측을 함으로써, 신호 sk의 스펙트럼은 평탄화된다. 선형 예측은 필터 F(k)를 정의한다. 이러한 필터는 r2, k에 적용되어 r2, k+1을 생성한다. 이러한 신호는 다음 반복에서 사용된다.
- 반복은 F(k)가 자명한 필터에 충분히 근접할때, 즉 신호 Sk가 더이상 평탄될 수 없고 그리고 cl,...,cL
Figure 112005077799761-pct00002
0일 때 중지된다.
실제로는 단일 반복이면 충분할 수 있다. 적응 필터는 필터들 F(1) 내지 F(K-1) 의 직렬접속으로 구성되며, 여기서 K는 마지막 반복이다.
비록 도 2에 기술되지 않았지만, 비트 스트림 b2는 부분적으로 스케일링가능할 수 있다. 이는 제 2디코더의 적정 기능을 보장하기 위하여 나머지 스펙트럼-시간 정보가 충분히 손상되지 않는한 허용된다.
앞의 방식은 모든 목적 추가 경로로서 제시되었다. 제 1 및 제 2 인코더와 제 1 및 제 2 디코더가 융합되어 보편성을 희생시키지 않고 보다 양호한 성능(품질, 비트율 및/또는 복잡성의 견지에서)의 장점을 가진 전용 코더들이 획득될 수 있다는 것은 명백하다. 이러한 상황의 예는 도 7에 도시되며, 여기서 제 1 인코더(701) 및 제 2 인코더(703)에 의하여 생성된 비트 스트림들 b1 및 b2는 다중화기(705)를 사용하여 단일 비트 스트림에 융합되며 제 1 인코더(701)는 제 2인코더(703)으로부터의 정보를 사용한다. 결과적으로, 디코더(707)는 x1'을 구성하기 위하여 스트림들 b1 및 b2의 정보를 사용한다.
추가 결합시에, 제 2 인코더는 제 1 인코더의 정보를 사용할 수 있으며, 잡음의 디코딩은 b를 기초로하며, 즉 더 명확하게 분리되지 않는다. 그 다음에, 모든 경우에, 비트 스트림 b는 충분한 상보 잡음신호를 구성할 수 있는 동작에 영향을 미치지 않는한 단지 스케일링될 수 있다.
이하에서는 비트율 스케일링가능 모드에서 동작하는 파라메트릭(또는 사인곡선) 오디오 코더와의 비교시에 본 발명이 사용될 때 특정 예들이 주어질 것이다.
한 프레임으로 제한된 오디오 신호가 x[1]로 표시된다. 이러한 실시예의 기본은 오디오 코더에 선형 예측을 적용함으로써 x[n]의 스펙트럼 형상을 근사화하는 것이다. 이들 예측 방식들의 일반적인 블록도가 도 8에 기술된다. 한 프레임으로 제한된 오디오 신호 x[n]는 LPA 모듈(801)에 의하여 예측되어 예측 오차 r[n] 및 예측 계수들 α1,...,αK가 생성되며, 여기서 예측 차수는 K이다.
예측 오차 r[n]는 x[n]의 스펙트럼적으로 평탄화된 버전이며, 여기서 예측 계수들 α1,...,αK은 이하의 수식 또는 r[n]의 가중된 버전을 최소화함으로써 결정된다.
Figure 112005077799761-pct00003
선형-예측 분석 모듈 LPA의 전달함수는 FA(z)=FA(α1,...,αK; z)에 의하여 표시될 수 있으며, 합성 모듈 LPS의 전달함수는 Fs(z)에 의하여 표시될 수 있으며, 여기서
Figure 112005077799761-pct00004
이다.
LPA 및 LPS 모듈들의 임펄스 응답들은 각각 fA[n] 및 fs[n]에 의하여 표시될 수 있다. 잔차 신호 r[n]의 시간 엔벨로프 Er[n]은 인코더에서 프레임 단위로 측정되며 이의 파라미터들 pE는 비트 스트림에 배치된다.
디코더는 잡음 성분을 생성하여 사인곡선 주파수 파라미터들을 이용함으로써 사인곡선 성분을 보완한다. 비트-스트림에 포함된 데이터 pE로부터 재구성될 수 있는 시간 엔벨로프 Er[n]는 rrandom[n]을 획득하기 위하여 스펙트럼적으로 평탄화된 확률적 신호에 적용되며, 여기서 rrandom[n]는 r[n]와 동일한 시간 엔벨로프를 가진다. rrandom는 또한 다음과 같이 rr로서 언급될 것이다.
프레임과 연관된 사인곡선 주파수들은 θ1,...,θNc에 의하여 표시된다. 보통, 이들 주파수들은 이들이 트랙들을 형성하도록 링크되고 예컨대 프레임 경계들에서 보다 평활한 주파수 전이들을 보장하도록 선형적으로 변화할 수 있기 때문에 파라메트릭 오디오 코더들에서 제약사항으로서 가정된다.
그 다음에, 랜덤 신호는 다음과 같은 대역-거절 필터의 임펄스 응답과 컨벌빙함으로써 이들 주파수들에서 감소된다.
rn[n] = rr[n] * fn[n]
여기서, fn[n] = fn(θ1,...,θNc;n)이며 *는 컨벌루션을 나타낸다. 인코딩된 사인곡선들 둘레의 주파수 범위들을 제외하고 원래의 프레임 x[n]의 스펙트럼 형상은 LPS 모듈(도 8에서 803)을 rn[n]을 적용함으로써 근사화되며 이에 따라 프레임에 대한 잡음 성분이 생성된다:
xn[n] = rn[n] * fs[n]
따라서, 잡음 성분은 적정 스펙트럼 형상을 획득하기 위하여 사인곡선 성분에 따라 적응된다.
프레임 x[n]의 디코딩된 버전 x'[n]은 사인곡선 및 잡음 성분들의 합이다.
x'[n] = xs[n] + xn[n]
사인곡선 성분 xs[n]이 보통의 방식으로 비트-스트림에 포함된 사인곡선 파라미터들로부터 디코딩된다는 것에 유의해야 한다.
Figure 112005077799761-pct00005
여기서, am 및 φm은 각각 사인곡선 m의 진폭 및 위상이며, 비트스트림은 Nc 사인곡선들을 포함한다.
예측 계수들 α1,...,αK 및 시간 엔벨로프로부터 유도된 평균 전력 P는 다음과 같은 사인곡선 진폭 파라미터들의 추정치를 제공한다.
Figure 112005077799761-pct00006
예측 에러들은 δm[n] = am[n] -
Figure 112005077799761-pct00007
m[m]은 작은 것으로 예측되며, 이들을 인코딩하는 것은 저가이다. 결과로서, 진폭 파라미터들은 파라메트릭 오디오 코더들에서 표준 실행인 프레임간 인코딩되지 않는다. 대신에, δm[n]는 인코딩된다. 이는 δm[n]이 프레임 소거에 민감하지 않기 때문에 진폭 파라미터들의 현재 코딩에 대한 장점이다. 주파수 파라미터들은 계속해서 프레임간 차동 인코딩된다. 계층화된 비트-스트림에 진폭 파라미터들이 포함되지 않을때, 사인곡선 성분은 이하의 수식으로 디코더에서 추정된다.
Figure 112005077799761-pct00008
이하에서는 앞의 이론을 사용하는 구체적인 예들이 기술될 것이다. 인코더에서 수행되는 분석 프로세스는 예측 계수들 및 사인곡선 파라미터들을 획득하기 위하여 중첩 진폭 상보 윈도우들을 사용한다. 프레임에 적용된 윈도우는 w[n]으로 표시된다. 적절한 윈도우는 다음과 같은 한 윈도우이다.
Figure 112005077799761-pct00009
여기서, Ns 샘플들의 기간은 10-60ms에 대응한다. 입력신호는 측정 예측 계수들에 기초하여 계수들이 규칙적으로 업데이트되는 분석 필터를 통해 공급되며, 이에 따라 잔차 신호 r[n]가 생성된다. 시간 엔벨로프 Er[n]가 측정되며, 이의 파라미터들 pE는 비트 스트림에 배치된다. 게다가, 예측 계수들 및 사인곡선 파라미터들은 비트-스트림에 배치되며 디코더에 전송된다.
디코더에서, 스펙트럼 평탄화 랜덤 신호 rstochastic[n]은 자유 실행 잡음 생성기로부터 생성된다. 프레임에 대한 랜덤 신호의 진폭은 이의 엔벨로프가 신호 rframe[n]을 야기하는 비트 스트림에서 데이터 pE에 대응하도록 조절된다.
rframe[n]는 윈도윙되며, 이와같이 윈도윙된 신호의 푸리에 변환은 Rw에 의하여 표시된다. 이러한 푸리에 변환으로부터, 전송된 사인곡선 성분들 주위의 영역들은 대역-거절 필터에 의하여 제거된다.
주파수들 θ1[n],...,θNc[n]에서 제로(zero)들을 가진 대역-거절 필터는 다음과 같은 전달함수를 가진다.
Figure 112005077799761-pct00010
여기서 wn(θ)은 다음과 같은 한 윈도우이다.
Figure 112005077799761-pct00011
여기서, (유효) 대역폭 θBW는 시간 윈도우 w[n]의 (스펙트럼) 주로브의 폭과 동일하다. 프레임에 대한 잡음 성분은 대역-거절 필터 및 LPS 모듈을 적용함으로써 획득되며, 즉 xn = IDFE(Rw
Figure 112005077799761-pct00012
Fn
Figure 112005077799761-pct00013
Fs)이며, 여기서 Fn 및 Fs는 Fs 및 Fn의 개략적으로 샘플링된 버전들이며, 여기서 IDFT는 역 DFT이다. 연속 시퀀스 xn은 잡음 신호를 형성하기 위하여 중첩 가산될 수 있다.
도 9에는 본 발명에 따른 인코더의 실시예가 기술된다. 첫째, 선형 예측 분석은 예측 계수들 K 및 오차 r[n]을 생성하는 선형 예측 분석기(901)을 사용하여 오디오 신호에 대하여 수행된다. 다음으로, 오차의 시간 엔벨로프 Er[n]는 903에서 결정되며, 출력은 파라미터들 pE를 포함한다. E와 함께 r[n] 및 원래의 오디오 신호 x[n]은 오차 코더(905)에 입력된다. 오차 코더는 수정된 사인곡선 코더이다. 오차 r[n]에 포함된 사인곡선들은 x[n]을 사용하는 동안 코딩되며 이에 따라 코딩된 오치 Cr이 생성된다(사인곡선들의 지각 관련성 및 스펙트럼 및 시간 마스킹 효과들의 형태인 지각 정보는 x[n]로부터 획득된다). 게다가, pE는 앞서 기술된 방식과 유사한 방식으로 사인곡선 진폭 파라미터들을 인코딩하기 위하여 사용된다. 그 다음에, 오디오 신호 x는 α1,....,αK, pE 및 cr에 의하여 표현된다.
디코딩된 오디오 신호 x'를 생성하기 위하여 α1,....,αK, pE 및 cr를 디코딩하는 디코더는 도 10에 기술된다. 디코더에서, cr은 오차 디코더(1005)에서 디코딩되며, 이에 따라 r[n]에 포함된 결정 성분들(또는 사인곡선들)의 근사치인 rs[n]가 생성된다. cr에 포함된 사인곡선 주파수 파라미터들 α1,....,αNc는 대역-거절 필터(1001)에 공급된다. 백색 잡음 모듈(1003)은 시간 엔벨로프 Er[n]을 가진 스펙트럼 평탄화 랜덤 신호 rr[n]을 생성한다. 대역-거절 필터(1001)에 의하여 rr[n]을 필터링하면, 인코더에서 오차 r[n]의 근사치인 스펙트럼 평탄화 rd[n]이 생성된다. 원래의 오디오 신호의 스펙트럼 엔벨로프는 예측 계수들 α1,....,αK이 주어질때 선형 예측 합성 필터(1007)를 rd[n]에 적용함으로써 근사화된다. 결과적인 신호 x'[n]는 x[n]의 디코딩된 버전이다.
도 11에서는 본 발명에 따른 인코더의 다른 실시예가 기술된다. 오디오 신호 x[n] 그 자체는 사인곡선 코더(1101)에 의하여 코딩되며, 이는 도 9의 실시예와 대조적이다. 선형 예측 분석(1103)은 오디오 신호 x[n]에 적용되며, 이에 따라 예측 계수들 α1,....,αK 및 오차 r[n]이 생성된다. 오차 Er[n]의 시간 엔벨로프는 1105에서 결정되며, 이의 파라미터들은 pE에 포함된다. x[n]에 포함된 사인곡선들은 사인곡선 코더(1101)에 의하여 코딩되며, 여기서 pE 및 예측 계수들 α1,....,αK는 초기에 논의된 바와같이 진폭 파라미터들을 인코딩하기 위하여 사용되며, 이의 결과는 코딩된 신호 cx이다. 그 다음에, 오디오 신호 x는 α1,....,αK, pE 및 cx에 의하여 표현된다.
디코딩된 오디오 신호 x'를 생성하기 위하여 파라미터들 α1,....,αK, pE 및 cx을 디코딩하기 위한 디코더는 도 12에 기술된다. 디코더 방식에서, cx는 pE 및 예측 계수들 α1,....,αK을 사용하는 동안 사인곡선 디코더(1201)에 의하여 디코딩되며, 이에 따라 xs[n]이 생성된다. 백색 잡음 모듈(1203)은 Er[n]의 시간 엔벨로프를 가진 스펙트럼 평탄화 랜덤 신호 rr[n]을 생성한다. cx에 포함된 사인곡선 주파수 파라미터들 θ1,...,θNc은 대역-거절 필터(1205)에 공급된다. 대역-거절 필터(1205)를 rr[n]에 적용하면 rn[n]이 생성된다. 예측 계수들 α1,....,αK이 주어질때 LPS 모듈(1027)을 rn[n]에 적용하면 잡음 성분 xn[n]이 생성된다. xn[n] 및 xs[n]을 가산하면 x[n]의 디코딩된 버전인 x'[n]이 생성된다.
앞의 상세한 설명은 범용 또는 특수목적 프로그램가능 마이크로프로세서들, 디지털 신호 프로세서들(DSP), 주문형 집적회로(ASIC), 프로그램가능 논리 어레이들(PLA), 필드 프로그램 가능 게이트 어레이들(FPGA), 특수목적 전자회로들 등, 또는 이들이 구현될 수도 있다는 것을 유의해야 한다.
앞서 언급된 실시예들이 본 발명을 제한하는 것보다 오히려 예시적인 것이며 당업자가 첨부된 청구항들의 범위로부터 벗어나지 않고 많은 대안 실시예들을 설계할 것이라는 것을 유의해야 한다. 청구항들에서, 괄호내에 삽입된 임의의 참조부호들은 청구항을 제한하는 것으로 구성되지 않아야 한다. 용어 "포함한다"는 청구항에서 리스트된 것들과 다른 엘리먼트들 또는 단계들의 존재를 배제하지 않는다. 본 발명은 여러 개별 엘리먼트들을 포함하는 하드웨어 및 적절하게 프로그래밍된 컴퓨터에 의하여 구현될 수 있다. 장치 청구항에서, 다수의 여러 수단들은 하나 및 동일한 하드웨어 항목에 의하여 구현될 수 있다. 임의의 측정치들이 다른 종속 항들에서 인용된 단순한 사실은 이들 측정치들의 결합이 유리한 것으로 사용될 수 없다는 것을 지시하지 않는다.

Claims (13)

  1. 오디오 신호(x)를 인코딩하는 방법으로서, 미리 정해진 코딩 방법(201)에 따라 상기 오디오 신호(x)로부터 코드 신호(b1)가 생성되는, 상기 오디오 신호(x) 인코딩 방법에 있어서:
    - 상기 오디오 신호(x) 내의 스펙트럼-시간 정보의 적어도 일부를 규정하는 변환 파라미터들(b2)의 세트로 상기 오디오 신호(x)를 변환하는 단계(207)로서, 상기 변환 파라미터들(b2)은 상기 오디오 신호의 스펙트럼-시간 특성들과 실질적으로 유사한 스펙트럼-시간 특성들을 갖는 잡음 신호의 생성을 가능하게 하는, 상기 오디오 신호(x) 변환 단계(207); 및
    - 상기 코드 신호(b1) 및 상기 변환 파라미터들(b2)에 의하여 상기 오디오 신호(x)를 표현하는 단계;를 포함하고,
    상기 변환 파라미터들(b2)은 상기 오디오 신호(x)의 마스킹 곡선 및/또는 여기 패턴(excitation pattern) 및/또는 음의 세기(loudness)와 같은 사이코-음향 데이터(psycho-acoustic data)를 포함하는, 오디오 신호(x) 인코딩 방법.
  2. 제 1 항에 있어서,
    상기 변환 파라미터들(b2)은 상기 오디오 신호(x)의 전력 레벨, 이득, 진폭 레벨, 에너지 레벨 및 적어도 하나의 예측 계수(α1, ..., αK)로부터 선택된 하나 이상의 파라미터를 포함하는, 오디오 신호(x) 인코딩 방법.
  3. 삭제
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 코드 신호(b1)는 상기 오디오 신호(x)의 적어도 하나의 사인 곡선 성분을 규정하는 진폭 및 주파수 파라미터들을 포함하는, 오디오 신호(x) 인코딩 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 변환 파라미터들(b2)은 상기 오디오 신호(x)의 사인 곡선 성분들의 진폭 추정치를 나타내는, 오디오 신호(x) 인코딩 방법.
  6. 미리 정해진 코딩 방법(201)에 따라 생성된 코드 신호(b1) 및 변환 파라미터들(b2)로부터 오디오 신호를 디코딩하기 위한 방법에 있어서:
    - 상기 미리 정해진 코딩 방법(201)에 대응하는 디코딩 방법(203)을 사용하여 상기 코드 신호(b1)를 제 1 오디오 신호(x1')로 디코딩하는 단계;
    - 상기 오디오 신호의 스펙트럼-시간 특성들과 실질적으로 유사한 스펙트럼-시간 특성들을 갖는 잡음신호(r2')를 상기 변환 파라미터들(b2)로부터 생성하는 단계;
    - 상기 제 1 오디오 신호(x1')에 이미 포함된 상기 오디오 신호의 스펙트럼-시간 부분들을 상기 잡음 신호(r2')로부터 제거함으로써 제 2 오디오 신호(x2')를 생성하는 단계; 및
    - 상기 제 1 오디오 신호(x1')와 상기 제 2 오디오 신호(x2')를 가산함으로써(211) 상기 오디오 신호(x')를 생성하는 단계를 포함하는, 오디오 신호 디코딩 방법.
  7. 제 6 항에 있어서,
    상기 제 2 오디오 신호(x2')를 생성하는 단계는:
    - 상기 잡음 신호(r2')의 스펙트럼과 상기 제 1 오디오 신호(x1')의 스펙트럼을 비교함으로써 주파수 응답을 유도하는 단계; 및
    - 상기 주파수 응답에 따라 상기 잡음 신호(r2')를 필터링하는 단계를 포함하는, 오디오 신호 디코딩 방법.
  8. 제 6 항에 있어서,
    상기 제 2 오디오 신호(x2')를 생성하는 단계는:
    - 상기 변환 파라미터들(b2)의 스펙트럼 데이터에 의존하여 상기 제 1 오디오 신호(x1')를 스펙트럼적으로 평탄화함으로써 제 1 잔차 신호(residual signal)(r1)를 생성하는 단계;
    - 상기 변환 파라미터들(b2)의 시간 데이터에 의존하여 잡음 시퀀스를 시간적으로 정형함으로써 제 2 잔차 신호(r2)를 생성하는 단계;
    - 상기 제 2 잔차 신호(r2)의 스펙트럼과 상기 제 1 잔차 신호(r1)의 스펙트럼을 비교함으로써 주파수 응답을 유도하는 단계; 및
    - 상기 주파수 응답에 따라 상기 잡음 신호(r2')를 필터링하는 단계를 포함하는, 오디오 신호 디코딩 방법.
  9. 제 6 항에 있어서,
    상기 제 2 오디오 신호(x2')를 생성하는 단계는:
    - 상기 변환 파라미터들(b2)의 스펙트럼 데이터에 의존하여 상기 제 1 오디오 신호(x1')를 스펙트럼적으로 평탄화함으로써 제 1 잔차 신호(r1)를 생성하는 단계;
    - 상기 변환 파라미터들(b2)의 시간 데이터에 의존하여 잡음 시퀀스를 시간적으로 정형함으로써 제 2 잔차 신호(r2)를 생성하는 단계;
    - 상기 제 1 잔차 신호(r1) 및 상기 제 2 잔차 신호(r2)를 합 신호(sk)로 가산하는 단계;
    - 상기 합 신호(sk)를 스펙트럼적으로 평탄화하기 위한 주파수 응답을 유도하는 단계;
    - 상기 주파수 응답에 따라 상기 제 2 잔차 신호(r2)를 필터링함으로써 상기 제 2 잔차 신호(r2)를 업데이트하는 단계;
    - 상기 합 신호(sk)의 스펙트럼이 실질적으로 평탄해질 때까지 상기 가산단계, 상기 유도단계 및 상기 업데이트 단계를 반복하는 단계; 및
    - 상기 모든 유도된 주파수 응답들에 따라 상기 잡음신호(r2')를 필터링하는 단계를 포함하는, 오디오 신호 디코딩 방법.
  10. 오디오 신호(x)를 인코딩하기 위한 디바이스(102)로서, 미리 정해진 코딩 방법에 따라 코드 신호(b1)를 생성하는 제 1 인코더(701)를 포함하는, 상기 오디오 신호(x) 인코딩 디바이스(102)에 있어서:
    - 상기 오디오 신호(x) 내의 스펙트럼-시간 정보의 적어도 일부를 규정하는 변환 파라미터들(b2)의 세트로 상기 오디오 신호(x)를 변환하기 위한 제 2 인코더(703)로서, 상기 변환 파라미터들(b2)은 상기 오디오 신호의 스펙트럼-시간 특성들과 실질적으로 유사한 스펙트럼-시간 특성들을 갖는 잡음 신호의 생성을 가능하게 하는 상기 제 2 인코더(703); 및
    - 상기 코드 신호(b1) 및 상기 변환 파라미터들(b2)에 의하여 상기 오디오 신호(x)를 표현하는 처리 수단(705);을 포함하고,
    상기 변환 파라미터들(b2)은 상기 오디오 신호(x)의 마스킹 곡선 및/또는 여기 패턴(excitation pattern) 및/또는 음의 세기(loudness)와 같은 사이코-음향 데이터(psycho-acoustic data)를 포함하는, 오디오 신호(x) 인코딩 디바이스.
  11. 미리 정해진 코딩 방법(201)에 따라 생성된 코드 신호(b1) 및 변환 파라미터들(b2)로부터 오디오 신호를 디코딩하기 위한 디바이스(107)에 있어서:
    - 상기 미리 정해진 코딩 방법(201)에 대응하는 디코딩 방법을 이용하여 상기 코드 신호(b1)를 제 1 오디오 신호(x1')로 디코딩하는 제 1 디코더(203);
    - 상기 오디오 신호의 스펙트럼-시간 특성들과 실질적으로 유사한 스펙트럼-시간 특성들을 갖는 잡음 신호(r2')를 상기 변환 파라미터들(b2)로부터 생성하는 제 2 디코더(209);
    - 상기 제 1 오디오 신호(x1')에 이미 포함되어 있는 오디오 신호의 스펙트럼-시간 부분들을 잡음 신호(r2')로부터 제거함으로써 제 2 오디오 신호(x2')를 생성하는 제 1 처리 수단(305, 307); 및
    - 상기 제 1 오디오 신호(x1')와 상기 제 2 오디오 신호(x2')를 가산함으로써 상기 오디오 신호(x')를 생성하는 가산 수단(211)을 포함하는, 오디오 신호 디코딩 디바이스.
  12. 삭제
  13. 삭제
KR1020057025285A 2003-06-30 2004-06-25 잡음 부가에 의한 디코딩된 오디오의 품질 개선 Expired - Fee Related KR101058062B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03101938 2003-06-30
EP03101938.3 2003-06-30
PCT/IB2004/051010 WO2005001814A1 (en) 2003-06-30 2004-06-25 Improving quality of decoded audio by adding noise

Publications (2)

Publication Number Publication Date
KR20060025203A KR20060025203A (ko) 2006-03-20
KR101058062B1 true KR101058062B1 (ko) 2011-08-19

Family

ID=33547768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057025285A Expired - Fee Related KR101058062B1 (ko) 2003-06-30 2004-06-25 잡음 부가에 의한 디코딩된 오디오의 품질 개선

Country Status (9)

Country Link
US (1) US7548852B2 (ko)
EP (1) EP1642265B1 (ko)
JP (1) JP4719674B2 (ko)
KR (1) KR101058062B1 (ko)
CN (1) CN100508030C (ko)
AT (1) ATE486348T1 (ko)
DE (1) DE602004029786D1 (ko)
ES (1) ES2354427T3 (ko)
WO (1) WO2005001814A1 (ko)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
DE102004039345A1 (de) 2004-08-12 2006-02-23 Micronas Gmbh Verfahren und Vorrichtung zur Rauschunterdrückung in einer Datenverarbeitungseinrichtung
CN101006496B (zh) 2004-08-17 2012-03-21 皇家飞利浦电子股份有限公司 可分级音频编码
WO2006085244A1 (en) * 2005-02-10 2006-08-17 Koninklijke Philips Electronics N.V. Sound synthesis
KR101315075B1 (ko) * 2005-02-10 2013-10-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 사운드 합성
US8738382B1 (en) * 2005-12-16 2014-05-27 Nvidia Corporation Audio feedback time shift filter system and method
US8731913B2 (en) * 2006-08-03 2014-05-20 Broadcom Corporation Scaled window overlap add for mixed signals
JPWO2008053970A1 (ja) * 2006-11-02 2010-02-25 パナソニック株式会社 音声符号化装置、音声復号化装置、およびこれらの方法
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
WO2008084688A1 (ja) * 2006-12-27 2008-07-17 Panasonic Corporation 符号化装置、復号装置及びこれらの方法
FR2911426A1 (fr) * 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
KR101411900B1 (ko) * 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
US8046214B2 (en) * 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
MX2010001394A (es) 2007-08-27 2010-03-10 Ericsson Telefon Ab L M Frecuencia de transicion adaptiva entre llenado de ruido y extension de anchura de banda.
US8249883B2 (en) * 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
KR101441897B1 (ko) * 2008-01-31 2014-09-23 삼성전자주식회사 잔차 신호 부호화 방법 및 장치와 잔차 신호 복호화 방법및 장치
MY160272A (en) * 2011-02-14 2017-02-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E V Audio Codec Using Noise Synthesis During Inactive Phases
SG192734A1 (en) 2011-02-14 2013-09-30 Fraunhofer Ges Forschung Apparatus and method for error concealment in low-delay unified speech and audio coding (usac)
MY165853A (en) 2011-02-14 2018-05-18 Fraunhofer Ges Forschung Linear prediction based coding scheme using spectral domain noise shaping
EP2676270B1 (en) 2011-02-14 2017-02-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Coding a portion of an audio signal using a transient detection and a quality result
WO2012110415A1 (en) 2011-02-14 2012-08-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing a decoded audio signal in a spectral domain
EP2676267B1 (en) 2011-02-14 2017-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of pulse positions of tracks of an audio signal
CN102959620B (zh) 2011-02-14 2015-05-13 弗兰霍菲尔运输应用研究公司 利用重迭变换的信息信号表示
KR20120115123A (ko) * 2011-04-08 2012-10-17 삼성전자주식회사 오디오 패킷을 포함하는 전송 스트림을 전송하는 디지털 방송 송신기, 이를 수신하는 디지털 방송 수신기 및 그 방법들
EP2709103B1 (en) * 2011-06-09 2015-10-07 Panasonic Intellectual Property Corporation of America Voice coding device, voice decoding device, voice coding method and voice decoding method
JP5727872B2 (ja) * 2011-06-10 2015-06-03 日本放送協会 復号化装置及び復号化プログラム
CN102983940B (zh) * 2012-11-14 2016-03-30 华为技术有限公司 数据传输方法、装置及系统
SG10202106262SA (en) * 2013-02-05 2021-07-29 Ericsson Telefon Ab L M Method and apparatus for controlling audio frame loss concealment
DK3096314T3 (en) 2013-02-05 2018-04-03 Ericsson Telefon Ab L M Masking audio frame loss
US9478221B2 (en) 2013-02-05 2016-10-25 Telefonaktiebolaget Lm Ericsson (Publ) Enhanced audio frame loss concealment
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
US9697843B2 (en) * 2014-04-30 2017-07-04 Qualcomm Incorporated High band excitation signal generation
TW201615643A (zh) * 2014-06-02 2016-05-01 伊史帝夫博士實驗室股份有限公司 具有多重模式抗疼痛活性之1-氧雜-4,9-二氮雜螺十一烷化合物之烷基與芳基衍生物
JP6797187B2 (ja) 2015-08-25 2020-12-09 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ・デコーダおよびデコード方法
JP7075405B2 (ja) * 2016-12-28 2022-05-25 コーニンクレッカ フィリップス エヌ ヴェ 睡眠呼吸障害の特徴付け方法
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483880A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
KR20220009563A (ko) * 2020-07-16 2022-01-25 한국전자통신연구원 오디오 신호의 부호화 및 복호화 방법과 이를 수행하는 부호화기 및 복호화기

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0878790A1 (en) * 1997-05-15 1998-11-18 Hewlett-Packard Company Voice coding system and method
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
JP4792613B2 (ja) * 1999-09-29 2011-10-12 ソニー株式会社 情報処理装置および方法、並びに記録媒体
FR2821501B1 (fr) * 2001-02-23 2004-07-16 France Telecom Procede et dispositif de reconstruction spectrale d'un signal a spectre incomplet et systeme de codage/decodage associe
BR0204835A (pt) * 2001-04-18 2003-06-10 Koninkl Philips Electronics Nv Métodos para codificar um sinal de áudio, e para decodificar um fluxo de áudio, codificador de áudio, reprodutor de áudio, sistema de áudio, fluxo de áudio, e, meio de armazenamento
EP1382035A1 (en) * 2001-04-18 2004-01-21 Koninklijke Philips Electronics N.V. Audio coding
MXPA03010237A (es) * 2001-05-10 2004-03-16 Dolby Lab Licensing Corp Mejoramiento del funcionamiento de transitorios en sistemas de codificacion de audio de baja tasa de transferencia de bitios mediante la reduccion del pre-ruido.
JP3923783B2 (ja) * 2001-11-02 2007-06-06 松下電器産業株式会社 符号化装置及び復号化装置
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7321559B2 (en) * 2002-06-28 2008-01-22 Lucent Technologies Inc System and method of noise reduction in receiving wireless transmission of packetized audio signals

Also Published As

Publication number Publication date
WO2005001814A1 (en) 2005-01-06
CN100508030C (zh) 2009-07-01
ATE486348T1 (de) 2010-11-15
US7548852B2 (en) 2009-06-16
EP1642265A1 (en) 2006-04-05
ES2354427T3 (es) 2011-03-14
US20070124136A1 (en) 2007-05-31
DE602004029786D1 (de) 2010-12-09
KR20060025203A (ko) 2006-03-20
JP2007519014A (ja) 2007-07-12
JP4719674B2 (ja) 2011-07-06
CN1816848A (zh) 2006-08-09
EP1642265B1 (en) 2010-10-27

Similar Documents

Publication Publication Date Title
KR101058062B1 (ko) 잡음 부가에 의한 디코딩된 오디오의 품질 개선
KR101376762B1 (ko) 디코더 및 대응 디바이스에서 디지털 신호의 반향들의 안전한 구별과 감쇠를 위한 방법
US10083698B2 (en) Packet loss concealment for speech coding
EP1701452B1 (en) System and method for masking quantization noise of audio signals
US6115689A (en) Scalable audio coder and decoder
KR101363793B1 (ko) 부호화 장치, 복호 장치 및 그 방법
US6253165B1 (en) System and method for modeling probability distribution functions of transform coefficients of encoded signal
RU2393552C2 (ru) Комбинированное аудиокодирование, минимизирующее воспринимаемое искажение
KR102184654B1 (ko) 노이즈 주입이 가중된 프레임 손실 보정
JP2003323198A (ja) 符号化方法及び装置、復号方法及び装置、並びにプログラム及び記録媒体
KR100389487B1 (ko) 정보부호화방법및장치,정보복호화방법및장치,및정보전송방법
US7363216B2 (en) Method and system for parametric characterization of transient audio signals
KR20070083856A (ko) 스케일러블 부호화 장치, 스케일러블 복호화 장치 및이러한 방법
EP1442453B1 (en) Frequency-differential encoding of sinusoidal model parameters
KR20040044389A (ko) 부호화 방법 및 장치, 및 복호 방법 및 장치
JP2005114814A (ja) 音声符号化・復号化方法、音声符号化・復号化装置、音声符号化・復号化プログラム、及びこれを記録した記録媒体
Berouti et al. An embedded-code multirate speech transform coder
Kokes et al. A wideband speech codec based on nonlinear approximation

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20051229

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20090625

Comment text: Request for Examination of Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20101220

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20110524

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20110812

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20110812

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20150709