JPH05188994A - 騒音抑圧装置 - Google Patents
騒音抑圧装置Info
- Publication number
- JPH05188994A JPH05188994A JP4018478A JP1847892A JPH05188994A JP H05188994 A JPH05188994 A JP H05188994A JP 4018478 A JP4018478 A JP 4018478A JP 1847892 A JP1847892 A JP 1847892A JP H05188994 A JPH05188994 A JP H05188994A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- voice
- code
- interest
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
(57)【要約】
【目的】 騒音を抑圧する。
【構成】 コード変換器6において、騒音付加音声のコ
ードbxと騒音無し音声のコードajとを確率的に対応づ
けたコード変換表が参照され、ベクトル量子化器5で騒
音付加音声より抽出したケプストラム係数がベクトル量
子化されて得られたコードが、騒音付加音声の騒音を抑
制した音声のコードに変換される。合成フィルタ10に
おいて、そのコードより求められた線形予測係数によ
り、音声信号が再生される。
ードbxと騒音無し音声のコードajとを確率的に対応づ
けたコード変換表が参照され、ベクトル量子化器5で騒
音付加音声より抽出したケプストラム係数がベクトル量
子化されて得られたコードが、騒音付加音声の騒音を抑
制した音声のコードに変換される。合成フィルタ10に
おいて、そのコードより求められた線形予測係数によ
り、音声信号が再生される。
Description
【0001】
【産業上の利用分野】本発明は、例えば音声に含まれる
騒音を抑圧する場合に用いて好適な騒音抑圧装置に関す
る。
騒音を抑圧する場合に用いて好適な騒音抑圧装置に関す
る。
【0002】
【従来の技術】従来の騒音抑圧装置においては、例えば
騒音を含む音声のスペクトルを計算し、さらに騒音のみ
のスペクトルを計算し、騒音を含む音声のスペクトルと
騒音のみのスペクトルとの差分をとることにより、騒音
の除去(抑圧)が行われる。
騒音を含む音声のスペクトルを計算し、さらに騒音のみ
のスペクトルを計算し、騒音を含む音声のスペクトルと
騒音のみのスペクトルとの差分をとることにより、騒音
の除去(抑圧)が行われる。
【0003】また、騒音をスペクトル分析し、そのスペ
クトルから騒音を生成するフィルタの逆特性を有する適
応逆フィルタを求め、この適応逆フィルタに騒音を含む
音声を通すことにより、騒音の除去(抑圧)を行う騒音
抑圧装置が実現されている。
クトルから騒音を生成するフィルタの逆特性を有する適
応逆フィルタを求め、この適応逆フィルタに騒音を含む
音声を通すことにより、騒音の除去(抑圧)を行う騒音
抑圧装置が実現されている。
【0004】
【発明が解決しようとする課題】このように、従来の騒
音抑圧装置では、騒音と騒音を含む音声とが独立に処理
されるので、騒音および騒音を含む音声を入力するため
の例えばマイクなどが独立に必要になり、即ち少なくと
も2つのマイクが必要になり、装置を構成する回路が多
くなり、その製作コストが高くなる課題があった。
音抑圧装置では、騒音と騒音を含む音声とが独立に処理
されるので、騒音および騒音を含む音声を入力するため
の例えばマイクなどが独立に必要になり、即ち少なくと
も2つのマイクが必要になり、装置を構成する回路が多
くなり、その製作コストが高くなる課題があった。
【0005】本発明は、このような状況に鑑みてなされ
たものであり、装置を簡単、且つ小型に構成し、低コス
ト化することができるようにするものである。
たものであり、装置を簡単、且つ小型に構成し、低コス
ト化することができるようにするものである。
【0006】
【課題を解決するための手段】請求項1に記載の騒音抑
圧装置は、注目音声および騒音を含む注目音声を入力す
る入力手段としてのマイク1と、注目音声の特徴パラメ
ータおよび騒音を含む注目音声の特徴パラメータを抽出
する特徴パラメータ抽出手段としての線形予測分析器
(LPC分析器)3およびケプストラム算出器4と、注
目音声の特徴パラメータと騒音を含む注目音声の特徴パ
ラメータをベクトル量子化し、注目音声のコードおよび
騒音を含む注目音声のコードを作成するコード作成手段
としてのベクトル量子化器5と、注目音声のコードと騒
音を含む注目音声のコードとを確率的に対応付け、騒音
を含む注目音声のコードを注目音声のコードに変換する
コード変換手段としてのコード変換器6とを備えること
を特徴とする。
圧装置は、注目音声および騒音を含む注目音声を入力す
る入力手段としてのマイク1と、注目音声の特徴パラメ
ータおよび騒音を含む注目音声の特徴パラメータを抽出
する特徴パラメータ抽出手段としての線形予測分析器
(LPC分析器)3およびケプストラム算出器4と、注
目音声の特徴パラメータと騒音を含む注目音声の特徴パ
ラメータをベクトル量子化し、注目音声のコードおよび
騒音を含む注目音声のコードを作成するコード作成手段
としてのベクトル量子化器5と、注目音声のコードと騒
音を含む注目音声のコードとを確率的に対応付け、騒音
を含む注目音声のコードを注目音声のコードに変換する
コード変換手段としてのコード変換器6とを備えること
を特徴とする。
【0007】この騒音抑圧装置は、コード変換器6によ
り変換された注目音声のコードから注目音声の特徴パラ
メータを再生する特徴パラメータ再生手段としてのベク
トル逆量子化器7および線形予測係数算出器(LPC算
出器)8と、再生された注目音声の特徴パラメータより
注目音声を生成する音声生成手段としての合成フィルタ
10、D/A変換器11、およびスピーカ12とをさら
に備えることができる。
り変換された注目音声のコードから注目音声の特徴パラ
メータを再生する特徴パラメータ再生手段としてのベク
トル逆量子化器7および線形予測係数算出器(LPC算
出器)8と、再生された注目音声の特徴パラメータより
注目音声を生成する音声生成手段としての合成フィルタ
10、D/A変換器11、およびスピーカ12とをさら
に備えることができる。
【0008】
【作用】請求項1に記載の騒音抑圧装置においては、マ
イク1より入力された注目音声および騒音を含む注目音
声の特徴パラメータを抽出し、抽出した注目音声の特徴
パラメータと騒音を含む注目音声の特徴パラメータをベ
クトル量子化し、注目音声のコードおよび騒音を含む注
目音声のコードを作成し、注目音声のコードと騒音を含
む注目音声のコードとを確率的に対応付け、騒音を含む
注目音声のコードを注目音声のコードに変換する。従っ
て、マイク1より入力される騒音を抑制することができ
る。
イク1より入力された注目音声および騒音を含む注目音
声の特徴パラメータを抽出し、抽出した注目音声の特徴
パラメータと騒音を含む注目音声の特徴パラメータをベ
クトル量子化し、注目音声のコードおよび騒音を含む注
目音声のコードを作成し、注目音声のコードと騒音を含
む注目音声のコードとを確率的に対応付け、騒音を含む
注目音声のコードを注目音声のコードに変換する。従っ
て、マイク1より入力される騒音を抑制することができ
る。
【0009】コード変換器6により変換された注目音声
のコードから注目音声の特徴パラメータを再生し、再生
した注目音声の特徴パラメータより注目音声を生成する
場合においては、騒音を抑制した注目音声を確認するこ
とができる。
のコードから注目音声の特徴パラメータを再生し、再生
した注目音声の特徴パラメータより注目音声を生成する
場合においては、騒音を抑制した注目音声を確認するこ
とができる。
【0010】
【実施例】図1は、本発明の騒音抑圧装置の一実施例の
構成を示すブロック図である。マイク1は、入力された
音声を電気信号(音声信号)に変換する。A/D変換器
2は、マイク1より出力された音声信号を所定のサンプ
リング周期でサンプリング(標本化)する(A/D変換
する)。LPC分析器(線形予測分析器)3は、A/D
変換器2より出力される標本化された音声信号(標本
値)を、所定の分析区間単位で、いわゆる線形予測し、
線形予測係数(LPC)(αパラメータ)を算出する。
構成を示すブロック図である。マイク1は、入力された
音声を電気信号(音声信号)に変換する。A/D変換器
2は、マイク1より出力された音声信号を所定のサンプ
リング周期でサンプリング(標本化)する(A/D変換
する)。LPC分析器(線形予測分析器)3は、A/D
変換器2より出力される標本化された音声信号(標本
値)を、所定の分析区間単位で、いわゆる線形予測し、
線形予測係数(LPC)(αパラメータ)を算出する。
【0011】即ち、現在時刻tの標本値xt、およびこ
れに隣接する過去のp個の標本値xt -1,xt-2,・・
・,xt-pに、 xt+α1xt-1+α2xt-2+・・・+αpxt-p=εt (1) のような、線形1次結合が成立すると仮定する。但し、
{εt}(・・・,εt-1,εt,εt+1,・・・)は、平
均値0、分散σ2(σは所定値)の互いに無相関な確率
変数、またα1,α2,・・・,αpは、上述したLPC
分析器3により算出される線形予測係数(LPCまたは
αパラメータ(アルファパラメータ))である。
れに隣接する過去のp個の標本値xt -1,xt-2,・・
・,xt-pに、 xt+α1xt-1+α2xt-2+・・・+αpxt-p=εt (1) のような、線形1次結合が成立すると仮定する。但し、
{εt}(・・・,εt-1,εt,εt+1,・・・)は、平
均値0、分散σ2(σは所定値)の互いに無相関な確率
変数、またα1,α2,・・・,αpは、上述したLPC
分析器3により算出される線形予測係数(LPCまたは
αパラメータ(アルファパラメータ))である。
【0012】また、現在時刻tの標本値xtの予測値
(線形予測値)をx’tとすれば、線形予測値x’tは、
過去のp個の標本値xt-1,xt-2,・・・,xt-pより
式(2)のように表すことができる(線形予測すること
ができる)。 x’t=−(α1xt-1+α2xt-2+・・・+αpxt-p) (2) 従って、式(1)および(2)より、 xt−x’t=εt (3) となり、εtは、実際の標本値xtに対する線形予測値
x’tの誤差(線形予測残差または残差)ということが
できる。
(線形予測値)をx’tとすれば、線形予測値x’tは、
過去のp個の標本値xt-1,xt-2,・・・,xt-pより
式(2)のように表すことができる(線形予測すること
ができる)。 x’t=−(α1xt-1+α2xt-2+・・・+αpxt-p) (2) 従って、式(1)および(2)より、 xt−x’t=εt (3) となり、εtは、実際の標本値xtに対する線形予測値
x’tの誤差(線形予測残差または残差)ということが
できる。
【0013】LPC分析器3は、この実際の標本値xt
と線形予測値x’tとの間の誤差(残差)εtの2乗和E
tが最小になるように、式(1)の係数(αパラメー
タ)α1,α2,・・・,αpを算出する。
と線形予測値x’tとの間の誤差(残差)εtの2乗和E
tが最小になるように、式(1)の係数(αパラメー
タ)α1,α2,・・・,αpを算出する。
【0014】ケプストラム算出器4は、LPC算出器3
により算出されたαパラメータからケプストラム係数c
1,c2,・・・,cqを算出する(qはあらかじめ定め
た所定の次数)。ここで、信号のケプストラムとは、信
号のスペクトルの対数の逆フーリエ変換で、低次のケプ
ストラム係数は、信号のスペクトル包絡線の特徴を、高
次のケプストラム係数は、信号のスペクトルの微細部分
の特徴を表すことが知られている。さらに、ケプストラ
ム係数c1,c2,・・・,cqは、線形予測係数α1,α
2,・・・,αpより、次に示す再帰式によって得られる
ことが知られている。 c1=α1 (4) ck=−αk−((1−1/k)α1ck-1+(1−2/k)α2ck-2+ ・・・+(1−(k−1)/k)αk-1ck-(k-1)) 但し、1<k<p (5) ck=−((1−1/k)α1ck-1+(1−2/k)α2ck-2+ ・・・+(1−p/k)αpck-p) 但し、p<k (6)
により算出されたαパラメータからケプストラム係数c
1,c2,・・・,cqを算出する(qはあらかじめ定め
た所定の次数)。ここで、信号のケプストラムとは、信
号のスペクトルの対数の逆フーリエ変換で、低次のケプ
ストラム係数は、信号のスペクトル包絡線の特徴を、高
次のケプストラム係数は、信号のスペクトルの微細部分
の特徴を表すことが知られている。さらに、ケプストラ
ム係数c1,c2,・・・,cqは、線形予測係数α1,α
2,・・・,αpより、次に示す再帰式によって得られる
ことが知られている。 c1=α1 (4) ck=−αk−((1−1/k)α1ck-1+(1−2/k)α2ck-2+ ・・・+(1−(k−1)/k)αk-1ck-(k-1)) 但し、1<k<p (5) ck=−((1−1/k)α1ck-1+(1−2/k)α2ck-2+ ・・・+(1−p/k)αpck-p) 但し、p<k (6)
【0015】従って、ケプストラム算出器4は、LPC
算出器3により算出されたαパラメータからケプストラ
ム係数c1,c2,・・・,cq(qはあらかじめ定めた
所定の次数)を、式(4)乃至(6)により計算する。
算出器3により算出されたαパラメータからケプストラ
ム係数c1,c2,・・・,cq(qはあらかじめ定めた
所定の次数)を、式(4)乃至(6)により計算する。
【0016】ベクトル量子化器(エンコーダ)5は、ケ
プストラム算出器4より時系列で(順次)出力されるケ
プストラム係数c1,c2,・・・,cqをq次元のベク
トルとみなし、このベクトルと、標準パターンとしての
ケプストラム係数の集合から歪尺度に基づいてあらかじ
め計算されたq次元のベクトル空間内の例えば256個
の重心(セントロイド)との距離が最も短くなるセント
ロイドにふられたコード(シンボル)を出力する(ベク
トル量子化する)。即ち、ベクトル量子化器5は、ケプ
ストラム算出器4より出力されるケプストラム係数(ベ
クトル)c1,c2,・・・,cqとの距離が最小になる
セントロイドを検出し、あらかじめ作成された、セント
ロイドとセントロイドにふられたコードとの対応を示す
表(コードブック)を参照して、検出したセントロイド
に対応するコードを出力する。
プストラム算出器4より時系列で(順次)出力されるケ
プストラム係数c1,c2,・・・,cqをq次元のベク
トルとみなし、このベクトルと、標準パターンとしての
ケプストラム係数の集合から歪尺度に基づいてあらかじ
め計算されたq次元のベクトル空間内の例えば256個
の重心(セントロイド)との距離が最も短くなるセント
ロイドにふられたコード(シンボル)を出力する(ベク
トル量子化する)。即ち、ベクトル量子化器5は、ケプ
ストラム算出器4より出力されるケプストラム係数(ベ
クトル)c1,c2,・・・,cqとの距離が最小になる
セントロイドを検出し、あらかじめ作成された、セント
ロイドとセントロイドにふられたコードとの対応を示す
表(コードブック)を参照して、検出したセントロイド
に対応するコードを出力する。
【0017】ここで、本実施例においては、標準パター
ンとしての音声だけの騒音無し音声(騒音無し音声のケ
プストラム係数の時系列の集合)から得られた、例えば
256個のコードai(1≦i≦256)を有するコー
ドブック、および音声に騒音を付加した騒音付加音声
(騒音付加音声のケプストラム係数の時系列の集合)か
ら得られた例えば256個のコードbi(1≦i≦25
6)を有するコードブックがあらかじめ作成されてお
り、各コードブックはメモリ(図示せず)に記憶されて
いる。
ンとしての音声だけの騒音無し音声(騒音無し音声のケ
プストラム係数の時系列の集合)から得られた、例えば
256個のコードai(1≦i≦256)を有するコー
ドブック、および音声に騒音を付加した騒音付加音声
(騒音付加音声のケプストラム係数の時系列の集合)か
ら得られた例えば256個のコードbi(1≦i≦25
6)を有するコードブックがあらかじめ作成されてお
り、各コードブックはメモリ(図示せず)に記憶されて
いる。
【0018】コード変換器6は、その内蔵するメモリ
(図示せず)に記憶されている、後述するコード変換表
を参照して、ベクトル量子化器5より出力される、騒音
を含む注目音声(騒音付加音声)から得られたコード
を、注目音声(騒音無し音声)から得られたコードに変
換する。ベクトル逆量子化器(デコーダ)7は、前述し
たメモリに記憶されている、騒音無し音声から得られた
256個のコードai(1≦i≦256)を有するコー
ドブックを参照して、コード変換器6より出力される、
騒音無し音声から得られたコードを、そのコードに対応
するセントロイド、即ちq次元のベクトルとみなしたケ
プストラム係数(騒音無し音声のケプストラム係数)c
' 1,c' 2,・・・,c' qにデコード(逆量子化)する。
LPC算出器8は、ベクトル逆量子化器7より出力され
る騒音無し音声のケプストラム係数c' 1,c' 2,・・
・,c' qから、次に示す再帰式にしたがって、騒音無し
音声の線形予測係数α' 1,α' 2,・・・,α' pを計算す
る。 α' 1=c' 1 (7) α' k=−c' k−((1−1/k)α' 1c' k-1+ (1−2/k)α' 2c' k-2+ ・・・+(1−(k−1)/k)α' k-1c' k-(k-1)) 但し、1<k<p (8)
(図示せず)に記憶されている、後述するコード変換表
を参照して、ベクトル量子化器5より出力される、騒音
を含む注目音声(騒音付加音声)から得られたコード
を、注目音声(騒音無し音声)から得られたコードに変
換する。ベクトル逆量子化器(デコーダ)7は、前述し
たメモリに記憶されている、騒音無し音声から得られた
256個のコードai(1≦i≦256)を有するコー
ドブックを参照して、コード変換器6より出力される、
騒音無し音声から得られたコードを、そのコードに対応
するセントロイド、即ちq次元のベクトルとみなしたケ
プストラム係数(騒音無し音声のケプストラム係数)c
' 1,c' 2,・・・,c' qにデコード(逆量子化)する。
LPC算出器8は、ベクトル逆量子化器7より出力され
る騒音無し音声のケプストラム係数c' 1,c' 2,・・
・,c' qから、次に示す再帰式にしたがって、騒音無し
音声の線形予測係数α' 1,α' 2,・・・,α' pを計算す
る。 α' 1=c' 1 (7) α' k=−c' k−((1−1/k)α' 1c' k-1+ (1−2/k)α' 2c' k-2+ ・・・+(1−(k−1)/k)α' k-1c' k-(k-1)) 但し、1<k<p (8)
【0019】予測フィルタ9は、LPC分析器3より出
力される騒音付加音声の線形予測係数α1,α2,・・
・,αpと、この線形予測係数α1,α2,・・・,αpを
計算するときに用いた音声信号xt,xt-1,xt-2,・
・・,xt-pとを式(1)に代入して残差信号εtを計算
する。
力される騒音付加音声の線形予測係数α1,α2,・・
・,αpと、この線形予測係数α1,α2,・・・,αpを
計算するときに用いた音声信号xt,xt-1,xt-2,・
・・,xt-pとを式(1)に代入して残差信号εtを計算
する。
【0020】合成フィルタ10は、LPC算出器8より
出力される騒音無し音声の線形予測係数α' 1,α' 2,・
・・,α' pと、予測フィルタ9より出力される騒音付加
音声の残差信号εtを、式(1)の線形予測係数を騒音
無し音声の線形予測係数に置き換えて変形した式(9)
に代入して、音声信号xtを再生する。 xt=εt−(α' 1xt-1+α' 2xt-2+・・・+α' pxt-p) (9)
出力される騒音無し音声の線形予測係数α' 1,α' 2,・
・・,α' pと、予測フィルタ9より出力される騒音付加
音声の残差信号εtを、式(1)の線形予測係数を騒音
無し音声の線形予測係数に置き換えて変形した式(9)
に代入して、音声信号xtを再生する。 xt=εt−(α' 1xt-1+α' 2xt-2+・・・+α' pxt-p) (9)
【0021】D/A変換器11は、合成フィルタ10よ
り出力される音声信号(ディジタル信号)にD/A変換
処理を施し、アナログ音声信号を出力する。スピーカ1
2は、D/A変換器11より出力される音声信号に対応
する音声を出力する。
り出力される音声信号(ディジタル信号)にD/A変換
処理を施し、アナログ音声信号を出力する。スピーカ1
2は、D/A変換器11より出力される音声信号に対応
する音声を出力する。
【0022】次に、図2のフローチャートを参照して、
コード変換器6で用いられるコード変換表の作成方法に
ついて説明する。最初に、ステップS1において、音声
だけの騒音無し音声、および騒音のみが記録媒体に記録
される。ここで、コード変換表をマルチテンプレート化
するために、ステップS1で記録される騒音無し音声
は、不特定話者に種々の単語(音声)を発声させたもの
である。さらに、騒音においても、例えば自動車のエン
ジン音や電車の走行音など様々な音(騒音)が記録され
る。
コード変換器6で用いられるコード変換表の作成方法に
ついて説明する。最初に、ステップS1において、音声
だけの騒音無し音声、および騒音のみが記録媒体に記録
される。ここで、コード変換表をマルチテンプレート化
するために、ステップS1で記録される騒音無し音声
は、不特定話者に種々の単語(音声)を発声させたもの
である。さらに、騒音においても、例えば自動車のエン
ジン音や電車の走行音など様々な音(騒音)が記録され
る。
【0023】ステップS2において、ステップS1で記
録媒体に記憶された騒音無し音声、およびその騒音無し
音声に騒音を付加した騒音付加音声が、所定の分析区間
単位で順次線形予測分析され、それぞれ例えばp次の線
形予測係数が求められ、ステップS3に進む。ステップ
S3において、騒音無し音声の線形予測係数、および騒
音付加音声の線形予測係数から、式(4)乃至式(6)
にしたがって、それぞれ例えばq次のケプストラム係数
が計算される(このケプストラムは、線形予測係数(L
PC)から計算されるケプストラムなので、特にLPC
ケプストラムと呼ばれる)。
録媒体に記憶された騒音無し音声、およびその騒音無し
音声に騒音を付加した騒音付加音声が、所定の分析区間
単位で順次線形予測分析され、それぞれ例えばp次の線
形予測係数が求められ、ステップS3に進む。ステップ
S3において、騒音無し音声の線形予測係数、および騒
音付加音声の線形予測係数から、式(4)乃至式(6)
にしたがって、それぞれ例えばq次のケプストラム係数
が計算される(このケプストラムは、線形予測係数(L
PC)から計算されるケプストラムなので、特にLPC
ケプストラムと呼ばれる)。
【0024】ステップS4において、q次のベクトルと
しての騒音無し音声のケプストラム係数、および騒音付
加音声のケプストラム係数から、歪尺度に基づいてq次
元空間内の例えば256の重心(セントロイド)が計算
され、計算された256のセントロイドとそのセントロ
イドの256のコードとの対応表であるコードブックが
作成される。ステップS5において、ステップS4で騒
音無し音声のケプストラム係数、および騒音付加音声の
ケプストラム係数から、それぞれ作成されたコードブッ
ク(騒音無し音声のコードブック、および騒音付加音声
のコードブック)が参照され、ステップS3で計算され
た騒音無し音声のケプストラム係数、および騒音付加音
声のケプストラム係数がベクトル量子化されて、騒音無
し音声のコードai(1≦i≦256)、および騒音付
加音声のコードbi(1≦i≦256)が、所定の分析
区間ごとに順次求められる。
しての騒音無し音声のケプストラム係数、および騒音付
加音声のケプストラム係数から、歪尺度に基づいてq次
元空間内の例えば256の重心(セントロイド)が計算
され、計算された256のセントロイドとそのセントロ
イドの256のコードとの対応表であるコードブックが
作成される。ステップS5において、ステップS4で騒
音無し音声のケプストラム係数、および騒音付加音声の
ケプストラム係数から、それぞれ作成されたコードブッ
ク(騒音無し音声のコードブック、および騒音付加音声
のコードブック)が参照され、ステップS3で計算され
た騒音無し音声のケプストラム係数、および騒音付加音
声のケプストラム係数がベクトル量子化されて、騒音無
し音声のコードai(1≦i≦256)、および騒音付
加音声のコードbi(1≦i≦256)が、所定の分析
区間ごとに順次求められる。
【0025】そして、ステップS6では、同一分析区間
において、騒音無し音声に騒音を付加した騒音付加音声
のコードが、その騒音無し音声のどのコードに対応する
かを集計する、騒音無し音声のコードai(1≦i≦2
56)と、騒音付加音声のコードbi(1≦i≦25
6)との対応集計が行われ、ステップS7において、ス
テップS6で行われた対応集計結果から、騒音無し音声
のコードai(1≦i≦256)と、騒音付加音声のコ
ードbi(1≦i≦256)との対応確率が計算され
る。即ち、同一分析区間において、騒音付加音声のコー
ドbiが、その騒音付加音声に騒音を付加する前の騒音
無し音声をベクトル量子化して得られたコードaj(1
≦j≦256)に対応する確率P(bi,aj)=pijが
計算される。さらに、ステップS7において、ステップ
S5で前回の分析区間の騒音無し音声をベクトル量子化
して得られたコードがaiである場合、現在の分析区間
の騒音無し音声をステップS5でベクトル量子化したと
きに、コードajが得られる確率Q(ai,aj)=qij
が計算される。
において、騒音無し音声に騒音を付加した騒音付加音声
のコードが、その騒音無し音声のどのコードに対応する
かを集計する、騒音無し音声のコードai(1≦i≦2
56)と、騒音付加音声のコードbi(1≦i≦25
6)との対応集計が行われ、ステップS7において、ス
テップS6で行われた対応集計結果から、騒音無し音声
のコードai(1≦i≦256)と、騒音付加音声のコ
ードbi(1≦i≦256)との対応確率が計算され
る。即ち、同一分析区間において、騒音付加音声のコー
ドbiが、その騒音付加音声に騒音を付加する前の騒音
無し音声をベクトル量子化して得られたコードaj(1
≦j≦256)に対応する確率P(bi,aj)=pijが
計算される。さらに、ステップS7において、ステップ
S5で前回の分析区間の騒音無し音声をベクトル量子化
して得られたコードがaiである場合、現在の分析区間
の騒音無し音声をステップS5でベクトル量子化したと
きに、コードajが得られる確率Q(ai,aj)=qij
が計算される。
【0026】そして、ステップS8において、現在、ス
テップS5で騒音付加音声がベクトル量子化されて得ら
れたコードがbx(1≦x≦256)で、且つ前回の分
析区間における騒音無し音声のコードがay(1≦y≦
256)である場合、確率P(bx,aj)×Q(ay,
aj)=pxj×qyjを最大にするコードajが、すべての
bx(1≦x≦256)とay(1≦y≦256)との組
み合わせに関して求められ、ステップS5で騒音付加音
声がベクトル量子化されて得られたコードbxを、騒音
無し音声のコードajに確率的に対応づけたコード変換
表が作成され、処理を終了する。
テップS5で騒音付加音声がベクトル量子化されて得ら
れたコードがbx(1≦x≦256)で、且つ前回の分
析区間における騒音無し音声のコードがay(1≦y≦
256)である場合、確率P(bx,aj)×Q(ay,
aj)=pxj×qyjを最大にするコードajが、すべての
bx(1≦x≦256)とay(1≦y≦256)との組
み合わせに関して求められ、ステップS5で騒音付加音
声がベクトル量子化されて得られたコードbxを、騒音
無し音声のコードajに確率的に対応づけたコード変換
表が作成され、処理を終了する。
【0027】図3は、上述したステップS1乃至S8の
処理により作成されたコード変換表の例である。このコ
ード変換表は、コード変換器6の内蔵するメモリに記憶
され、コード変換器6は、ベクトル量子化器5より出力
される騒音付加音声のコードbxの行と、コード変換器
6より前回出力された騒音無し音声のコードayの列と
がクロスするマス目のコードを、騒音付加音声に付加さ
れた(含まれる)騒音を抑制した音声(騒音無し音声)
のコードとして出力する。
処理により作成されたコード変換表の例である。このコ
ード変換表は、コード変換器6の内蔵するメモリに記憶
され、コード変換器6は、ベクトル量子化器5より出力
される騒音付加音声のコードbxの行と、コード変換器
6より前回出力された騒音無し音声のコードayの列と
がクロスするマス目のコードを、騒音付加音声に付加さ
れた(含まれる)騒音を抑制した音声(騒音無し音声)
のコードとして出力する。
【0028】次に、その動作について説明する。マイク
1において、使用者が発声した音声に、装置を使用する
環境における騒音が付加された騒音付加音声が、電気信
号である音声信号(騒音付加音声信号)に変換され、A
/D変換器2に出力される。A/D変換器2において、
騒音付加音声信号は所定のサンプリング周期でサンプリ
ングされ、サンプリングされた騒音付加音声信号は、L
PC分析器3および予測フィルタ9に供給される。
1において、使用者が発声した音声に、装置を使用する
環境における騒音が付加された騒音付加音声が、電気信
号である音声信号(騒音付加音声信号)に変換され、A
/D変換器2に出力される。A/D変換器2において、
騒音付加音声信号は所定のサンプリング周期でサンプリ
ングされ、サンプリングされた騒音付加音声信号は、L
PC分析器3および予測フィルタ9に供給される。
【0029】LPC分析器3において、サンプリングさ
れた騒音付加音声信号は、所定の分析区間(p+1サン
プル(xt,xt-1,xt-2,・・・,xt-p))ごとに順
次LPC分析され、即ち式(1)の予測残差εtの2乗
和が最小になるように、線形予測係数α1,α2,・・
・,αpが計算され、ケプストラム算出器4および予測
フィルタ9に供給される。ケプストラム算出器4におい
て、式(4)乃至(6)の再帰式により、線形予測係数
α1,α2,・・・,αpから、例えばq次のケプストラ
ム係数c1,c2,・・・,cqが計算される。
れた騒音付加音声信号は、所定の分析区間(p+1サン
プル(xt,xt-1,xt-2,・・・,xt-p))ごとに順
次LPC分析され、即ち式(1)の予測残差εtの2乗
和が最小になるように、線形予測係数α1,α2,・・
・,αpが計算され、ケプストラム算出器4および予測
フィルタ9に供給される。ケプストラム算出器4におい
て、式(4)乃至(6)の再帰式により、線形予測係数
α1,α2,・・・,αpから、例えばq次のケプストラ
ム係数c1,c2,・・・,cqが計算される。
【0030】ベクトル量子化器5において、その内部に
有するメモリに記憶された標準パターンとしての騒音付
加音声(騒音無し音声に騒音を付加した音声)から作成
されたコードブックが参照され、ケプストラム算出器4
より出力されたq次のケプストラム係数c1,c2,・・
・,cq(q次元のベクトル)がベクトル量子化され、
騒音付加音声のコードbxが出力される。
有するメモリに記憶された標準パターンとしての騒音付
加音声(騒音無し音声に騒音を付加した音声)から作成
されたコードブックが参照され、ケプストラム算出器4
より出力されたq次のケプストラム係数c1,c2,・・
・,cq(q次元のベクトル)がベクトル量子化され、
騒音付加音声のコードbxが出力される。
【0031】コード変換器6において、その内部に有す
るメモリに記憶されたコード変換表(図3)が参照さ
れ、ベクトル量子化器5より出力された、現在の分析区
間における騒音付加音声のコードbxと、前回の分析区
間でこのコード変換器6によりコード変換され、出力さ
れた騒音無し音声のコードayとから、確率P(bx,a
j)×Q(ay,aj)を最大にする騒音無し音声のコー
ドajが検索されて出力される。
るメモリに記憶されたコード変換表(図3)が参照さ
れ、ベクトル量子化器5より出力された、現在の分析区
間における騒音付加音声のコードbxと、前回の分析区
間でこのコード変換器6によりコード変換され、出力さ
れた騒音無し音声のコードayとから、確率P(bx,a
j)×Q(ay,aj)を最大にする騒音無し音声のコー
ドajが検索されて出力される。
【0032】ここで、例えばベクトル量子化器5より出
力された騒音付加音声のコードbxが「4」で、コード
変換器6より前回出力された騒音無し音声のコードay
が「1」である場合、コード変換器6において、図3の
コード変換表が参照され、bxが「4」、ayが「1」の
マス目のコード「4」が騒音付加音声の騒音を抑制した
コード(騒音無し音声のコード)ajとして出力され
る。さらに、次にベクトル量子化器5より出力された騒
音付加音声のコードbxが「2」である場合、コード変
換器6において、図3のコード変換表が参照され、bx
が「2」、コード変換器6より前回出力された騒音無し
音声のコード(騒音付加音声の騒音を抑制した音声のコ
ード)ayが「4」のマス目のコード「222」が、今
回ベクトル量子化器5より出力された騒音付加音声(騒
音付加音声のコード)の騒音を抑制したコード(騒音無
し音声のコード)ajとして出力される。
力された騒音付加音声のコードbxが「4」で、コード
変換器6より前回出力された騒音無し音声のコードay
が「1」である場合、コード変換器6において、図3の
コード変換表が参照され、bxが「4」、ayが「1」の
マス目のコード「4」が騒音付加音声の騒音を抑制した
コード(騒音無し音声のコード)ajとして出力され
る。さらに、次にベクトル量子化器5より出力された騒
音付加音声のコードbxが「2」である場合、コード変
換器6において、図3のコード変換表が参照され、bx
が「2」、コード変換器6より前回出力された騒音無し
音声のコード(騒音付加音声の騒音を抑制した音声のコ
ード)ayが「4」のマス目のコード「222」が、今
回ベクトル量子化器5より出力された騒音付加音声(騒
音付加音声のコード)の騒音を抑制したコード(騒音無
し音声のコード)ajとして出力される。
【0033】ベクトル逆量子化器7において、その内部
に有するメモリに記憶された標準パターンとしての騒音
無し音声から作成されたコードブックが参照され、コー
ド変換器6より出力された騒音無し音声のコードajが
逆ベクトル量子化され、q次の騒音無し音声のケプスト
ラム係数c' 1,c' 2,・・・,c' q(q次のベクトル)
に変換され、LPC算出器8に出力される。LPC算出
器8において、式(7)および(8)の再帰式により、
ベクトル逆量子化器7より出力された騒音無し音声のケ
プストラム係数c' 1,c' 2,・・・,c' qから、騒音無
し音声の線形予測係数α' 1,α' 2,・・・,α' p が計
算され、合成フィルタ10に供給される。
に有するメモリに記憶された標準パターンとしての騒音
無し音声から作成されたコードブックが参照され、コー
ド変換器6より出力された騒音無し音声のコードajが
逆ベクトル量子化され、q次の騒音無し音声のケプスト
ラム係数c' 1,c' 2,・・・,c' q(q次のベクトル)
に変換され、LPC算出器8に出力される。LPC算出
器8において、式(7)および(8)の再帰式により、
ベクトル逆量子化器7より出力された騒音無し音声のケ
プストラム係数c' 1,c' 2,・・・,c' qから、騒音無
し音声の線形予測係数α' 1,α' 2,・・・,α' p が計
算され、合成フィルタ10に供給される。
【0034】一方、予測フィルタ9において、A/D変
換器9より供給された騒音付加音声信号のサンプル値x
t,xt-1,xt-2,・・・,xt-pと、LPC分析器3よ
り供給された騒音付加音声信号から求められた線形予測
係数α1,α2,・・・,αpとから、式(1)により、
予測残差εtが計算され、合成フィルタ10に供給され
る。合成フィルタ10において、LPC算出器8より出
力された騒音無し音声の線形予測係数α' 1,α' 2,・・
・,α' pと、予測フィルタ9より出力される騒音付加音
声から求められた残差信号εtとから、式(9)によ
り、音声信号(サンプル値)(ディジタル信号)xtが
再生(計算)され、D/A変換器11に出力される。
換器9より供給された騒音付加音声信号のサンプル値x
t,xt-1,xt-2,・・・,xt-pと、LPC分析器3よ
り供給された騒音付加音声信号から求められた線形予測
係数α1,α2,・・・,αpとから、式(1)により、
予測残差εtが計算され、合成フィルタ10に供給され
る。合成フィルタ10において、LPC算出器8より出
力された騒音無し音声の線形予測係数α' 1,α' 2,・・
・,α' pと、予測フィルタ9より出力される騒音付加音
声から求められた残差信号εtとから、式(9)によ
り、音声信号(サンプル値)(ディジタル信号)xtが
再生(計算)され、D/A変換器11に出力される。
【0035】D/A変換器11において、合成フィルタ
10より出力されたディジタル音声信号はD/A変換さ
れ、スピーカ12に供給される。スピーカ12におい
て、音声信号(電気信号)は、音声に変換され出力され
る。
10より出力されたディジタル音声信号はD/A変換さ
れ、スピーカ12に供給される。スピーカ12におい
て、音声信号(電気信号)は、音声に変換され出力され
る。
【0036】以上説明したように、騒音付加音声のコー
ドbxと騒音無し音声のコードajとを確率的に対応づけ
たコード変換表を作成し、このコード変換表により、騒
音付加音声より抽出した音声の特徴パラメータであるケ
プストラム係数をベクトル量子化して得られたコード
を、騒音付加音声の騒音を抑制した音声(騒音無し音
声)のコードに変換し、そのコードより求められた線形
予測係数により、入力された騒音付加音声を再生するよ
うにしたので、騒音付加音声に含まれる騒音を抑制した
音声(騒音無し音声)を再生することができる。
ドbxと騒音無し音声のコードajとを確率的に対応づけ
たコード変換表を作成し、このコード変換表により、騒
音付加音声より抽出した音声の特徴パラメータであるケ
プストラム係数をベクトル量子化して得られたコード
を、騒音付加音声の騒音を抑制した音声(騒音無し音
声)のコードに変換し、そのコードより求められた線形
予測係数により、入力された騒音付加音声を再生するよ
うにしたので、騒音付加音声に含まれる騒音を抑制した
音声(騒音無し音声)を再生することができる。
【0037】なお、本実施例においては、ベクトル量子
化5によりベクトル量子化する音声の特徴パラメータと
して、ケプストラム係数を用いたが、このケプストラム
係数の他に、例えば線形予測係数などの、他の特徴パラ
メータを用いることができる。
化5によりベクトル量子化する音声の特徴パラメータと
して、ケプストラム係数を用いたが、このケプストラム
係数の他に、例えば線形予測係数などの、他の特徴パラ
メータを用いることができる。
【0038】
【発明の効果】請求項1に記載の騒音抑圧装置によれ
ば、入力手段より入力された注目音声および騒音を含む
注目音声の特徴パラメータを抽出し、抽出した注目音声
の特徴パラメータと騒音を含む注目音声の特徴パラメー
タをベクトル量子化し、注目音声のコードおよび騒音を
含む注目音声のコードを作成し、注目音声のコードと騒
音を含む注目音声のコードとを確率的に対応付け、騒音
を含む注目音声のコードを注目音声のコードに変換す
る。従って、騒音を含む注目音声の騒音を抑制すること
ができる。また、そのための構成も簡単で、低コストの
装置を実現することができる。
ば、入力手段より入力された注目音声および騒音を含む
注目音声の特徴パラメータを抽出し、抽出した注目音声
の特徴パラメータと騒音を含む注目音声の特徴パラメー
タをベクトル量子化し、注目音声のコードおよび騒音を
含む注目音声のコードを作成し、注目音声のコードと騒
音を含む注目音声のコードとを確率的に対応付け、騒音
を含む注目音声のコードを注目音声のコードに変換す
る。従って、騒音を含む注目音声の騒音を抑制すること
ができる。また、そのための構成も簡単で、低コストの
装置を実現することができる。
【0039】請求項2に記載の騒音抑圧装置によれば、
コード変換手段により変換された注目音声のコードから
注目音声の特徴パラメータを再生し、再生した注目音声
の特徴パラメータより注目音声を生成するので、騒音を
抑制した注目音声を確認することができる。
コード変換手段により変換された注目音声のコードから
注目音声の特徴パラメータを再生し、再生した注目音声
の特徴パラメータより注目音声を生成するので、騒音を
抑制した注目音声を確認することができる。
【図1】本発明の騒音抑圧装置の一実施例の構成を示す
ブロック図である。
ブロック図である。
【図2】図1の実施例のコード変換器6で参照されるコ
ード変換表の作成方法を説明するフローチャートであ
る。
ード変換表の作成方法を説明するフローチャートであ
る。
【図3】図1の実施例のコード変換器6で参照されるコ
ード変換表の一実施例の構成を示す図である。
ード変換表の一実施例の構成を示す図である。
1 マイク 2 A/D変換器 3 線形予測(LPC)分析器 4 ケプストラム算出器 5 ベクトル量子化器(エンコーダ) 6 コード変換器 7 ベクトル逆量子化器(デコーダ) 8 線形予測係数(LPC)算出器 9 予測フィルタ 10 合成フィルタ 11 D/A変換器 12 スピーカ
Claims (2)
- 【請求項1】 注目音声および騒音を含む注目音声を入
力する入力手段と、 前記入力手段より入力された注目音声および騒音を含む
注目音声より注目音声の特徴パラメータおよび騒音を含
む注目音声の特徴パラメータを抽出する特徴パラメータ
抽出手段と、 前記特徴パラメータ抽出手段により抽出された注目音声
の特徴パラメータおよび騒音を含む注目音声の特徴パラ
メータをベクトル量子化し、前記注目音声のコードおよ
び前記騒音を含む注目音声のコードを作成するコード作
成手段と、 前記コード作成手段により作成された注目音声のコード
と騒音を含む注目音声のコードとを確率的に対応付け、
前記騒音を含む注目音声のコードを前記注目音声のコー
ドに変換するコード変換手段とを備えることを特徴とす
る騒音抑圧装置。 - 【請求項2】 前記コード変換手段により変換された注
目音声のコードから前記注目音声の特徴パラメータを再
生する特徴パラメータ再生手段と、 前記特徴パラメータ再生手段により再生された注目音声
の特徴パラメータより前記注目音声を生成する音声生成
手段とをさらに備えることを特徴とする請求項1に記載
の騒音抑圧装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4018478A JPH05188994A (ja) | 1992-01-07 | 1992-01-07 | 騒音抑圧装置 |
US07/998,724 US5353408A (en) | 1992-01-07 | 1992-12-30 | Noise suppressor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4018478A JPH05188994A (ja) | 1992-01-07 | 1992-01-07 | 騒音抑圧装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05188994A true JPH05188994A (ja) | 1993-07-30 |
Family
ID=11972750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4018478A Pending JPH05188994A (ja) | 1992-01-07 | 1992-01-07 | 騒音抑圧装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5353408A (ja) |
JP (1) | JPH05188994A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0655731A2 (en) * | 1993-11-29 | 1995-05-31 | Nec Corporation | Noise suppressor available in pre-processing and/or post-processing of a speech signal |
US7579342B2 (en) | 2000-02-23 | 2009-08-25 | Astrazeneca | Pteridine compounds for the treatment of psoriasis |
US7585867B2 (en) | 2002-09-20 | 2009-09-08 | Astrazeneca Ab | Substituted thiazolo[4,5-d]pyrimidin-2(3H)-one |
US8143261B2 (en) | 1999-10-01 | 2012-03-27 | Astrazeneca Ab | Thiazolo (4,5-D) pyrimidine compounds |
Families Citing this family (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08505959A (ja) * | 1993-01-21 | 1996-06-25 | アップル コンピューター インコーポレイテッド | ベクトル量子化ベース音声符号化/複号化を用いたテキスト−音声合成システム |
JP3418976B2 (ja) * | 1993-08-20 | 2003-06-23 | ソニー株式会社 | 音声抑制装置 |
DE69430872T2 (de) * | 1993-12-16 | 2003-02-20 | Voice Compression Technologies Inc., Boston | System und verfahren zur sprachkompression |
US5450449A (en) * | 1994-03-14 | 1995-09-12 | At&T Ipm Corp. | Linear prediction coefficient generation during frame erasure or packet loss |
US6263307B1 (en) | 1995-04-19 | 2001-07-17 | Texas Instruments Incorporated | Adaptive weiner filtering using line spectral frequencies |
JP3397568B2 (ja) * | 1996-03-25 | 2003-04-14 | キヤノン株式会社 | 音声認識方法及び装置 |
ATE371298T1 (de) * | 1996-11-07 | 2007-09-15 | Koninkl Philips Electronics Nv | Übertragung eines bitstromsignals |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
WO2002029617A1 (en) * | 2000-09-30 | 2002-04-11 | Intel Corporation (A Corporation Of Delaware) | Method, apparatus, and system for building a compact model for large vocabulary continuous speech recognition (lvcsr) system |
US6819270B1 (en) * | 2003-06-30 | 2004-11-16 | American Express Travel Related Services Company, Inc. | Method and system for universal conversion of MCC, SIC or other codes |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
GB0705328D0 (en) | 2007-03-20 | 2007-04-25 | Skype Ltd | Method of transmitting data in a communication system |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102516577B1 (ko) | 2013-02-07 | 2023-04-03 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101959188B1 (ko) | 2013-06-09 | 2019-07-02 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
KR101809808B1 (ko) | 2013-06-13 | 2017-12-15 | 애플 인크. | 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4696039A (en) * | 1983-10-13 | 1987-09-22 | Texas Instruments Incorporated | Speech analysis/synthesis system with silence suppression |
US4811404A (en) * | 1987-10-01 | 1989-03-07 | Motorola, Inc. | Noise suppression system |
IL84948A0 (en) * | 1987-12-25 | 1988-06-30 | D S P Group Israel Ltd | Noise reduction system |
JPH02179700A (ja) * | 1988-12-29 | 1990-07-12 | Sony Corp | 騒音データの更新方法 |
US5168524A (en) * | 1989-08-17 | 1992-12-01 | Eliza Corporation | Speech-recognition circuitry employing nonlinear processing, speech element modeling and phoneme estimation |
-
1992
- 1992-01-07 JP JP4018478A patent/JPH05188994A/ja active Pending
- 1992-12-30 US US07/998,724 patent/US5353408A/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0655731A2 (en) * | 1993-11-29 | 1995-05-31 | Nec Corporation | Noise suppressor available in pre-processing and/or post-processing of a speech signal |
EP0655731A3 (en) * | 1993-11-29 | 1997-05-28 | Nec Corp | Noise reduction device for pre-processing and / or post-processing of speech signals. |
US8143261B2 (en) | 1999-10-01 | 2012-03-27 | Astrazeneca Ab | Thiazolo (4,5-D) pyrimidine compounds |
US7579342B2 (en) | 2000-02-23 | 2009-08-25 | Astrazeneca | Pteridine compounds for the treatment of psoriasis |
US7585867B2 (en) | 2002-09-20 | 2009-09-08 | Astrazeneca Ab | Substituted thiazolo[4,5-d]pyrimidin-2(3H)-one |
Also Published As
Publication number | Publication date |
---|---|
US5353408A (en) | 1994-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH05188994A (ja) | 騒音抑圧装置 | |
JP3680380B2 (ja) | 音声符号化方法及び装置 | |
JP4005154B2 (ja) | 音声復号化方法及び装置 | |
JPH07271394A (ja) | 確実な電話音声認識のための信号バイアスの除去 | |
US8615393B2 (en) | Noise suppressor for speech recognition | |
JP2000187496A (ja) | デジタル無線チャネル上の自動音声/話者認識 | |
JP3189598B2 (ja) | 信号合成方法および信号合成装置 | |
JP4718789B2 (ja) | 残差モデルを使用したフォルマント追跡の方法および装置 | |
Dendani et al. | Speech enhancement based on deep AutoEncoder for remote Arabic speech recognition | |
JPH01997A (ja) | ベクトル量子化を用いた音声認識方式 | |
US7120580B2 (en) | Method and apparatus for recognizing speech in a noisy environment | |
JPH01998A (ja) | スペクトログラムの正規化方法 | |
JPH01996A (ja) | ベクトル量子化を用いた音声認識方式 | |
KR20100098007A (ko) | 고속 화자 인식 방법 및 장치, 고속 화자 인식을 위한 등록방법 및 장치 | |
JP2709926B2 (ja) | 声質変換方法 | |
JP5252452B2 (ja) | スペクトル分析装置及びスペクトル演算装置 | |
JP2006171751A (ja) | 音声符号化装置及び方法 | |
JP3916934B2 (ja) | 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置 | |
JPH10254473A (ja) | 音声変換方法及び音声変換装置 | |
JPH09127987A (ja) | 信号符号化方法及び装置 | |
WO2019216192A1 (ja) | ピッチ強調装置、その方法、およびプログラム | |
CN116018640A (zh) | 对过渡段编码失真具有鲁棒性的音频编码/解码设备和方法 | |
JP3803306B2 (ja) | 音響信号符号化方法、符号化器及びそのプログラム | |
JPH09127998A (ja) | 信号量子化方法及び信号符号化装置 | |
JPH05210398A (ja) | 騒音抑圧装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20020522 |