JP6531449B2 - Voice processing apparatus, program and method, and exchange apparatus - Google Patents
Voice processing apparatus, program and method, and exchange apparatus Download PDFInfo
- Publication number
- JP6531449B2 JP6531449B2 JP2015058103A JP2015058103A JP6531449B2 JP 6531449 B2 JP6531449 B2 JP 6531449B2 JP 2015058103 A JP2015058103 A JP 2015058103A JP 2015058103 A JP2015058103 A JP 2015058103A JP 6531449 B2 JP6531449 B2 JP 6531449B2
- Authority
- JP
- Japan
- Prior art keywords
- level value
- level
- voice
- determination
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
この発明は、音声処理装置、プログラム及び方法、並びに、交換装置に関し、例えば、音声信号の有音区間と無音区間を判定する有音検出装置に適用し得る。 The present invention relates to a voice processing device, a program and method, and an exchange device, and can be applied to, for example, a voice detection device that determines a voiced section and a silent section of a voice signal.
従来、電話機端末や交換機等の音声信号を処理する音声処理装置では、音声信号を処理する際、人(話者)が発話している有音区間と、発話していない無音区間を区別(識別)する有音検出の機能を用いた処理が行われる。従来、音声処理において有音検出の機能はVAD(Voice Activity Detection)とも呼ばれる。従来の音声処理装置において、有音検出の機能は、例えば、AGC(Automatic Gain Control)やノイズサプレッサ、音声認識など、様々な音声信号処理で必要とされる。 Conventionally, in a voice processing apparatus that processes voice signals such as a telephone terminal and a switchboard, when processing voice signals, the voiced section where a person (speaker) is speaking is distinguished from the silent section where it is not speaking ) Processing is performed using the function of the presence detection. Conventionally, the voice detection function in voice processing is also called VAD (Voice Activity Detection). In the conventional speech processing apparatus, the function of speech detection is required in various speech signal processing, such as AGC (Automatic Gain Control), noise suppressor, speech recognition, and the like.
従来の音声処理装置において、有音検出の機能を実現する最も簡単な方式は、単位時間あたりのパワーを調べる方法である。一般的に、有音区間ではパワーが強く、無音区間では弱い傾向にある。したがって、従来の音声処理装置では、単位時間あたりのパワーを求め、適当な閾値と比較することである程度の精度で有音/無音を判定することができる。ただし、無音区間の音声であっても、背景雑音が含まれるため、無音区間であるからといって、完全に無音な音声が捕捉されるわけではない。したがって、従来の音声処理装置において、単位時間あたりのパワーに基づいて有音/無音を判定する場合には、背景雑音のパワーよりも大きな値の閾値を設定する必要がある。しかしながら、音声を捕捉する環境によっては、背景雑音のパワーと信号(目的音の信号)のパワーは動的に変化する可能性がある。 In the conventional voice processing apparatus, the simplest method for realizing the function of the presence detection is a method of checking the power per unit time. In general, power is strong in the sound section and weak in the silent section. Therefore, in the conventional voice processing apparatus, the power per unit time can be determined, and the presence / absence of sound can be determined with a certain degree of accuracy that is to be compared with an appropriate threshold value. However, even a voice in a silent section includes background noise, and therefore, a silent section does not mean that a silent voice is completely captured. Therefore, in the conventional voice processing apparatus, when the presence / absence of sound is determined based on the power per unit time, it is necessary to set a threshold value larger than the power of the background noise. However, depending on the environment in which speech is captured, the power of background noise and the power of the signal (the target sound signal) may change dynamically.
上述のような問題に対応する従来技術としては、特許文献1、2の記載技術がある。特許文献1、2では、背景雑音の変化を推定し、その推定結果に基づいて有音/無音判定するための閾値を動的に変更している。また、特許文献1、2の記載技術では、単位時間あたりのパワーをある一定時間蓄積してヒストグラムで表し、統計的に背景雑音のパワーを推定している。
As a prior art which respond | corresponds to the above problems, there exists a description technique of
しかしながら、特許文献1、2の記載技術では、S/Nの悪い環境では、有音/無音判定を行うための閾値が、信号のパワーより大きくなってしまい、正確な有音検出ができない場合がある。
However, in the techniques described in
以上のような問題に鑑みて、背景雑音のパワーが大きい環境でもより高い精度で有音検出を行うことができる音声処理装置、プログラム及び方法、並びに、交換装置が望まれている。 In view of the above problems, a voice processing device, a program and method, and an exchange device capable of performing voice detection with higher accuracy even in an environment with large background noise power are desired.
第1の本発明の音声処理装置は、(1)入力音声信号のレベル値を所定時間単位のフレーム毎に計算するレベル値計算手段と、(2)上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数する頻度計数手段と、(3)レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定するレベル値推定手段と、(4)背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行う判定手段とを有することを特徴とする。 A voice processing apparatus according to a first aspect of the present invention comprises (1) level value calculating means for calculating a level value of an input voice signal for each frame in a predetermined time unit, and (2) a level value calculated by the level value calculating means. , Frequency counting means for counting the appearance frequency for each level value, (3) level value estimation means for estimating the background noise level value and the target sound signal level value from the appearance frequency for each level value, and (4) background And determining means for performing a determination process of determining a voiced section or a silent section of the input audio signal based on the estimated value of the noise level value and the estimated value of the target sound signal level value.
第2の本発明の音声処理プログラムは、コンピュータを、(1)入力音声信号のレベル値を所定時間単位のフレーム毎に計算するレベル値計算手段と、(2)上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数する頻度計数手段と、(3)レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定するレベル値推定手段と、(4)背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行う判定手段として機能させることを特徴とする。 The speech processing program according to a second aspect of the present invention comprises a computer, (1) level value calculating means for calculating a level value of an input sound signal for each frame of a predetermined time unit, and (2) the level value calculating means And (3) a level value estimation means for estimating a background noise level value and a target sound signal level value from the appearance frequency for each level value. 4) It is characterized in that it functions as a determination unit that performs a determination process of determining a voiced section or a silent section for the input audio signal based on the estimated value of the background noise level value and the estimated value of the target sound signal level value.
第3の本発明は、音声処理装置が行う音声処理方法において、(1)レベル値計算手段、頻度計数手段、レベル値推定手段、判定手段を有し、(2)上記レベル値計算手段は、入力音声信号のレベル値を所定時間単位のフレーム毎に計算し、(3)上記頻度計数手段は、上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数し、(4)上記レベル値推定手段は、レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定し、(5)上記判定手段は、背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行うことを特徴とする。 According to a third aspect of the present invention, in the speech processing method performed by the speech processing apparatus, (1) level value calculation means, frequency counting means, level value estimation means, determination means, and (2) the level value calculation means The level value of the input audio signal is calculated for each frame in a predetermined time unit, and (3) the frequency counting means counts the appearance frequency for each level value for the level value calculated by the level value calculating means 4) The level value estimation means estimates the background noise level value and the target sound signal level value from the appearance frequency for each level value, and (5) the determination means estimates the background noise level value and the target sound signal A determination process is performed to determine a voiced section or a silent section of the input voice signal based on the estimated value of the level value.
第4の本発明の交換装置は、(1)複数の端末間の音声通信を交換処理するものであって、上記端末に送信する音声信号又は上記端末から受信した音声信号のレベルを、所望のレベルに調整する交換処理手段を有し、(2)上記交換処理手段は、第1の本発明の音声処理装置を用いて、上記端末に送信する音声信号又は上記端末から受信した音声信号のレベルを、所望のレベルに調整することを特徴とする。 The exchange apparatus according to the fourth aspect of the present invention is (1) an exchange process of voice communication between a plurality of terminals, wherein the level of the voice signal to be transmitted to the terminal or the voice signal received from the terminal is desired. (2) The exchange processing means uses the audio processing apparatus of the first invention to adjust the level of the audio signal transmitted to the terminal or the level of the audio signal received from the terminal Are adjusted to a desired level.
本発明によれば、背景雑音のパワーが大きい環境でもより高い精度で有音検出を行うことができる音声処理装置、プログラム及び方法、並びに、交換装置を実現できる。 According to the present invention, it is possible to realize a voice processing device, a program and method, and a switching device capable of performing sound presence detection with higher accuracy even in an environment where power of background noise is large.
(A)第1の実施形態
以下、本発明による音声処理装置、プログラム及び方法の第1の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、有音検出装置に適用した例について説明する。
(A) First Embodiment Hereinafter, a first embodiment of a speech processing apparatus, program and method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example will be described in which the voice processing device, program and method of the present invention are applied to a sound presence detection device.
(A−1)第1の実施形態の構成
図1は、この実施形態の有音検出装置1の全体構成を示すブロック図である。
(A-1) Configuration of First Embodiment FIG. 1 is a block diagram showing the entire configuration of a
有音検出装置1は、音声信号が入力されると、その音声信号について有音区間の検出を行い、その結果を出力する処理を行う。
When the voice signal is input, the
有音検出装置1に入力される音声信号の形式(データ形式)については限定されないものであるが、例えば、PCM(Pulse Code Modulation)形式等の種々のデータ形式を適用することができる。この実施形態では、有音検出装置1には、10msec分のPCM形式の音声データが格納されたフレームが音声信号として入力されるものとする。すなわち、有音検出装置1には、入力音声信号としてフレーム単位の音声データが供給されるものとする。有音検出装置1に入力される音声信号(音声データ)のサンプリング周波数やビットレートは限定されないものである。この実施形態の例では、有音検出装置1には、サンプリング周波数8kHz、16ビットPCM、モノラルの音声データが入力されるものとして説明する。なお、有音検出装置1に、所定のコーデックで符号化された音声データ(例えば、ITU−T G.711等の音声データ)が入力される場合には、復号処理を行う構成要素を追加するようにしてもよい。
Although there is no limitation on the format (data format) of the audio signal input to the
また、有音検出装置1が出力する信号形式(データ形式)については限定されないものである。例えば、有音検出装置1は、有音区間を示す信号(例えば、「1」や「True」)と無音区間を示す信号「例えば、「0」や「False」のいずれかを出力するようにしてもよい。
Further, the signal format (data format) output by the
次に、有音検出装置1の内部構成について説明する。
Next, the internal configuration of the
有音検出装置1は、高域透過フィルタ(以下、「HPF」と呼ぶ)10、レベル算出部11、頻度計数部12、レベル推定部13、及び有音判定部14を有している。
The voice
HPS10は、入力された音声信号に含まれる低域(低周波数帯域)の成分(所定以下の周波数の成分)のパワーを減衰させるフィルタ処理を行うものである。背景雑音には、低域に比較的大きいパワーが含まれていることが多い。そのため、有音検出に先だって、HPS10で低域の成分を減衰させておくことで、有音検出に適用する音声信号のS/N比を改善できるという効果を奏する。HPS10で減衰させる周波数帯域については限定されないものである。HPS10では、例えば、300Hz以下の成分を減衰させる処理を行うようにしてもよい。以下では、HPS10から出力される信号(低域成分が減衰された信号)を入力音声信号xとも呼ぶものとする。なお、有音検出装置1では、HPF10を搭載しない構成としてもよい。有音検出装置1にHPF10が搭載されない場合、有音検出装置1に入力された音声信号(フレーム)自体が入力音声信号xとして処理されることになる。
The HPS 10 performs a filtering process to attenuate the power of a low frequency (low frequency band) component (a component of a frequency lower than a predetermined frequency) included in the input audio signal. Background noise often includes relatively large power in the low band. Therefore, it is possible to improve the S / N ratio of the audio signal applied to the sound detection by attenuating the low frequency component by the
レベル算出部11は、入力音声信号xの音声レベル(パワーのレベル)を計算する。この実施形態のレベル算出部11は、1フレームごとに当該フレームの音声レベルを算出する処理を行う。レベル算出部11が行う音声レベル算出処理の具体例については後述する。
The
頻度計数部12は、入力音声信号xにおけるレベル(パワー)の分布(頻度分布)を計数するものである。具体的には、頻度計数部12は、入力音声信号xにおける各レベル(レベル算出部11で計算されたレベル)の出現回数を、ヒストグラム(頻度分布)として保持する。この実施形態では、頻度計数部12は、入力音声信号xのそれぞれのレベルに対応するカウンタを含むカウンタ部121を備えているものとする。図1では、カウンタ部121は、N+1個のカウンタCT(CT_0〜CT_N)(Nは任意の整数)を有するものとして図示している。頻度計数部12は、レベル算出部11で1つのレベルが算出されるごとに、カウンタ部121のうち、当該レベルに対応するカウンタCTをインクリメント(1加算)する処理を行う。カウンタ部121に含まれるカウンタCTの数や、対応するレベルの間隔等は限定されないものである。
The
この実施形態のカウンタ部121では、1[dB]ごとにカウンタCTが設定されているものとして説明する。例えば、カウンタCT_0がM[dB](Mは任意の整数)に対応する場合を想定する。具体的には、カウンタCT_0、CT_1、CT_2、…、CT_Nは、それぞれ、M[dB]、M+1[dB]、M+2[dB]、…、M+N[dB]に対応(1[dB]刻みで対応)しているものとして説明する。すなわち、カウンタ部121ではM[dB]〜M+N[dB]の範囲内のレベルについてヒストグラム(頻度分布)を保持することができる。この実施形態では、カウンタ部121は、10[dB]〜70[dB]の範囲で1[dB]刻みのヒストグラム(頻度分布)が保持できるものとして説明する。
In the
以上のように、頻度計数部12ではカウンタ部121に、入力音声信号xにおける各レベルの出現回数を計数したヒストグラムが保持されることになる。なお、以下では、カウンタ部121で保持されるヒストグラム(頻度分布)をヒストグラムHと呼ぶものとする。また、以下では、任意のレベルvに対応するカウンタCTのカウンタ値をH(v)と表すものとする。
As described above, in the
レベル推定部13は、カウンタ部121に保持されるヒストグラムHに基づいて、入力音声信号に含まれる背景雑音のレベル(以下、「背景雑音レベル」と呼ぶ)と、音声(すなわち目的音)のレベル(以下、「信号レベル」と呼ぶ)を推定する処理を行う。
Based on the histogram H held by the
有音判定部14は、レベル推定部13が推定した背景雑音レベルと信号レベルから、現在処理中のフレーム(最新に取得したフレーム)が有音区間か無音区間かを判定する処理を行う。そして、有音判定部14は、その判定結果に応じた内容(有音区間を示す信号、又は無音区間を示す信号のいずれか)を出力する処理を行う。
The
(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態の有音検出装置1の具体的動作(実施形態に係る音声処理方法)の例を説明する。
(A-2) Operation of the First Embodiment Next, an example of the specific operation (voice processing method according to the embodiment) of the voiced
有音検出装置1では、1フレーム分の音声データが入力されると、まず、HPF10により、高域透過フィルタ処理(所定より低域の周波数成分のパワーを減衰させる処理)が行われる。HPF10は処理した音声信号(フレーム)を入力音声信号xとして出力する。
In the
レベル算出部11は、入力音声信号xのフレーム毎にパワーを算出する。レベル算出部11は、例えば、1フレーム分の入力音声信号xのパワーを、対数変換することによりレベル算出を行うようにしてもよい。レベル算出部11において、レベル算出する際に、基準点(0dB)となるパワーについて適宜設定するようにしてもよい。また、レベル算出部11は、過去フレームの音声レベルとの移動平均に基づいて、今回のフレームに係るレベルを算出するようにしてもよい。これにより、レベル算出部11では、フレーム間のレベルの細かな変動を抑えることが可能となる。
The
頻度計数部12は、レベル算出部11により算出されたレベルに対応するカウンタCTをインクリメントする。これにより、頻度計数部12では、カウンタ部121で保持されるヒストグラムHが更新されることになる。
The
このとき、頻度計数部12は、レベル算出部11で算出されたレベルを所定の方式で丸める処理を行うものとする。そして、頻度計数部12は、丸めた値(レベル)に対応するカウンタCTをインクリメントする。この実施形態のカウンタ部121では、上述の通り、1dB幅でカウンタCTが設定されている。そこで、頻度計数部12は、例えば、9.5dB以上10.5dB未満のレベルについては、10dBに丸め、10dBに対応するカウンタCTをインクリメントする処理を行うようにしてもよい。
At this time, the
以上のように、頻度計数部12のカウンタ部121では、1dB刻みで設定されたカウンタCTにより、ヒストグラムHが保持される。
As described above, the
図2は、頻度計数部12(カウンタ部121)で保持されるヒストグラムHについて示したグラフである。図2に示すグラフは、実際に有音検出装置1に音声信号を入力した場合に、頻度計数部12(カウンタ部121)で保持されたヒストグラムHを示している。
FIG. 2 is a graph showing the histogram H held by the frequency counting unit 12 (counter unit 121). The graph shown in FIG. 2 shows the histogram H held by the frequency counting unit 12 (counter unit 121) when an audio signal is actually input to the voice
図2のグラフでは、横軸が入力音声信号xのレベルを示しており、縦軸が各レベルの出現数(各レベルのカウンタCTの値)を示している。 In the graph of FIG. 2, the horizontal axis indicates the level of the input speech signal x, and the vertical axis indicates the number of occurrences of each level (the value of the counter CT of each level).
レベル推定部13は、一定時間ごとに、カウンタ部121で保持されているヒストグラムHに基づいて、入力音声信号xに含まれる背景雑音レベルと信号レベルとを推定する。さらに、有音判定部14は、推定された背景雑音レベルと信号レベルに基づいて、有音判定に用いる閾値を求める。
The
有音判定部14は、例えば、直近の所定時間分のフレーム(入力音声信号xのフレーム)に基づくヒストグラムHを用いて閾値算出処理(閾値更新処理)を行う。有音判定部14は、例えば、直近の10sec分のフレーム(入力音声信号xのフレーム)に基づいて、閾値算出処理を行うようにしてもよい。有音判定部14が閾値算出処理を行うタイミングについては限定されないものである。有音判定部14は、例えば、所定の期間ごと(例えば、10secの期間ごと)に有音判定を行うようにしてもよい。
The
なお、有音判定部14が閾値算出処理を行うタイミングや、頻度計数部12で保持するヒストグラムHのサンプル数等については限定されないものである。例えば、有音判定部14が、所定の期間ごとに閾値算出処理を行う際に、カウンタ部121の各カウンタCTを初期化(カウンタ値を0にリセット)する処理を行うようにしてもよい。
The timing at which the
次に、レベル推定部13が背景雑音レベルと信号レベルとを推定する処理の例について説明する。
Next, an example of processing in which the
上述の通り、図2に示すグラフは、実際に有音検出装置1に音声信号を入力した場合に、頻度計数部12(カウンタ部121)で保持されたヒストグラムHを示している。そして、図2に示すヒストグラムHにおいて、実際の信号レベルの分布(有音区間のレベルの分布)と背景雑音レベルの分布(無音区間のレベルの分布)を確認した。そうすると、図2のヒストグラムHでは、レベルB1〜B2の範囲に、主として背景雑音レベルの分布により形成される第1のピークが確認できた。また、図2のヒストグラムHでは、レベルB1〜B2の範囲よりも高いレベルB3〜B4の範囲に、主として信号レベル(有音区間のレベル)の分布により形成される第2のピークが確認できた。
As described above, the graph shown in FIG. 2 shows the histogram H held by the frequency counting unit 12 (counter unit 121) when an audio signal is actually input to the voice
以上のように、図2に示すヒストグラムHでは、主として背景雑音レベルの分布により形成される第1のピーク(レベルB1〜B2の範囲のピーク)と、主として信号レベルの分布により形成される第2のピーク(第1のピークよりも高いレベルB3〜B4の範囲のピーク)が発生する。すなわち、図2に示すヒストグラムHは、2つのピーク(双峰性)を備えるヒストグラムとなっている。 As described above, in the histogram H shown in FIG. 2, the first peak (peak in the range of levels B1 to B2) mainly formed by the distribution of the background noise level and the second peak mainly formed by the distribution of the signal level Peak (a peak in the range of levels B3 to B4 higher than the first peak) occurs. That is, the histogram H shown in FIG. 2 is a histogram including two peaks (bimodal).
出願人による複数回の実験の結果、頻度計数部12で保持されるヒストグラムHにおいて、上述の2つのピークが発生することは、一般的に成り立つ(再現性がある)ことが明らかとなっている。
As a result of a plurality of experiments by the applicant, it has become clear that, in the histogram H held by the
そこで、この実施形態のレベル推定部13は、主として背景雑音レベルの分布により形成される第1のピークと、主として信号レベルの分布により形成される第2のピークとを検出し、有音判定部14は検出された2つのピークに基づいて有音判定を行うものとする。
Therefore, the
次に、レベル推定部13および有音判定部14による、有音判定の具体的手順の例(上述の2つのピークに基づく有音判定の具体例)について説明する。
Next, an example of a specific procedure of the presence determination by the
H(v)により示される曲線には、細かな凹凸が含まれるので、レベル推定部13はこの凹凸を除去する目的で平滑化する処理を行う。H(v)を平滑化する手法については限定されないものであるが、例えば、重み付け平均等の手法を用いるようにしてもよい。
Since the curve indicated by H (v) includes fine asperities, the
具体的には、レベル推定部13は、以下の(1)式を用いてH(v)の平滑化を行うようにしてもよい。以下の(1)式において、Hs(v)は、H(v)が平滑化された後の値を示している。レベル推定部13は、ヒストグラムHを構成する全てのレベルのそれぞれについてHs(v)を求めることにより平滑化処理を行う。
Hs(v)={H(v−2)+2H(v−1)+3H(v)
+2H(v+1)+H(v+2)}/9 …(1)
Specifically, the
Hs (v) = {H (v-2) + 2H (v-1) + 3H (v)
+ 2H (v + 1) + H (v + 2)} / 9 (1)
図3は、レベル推定部13によるH(v)の平滑化処理について示したグラフである。
FIG. 3 is a graph showing the smoothing process of H (v) by the
図3では、H(v)が平滑化処理される前のグラフ(曲線)を点線で図示し、H(v)が平滑化処理された後のグラフ(曲線)を実線で図示している。 In FIG. 3, a graph (curve) before H (v) is smoothed is shown by a dotted line, and a graph (curve) after H (v) is smoothed is shown by a solid line.
次に、レベル推定部13は、平滑化したHs(v)から、上述の2つのピークを検出するために、Hs(v)の凸性を数値化する処理を行う。レベル推定部13において、Hs(v)の凸性を数値化する具体的な手法は限定されないものである。この実施形態では、レベル推定部13は、差分化した二階微分値を用いてHs(v)の凸性を数値化するものとして説明する。具体的には、レベル推定部13は、以下の(2)式を用いて、Hs(v)の凸性を数値化する処理を行う。以下の(2)式において、C(v)はHs(v)の凸性を示す。レベル推定部13は、ヒストグラムHを構成するレベルのそれぞれについてC(v)を求めることにより凸性を数値化する。C(v)が正の値の区間は、上方向(正の方向)に凸の形であることを示すことになる。
Next, the
そして、レベル推定部13は、C(v)が正である区間を1つのピークとみなし、全区間に渡ってピークの探索を行う。
Then, the
上述の通り、ヒストグラムHは、通常、主として背景雑音レベルの分布により形成される第1のピークと、主として信号レベルの分布により形成される第2のピーク(第1のピークよりも高いレベルのピーク)が発生する双峰性の分布となる。したがって、レベル推定部13は、通常、ヒストグラムH(Hs(v))の凸性に基づいて2つのピークを検出することができる。そして、レベル推定部13は、検出した2つのピークのうち、レベルの低い方のピークを背景雑音レベルに係る第1のピークと見なし、レベルの高い方のピークを信号レベルに係る第2のピークと見なすものとする。なお、レベル推定部13は、1つのピークしか見つけられない場合は、当該ピークを背景雑音レベルに係るピークと見なすようにしてもよい。また、レベル推定部13は、3つ以上のピークを検出した場合、区間の広いもの(C(v)が正である区間が広いもの)から順に2つを選択して、レベルの低い方のピークを背景雑音レベルに係る第1のピークと見なし、レベルの高い方のピークを信号レベルに係る第2のピークとみなすようにしてもよい。
C(v)=Hs(v)−
{Hs(v−10)+Hs(v+10)}/2…(2)
As described above, the histogram H usually has a first peak mainly formed by the background noise level distribution and a second peak mainly formed by the signal level distribution (a peak higher than the first peak). Distribution is bimodal). Therefore, the
C (v) = Hs (v)-
{Hs (v-10) + Hs (v + 10)} / 2 (2)
図4は、図3に示すHs(v)の各レベルにおける凸性を数値化(上記の(2)式に基づいて数値化)した場合のグラフである。図4では、Hs(v)の凸性を数値化したグラフ(曲線)を実線で図示し、Hs(v)を示すグラフを点線で図示している。 FIG. 4 is a graph in the case where the convexity at each level of Hs (v) shown in FIG. 3 is digitized (digitized based on the above equation (2)). In FIG. 4, a graph (curve) obtained by digitizing the convexity of Hs (v) is illustrated by a solid line, and a graph indicating Hs (v) is illustrated by a dotted line.
図4に示すグラフでは、C(v)が正の値となる区間(ピーク)が2つ形成されている。したがって、レベル推定部13は、この2つのピークのうち、レベルの低い方のピークを背景雑音レベルに係る第1のピークと見なし、レベルの高い方のピークを信号レベルに係る第2のピークと見なすことになる。以下では、背景雑音レベルに係る第1のピークの区間(第1のピークを含む区間)をピーク区間PNと呼ぶものとする。また、以下では、信号レベルに係る第2のピークの区間(第2のピークを含む区間)をピーク区間PSと呼ぶものとする。
In the graph shown in FIG. 4, two sections (peaks) in which C (v) is a positive value are formed. Therefore, the
なお、図4に示すように、背景雑音レベルに係るピーク区間PNは、信号レベルに係るピーク区間PSよりも狭くなる傾向にある。したがって、背景雑音レベルに係る第1のピークに係る分布より、信号レベルに係る第2のピークに係る分布の方が分散が大きくなる傾向にあると言える。 As shown in FIG. 4, the peak section PN related to the background noise level tends to be narrower than the peak section PS related to the signal level. Therefore, it can be said that the distribution of the second peak of the signal level tends to be larger than the distribution of the first peak of the background noise level.
次に、レベル推定部13は、ピーク区間PN、PSのそれぞれについて、区間内の代表値(有音判定に適用する値)を決定する。レベル推定部13が各ピーク区間の代表値を決定する手法については限定されないものである。この実施形態では、レベル推定部13は、重心法を用いて各ピーク区間の代表値を決定するものとする。例えば、レベル推定部13は、以下の(3)式に基づいてピーク区間PNの代表値を決定するようにしてもよい。以下の(3)式において、LvNは、ピーク区間PNの代表値(背景雑音レベルの推定値)である。また、例えば、レベル推定部13は、以下の(4)式に基づいてピーク区間PSの代表値を決定するようにしてもよい。以下の(4)式において、LvSは、ピーク区間PSの代表値(信号レベルの推定値)である。
LvN=ΣvH(v)/ΣH(v) (v∈PN) …(3)
LvS=ΣvH(v)/ΣH(v) (v∈PS) …(4)
Next, the
LvN = v v H (v) / H H (v) (v ∈ PN) (3)
LvS = v v H (v) / H H (v) (v ∈ PS) (4)
次に、有音判定部14が推定された背景雑音レベルLvNと信号レベルLvSとに基づいて閾値を決定する処理について説明する。
Next, a process of determining a threshold based on the background noise level LvN and the signal level LvS estimated by the
有音判定部14は、背景雑音レベルの推定値LvN、及び信号レベルの推定値LvSを用いて、現在の処理フレームが有音区間か無音区間かを判定する。ここでは、有音判定部14は、背景雑音レベルの推定値LvN、及び信号レベルの推定値LvSを用いて、現在の処理フレームのフレームレベルLvと比較するための閾値LvThを求める。ここでは、有音判定部14は、以下の(5)式を用いて、閾値LvThを求めるものとする。以下の(5)式においてαは0から1の間(0≦α≦1)で任意の値に設定される係数である。αは、例えば、固定的(静的)な値(例えば、0.5程度の値)としてもよいが、動的に変動させるようにしてもよい。
The
なお、有音判定部14は、ヒストグラムHから1つのピークしか見つけられなかった場合は、背景雑音レベルの推定値LvNのみ最新のヒストグラムHに基づく値に更新し、信号レベルの推定値LvSについては前回算出したものを継続して用い、閾値LvThを求めるようにしてもよい。
LvTh=αLvN+(1−α)LvS …(5)
If the
LvTh = αLvN + (1-α) LvS (5)
この実施形態の例では、有音判定部14は、現在処理している音声フレーム(例えば、最新に入力された音声フレーム)のフレームレベルLvと、閾値LvThを比較し、当該音声フレームの有音判定(有音区間に属する音声フレームか、無音区間に属する音声フレームかを判定)する処理を行う。具体的には、有音判定部14は、Lv>=LvThであれば当該音声フレームは有音区間に属し、Lv<LvThであれば当該音声フレームは無音区間に属すると判定するものとする。
In the example of this embodiment, the
(A−3)第1の実施形態の効果
第1の実施形態実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of the First Embodiment According to the first embodiment, the following effects can be achieved.
第1の実施形態の有音検出装置1では、ヒストグラムHから、主として背景雑音レベルの分布により形成される第1のピークの区間と、主として信号レベルの分布により形成される第2のピークの区間を検出し、背景雑音レベルと信号レベルとを推定する処理を行っている。そして、第1の実施形態の有音検出装置1では、背景雑音レベルと信号レベルの両方を用いて、有音判定に用いる閾値を推定している。従来技術では、背景雑音レベルのみを推定するため、S/N比が悪い状態では、適切な閾値を設定することができない場合があった。しかしながら、第1の実施形態の有音検出装置1では、ヒストグラムHから、背景雑音レベルと信号レベルの両方を推定して、適切な閾値を設定するため、S/N比が悪い状態であっても、従来より適切な閾値設定を行うことが可能となる。すなわち、第1の実施形態の有音検出装置1では、従来よりも安定的に有音検出を行うことができる。
In the
(B)第2の実施形態
以下、本発明による音声処理装置、プログラム及び方法の第2の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、話頭検出装置に適用した例について説明する。
(B) Second Embodiment Hereinafter, a second embodiment of the speech processing device, program and method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the speech processing device, program and method of the present invention are applied to a speech detection device will be described.
図5は、本発明の話頭検出装置100の機能的構成について示した説明図である。
FIG. 5 is an explanatory view showing a functional configuration of the
話頭検出装置100は、入力された音声信号から話頭(音声の開始時点)を検出する装置(話頭検出手段の機能を担う装置)である。話頭検出装置100は、例えば、プロセッサ及びメモリを備えるコンピュータ上にプログラム(実施形態に係る音声処理プログラムを含む)をインストールしてソフトウェアとして実現するようにしてもよい。話頭検出装置100は、例えば、電話端末等の音声処理を行う装置に組み込むようにしてもよい。
The
話頭検出装置100は、有音検出部101及び話頭検出部102を有している。
The speech
有音検出部101は、入力された音声信号について有音検出するものである。この実施形態では、有音検出部101として、第1の実施形態の有音検出装置1を適用しているものとする。有音検出部101は、入力された音声信号に基づいて、所定期間ごとに有音判定又は無音判定を出力する。
The voice
話頭検出部102は、有音検出部101の検出結果に基づいて、入力された音声信号の話頭を検出するものである。話頭検出部102は、有音検出部101の判定結果が無音判定から有音判定に遷移したタイミングにも話頭を検出したことを示す検出信号を出力し、それ以外のタイミングでは話頭を検出していないことを示す非検出信号を出力する。
The
(C)第3の実施形態
以下、本発明による音声処理装置、プログラム及び方法の第3の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、背景雑音低減装置(ノイズサプレッサ)に適用した例について説明する。
(C) Third Embodiment Hereinafter, a third embodiment of the speech processing device, program and method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the speech processing apparatus, program and method of the present invention are applied to a background noise reduction apparatus (noise suppressor) will be described.
図6は、本発明の背景雑音低減装置200の機能的構成について示した説明図である。
FIG. 6 is an explanatory view showing a functional configuration of the background
背景雑音低減装置200は、入力された音声信号について、無音区間で音声レベルを下げて出力することで背景雑音を低減する装置(背景雑音低減手段の機能を担う装置)である。背景雑音低減装置200は、例えば、プロセッサ及びメモリを備えるコンピュータ上にプログラム(実施形態に係る音声処理プログラムを含む)をインストールしてソフトウェアとして実現するようにしてもよい。背景雑音低減装置200は、例えば、電話端末等の音声処理を行う装置に組み込むようにしてもよい。
The background
背景雑音低減装置200は、有音検出部201、音声フレームバッファ202、有音/無音判定バッファ203、判定書換部204、及びゲイン重畳部205を有している。
The background
有音検出部201は、入力された音声信号について有音検出するものである。この実施形態では、有音検出部201として、第1の実施形態の有音検出装置1を適用しているものとする。有音検出部201は、入力された音声信号に基づいて、所定期間ごとに有音判定又は無音判定を出力する。
The
音声フレームバッファ202は、入力音声信号のフレームを一定時間分バッファリングする。
The
有音/無音判定バッファ203は、有音検出部201の判定結果を一定期間分バッファリングする。
The speech /
判定書換部204は、有音/無音判定バッファ203にバッファリングされている有音/無音判定の判定結果を参照し、無音判定から有音判定への変化を検知した場合に、有音/無音判定バッファ203に蓄積された有音/無音判定の判定結果について、過去の一定時間を遡り、無音判定を有音判定に書き換える処理を行う。判定書換部204は、背景雑音低減装置200が出力する音声信号での話頭切れを防止する目的で配置されている。
The
ゲイン重畳部205は、有音/無音判定バッファ203から任意の音声フレーム(例えば、最も古い音声フレーム)を取得して出力する。ゲイン重畳部205は、フレームを出力する際に、当該フレームに対応する有音/無音判定の判定結果を参照(有音/無音判定バッファ203に蓄積された判定結果を参照)し、当該フレームが無音区間のフレームである場合に、当該フレームの音声レベルを下げる処理(ゲインを調整する処理)を行ってから出力する。ゲイン重畳部205は、有音区間のフレームについてはそのまま出力する処理を行う。
The
(D)第4の実施形態
以下、本発明による音声処理装置、プログラム及び方法の第4の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、適応ゲイン制御装置(AGC)に適用した例について説明する。
(D) Fourth Embodiment Hereinafter, a fourth embodiment of the speech processing device, program and method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the voice processing device, program and method of the present invention are applied to an adaptive gain controller (AGC) will be described.
図7は、第4の実施形態の適応ゲイン制御装置300の機能的構成について示した説明図である。
FIG. 7 is an explanatory view showing a functional configuration of the adaptive
適応ゲイン制御装置300は、入力された音声信号について、所望の音声レベル(予め設定された一定のレベル)に調整して出力する装置(ゲイン制御手段の機能を担う装置)である。適応ゲイン制御装置300は、例えば、プロセッサ及びメモリを備えるコンピュータ上にプログラム(実施形態に係る音声処理プログラムを含む)をインストールしてソフトウェアとして実現するようにしてもよい。適応ゲイン制御装置300は、例えば、電話端末等の音声処理を行う装置に組み込むようにしてもよい。
The adaptive
適応ゲイン制御装置300は、有音検出部301、レベル算出部302、ゲイン決定部303、及びゲイン重畳部304を有している。
The adaptive
有音検出部301は、入力された音声信号について有音検出するものである。この実施形態では、有音検出部301として、第1の実施形態の有音検出装置1を適用しているものとする。有音検出部301は、入力された音声信号に基づいて、所定期間ごとに有音判定又は無音判定を出力する。
The voice
レベル算出部302は、入力信号のレベルを算出する。
The
ゲイン決定部303は、レベル算出部302で算出された入力信号のレベルに基づき重畳すべきゲインを決定するも。また、ゲイン決定部303は、有音検出部301の検出結果(有音/無音判定の結果)を考慮して、入力信号に重畳すべきゲイン(入力信号を所望のレベルとするためのゲイン)を決定する。例えば、ゲイン決定部303は、無音区間(有音検出部301で無音判定が検出されている区間)で、背景雑音を増幅しないゲインを決定する処理を行う。
The
ゲイン重畳部304は、入力信号にゲイン決定部303で決定されたゲインを重畳して出力する。ゲイン重畳部304が出力する音声信号のレベルは、予め設定された所望のレベルとなる。
The
(E)第5の実施形態
以下、本発明による音声処理装置、プログラム及び方法の第5の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、ジッタバッファを備える音声処理装置に適用した例について説明する。
(E) Fifth Embodiment Hereinafter, a fifth embodiment of the speech processing device, program and method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the speech processing apparatus, program and method of the present invention are applied to a speech processing apparatus provided with a jitter buffer will be described.
音声処理装置400は、例えば、プロセッサ及びメモリを備えるコンピュータ上にプログラム(実施形態に係る音声処理プログラムを含む)をインストールしてソフトウェアとして実現するようにしてもよい。音声処理装置400は、例えば、電話端末等の音声処理を行う装置に組み込むようにしてもよい。
For example, the
図8は、第5の実施形態の音声処理装置400の機能的構成について示した説明図である。
FIG. 8 is an explanatory view showing a functional configuration of the
音声処理装置400は、有音検出部401、ジッタバッファ402及びPCM復号手段403を有している。
The
ジッタバッファ402は、IPネットワークNを介して到達する音声パケット(音声フレームが挿入されたパケット)をジッタバッファ402により保留(バッファリング)してジッタ(ゆらぎ)を吸収し、一定間隔で保留した音声パケットを出力するものである。ジッタバッファ402は、音声パケットを格納(保留)する格納バッファ402a、及び格納バッファ402aの音声パケットの処理(例えば、廃棄等)を制御するジッタバッファ制御手段402bを有している。
The
なお、この実施形態では、ジッタバッファ402には、RTP(Real−Time Transport Protocol)の形式の音声パケットが入力されるものとして説明する。
In this embodiment, it is assumed that voice packets in the form of RTP (Real-Time Transport Protocol) are input to the
ジッタバッファ402(格納バッファ402a)は、IPネットワークNから到達する音声パケット(RTP形式のパケット)中のシーケンス番号を読み取り、音声パケットをシーケンス番号の小さい順に蓄積する。また、ジッタバッファ402(格納バッファ402a)は、シーケンス番号の小さい順に蓄積した音声パケットを出力する。 The jitter buffer 402 (storage buffer 402 a) reads the sequence number in the voice packet (packet in RTP format) arriving from the IP network N, and stores the voice packet in ascending order of the sequence number. Also, the jitter buffer 402 (storage buffer 402 a) outputs voice packets stored in ascending order of sequence numbers.
ジッタバッファ制御手段402bは格納バッファ402a内に蓄積された音声パケットの量(数)がある閾値以上の場合に、一部の音声パケットを破棄させて蓄積量を削減する処理を行う。
When the amount (number) of voice packets stored in the storage buffer 402a is equal to or more than a threshold, the jitter
PCM復号手段403は格納バッファ402aから供給された音声パケットのペイロード(符号化された音声データ)を復号する処理を行う。PCM復号手段403は、例えば、ITU−T G.711等の所定のコーデックに従って、音声パケットのペイロードを復号し、復号した音声データ(例えば、PCM形式の音声データのフレーム)を取得する。
The
有音検出部401は、入力された音声信号(PCM復号手段403から出力される音声データのフレーム)について有音検出するものである。この実施形態では、有音検出部401として、第1の実施形態の有音検出装置1を適用しているものとする。有音検出部401は、入力された音声信号に基づいて、所定期間ごとに有音判定又は無音判定を出力する。
The voice
ジッタバッファ制御手段402bは、有音検出部401の判定結果を考慮して、格納バッファ402aの音声パケットを破棄するか否かの判断(音声パケットを破棄する処理タイミングの判断)を行う。例えば、ジッタバッファ制御手段402bは、有音検出部401が無音判定を出力している間のみ、格納バッファ402aの音声パケットを廃棄すると決定可能とするようにしてもよい。これにより、ジッタバッファ402では、音声パケット破棄に伴う音声への影響(例えば、復号側での復号音声の劣化等)を抑制することができる。
The jitter
(F)第6の実施形態
以下、本発明による音声処理装置、プログラム及び方法、並びに交換装置の第6の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の音声処理装置、プログラム及び方法を、交換装置に適用した例について説明する。
(F) Sixth Embodiment The sixth embodiment of the speech processing device, program and method according to the present invention, and the exchange device will be described in detail with reference to the drawings. In this embodiment, an example in which the voice processing device, program and method of the present invention are applied to a switching device will be described.
図9は、第6の実施形態の交換装置500の機能的構成について示した説明図である。
FIG. 9 is an explanatory view showing a functional configuration of the
交換装置500は、IPネットワークNを介して複数のIP電話端末600と接続し、IP電話端末600間の呼制御処理やメディア通信処理(音声データ等のメディアデータの処理)等を行う装置(いわゆるIP−PBXの機能を担う装置)である。
The
交換装置500は、例えば、プロセッサ及びメモリを備えるコンピュータ上にプログラム(実施形態に係る音声処理プログラムを含む)をインストールしてソフトウェアとして実現するようにしてもよい。
For example, the
この実施形態の例では、交換装置500は、呼制御部501及びメディア処理部502を有している。言い換えると、交換装置500は、交換処理手段を実現する構成要素として呼制御部501及びメディア処理部502を有している。なお、交換装置500における交換方式(呼制御処理方式やメディアデータの処理方式等)については限定されないものである。
In the example of this embodiment, the
呼制御部501は、IP電話端末600間の呼制御処理を行う。呼制御部501は、例えばSIP(Session Initiation Protocol)等の呼制御プロトコルに従って呼制御処理を行う。
The
メディア処理部502は、IP電話端末600との間でメディア通信処理(音声データ等のメディアデータの処理)を行うものである。メディア処理部502は、IP電話端末600から音声データ(音声パケット)を受信して処理し、他のIP電話端末600へ送信する処理等を行う。メディア処理部502は、適応ゲイン制御部503を有している。適応ゲイン制御部503は、IP電話端末600から受信した音声パケットに基づく音声信号(音声データ)又は、IP電話端末600へ送信する音声パケットに挿入する音声信号(音声データ)について、所望の音声レベル(予め設定された一定のレベル)に調整する処理を行う。この実施形態では、適応ゲイン制御部503として、第3の実施形態の適応ゲイン制御装置300を適用しているものとする。すなわち、交換装置500は、第3の実施形態の適応ゲイン制御装置300を用いて、送信又は受信する音声信号の処理を行っている。
The
(G)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(G) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.
(G−1)本発明の音声処理装置(第1の実施形態の有音検出装置)は、上記の各実施形態で例示した各装置以外のその他の音声処理装置(例えば、電話端末、会議端末、音声録音装置等)に対しても適用可能である。 (G-1) The voice processing device of the present invention (the voiced detection device of the first embodiment) is a voice processing device other than the devices exemplified in the above embodiments (for example, a telephone terminal, a conference terminal , Voice recording apparatus etc.).
(G−2)第1の実施形態の有音判定部14において、フレームレベルLvが閾値LvThに近い場合、有音判定と無音判定が短時間に交互に入れ替わる状態(いわゆるフラッピング状態)となる可能性がある。そこで、有音判定部14は、上述のような状態を防ぐために、あるフレームが有音区間と判定された場合、それ以降の一定時間のフレームは必ず有音区間と判定する処理(いわゆる「ハングオーバ機能」の処理)を行うようにしてもよい。上述の一定時間としては、例えば500msec程度の時間を適用するようにしてもよい。
(G-2) In the
1…有音検出装置(音声処理装置)、10…HPF、11…レベル算出部、12…頻度計数部、12…1カウンタ部、13…レベル推定部、14…有音判定部。
DESCRIPTION OF
Claims (10)
上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数する頻度計数手段と、
レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定するレベル値推定手段と、
背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行う判定手段と
を有することを特徴とする音声処理装置。 Level value calculation means for calculating the level value of the input speech signal for each frame of a predetermined time unit;
Frequency counting means for counting the frequency of appearance of each level value for the level value calculated by the above-mentioned level value calculating means;
Level value estimation means for estimating a background noise level value and a target sound signal level value from an appearance frequency for each level value;
Speech processing apparatus characterized by further comprising: determination means for performing determination processing for determining a voiced section or a silent section of an input speech signal based on an estimated value of a background noise level value and an estimated value of a target sound signal level value. .
上記ネットワークから到来するフレームを保留し、所定の間隔でフレームを出力するジッタバッファと、
上記ジッタバッファを制御するものであって、上記判定手段の判定結果を考慮したタイミングで、上記ジッタバッファに保留されているフレームを破棄させる処理を行うジッタバッファ制御手段とをさらに有する
ことを特徴とする請求項1〜3のいずれかに記載の音声処理装置。 The input speech signal comes from the network in frame units,
A jitter buffer for holding frames coming from the network and outputting the frames at predetermined intervals;
The jitter buffer control means is for controlling the jitter buffer, and further includes a jitter buffer control means for discarding a frame reserved in the jitter buffer at a timing taking into consideration the determination result of the determination means. The voice processing apparatus according to any one of claims 1 to 3.
上記交換処理手段は、請求項6に記載の音声処理装置を用いて、上記端末に送信する音声信号又は上記端末から受信した音声信号のレベルを、所望のレベルに調整する
ことを特徴とする交換装置。 Exchange processing of voice communication between a plurality of terminals, and having exchange processing means for adjusting a level of a voice signal to be transmitted to the terminal or a voice signal received from the terminal to a desired level;
The exchange processing means adjusts the level of an audio signal to be transmitted to the terminal or an audio signal received from the terminal to a desired level using the speech processing apparatus according to claim 6. apparatus.
入力音声信号のレベル値を所定時間単位のフレーム毎に計算するレベル値計算手段と、
上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数する頻度計数手段と、
レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定するレベル値推定手段と、
背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行う判定手段と
して機能させることを特徴とする音声処理プログラム。 Computer,
Level value calculation means for calculating the level value of the input speech signal for each frame of a predetermined time unit;
Frequency counting means for counting the frequency of appearance of each level value for the level value calculated by the above-mentioned level value calculating means;
Level value estimation means for estimating a background noise level value and a target sound signal level value from an appearance frequency for each level value;
A voice characterized in that it functions as determination means for performing a determination process of determining a voiced section or a silent section for an input voice signal based on an estimated value of a background noise level value and an estimated value of a target sound signal level value. Processing program.
レベル値計算手段、頻度計数手段、レベル値推定手段、判定手段を有し、
上記レベル値計算手段は、入力音声信号のレベル値を所定時間単位のフレーム毎に計算し、
上記頻度計数手段は、上記レベル値計算手段で計算されたレベル値について、レベル値毎の出現頻度を計数し、
上記レベル値推定手段は、レベル値毎の出現頻度から、背景雑音レベル値及び目的音信号レベル値を推定し、
上記判定手段は、背景雑音レベル値の推定値及び目的音信号レベル値の推定値に基づいて、入力音声信号について有音声区間又は無音区間を判定する判定処理を行う
ことを特徴とする音声処理方法。 In the speech processing method performed by the speech processing device,
Level value calculation means, frequency counting means, level value estimation means, determination means
The level value calculating means calculates the level value of the input speech signal for each frame of a predetermined time unit,
The frequency counting means counts the appearance frequency for each level value for the level value calculated by the level value calculating means,
The level value estimation means estimates a background noise level value and a target sound signal level value from the appearance frequency for each level value,
The voice processing method characterized in that the determination means performs a determination process of determining a voiced section or a silent section for the input voice signal based on the estimated value of the background noise level value and the estimated value of the target sound signal level value. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058103A JP6531449B2 (en) | 2015-03-20 | 2015-03-20 | Voice processing apparatus, program and method, and exchange apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015058103A JP6531449B2 (en) | 2015-03-20 | 2015-03-20 | Voice processing apparatus, program and method, and exchange apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016177176A JP2016177176A (en) | 2016-10-06 |
JP6531449B2 true JP6531449B2 (en) | 2019-06-19 |
Family
ID=57069164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015058103A Active JP6531449B2 (en) | 2015-03-20 | 2015-03-20 | Voice processing apparatus, program and method, and exchange apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6531449B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7275711B2 (en) | 2019-03-20 | 2023-05-18 | ヤマハ株式会社 | How audio signals are processed |
CN113986190A (en) * | 2021-11-02 | 2022-01-28 | 维沃移动通信有限公司 | Application processing method and device and electronic equipment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175083A (en) * | 1997-12-16 | 1999-07-02 | Mitsubishi Electric Corp | Method and device for calculating noise likeness |
JPWO2008007616A1 (en) * | 2006-07-13 | 2009-12-10 | 日本電気株式会社 | Non-voice utterance input warning device, method and program |
EP2770504B1 (en) * | 2011-10-20 | 2016-11-30 | LG Electronics Inc. | Method of managing a jitter buffer, and jitter buffer using same |
-
2015
- 2015-03-20 JP JP2015058103A patent/JP6531449B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016177176A (en) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7171357B2 (en) | Voice-activity detection using energy ratios and periodicity | |
US10205830B2 (en) | Echo cancellation data synchronization control method, terminal, and storage medium | |
US8554557B2 (en) | Robust downlink speech and noise detector | |
JP6265450B2 (en) | Speech recognition method, speech recognition device, and electronic device | |
US9966067B2 (en) | Audio noise estimation and audio noise reduction using multiple microphones | |
US9524735B2 (en) | Threshold adaptation in two-channel noise estimation and voice activity detection | |
EP2130203B3 (en) | Method of transmitting data in a communication system | |
US9319783B1 (en) | Attenuation of output audio based on residual echo | |
CN102160296B (en) | Method and apparatus for detecting double talk | |
JP2006189907A (en) | A method for detecting speech activity of a signal and a speech signal coder including an apparatus for performing the method | |
US9521263B2 (en) | Long term monitoring of transmission and voice activity patterns for regulating gain control | |
JP4204754B2 (en) | Method and apparatus for adaptive signal gain control in a communication system | |
JP2003158476A (en) | Echo canceller | |
US9773510B1 (en) | Correcting clock drift via embedded sine waves | |
JP2010206515A (en) | Echo canceller | |
CN108133712B (en) | Method and device for processing audio data | |
CN110265058B (en) | Estimating background noise in an audio signal | |
EP3240303B1 (en) | Sound feedback detection method and device | |
US8369251B2 (en) | Timestamp quality assessment for assuring acoustic echo canceller operability | |
JP6531449B2 (en) | Voice processing apparatus, program and method, and exchange apparatus | |
JP2002064618A (en) | Voice switching device and its method | |
US8559466B2 (en) | Selecting discard packets in receiver for voice over packet network | |
US7962334B2 (en) | Receiving device and method | |
CN112533074A (en) | Data transmission method and device | |
JP2002006898A (en) | Method and device for noise reduction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6531449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |