JP3976078B1 - Telephone device - Google Patents
Telephone device Download PDFInfo
- Publication number
- JP3976078B1 JP3976078B1 JP2006326212A JP2006326212A JP3976078B1 JP 3976078 B1 JP3976078 B1 JP 3976078B1 JP 2006326212 A JP2006326212 A JP 2006326212A JP 2006326212 A JP2006326212 A JP 2006326212A JP 3976078 B1 JP3976078 B1 JP 3976078B1
- Authority
- JP
- Japan
- Prior art keywords
- microphone
- output
- speaker
- audio signal
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000005236 sound signal Effects 0.000 claims abstract description 154
- 238000006243 chemical reaction Methods 0.000 claims abstract description 77
- 230000005540 biological transmission Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 40
- 238000004891 communication Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 239000000758 substrate Substances 0.000 description 22
- 238000012935 Averaging Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000009467 reduction Effects 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 7
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 229910052710 silicon Inorganic materials 0.000 description 4
- 239000010703 silicon Substances 0.000 description 4
- 239000010409 thin film Substances 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 2
- 239000004697 Polyetherimide Substances 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000009413 insulation Methods 0.000 description 2
- 229910052742 iron Inorganic materials 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920001601 polyetherimide Polymers 0.000 description 2
- 229920000139 polyethylene terephthalate Polymers 0.000 description 2
- 239000005020 polyethylene terephthalate Substances 0.000 description 2
- 229920002635 polyurethane Polymers 0.000 description 2
- 239000004814 polyurethane Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 229910052779 Neodymium Inorganic materials 0.000 description 1
- 239000010960 cold rolled steel Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000005520 electrodynamics Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000002655 kraft paper Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- QEFYFXOXNSNQGX-UHFFFAOYSA-N neodymium atom Chemical compound [Nd] QEFYFXOXNSNQGX-UHFFFAOYSA-N 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229920001169 thermoplastic Polymers 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
- Interconnected Communication Systems, Intercoms, And Interphones (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、通話装置に関するものである。 The present invention relates to a call device.
従来、インターホンシステム等で屋内に設置される通話装置があり、他の場所に設置された通話装置からの音声を出力するスピーカや、他の通話装置へ伝達する音声を入力するマイクロホン等を備えている。 Conventionally, there is a communication device installed indoors with an interphone system or the like, which includes a speaker that outputs sound from a communication device installed in another place, a microphone that inputs sound transmitted to the other communication device, and the like. Yes.
そして、スピーカから発生した音声がマイクロホンに回り込むとハウリングが生じることになるから、様々なハウリング防止対策が採られている。例えば、スピーカと一対のマイクロホンとを備えて、両マイクロホンとスピーカとの距離の差に相当する音波の遅延時間だけスピーカに近いほうのマイクロホンの出力を遅延させる遅延回路と、両マイクロホンとスピーカとの距離の差に相当するレベル調整を行なってスピーカからの音声に対する両マイクロホンの出力レベルを一致させるレベル調整増幅回路と、遅延回路とレベル調整増幅回路とを通った両マイクロホンの出力を両入力とする差動増幅回路とを設け、差動増幅回路の出力を送話信号とする通話装置が提案された。 Since howling occurs when the sound generated from the speaker wraps around the microphone, various measures for preventing howling are taken. For example, a delay circuit that includes a speaker and a pair of microphones, delays the output of a microphone closer to the speaker by a delay time of sound waves corresponding to the difference in distance between the two microphones and the speaker, and both the microphone and the speaker. Adjusting the level corresponding to the difference in distance to match the output level of both microphones with respect to the sound from the speaker, and using both microphone outputs through the delay circuit and the level adjusting amplifier circuit as both inputs There has been proposed a communication device that is provided with a differential amplifier circuit and uses the output of the differential amplifier circuit as a transmission signal.
この通話装置では、両マイクロホンでスピーカからの音声を拾った後、遅延およびレベル調整を行なって両マイクロホンに入力されるスピーカからの音声成分を差動増幅回路で相殺することで、スピーカからの音声成分のみを除去して(キャンセル処理)、ハウリングを防止しようとしている。(例えば、特許文献1,2参照)。
しかしながら、スピーカから発せられた音声はマイクロホンに伝達されて音声信号に変換されるが、スピーカからマイクロホンへ伝わる音波の伝達関数は周波数特性を有しており、マイクロホンで集音される音声の位相、振幅は、周波数に依存している。したがって、上記特許文献1,2のような従来の構成では、特定の周波数近傍ではスピーカからの音声成分をキャンセルできるが、広い周波数帯域に亘ってスピーカからの音声成分をキャンセルすることはできなかった。また、コスト低減の要望もある。
However, the sound emitted from the speaker is transmitted to the microphone and converted into an audio signal, but the transfer function of the sound wave transmitted from the speaker to the microphone has a frequency characteristic, and the phase of the sound collected by the microphone, The amplitude depends on the frequency. Therefore, in the conventional configurations such as
本発明は、上記事由に鑑みてなされたものであり、その目的は、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することにある。 The present invention has been made in view of the above-mentioned reasons, and its object is to cancel a voice component emitted from a speaker from a transmission signal over a wide frequency band and to prevent a howling from occurring at a low cost. Is to provide.
請求項1の発明は、伝達された音声情報を出力するスピーカと、音声を集音して音声信号を出力する第1のマイクロホンと、スピーカからの距離が第1のマイクロホンより遠い位置に配置され、音声を集音して音声信号を出力する第2のマイクロホンと、前記第1,第2のマイクロホンが出力する各音声信号を信号処理して伝達する信号処理部とを備え、前記信号処理部は、第1のマイクロホンが出力する音声信号をA/D変換する第1のA/D変換手段と、第1,第2のマイクロホンとスピーカとの各距離の差に相当する第1の周波数の音波の伝達時間を遅延時間として、第1のA/D変換手段が第1のマイクロホンからの音声信号をA/D変換したタイミングから前記遅延時間経過したときに第2のマイクロホンからの音声信号をA/D変換する第2のA/D変換手段と、第1,第2のマイクロホンのいずれか一方で集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、一方のマイクロホンが出力する音声信号をデジタル信号に変換するA/D変換手段の出力に基づいて、当該A/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで一方のマイクロホンから出力される音声信号を推測する推測手段と、スピーカからの音声に対する前記第1,第2のマイクロホンの各出力レベルを第1,第2の周波数を各々含む周波数帯域毎に一致させる処理を、前記一方のA/D変換手段および推測手段の各出力と前記他方のA/D変換手段の出力との少なくとも一方に施すレベル調整手段と、レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを具備することを特徴とする。 According to the first aspect of the present invention, the speaker that outputs the transmitted sound information, the first microphone that collects the sound and outputs the sound signal, and the distance from the speaker are arranged at a position farther than the first microphone. A second microphone that collects sound and outputs a sound signal; and a signal processing unit that processes and transmits each sound signal output from the first and second microphones, the signal processing unit The first A / D conversion means for A / D converting the audio signal output from the first microphone, and the first frequency corresponding to the difference between the distances between the first and second microphones and the speaker. The sound signal from the second microphone is obtained when the delay time elapses from the timing when the first A / D conversion means performs A / D conversion on the sound signal from the first microphone, with the sound wave transmission time as the delay time. A / D The phase difference of the second frequency component with respect to the first frequency component of the audio signal collected by one of the second A / D conversion means and the first and second microphones is defined as a shift time. Based on the output of the A / D conversion means for converting the audio signal output from one microphone into a digital signal, the one microphone is at a timing shifted from the timing at which the A / D conversion means performs A / D conversion. And a process for making the output levels of the first and second microphones corresponding to the sound from the speaker coincide with each frequency band including the first and second frequencies, respectively. Level adjusting means applied to at least one of the outputs of the one A / D converting means and the estimating means and the output of the other A / D converting means; , Characterized by comprising a calculating means for outputting a difference between the second microphone of the speech signal.
この発明によれば、周波数帯域毎に送話信号からスピーカが発する音声成分をキャンセルするので、広い周波数帯域に亘ってハウリングの発生を防止できる。さらに、推測手段によってA/D変換していない周波数の音声信号を推測するので、高速で動作するA/D変換手段または多数のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。すなわち、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができる。 According to the present invention, since the voice component emitted from the speaker is canceled from the transmission signal for each frequency band, howling can be prevented over a wide frequency band. Furthermore, since the audio signal having a frequency that is not subjected to A / D conversion is estimated by the estimation means, there is no need for an A / D conversion means or a large number of A / D conversion means that operate at high speed, cost reduction, circuit scale reduction, Miniaturization can be achieved. That is, it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmitted signal over a wide frequency band and prevent the occurrence of howling.
請求項2の発明は、請求項1において、前記推測手段は、第2のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第2のA/D変換手段の出力に基づいて、第2のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第2のマイクロホンから出力される音声信号を推測することを特徴とする。 According to a second aspect of the present invention, in the first aspect, the estimating means uses the phase difference of the second frequency component with respect to the first frequency component of the sound signal collected by the second microphone as a shift time, Based on the output of the second A / D conversion means, the audio signal output from the second microphone is estimated at a timing shifted from the timing at which the second A / D conversion means performs A / D conversion. It is characterized by.
この発明によれば、推測手段によって第2のマイクロホンが出力する音声信号を推測するので、高速で動作する第2のA/D変換手段または多数の第2のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。 According to the present invention, since the sound signal output from the second microphone is estimated by the estimation means, the second A / D conversion means or a large number of second A / D conversion means that operate at high speed is not necessary. Cost reduction, circuit scale reduction, and miniaturization can be achieved.
請求項3の発明は、請求項1において、前記推測手段は、第1のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第1のA/D変換手段の出力に基づいて、第1のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第1のマイクロホンから出力される音声信号を推測することを特徴とする。 According to a third aspect of the present invention, in the first aspect, the estimating means uses the phase difference of the second frequency component with respect to the first frequency component of the sound signal collected by the first microphone as a shift time, Estimating an audio signal output from the first microphone at a timing shifted from the timing at which the first A / D conversion unit performs A / D conversion based on the output of the first A / D conversion unit. It is characterized by.
この発明によれば、推測手段によって第1のマイクロホンが出力する音声信号を推測するので、高速で動作する第1のA/D変換手段または多数の第1のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。 According to the present invention, since the sound signal output from the first microphone is estimated by the estimation means, the first A / D conversion means or a large number of first A / D conversion means that operate at high speed is not necessary. Cost reduction, circuit scale reduction, and miniaturization can be achieved.
請求項4の発明は、請求項1乃至3いずれかにおいて、前記推測手段は、一方のA/D変換手段が連続して出力した2つのデジタル値を結ぶ直線に沿って音声信号が推移していると近似し、当該直線に基づいて前記推測動作を行うことを特徴とする。 According to a fourth aspect of the present invention, in any one of the first to third aspects, the estimating means is configured such that an audio signal changes along a straight line connecting two digital values continuously output by one A / D conversion means. The estimation operation is performed based on the straight line.
この発明によれば、A/D変換していない音声信号を、簡単な方法で推測することができる。 According to the present invention, an audio signal that has not been A / D converted can be estimated by a simple method.
請求項5の発明は、請求項1乃至4いずれかにおいて、前記一方のA/D変換手段の出力から第1の周波数を含む周波数帯域を通過させ、さらに前記推測手段の出力から第2の周波数を含む周波数帯域を通過させる第1のフィルタ手段と、前記他方のA/D変換手段の出力を前記周波数帯域毎に分離して通過させる第2のフィルタ手段とを備え、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の前記周波数帯域毎の差を加算して出力することを特徴とする。 According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the frequency band including the first frequency is passed from the output of the one A / D conversion means, and the second frequency is determined from the output of the estimation means. Including a first filter means for passing a frequency band including the second filter means for allowing the output of the other A / D conversion means to be separated and passed for each frequency band. The first and second microphones that have passed through the first and second filter means and the level adjusting means are added together with the difference for each frequency band and output.
この発明によれば、フィルタ手段によって周波数帯域毎に分割して送話信号からスピーカが発する音声成分をキャンセルするので、確実にハウリングの発生を防止できる。 According to the present invention, since the voice component emitted from the speaker is canceled from the transmission signal after being divided for each frequency band by the filter means, occurrence of howling can be surely prevented.
以上説明したように、本発明では、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができるという効果がある。 As described above, according to the present invention, there is an effect that it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmission signal over a wide frequency band and prevent the occurrence of howling. is there.
以下、本発明の実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施形態1)
本実施形態の通話装置Aは図2〜図4に示され、後面に開口を形成したボディA10と、ボディA10の開口に覆設したカバーA11とでハウジングA1を構成し、ハウジングA1内に、スピーカSP、マイクロホン基板MB1、通話スイッチSW1、音声処理部10を備える。
(Embodiment 1)
The communication device A of the present embodiment is shown in FIGS. 2 to 4, and a housing A1 is configured by a body A10 having an opening formed on the rear surface and a cover A11 covering the opening of the body A10. A speaker SP, a microphone board MB1, a call switch SW1, and a
音声処理部10は、図4に示すように、通信部10a、エコーキャンセル部10b,10c、増幅部10d、信号処理部10eを備えたICで構成され、ハウジングA1内に配置される。他の部屋等に設置されている通話装置Aから情報線Lsを介して送信された音声信号は、通信部10aで受信され、エコーキャンセル部10bを介して増幅部10dで増幅された後、スピーカSPから出力される。また、通話スイッチSW1を操作することで通話可能状態となり、マイクロホン基板MB1上のマイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)から入力された各音声信号は信号処理部10eで後述する信号処理を施された後、エコーキャンセル部10cを通過し、通信部10aから情報線Lsを介して他の部屋等に設置されている通話装置Aへ送信される。すなわち、部屋間で双方向の通話が可能なインターホンとして機能するものである。なお、通話装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。
As shown in FIG. 4, the
スピーカSPは、図2に示すように、冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成されて一端を開口した円筒状のヨーク20を具備し、ヨーク20の開口端から外側に向かって円形の支持体21が延設されている。
As shown in FIG. 2, the speaker SP is a
ヨーク20の筒内にはネオジウムで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の縁端面に固定されている。
A cylindrical permanent magnet 22 (for example, residual magnetic flux density of 1.39 T to 1.43 T) formed of neodymium is disposed in the cylinder of the
振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、ボイスコイル25がヨーク20の開口端に位置するように設けられており、ヨーク20の開口端近傍を前後方向に自在に移動する。
The
ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。
When an audio signal is input to the polyurethane copper wire of the
そして、スピーカSPの振動板23が対向するハウジングA1の前面内側には、リブ11が形成されており、スピーカSPの円形の支持体21の外周端部から前面側に突出した凸部21aの端面がリブ11に当接し、振動板23がハウジングA1の前面に内側から対向する状態でスピーカSPが固定される。
And the
ハウジングA1内にスピーカSPが固定されると、ハウジングA1の前面内側とスピーカSPの表面側(振動板23側)とで囲まれた空間である前気室Bf、ハウジングA1の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。前気室Bfは、ハウジングA1の前面に複数設けた音孔12を介して外部に連通している。後気室Brは、スピーカSPの支持体21の端部とハウジングA1の内面のリブ11とが密着することで、前気室Bfとは絶縁した(連通していない)空間となり、さらにカバーA11がボディA10の後面開口に密着することで、外部とも絶縁した密閉された空間となっている。
When the speaker SP is fixed in the housing A1, the front air chamber Bf which is a space surrounded by the front inner side of the housing A1 and the front surface side (the
次に、マイクロホン基板MB1は、図5に示すように、マイクロホンのベアチップBC1とICKa1との対、マイクロホンのベアチップBC2とICKa2との対をモジュール基板2の一面2aに各々実装し、ベアチップBC1、ICKa1、モジュール基板2上の配線パターン(図示無し)の各間、およびベアチップBC2、ICKa2、モジュール基板2上の配線パターン(図示無し)の各間をワイヤWで各々接続(ワイヤボンティング)した後、ベアチップBC1とICKa1の対を覆うようにシールドケースSC1を実装し、ベアチップBC2とICKa2の対を覆うように、シールドケースSC2を実装することで、ベアチップBC1、ICKa1、シールドケースSC1で構成されるマイクロホンM1、ベアチップBC2、ICKa2、シールドケースSC2で構成されるマイクロホンM2を備えている。
Next, as shown in FIG. 5, the microphone substrate MB1 has a pair of microphone bare chips BC1 and ICKa1 and a pair of microphone bare chips BC2 and ICKa2 mounted on one
ベアチップBC(ベアチップBC1またはBC2)は、図6に示すように、シリコン基板1bに穿設した孔1cを塞ぐようにシリコン基板1bの一面側にSi薄膜1dが形成され、このSi薄膜1dとの間にエアーギャップ1eを介して電極1fが形成され、さらに音声信号を出力するパッド1gが設けられており、コンデンサ型のシリコンマイクロホンを構成している。そして、外部からの音響信号がSi薄膜1dを振動させることで、Si薄膜1dと電極1fとの間の静電容量が変化して電荷量が変化し、この電荷量の変化に伴ってパッド1g,1gから音響信号に応じた電流が流れる。このベアチップBCは、シリコン基板1bをモジュール基板2上にダイボンディングし、特にベアチップBC2のSi薄膜1dは、モジュール基板2に穿設した音孔F2に対向している。
As shown in FIG. 6, in the bare chip BC (bare chip BC1 or BC2), an Si thin film 1d is formed on one surface side of the
そして、マイクロホンM1は、音孔F1を穿設したシールドケースSC1の底面側を集音面とし、マイクロホンM2は、音孔F2を穿設したモジュール基板2への実装面側を集音面として、互いに逆方向となるモジュール基板2の両面方向に集音面を有するものになる。このように構成されたマイクロホン基板MB1は、モジュール基板2の一面2aにマイクロホンM1,M2の両方を実装しているので、マイクロホン基板MB1の厚さを薄くできる。
The microphone M1 uses the bottom surface side of the shield case SC1 with the sound hole F1 as a sound collecting surface, and the microphone M2 uses the mounting surface side with respect to the
図7(a)は、マイクロホン基板MB1を、モジュール基板2の一面2a側から見た平面図であり、モジュール基板2は、マイクロホンM1を配置する矩形部2fと、マイクロホンM2を配置する矩形部2gと、矩形部2f,2g間を連結する連結部2hとで構成され、矩形部2gは矩形部2fより大きく形成される。そして、矩形部2gの縁部に沿って、負電源パッドP1,正電源パッドP2,出力1パッドP3,出力2パッドP4が設けられている。
FIG. 7A is a plan view of the microphone board MB1 as viewed from the one
そして、図7(b)に示すように、負電源パッドP1には外部から供給される電源電圧の負側、正電源パッドP2には電源電圧の正側が接続されて、モジュール基板2上の配線パターンを介してマイクロホンM1,M2に電源を供給している。また、出力1パッドP3からは、マイクロホンM1が集音した音声信号がモジュール基板2上の配線パターンを介して出力され、出力2パッドP4からは、マイクロホンM2が集音した音声信号がモジュール基板2上の配線パターンを介して出力される。なお、出力パッドP3,P4から出力される音声信号のグランドは、負電源パッドP1で兼用される。
As shown in FIG. 7B, the negative power supply pad P1 is connected to the negative side of the power supply voltage supplied from the outside, and the positive power supply pad P2 is connected to the positive side of the power supply voltage. Power is supplied to the microphones M1 and M2 through the pattern. Further, an audio signal collected by the microphone M1 is output from the
このように、マイクロホンM1,M2の電源を共通の負電源パッドP1、正電源パッドP2から供給し、さらにマイクロホンM1,M2の各出力のグランドを負電源パッドP1で兼用することで、パッドの数を減らすことができ、構成が簡単になる。 Thus, the power of the microphones M1 and M2 is supplied from the common negative power supply pad P1 and the positive power supply pad P2, and the ground of each output of the microphones M1 and M2 is shared by the negative power supply pad P1, so that the number of pads The configuration can be simplified.
次に、マイクロホン基板MB1の動作について説明する。 Next, the operation of the microphone substrate MB1 will be described.
まず、集音した音響信号に応じてベアチップBC1,BC2から流れる各電流は、ICKa1,Ka2によってインピーダンス変換されるとともに電圧信号に変換され、音声信号として出力1パッドP3、出力2パッドP4から各々出力される。
First, each current flowing from the bare chips BC1 and BC2 according to the collected acoustic signal is impedance-converted by ICKa1 and Ka2 and converted into a voltage signal, and output from the
ICKa(ICKa1またはKa2)は、図8の回路構成を備えており、電源パッドP1,P2から供給される電源電圧+V(例えば5V)を定電圧Vr(例えば12V)に変換するチップICからなる定電圧回路Kbを備えており、抵抗R11とベアチップBCとの直列回路に定電圧Vrが印加され、抵抗R11とベアチップBCとの接続中点はコンデンサC11を介してジャンクション型のJ−FET素子S11のゲート端子に接続される。J−FET素子S11のドレイン端子は動作電源+Vに接続され、ソース端子は抵抗R12を介して電源電圧の負側に接続される。ここで、J−FET素子S11は電気インピーダンスの変換用であり、このJ−FET素子S11のソース端子の電圧が音声信号として出力される。なお、ICKaのインピーダンスの変換回路は、上記構成に限定されるものではなく、例えばオペアンプによるソースフォロワ回路の機能を有する回路であってもよく、または必要に応じてICKa内に音声信号の増幅回路を設けてもよい。 The ICKa (ICKa1 or Ka2) has the circuit configuration of FIG. 8, and is a constant IC composed of a chip IC that converts the power supply voltage + V (for example, 5V) supplied from the power supply pads P1 and P2 into a constant voltage Vr (for example, 12V). A voltage circuit Kb is provided, a constant voltage Vr is applied to the series circuit of the resistor R11 and the bare chip BC, and a connection midpoint between the resistor R11 and the bare chip BC is connected to the junction type J-FET element S11 via the capacitor C11. Connected to the gate terminal. The drain terminal of the J-FET element S11 is connected to the operating power supply + V, and the source terminal is connected to the negative side of the power supply voltage via the resistor R12. Here, the J-FET element S11 is for electrical impedance conversion, and the voltage at the source terminal of the J-FET element S11 is output as an audio signal. Note that the ICKa impedance conversion circuit is not limited to the above-described configuration, and may be, for example, a circuit having a function of a source follower circuit using an operational amplifier, or an audio signal amplification circuit in the ICKa if necessary. May be provided.
そして、マイクロホン基板MB1は、上記のようにモジュール基板2上の配線パターンを介して信号伝達、給電を行うことで、信号線、給電線を効率よく構成できるとともに、ハウジングA1の外面に取付可能となる。本実施形態では、モジュール基板2の一面2aをハウジングA1の前面外側に沿って配置し、マイクロホンM1はハウジングA1前面の開口13を挿通して集音面を前気室Bfに向けており、シールドケースSC1の底面に穿設したマイクロホンM1の音孔F1はスピーカSPの振動板23に対向し、音孔F1を介してスピーカSPが発する音声を確実に集音することができる。また、マイクロホンM2は、ハウジングA1の前面に設けた凹部14に嵌合し、モジュール基板2に穿設したマイクロホンM2の音孔F2はスピーカSPの出力方向に向かってハウジングA1の外部(前方)に面しているので、音孔F2を介して伝達される、通話装置Aの前方に位置する話者からの音声を確実に集音することができる。なお、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。
The microphone board MB1 can efficiently configure the signal lines and the power supply lines by performing signal transmission and power supply via the wiring pattern on the
また、スピーカSPの裏面が面する後気室Brは、ハウジングA1内で密閉されるので、スピーカSPの裏面から放射される音声は後気室Brから漏れ難くなり、スピーカSPとマイクロホンM2との音響結合を低減させている。さらにスピーカSPの裏面(振動板23の裏面)から放射される音は、スピーカSPの表面(振動板23の表面)から放射される音と位相が反転しており、このスピーカSPの裏面から放射される音が前方に回り込むと、スピーカSPの表面から放射される音と互いに打ち消しあって、スピーカSPの放射音圧が低下し、前方にいる話者にはスピーカSPが発する音声が聞こえ難いものとなるが、上記のようにスピーカSPの裏面から放射される音はハウジングA1の外部に漏れ難いので、上記回り込みによるスピーカSPの放射音圧の低下を防いでいる。 Further, the rear air chamber Br facing the back surface of the speaker SP is sealed in the housing A1, so that sound radiated from the back surface of the speaker SP is difficult to leak from the rear air chamber Br, and the speaker SP and the microphone M2 are not connected. Acoustic coupling is reduced. Furthermore, the sound radiated from the back surface of the speaker SP (the back surface of the diaphragm 23) has a phase reversed from that of the sound radiated from the surface of the speaker SP (the surface of the diaphragm 23). When the generated sound circulates forward, the sound radiated from the surface of the speaker SP cancels each other, the radiated sound pressure of the speaker SP decreases, and the speaker in front cannot hear the sound emitted by the speaker SP. However, since the sound radiated from the back surface of the speaker SP is difficult to leak to the outside of the housing A1 as described above, a decrease in the radiated sound pressure of the speaker SP due to the wraparound is prevented.
また、マイクロホンM2を収納した凹部14は後気室Brと連通していない分離された空間であるので、マイクロホンM2はスピーカSPの発する音声をさらに集音し難くなり、スピーカSPとマイクロホンM2との音響結合をさらに低減させている。すなわち、上記構成によって、スピーカSPが発する音声と話者の発する音声とをマイクロホンM1,M2で分離して集音しているのである。
Further, since the
また、マイクロホン基板MB1をハウジングA1内に配置すると前気室Bfと後気室Brとの間の空間的な絶縁を維持することが困難であるが、本実施形態のようにマイクロホン基板MB1をハウジングA1の外面に取り付けることで、前気室Bfと後気室Brとの間の空間的な絶縁を維持することができる。 Further, when the microphone substrate MB1 is disposed in the housing A1, it is difficult to maintain the spatial insulation between the front air chamber Bf and the rear air chamber Br, but the microphone substrate MB1 is disposed in the housing as in the present embodiment. By attaching to the outer surface of A1, the spatial insulation between the front air chamber Bf and the rear air chamber Br can be maintained.
そして、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。 And in this embodiment, in order to prevent the howling which generate | occur | produces when the microphones M1 and M2 pick up the audio | voice output of the speaker SP, it has the following structures.
まず、音声処理部10に収納されている信号処理部10eは、図1に示すように、A/D変換回路30,31と、推測回路322〜32nと、バンドパスフィルタ331〜33nと、バンドパスフィルタ341〜34nと、減衰回路351〜35nと、演算回路36aと、タイミング制御部37とで構成される。A/D変換回路30,31の各動作は、タイミング制御部37によって制御されており、以下、各回路の動作について図9〜図14を用いて説明する。
First, as shown in FIG. 1, the
まず、マイクロホンM1は、集音面がスピーカSPに向かって実装されており、通話装置Aの前方に位置する話者H(図1参照)が発する音声(送話音声)よりも、スピーカSPが発する音声を感度よく集音する。一方、マイクロホンM2は、集音面が前方に向かって配置されており、スピーカSPが発する音声よりも、通話装置Aの前方に位置する話者Hが発する音声を感度よく集音する。 First, the microphone M1 has a sound collection surface mounted toward the speaker SP, and the speaker SP is more effective than the sound (transmitted sound) emitted by the speaker H (see FIG. 1) located in front of the call device A. The sound that is emitted is collected with high sensitivity. On the other hand, the microphone M2 has a sound collection surface arranged forward, and collects sound emitted by the speaker H located in front of the communication device A with higher sensitivity than the sound emitted by the speaker SP.
すなわち、マイクロホンM1が出力する音声信号Y11は、スピーカSPが発する音声に対しては感度が高く振幅が大きくなるが、話者Hが発する音声に対しては感度が低く振幅が小さくなる。また、マイクロホンM2が出力する音声信号Y21は、話者Hが発する音声に対しては感度が高く振幅が大きくなるが、スピーカSPが発する音声に対しては感度が低く振幅が小さくなる。 That is, the sound signal Y11 output from the microphone M1 has high sensitivity and large amplitude with respect to the sound emitted from the speaker SP, but has low sensitivity and small amplitude with respect to the sound emitted from the speaker H. The sound signal Y21 output from the microphone M2 has high sensitivity and large amplitude for the sound emitted by the speaker H, but has low sensitivity and small amplitude for the sound emitted from the speaker SP.
さらに、送話時には、話者Hが発する音声とスピーカSPが発する音声との両方がマイクロホンM1,M2にて集音されるが、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離X1,X2はX1<X2であるので、スピーカSPからの音声に対しては、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に位相差が生じ、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Vs](Vsは音速)だけ、マイクロホンM1の音声信号Y11に比べてマイクロホンM2の音声信号Y21の位相が遅れる(図9(a)(b)参照)。この遅延時間Tdは、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。 Furthermore, at the time of transmission, both the sound emitted by the speaker H and the sound emitted by the speaker SP are collected by the microphones M1 and M2, but the distance X1 from the center of the speaker SP to the center of each of the microphones M1 and M2 , X2 satisfy X1 <X2, so that a phase difference occurs between the sound signal Y11 of the microphone M1 and the sound signal Y21 of the microphone M2 with respect to the sound from the speaker SP, and both the microphones M1, M2 and the speaker SP. The sound signal Y21 of the microphone M2 is compared with the sound signal Y11 of the microphone M1 by the sound wave delay time [Td = (X2-X1) / Vs] (Vs is the speed of sound) corresponding to the difference (X2-X1) in distance from the sound wave. Is delayed (see FIGS. 9A and 9B). The delay time Td is constant with respect to the frequency without depending on the frequency of the sound emitted from the speaker SP under ideal conditions (for example, a point sound source, a sealed housing structure, and no variation in CR of the circuit configuration). Although there is actually no ideal condition, it depends on the frequency of the sound emitted by the speaker SP.
また、スピーカSPからの音声に対する音声信号Y11,Y12の振幅も上記同様に、理想的な条件下では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。 Similarly, the amplitudes of the audio signals Y11 and Y12 with respect to the sound from the speaker SP are also constant with respect to the frequency under the ideal conditions without depending on the frequency of the sound emitted from the speaker SP. Since it is not an ideal condition, it depends on the frequency of the sound emitted by the speaker SP.
一方、マイクロホンM1,M2と話者Hとの各距離は等しいとみなせるので、話者Hが発する音声に対しては、両マイクロホンM1,M2の各音声信号Y11,Y21は、略同一位相となる。 On the other hand, since the distances between the microphones M1 and M2 and the speaker H can be considered to be equal, the voice signals Y11 and Y21 of the microphones M1 and M2 have substantially the same phase with respect to the voice emitted by the speaker H. .
そして、A/D変換回路30は、マイクロホンM1のアナログの音声信号Y11をデジタル信号に変換し、A/D変換回路31は、マイクロホンM2のアナログの音声信号Y21をデジタル信号に変換する。A/D変換回路30のA/D変換動作は、タイミング制御部37が出力する制御信号Si1の立ち上がりに同期して行われ、A/D変換回路31のA/D変換動作は、タイミング制御部37が出力する制御信号Si2の立ち上がりに同期して行われており、本実施形態の制御信号Si1、Si2の周波数は8〜16KHzに設定されて、各A/D変換回路における変換周期T1=62.5〜125μsecとしている。さらに、スピーカSPが発する周波数f1(第1の周波数)の音声に対して、マイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td1だけ遅れていることから、クロック信号Si2をクロック信号Si1に対して遅延時間Td1遅れて発生させるようにタイミング制御部37の動作を予め設定しておくことで、マイクロホンM1,M2が出力する各音声信号Y11,Y21が周波数f1で同一位相となる箇所をA/D変換している(図9(c)(d))。
The A /
また、A/D変換回路30、31は、ΣΔ方式でA/D変換を行っており、ΣΔ方式の特徴であるノイズのみの周波数伝達特性を変化させてノイズ成分を信号成分より高い周波数領域に分布させるノイズシェーピングによって高いS/N比でのA/D変換が可能となり、さらには殆どの処理がデジタルで行われることによってIC化が容易となる。なお、A/D変換の分解能は、16bit,14bit,12bitのいずれかを用いる。
Further, the A /
そして、A/D変換回路30からは、マイクロホンM1が出力する音声信号をA/D変換したデジタル値a1,b1,c1,d1,e1,………で構成される音声信号Y12が出力され(図9(e)参照)、A/D変換回路31からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a2,b2,c2,d2,e2,………で構成される音声信号Y221が出力されており(図9(f)参照)、マイクロホンM1のデジタル値a1とマイクロホンM2のデジタル値a2、マイクロホンM1のデジタル値b1とマイクロホンM2のデジタル値b2、マイクロホンM1のデジタル値c1とマイクロホンM2のデジタル値c2、………を各々対応させることで、マイクロホンM1,M2の各音声信号が周波数f1で同一位相となっている。しかし、前述のように、遅延時間TdはスピーカSPが発する音声の周波数に依存しており、本実施形態の構成ではマイクロホンM1,M2の各音声信号が周波数f1で同一位相となるが、周波数f1以外の周波数では同一位相となっていない。
The A /
そこで、マイクロホンM2で集音した音声信号の周波数f1の成分に対する、互いに異なる周波数f2〜fn(第2の周波数)の成分の各位相差をずれ時間Th2〜Thnとして、以下の処理を行う。なお、以降の処理は、マイクロホンM1,M2の各音声信号のデジタル値をメモリに格納してデジタル処理されるのであるが、説明のため図12〜図14の各波形はアナログ波形で示している。 Therefore, the following processing is performed with the phase differences of the components of the frequencies f2 to fn (second frequency) different from the component of the frequency f1 of the sound signal collected by the microphone M2 as the shift times Th2 to Thn. In the following processing, the digital values of the audio signals of the microphones M1 and M2 are stored in the memory and digitally processed. For the sake of explanation, the waveforms in FIGS. 12 to 14 are shown as analog waveforms. .
まず、A/D変換回路30から出力される音声信号Y12,A/D変換回路31から出力されるY221はn系統に各々分岐し、各系統において以下の処理が施される。A/D変換回路30から出力される音声信号Y12は、バンドパスフィルタ331によって周波数f1を含む周波数帯域G1の成分が分離され、バンドパスフィルタ332によって周波数f2を含む周波数帯域G2の成分が分離され、………、バンドパスフィルタ33nによって周波数fnを含む周波数帯域Gnの成分が分離されて、n系統に振り分けられる。
First, the audio signal Y12 output from the A /
また、A/D変換回路31から出力される音声信号Y221は、1系統を除くn−1系統において、推測回路322〜32nに入力される。推測回路322〜32nは、A/D変換回路31のデジタル値a2,b2,c2,d2,e2,………(音声信号Y221)を直線補間し、デジタル値a2,b2,c2,d2,e2,………間は曲線ではなく、直線で推移していると近似する。そして、この直線近似に基づいて、各デジタル値a2,b2,c2,d2,e2,………を取得したタイミングから、ずれ時間Th2〜Thnずれたタイミングで、マイクロホンM2から出力されていたと考えられる各音声信号を推測する。上記ずれ時間Th2〜Thnは、スピーカSPが発する音声をマイクロホンM2が集音したときに、スピーカSPが発する音声に含まれる周波数f2〜fnの各成分が、上記周波数f1の成分に比べてずれる時間であり、音声信号Y221に含まれる周波数f1の成分と同一位相となる周波数f2〜fnの成分を、推測回路322〜32nによって得るのである。すなわち、推測回路322〜32nは、周波数f2〜fnにおいて、マイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号を出力する。なお、推測する音声信号が、デジタル値a2,b2,c2,d2,e2,………に対して早いタイミングとなる方向へずれるか、遅いタイミングとなる方向へずれるかは、周波数f1に対する周波数f2〜fnの高低によって決まる。
Also, the audio signal Y221 output from the A /
例えば、図10に示すように、マイクロホンM2の音声信号Y21の実際の波形Y21a上にあるデジタル値a2,b2の間が直線Y21bで近似される場合、A/D変換回路31がデジタル値b2を取得するタイミングtbから周波数fmの音波に対するずれ時間Thm前のタイミングでのマイクロホンM2からの実際の音声信号は波形Y21a上のasであるが、直線補間によって直線Y21b上の音声信号ahと推測するのである。ここで、スピーカSPからの音声信号がexp(jωt)で表されるとすると、a2=exp(jωta)となり、b2=exp(jω(ta+T1))となるので、推測した音声信号ahは、[数1]のようになる。
For example, as shown in FIG. 10, when the digital value a2 and b2 on the actual waveform Y21a of the audio signal Y21 of the microphone M2 is approximated by a straight line Y21b, the A /
なお、ずれ時間Thm(Th2〜Thn)は、予め周波数f2〜fn毎に実測して設定されている。 Note that the shift time Thm (Th2 to Thn) is set in advance by actual measurement for each frequency f2 to fn.
[数1]をまとめると[数2]のようになる。 [Equation 1] is summarized as [Equation 2].
したがって直線補間によって推測された音声信号ahは、{(1+(exp(−jωt)−1)・Thm/T1)}の項によって、振幅、位相が変化し、振幅特性Ah(ω)は[数3]のようになり、位相特性θh(ω)は[数4]のようになる。 Therefore, the audio signal ah estimated by linear interpolation changes in amplitude and phase according to the term {(1+ (exp (−jωt) −1) · Thm / T1)}, and the amplitude characteristic Ah (ω) is expressed as 3], and the phase characteristic θh (ω) becomes [Formula 4].
また、フェーザベクトルで図10中のah、as、b2を表すと図11(a)(b)のようになる。図11(a)は、Thm<(T1/2)の場合を示す。なお、Thm<(T1/2)であっても同様に直線補間することができ、図11(b)は、Thm>(T1/2)の場合のフェーザベクトルを示す。 Further, ah, as, and b2 in FIG. 10 are represented by phasor vectors as shown in FIGS. 11 (a) and 11 (b). FIG. 11A shows a case where Thm <(T1 / 2). Note that linear interpolation can be performed in the same manner even if Thm <(T1 / 2), and FIG. 11B shows a phasor vector in the case of Thm> (T1 / 2).
推測回路322〜32nは、上記のように直線補間を用いて、マイクロホンM2の音声信号の推測処理を行っており、推測回路322は、周波数f2においてマイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号Y222を出力し、………、推測回路32nは、周波数fnにおいてマイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号Y22nを出力する。このように直線補間を行うことで音声信号の推測を容易に行うことができ、さらには周波数f2〜fnに対応するマイクロホンM2の音声信号をA/D変換する必要がないので回路規模の縮小、コスト低減、小型化を図ることができる。
The
次に、A/D変換回路31から出力される音声信号Y221は、バンドパスフィルタ341によって周波数f1を含む周波数帯域G1の成分が通過し、推測回路322から出力される音声信号Y222は、バンドパスフィルタ342によって周波数f2を含む周波数帯域G2の成分が通過し、………、推測回路32nから出力される音声信号Y22nは、バンドパスフィルタ34nによって周波数fnを含む周波数帯域Gnの成分が通過する。
Next, the audio signal Y221 output from the A /
そして、上記バンドパスフィルタ331,341が出力する周波数帯域G1の音声信号Y131,Y231は、A/D変換回路30とA/D変換回路31とを互いに上記遅延時間Td1ずらして動作させることで周波数f1において同一位相となっている。さらに、バンドパスフィルタ332,342が出力する周波数帯域G2の音声信号Y132,Y232、………、バンドパスフィルタ33n,34nが出力する周波数帯域Gnの音声信号Y13n,Y23nは、推測回路322、………、32nによって周波数f2〜fnにおいて各々同一位相(図12(a)(b)参照)となっている。
The audio signals Y131 and Y231 in the frequency band G1 output from the
減衰回路351は、バンドパスフィルタ331を通過したマイクロホンM1の音声信号Y131を減衰させて音声信号Y141を生成し、減衰回路352は、バンドパスフィルタ332を通過したマイクロホンM1の音声信号Y132を減衰させて音声信号Y142を生成し、………、減衰回路35nは、バンドパスフィルタ33nを通過したマイクロホンM1の音声信号Y13nを減衰させて音声信号Y14nを生成し、各周波数帯域G1〜Gn毎に、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)や、マイクロホンM1,M2の感度差に相当するレベル調整を行ない、スピーカSPが発する音声の各周波数帯域G1〜Gn(周波数f2〜fn)における両マイクロホンM1,M2の出力レベルを一致させる(図13(a)(b)参照)。
The
次に、演算回路36aは、マイクロホンM2の音声信号Y231からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1においてスピーカSPからの音声成分が打ち消された音声信号を生成し、マイクロホンM2の音声信号Y232からマイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y23nからマイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し(図14(a)参照)、さらに各周波数帯域G1〜Gnでの前記減算結果を全て加算しており、スピーカSPからの音声成分が各周波数帯域G1〜Gn毎に打ち消された音声信号Yaが生成される(図14(b)参照)。なお、図14(a)では、音声信号Y14nを反転させた音声信号Y14n’を音声信号Y23nに加算することで、音声信号Y23nからマイクロホンM1の音声信号Y14nを減算している。
Next, the
一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、集音面を話者Hに向かって配置したマイクロホンM2の音声信号Y21の振幅が、集音面をスピーカSPに向かって配置したマイクロホンM1の音声信号Y11の振幅よりも大きくなる。さらに、マイクロホンM1からの信号は減衰回路351〜35nで減衰するので、音声信号Y231〜23nに含まれる話者Hからの音声成分は、音声信号Y141〜14nに含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、音声信号Y141〜Y14nに含まれる話者Hからの音声成分と、音声信号Y231〜Y23nに含まれる話者Hからの音声成分との振幅差は大きくなり、演算回路36aで上記減算処理を施しても、音声信号Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。
On the other hand, for the sound uttered by the speaker H in front of the microphones M1 and M2, the amplitude of the sound signal Y21 of the microphone M2 having the sound collection surface arranged toward the speaker H is such that the sound collection surface faces the speaker SP. It becomes larger than the amplitude of the audio signal Y11 of the arranged microphone M1. Further, since the signal from the microphone M1 is attenuated by the
以上のようにして信号処理部10eが出力する音声信号YaではスピーカSPからの音声成分が周波数帯域G1〜Gn毎に低減され、一方、通話装置A前方の話者HからマイクロホンM1,M2に向って発した音声成分は残っており、音声信号Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が広い周波数帯域に亘って大きくなり、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングの発生を防止する効果が向上している。
In the audio signal Ya output from the
本実施形態の信号処理部10eを用いて、スピーカ音のキャンセル量を周波数f1=1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数f2=3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割した場合のスピーカ音のキャンセル量は図15のデータY1で示され、このデータY1を近似すると曲線Y2で表され、周波数1KHz近傍と3KHz近傍の両方でキャンセル量がピークとなる特性を有しており、広い周波数帯域に亘ってスピーカ音のキャンセル効果があることが分かる。
Using the
次に、本実施形態の信号処理部10eによるスピーカ音のキャンセル効果について、数式を用いて説明する。スピーカSPからの音声信号がexp(jωt)で表されるとすると、マイクロホンM1,M2の各音声信号の位相を一致させないで、両音声信号の差をとった場合、信号処理部10eの出力Yaに残っているスピーカ音は、[数5]で表され、その振幅特性U1は[数6]のようになる。
Next, the effect of canceling speaker sound by the
次に、本実施形態の上記直線補間を用いた推測処理を行い、さらにマイクロホンM1,M2の各音声信号の位相、振幅を一致させた状態で、両音声信号の差をとった場合、信号処理部10eの出力Yaに残っているスピーカ音は、[数7]で表され、その振幅特性U2は[数8]のようになる。
Next, when the estimation process using the linear interpolation of the present embodiment is performed, and the phase and amplitude of the audio signals of the microphones M1 and M2 are matched, the signal processing is performed when the difference between the two audio signals is taken. The speaker sound remaining in the output Ya of the
なお、ずれ時間Thm、A/D変換周期T1は、上記[数1]〜[数4]におけるものと同様であり説明は省略する。 Note that the deviation time Thm and the A / D conversion cycle T1 are the same as those in the above [Equation 1] to [Equation 4], and the description thereof will be omitted.
そして、[振幅特性|U1|2−振幅特性|U2|2]は、[数9]のようになる。但し、D=Thm/T1とする。 [Amplitude characteristic | U1 | 2 −amplitude characteristic | U2 | 2 ] is expressed by [Equation 9]. However, D = Thm / T1.
[数9]の右辺の第1項[2D(1−D)(1+cos(ωT1))]は、0<ωT1<πより、正となる。また、右辺の第2項[2D{cos(ωT1/2)cos{ω((T1/2)−Thm)}}]は、0<ωT1<πであり、さらにThm<(T1/2)であれば、正となる。したがって、[|U1|2−|U2|2]は正であり、位相調整を行わないよりも、本実施形態の上記直線補間を用いた推測処理を行った上で位相調整を行うほうが、出力Yaに残っているスピーカ音は減少しており、キャンセル効果があるといえる。なお、上記ではThm<(T1/2)の場合について説明したが、Thm>(T1/2)であっても同様の効果を奏し得る。 The first term [2D (1-D) (1 + cos (ωT1))] on the right side of [Equation 9] is positive because 0 <ωT1 <π. The second term [2D {cos (ωT1 / 2) cos {ω ((T1 / 2) −Thm)}}] on the right side is 0 <ωT1 <π, and Thm <(T1 / 2). If there is, it becomes positive. Therefore, [| U1 | 2 − | U2 | 2 ] is positive, and it is more output when the phase adjustment is performed after the estimation process using the linear interpolation of the present embodiment is performed than when the phase adjustment is not performed. The speaker sound remaining in Ya has decreased and it can be said that there is a canceling effect. Although the case of Thm <(T1 / 2) has been described above, the same effect can be obtained even when Thm> (T1 / 2).
次に、信号処理部10eが出力する音声信号はエコーキャンセル部10cに出力され、エコーキャンセル部10b,10c(図4参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。
Next, the audio signal output from the
まず、エコーキャンセル部10cは、エコーキャンセル部10bの出力を参照信号として取り込み、信号処理部10eの出力に対して演算を施すことにより、スピーカSPからマイクロホンM1,M2に回り込んだ音声信号をさらにキャンセリングする。一方、エコーキャンセル部10bも、エコーキャンセル部10cの出力を参照信号として取り込み、通信部10aの出力に対して演算を施すことにより、通話先の相手側でのスピーカからマイクロホンへの音声信号の回り込みをキャンセリングする。
First, the
具体的には、エコーキャンセル部10b,10cは、スピーカSP−マイクロホンM1,M2−信号処理部10e−エコーキャンセル部10c−通信部10a−エコーキャンセル部10b−増幅部10d−スピーカSPで構成されるループ回路内に設けた可変損失手段(図示無し)での損失量を調節することにより、ループゲインが1以下となるようにしてハウリングを防止するのである。ここで、送話信号と受話信号とのうち信号レベルが小さいほうは重要ではないとみなし、信号レベルが小さいほうの伝送路に挿入された可変損失回路の伝送損失を大きくするようにしている。
Specifically, the
なお、マイクロホンM1,M2の数は各々1つに限定されるものではなく、マイクロホンM1,M2として複数のマイクロホンを各々備えてもよい。 Note that the number of microphones M1 and M2 is not limited to one each, and a plurality of microphones may be provided as the microphones M1 and M2.
(実施形態2)
実施形態1の信号処理部10eにおいては、演算回路36aの前段にバンドパスフィルタ331〜33n、341〜34nを設けて周波数分割を行っているが、本実施形態ではフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができる信号処理部10eについて説明する。なお、実施形態1と同様の構成には同一の符号を付して説明は省略する。
(Embodiment 2)
In the
まず、本実施形態の信号処理部10eは図16に示すように演算回路36bを備え、演算回路36bは、マイクロホンM1の音声信号として、A/D変換回路30の出力を直接入力された減衰回路351〜35nが出力する音声信号Y141〜Y14nが入力されるとともに、マイクロホンM2の音声信号として、A/D変換回路31が出力する音声信号Y221、推測回路322〜32nが出力する音声信号Y222〜Y22nが直接入力される。すなわち、実施形態1と同様にスピーカSPが発する音声に対するマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一位相とし、さらに減衰回路351〜35nによってマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一振幅とした各信号が、バンドパスフィルタ331〜33n、341〜34n(図1参照)を介さずに、演算回路36bに入力されている。
First, the
演算回路36bは、マイクロホンM2の音声信号Y221からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1〜Gnに亘ってスピーカSPからの音声成分が低減された音声信号を生成するが、スピーカSPが発する音声に対する音声信号Y141,Y221は周波数f1において位相、振幅が一致しており、特に周波数帯域G1のスピーカSPからの音声成分が打ち消された音声信号が生成される。同様に、マイクロホンM2の音声信号Y222から、マイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y22nから、マイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し、各周波数帯域G1〜Gnでの減算結果を全て加算する。さらに当該加算結果を周波数帯域の分割数nで割って平均化することで、スピーカSPからの音声成分が各周波数帯域毎G1〜Gn毎に打ち消された音声信号Yaが生成される。
The
上記平均化処理によって、バンドパスフィルタ331〜33n、341〜34nのフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができるのであるが、この平均化処理について、以下詳述する。
The averaging process can obtain substantially the same effect as the frequency division of the first embodiment without providing the
平均化処理とは、スピーカSPが発する音声に対して、周波数帯域G1〜Gn毎に位相、振幅を一致させたマイクロホンM1,M2の各音声信号の差分を、各周波数帯域G1〜Gnに分離するフィルタ手段を通さずに単純に加算し、周波数帯域の分割数nで割って平均化する処理であり、フィルタ手段が不要となって、回路規模の縮小、コスト低減、小型化を図ることができる。下記[数5]は、上記平均化処理によるスピーカ音のキャンセル量Zmaveを導出する数式であり、 In the averaging process, the difference between the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched for the frequency bands G1 to Gn with respect to the sound emitted from the speaker SP is separated into the frequency bands G1 to Gn. This is a process of simply adding without passing through the filter means, and dividing and averaging by dividing the frequency band by the division number n. The filter means is not required, and the circuit scale, cost and size can be reduced. . The following [Equation 5] is a mathematical expression for deriving the speaker sound cancellation amount Zmave by the averaging process.
ここで、Zmkは、周波数帯域Gkで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、具体的には、Zm1は、周波数帯域G1で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、Zm2は、周波数帯域G2で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、………、Zmnは、周波数帯域Gnで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量である。 Here, Zmk is the amount of cancellation of speaker sound by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gk. Specifically, Zm1 is the phase in the frequency band G1. , The amount of speaker sound cancellation by the subtraction processing of the audio signals of the microphones M1 and M2 having the same amplitude, and Zm2 is the subtraction of the audio signals of the microphones M1 and M2 having the same phase and amplitude in the frequency band G2. Zmn is the amount of speaker sound canceled by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gn.
例えば、図17に示すように、スピーカ音のキャンセル量が周波数1KHz、3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys1,Ys2を加算し、当該加算結果を周波数帯域の分割数n=2で割ることで、本実施形態の平均化処理によるキャンセル量の理論値Yt21が求められる。 For example, as shown in FIG. 17, measured values Ys1 and Ys2 of the amount of cancellation of speaker sound when the amount of cancellation of speaker sound is adjusted to be optimal at frequencies of 1 KHz and 3 KHz, respectively, are added, and the addition result is expressed as a frequency. The theoretical value Yt21 of the cancellation amount by the averaging process of this embodiment is obtained by dividing by the number of divided bands n = 2.
また、図18は、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割して、上記平均化処理を行った場合のスピーカ音のキャンセル量の実測値Ys21、および実測値Ys21の近似曲線Ys22を示しており、極端にキャンセル量の高い周波数帯域はないが、広い周波数帯域でキャンセル量が平均化されており、十分なスピーカ音のキャンセル効果があることが分かる
なお、上記実施形態1,2では、推測回路322〜32nによって、マイクロホンM2の音声信号を周波数f2〜fn毎に推測して取得しているが、マイクロホンM1の音声信号を周波数f2〜fn毎に推測して、当該推測結果とマイクロホンM2の音声信号のデジタル値との間で上記同様の演算処理を行ってもよい(例えば、マイクロホンM1の音声信号Y12の分岐経路に推測回路322〜32nを設ける)。
Further, FIG. 18 is divided into a frequency band G1 of 2 KHz or less in which the amount of cancellation of the speaker sound is optimized at a frequency of 1 KHz and a frequency band G2 of 2 KHz or more in which the amount of cancellation of the speaker sound is optimized at a frequency of 3 KHz. The measured value Ys21 of the speaker sound cancellation amount when the averaging process is performed, and the approximate curve Ys22 of the actual measurement value Ys21 are shown, and there is no frequency band with an extremely high cancellation amount, but the cancellation is performed in a wide frequency band. In the first and second embodiments, the
A 通話装置
SP スピーカ
M1,M2 マイクロホン
10e 信号処理部
30,31 A/D変換回路
322〜32n 推測回路
331〜33n バンドパスフィルタ
341〜34n バンドパスフィルタ
351〜35n 減衰回路
36a 演算回路
37 タイミング制御部
A Caller SP Speaker M1,
Claims (5)
前記信号処理部は、
第1のマイクロホンが出力する音声信号をA/D変換する第1のA/D変換手段と、
第1,第2のマイクロホンとスピーカとの各距離の差に相当する第1の周波数の音波の伝達時間を遅延時間として、第1のA/D変換手段が第1のマイクロホンからの音声信号をA/D変換したタイミングから前記遅延時間経過したときに第2のマイクロホンからの音声信号をA/D変換する第2のA/D変換手段と、
第1,第2のマイクロホンのいずれか一方で集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、一方のマイクロホンが出力する音声信号をデジタル信号に変換するA/D変換手段の出力に基づいて、当該A/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで一方のマイクロホンから出力される音声信号を推測する推測手段と、
スピーカからの音声に対する前記第1,第2のマイクロホンの各出力レベルを第1,第2の周波数を各々含む周波数帯域毎に一致させる処理を、前記一方のA/D変換手段および推測手段の各出力と前記他方のA/D変換手段の出力との少なくとも一方に施すレベル調整手段と、
レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを具備する
ことを特徴とする通話装置。 A speaker that outputs the transmitted audio information, a first microphone that collects audio and outputs an audio signal, and a distance from the speaker that is farther than the first microphone, collects audio A second microphone that outputs an audio signal; and a signal processing unit that processes and transmits each audio signal output by the first and second microphones;
The signal processing unit
First A / D conversion means for A / D converting an audio signal output from the first microphone;
The first A / D conversion means converts the sound signal from the first microphone using the transmission time of the sound wave of the first frequency corresponding to the difference in distance between the first and second microphones and the speaker as a delay time. Second A / D conversion means for A / D converting an audio signal from the second microphone when the delay time has elapsed from the timing of A / D conversion;
The phase difference of the second frequency component with respect to the first frequency component of the audio signal collected by one of the first and second microphones is used as a shift time, and the audio signal output from one microphone is a digital signal. An estimation means for estimating an audio signal output from one microphone at a timing shifted from the timing at which the A / D conversion means performs A / D conversion based on the output of the A / D conversion means for converting to ,
A process of matching the output levels of the first and second microphones with respect to the sound from the speaker for each frequency band including the first and second frequencies, respectively, in each of the one A / D conversion means and the estimation means Level adjusting means applied to at least one of the output and the output of the other A / D converting means;
And a computing unit that outputs a difference between the audio signals of the first and second microphones that have passed through the level adjusting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006326212A JP3976078B1 (en) | 2006-12-01 | 2006-12-01 | Telephone device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006326212A JP3976078B1 (en) | 2006-12-01 | 2006-12-01 | Telephone device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006316223A Division JP4432959B2 (en) | 2006-11-22 | 2006-11-22 | Telephone device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP3976078B1 true JP3976078B1 (en) | 2007-09-12 |
JP2008131625A JP2008131625A (en) | 2008-06-05 |
Family
ID=38556273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006326212A Expired - Fee Related JP3976078B1 (en) | 2006-12-01 | 2006-12-01 | Telephone device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3976078B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5141722B2 (en) * | 2010-06-18 | 2013-02-13 | 株式会社デンソー | Fuel pressure waveform acquisition device |
-
2006
- 2006-12-01 JP JP2006326212A patent/JP3976078B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008131625A (en) | 2008-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102934464B (en) | Microphone unit and be provided with the acoustic input dephonoprojectoscope of this microphone unit | |
US20140226836A1 (en) | Voice input device and noise suppression method | |
KR20080059662A (en) | Voice information processing device, and wiring system using same | |
JP2008135864A (en) | Speech communication device | |
JP4793207B2 (en) | Microphone device and acoustic device | |
JP4893230B2 (en) | Telephone device | |
JP3976078B1 (en) | Telephone device | |
JP4432959B2 (en) | Telephone device | |
JP2008301129A (en) | Intercommunication device | |
JP3976077B1 (en) | Telephone device | |
JP2008022515A (en) | Speech apparatus | |
JP3976079B1 (en) | Telephone device | |
JP4853382B2 (en) | Telephone device | |
JP3976075B2 (en) | Intercom device | |
JP4966098B2 (en) | Telephone device | |
JP4862611B2 (en) | Telephone device | |
JP4976921B2 (en) | Telephone device | |
JP2008131508A (en) | Speech communication device | |
JP4989372B2 (en) | Telephone device | |
JP3976076B1 (en) | Telephone device | |
JP2009177747A (en) | Speech communication device | |
JP2009055483A (en) | Intercom device | |
JP2008301133A (en) | Intercommunication device | |
JP2008135860A (en) | Speech communication device | |
JP2008301131A (en) | Intercommunication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070611 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100629 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100629 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100629 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100629 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110629 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120629 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120629 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130629 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |